آیا فکر کردن طولانی‌مدت، مدل‌های هوش مصنوعی را ناتوان‌تر می‌کند؟

در تضاد با آنچه تاکنون تصور می‌شد، تحقیق تازه‌ای از شرکت آنتروپیک نشان می‌دهد که طولانی‌تر فکر کردن همیشه به معنای بهتر فکر کردن نیست—حداقل نه برای مدل‌های هوش مصنوعی. طبق یافته‌های این پژوهش، مدل‌های زبانی بزرگ هر چه زمان بیشتری را صرف استدلال و پردازش کنند، در برخی موارد دچار افت عملکرد قابل توجهی می‌شوند.

این نتایج می‌تواند یکی از فرضیات کلیدی درباره مقیاس‌پذیری عملکرد مدل‌های هوش مصنوعی را زیر سؤال ببرد و پیامدهایی جدی برای آینده طراحی این سیستم‌ها داشته باشد.

معکوس شدن مقیاس‌پذیری در تفکر مدل‌های زبانی

این مطالعه که به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی در آنتروپیک انجام شده، پدیده‌ای به نام “مقیاس‌پذیری معکوس در محاسبات زمان آزمون” را توصیف می‌کند. به بیان ساده‌تر، در شرایط خاصی هر چه مدل بیشتر فکر کند، پاسخ‌هایش بدتر می‌شود.

آنتروپیک با آزمایش مدل‌های خود روی چهار دسته وظیفه، این پدیده را بررسی کرده است:

  1. مسائل شمارشی ساده با عوامل حواس‌پرتی
  2. وظایف رگرسیونی با ویژگی‌های گمراه‌کننده
  3. معماهای استنتاج پیچیده
  4. سناریوهایی مربوط به ایمنی هوش مصنوعی

نتایج به‌دست‌آمده در هر کدام از این حوزه‌ها، ضعف‌هایی متفاوت اما مرتبط را در مدل‌های مختلف نشان می‌دهد.

چگونه مدل‌ها در دام “تفکر بیش‌ازحد” می‌افتند؟

برای مثال، مدل‌های سری Claude هرچه مدت زمان استدلال بیشتری داشته‌اند، بیشتر از مسیر درست منحرف شده‌اند؛ آن هم به‌دلیل تأثیر گرفتن از اطلاعات نامربوط. این یعنی در موقعیت‌هایی که نیاز به تمرکز بالا وجود دارد، قدرت تمرکز آن‌ها کاهش می‌یابد.

از سوی دیگر، مدل‌های خانواده OpenAI o اگرچه در برابر حواس‌پرتی مقاوم‌تر بودند، اما بیش‌از‌حد به قالب و نحوه ارائه سؤال وابسته شدند. درواقع، آن‌ها انعطاف لازم برای تحلیل مسئله خارج از چارچوب اولیه را نداشتند.

در وظایف رگرسیونی نیز مشاهده شد که وقتی مدل‌ها زمان بیشتری صرف فکر کردن می‌کنند، از مسیر پیش‌فرض‌های منطقی فاصله گرفته و به سمت الگوهای آماری کاذب می‌روند—که می‌تواند خطرناک باشد. البته نکته جالب این بود که ارائه مثال‌های درست توانست تا حد زیادی این خطاها را کاهش دهد.

افت عملکرد نگران‌کننده در وظایف استنتاجی پیچیده

اما شاید مهم‌ترین و نگران‌کننده‌ترین یافته، مربوط به وظایف استنتاجی پیچیده بود. در این بخش، تقریباً تمام مدل‌ها—از جمله Claude و OpenAI—با استدلال طولانی‌تر، دچار افت شدید عملکرد شدند.

این مسئله نشان می‌دهد که مدل‌های هوش مصنوعی در زمان تلاش برای تحلیل چند مرحله‌ای و عمیق، توانایی حفظ تمرکز و انسجام را از دست می‌دهند. موضوعی که می‌تواند استفاده آن‌ها را در حوزه‌های حساس مانند قانون، امنیت یا علوم پزشکی با محدودیت‌هایی جدی مواجه کند.

پیامدها برای آینده توسعه هوش مصنوعی

یافته‌های آنتروپیک نشان می‌دهند که افزایش ظرفیت محاسباتی و استدلالی مدل‌ها لزوماً برابر با بهبود عملکرد نیست. در واقع، گاهی مدل‌هایی با تفکر کمتر، تصمیم‌های دقیق‌تری می‌گیرند.

برای توسعه‌دهندگان هوش مصنوعی، این به معنای ضرورت بازنگری در استراتژی‌های طراحی مدل است. به جای صرفاً افزایش عمق استدلال، باید به دنبال الگوریتم‌هایی بود که قدرت تمرکز، ارزیابی و فیلتر اطلاعات نامرتبط را افزایش دهند.

جمع‌بندی

پژوهش آنتروپیک به ما نشان می‌دهد که هوش مصنوعی نیز ممکن است مانند انسان‌ها، در دام «بیش‌فکری» بیفتد. این یافته نه‌تنها یک هشدار برای توسعه‌دهندگان است، بلکه به‌نوعی نقطه عطفی در درک محدودیت‌های فعلی مدل‌های زبانی بزرگ به‌شمار می‌رود.

در دنیایی که به‌سرعت به سمت اتکای بیشتر به هوش مصنوعی پیش می‌رود، درک این نقاط ضعف می‌تواند ما را در جهت ساخت سیستم‌های دقیق‌تر، متمرکزتر و ایمن‌تر یاری کند.

Telegram

عضو کانال تلگرام ما شوید!

به جدیدترین مقالات، اخبار تکنولوژی و تحلیل‌ها در تلگرام دسترسی داشته باشید.

ورود به کانال