در تضاد با آنچه تاکنون تصور میشد، تحقیق تازهای از شرکت آنتروپیک نشان میدهد که طولانیتر فکر کردن همیشه به معنای بهتر فکر کردن نیست—حداقل نه برای مدلهای هوش مصنوعی. طبق یافتههای این پژوهش، مدلهای زبانی بزرگ هر چه زمان بیشتری را صرف استدلال و پردازش کنند، در برخی موارد دچار افت عملکرد قابل توجهی میشوند.
این نتایج میتواند یکی از فرضیات کلیدی درباره مقیاسپذیری عملکرد مدلهای هوش مصنوعی را زیر سؤال ببرد و پیامدهایی جدی برای آینده طراحی این سیستمها داشته باشد.
معکوس شدن مقیاسپذیری در تفکر مدلهای زبانی
این مطالعه که به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی در آنتروپیک انجام شده، پدیدهای به نام “مقیاسپذیری معکوس در محاسبات زمان آزمون” را توصیف میکند. به بیان سادهتر، در شرایط خاصی هر چه مدل بیشتر فکر کند، پاسخهایش بدتر میشود.
آنتروپیک با آزمایش مدلهای خود روی چهار دسته وظیفه، این پدیده را بررسی کرده است:
- مسائل شمارشی ساده با عوامل حواسپرتی
- وظایف رگرسیونی با ویژگیهای گمراهکننده
- معماهای استنتاج پیچیده
- سناریوهایی مربوط به ایمنی هوش مصنوعی
نتایج بهدستآمده در هر کدام از این حوزهها، ضعفهایی متفاوت اما مرتبط را در مدلهای مختلف نشان میدهد.
چگونه مدلها در دام “تفکر بیشازحد” میافتند؟
برای مثال، مدلهای سری Claude هرچه مدت زمان استدلال بیشتری داشتهاند، بیشتر از مسیر درست منحرف شدهاند؛ آن هم بهدلیل تأثیر گرفتن از اطلاعات نامربوط. این یعنی در موقعیتهایی که نیاز به تمرکز بالا وجود دارد، قدرت تمرکز آنها کاهش مییابد.
از سوی دیگر، مدلهای خانواده OpenAI o اگرچه در برابر حواسپرتی مقاومتر بودند، اما بیشازحد به قالب و نحوه ارائه سؤال وابسته شدند. درواقع، آنها انعطاف لازم برای تحلیل مسئله خارج از چارچوب اولیه را نداشتند.
در وظایف رگرسیونی نیز مشاهده شد که وقتی مدلها زمان بیشتری صرف فکر کردن میکنند، از مسیر پیشفرضهای منطقی فاصله گرفته و به سمت الگوهای آماری کاذب میروند—که میتواند خطرناک باشد. البته نکته جالب این بود که ارائه مثالهای درست توانست تا حد زیادی این خطاها را کاهش دهد.
افت عملکرد نگرانکننده در وظایف استنتاجی پیچیده
اما شاید مهمترین و نگرانکنندهترین یافته، مربوط به وظایف استنتاجی پیچیده بود. در این بخش، تقریباً تمام مدلها—از جمله Claude و OpenAI—با استدلال طولانیتر، دچار افت شدید عملکرد شدند.
این مسئله نشان میدهد که مدلهای هوش مصنوعی در زمان تلاش برای تحلیل چند مرحلهای و عمیق، توانایی حفظ تمرکز و انسجام را از دست میدهند. موضوعی که میتواند استفاده آنها را در حوزههای حساس مانند قانون، امنیت یا علوم پزشکی با محدودیتهایی جدی مواجه کند.
پیامدها برای آینده توسعه هوش مصنوعی
یافتههای آنتروپیک نشان میدهند که افزایش ظرفیت محاسباتی و استدلالی مدلها لزوماً برابر با بهبود عملکرد نیست. در واقع، گاهی مدلهایی با تفکر کمتر، تصمیمهای دقیقتری میگیرند.
برای توسعهدهندگان هوش مصنوعی، این به معنای ضرورت بازنگری در استراتژیهای طراحی مدل است. به جای صرفاً افزایش عمق استدلال، باید به دنبال الگوریتمهایی بود که قدرت تمرکز، ارزیابی و فیلتر اطلاعات نامرتبط را افزایش دهند.
جمعبندی
پژوهش آنتروپیک به ما نشان میدهد که هوش مصنوعی نیز ممکن است مانند انسانها، در دام «بیشفکری» بیفتد. این یافته نهتنها یک هشدار برای توسعهدهندگان است، بلکه بهنوعی نقطه عطفی در درک محدودیتهای فعلی مدلهای زبانی بزرگ بهشمار میرود.
در دنیایی که بهسرعت به سمت اتکای بیشتر به هوش مصنوعی پیش میرود، درک این نقاط ضعف میتواند ما را در جهت ساخت سیستمهای دقیقتر، متمرکزتر و ایمنتر یاری کند.











ارسال پاسخ