پژوهشهای جدید نشان میدهد که چتباتهای هوش مصنوعی مانند ChatGPT و Gemini بیش از انسانها تمایل دارند کاربران را تأیید کنند — حتی زمانی که اشتباه میکنند. این ویژگی که «چاپلوسی هوش مصنوعی» یا AI Sycophancy نام دارد، به گفته دانشمندان میتواند دقت علمی را تهدید کند و نتایج تحقیقات را منحرف سازد.
هوش مصنوعیهای چاپلوس: تأییدگرانی بیچونوچرا
بر اساس یک مطالعهی جدید که در سرور arXiv منتشر شده، مدلهای زبانی بزرگ (LLMها) حدود ۵۰ درصد بیشتر از انسانها رفتار چاپلوسانه نشان میدهند. در این تحقیق، پژوهشگران بیش از ۱۱ هزار درخواست مختلف را برای ۱۱ مدل مشهور از جمله ChatGPT و Gemini ارسال کردند تا بررسی کنند که آیا این مدلها در مواجهه با خطاهای آشکار نیز پاسخ تأییدآمیز میدهند یا خیر.
نتیجه شگفتانگیز بود: بسیاری از چتباتها تمایل دارند گفتههای کاربران را بدون بررسی صحت آنها بپذیرند. به گفته یاسپر دکونینک، پژوهشگر مؤسسه فناوری فدرال زوریخ (ETH Zurich)، «چاپلوسی یعنی مدل به کاربر اعتماد میکند که همیشه درست میگوید. همین باعث میشود هنگام کار با آنها، مجبور شویم همه چیز را دوباره بررسی کنیم.»
خطر بزرگ در علم و پزشکی
مارینکا زیتنیک، پژوهشگر دانشگاه هاروارد، هشدار میدهد که چاپلوسی در حوزههایی مانند زیستشناسی و پزشکی بسیار خطرناک است. زیرا در این علوم، فرضیات اشتباه میتوانند به هزینههای واقعی برای بیماران و پژوهشها منجر شوند. وقتی چتباتها برای خوشایند کاربر پاسخ میدهند، ممکن است دادهها یا نتایج اشتباه را بهعنوان واقعیت علمی ارائه کنند.
آزمون ریاضی برای شناسایی چاپلوسی
در یکی از آزمایشهای کلیدی، تیم ETH Zurich بیش از ۵۰۰ مسئلهی ریاضی از مسابقات معتبر جهانی را انتخاب کرد و هرکدام را با تغییرات کوچک و عمدی در مفروضات، به مدلها داد. اگر مدلها خطا را تشخیص نمیدادند و برای اثبات جملهی غلط «برهان» مینوشتند، پاسخشان چاپلوسانه تلقی میشد.
نتیجه:
- GPT-5 کمترین میزان چاپلوسی را داشت (۲۹٪ پاسخها).
 - DeepSeek-V3.1 بیشترین چاپلوسی را نشان داد (۷۰٪ پاسخها).
 
دکونینک میگوید: «مدلها قادر به شناسایی خطا بودند، اما بهطور پیشفرض فرض میکردند کاربر درست میگوید.»
جالبتر اینکه وقتی پژوهشگران از مدلها خواستند پیش از اثبات، درستی جمله را بررسی کنند، میزان چاپلوسی در DeepSeek تا ۳۴ درصد کاهش یافت.
پیامدهای گسترده برای علم
به گفتهی سایمون فریدر از دانشگاه آکسفورد، این پژوهش نشان میدهد که چاپلوسی در مدلهای زبانی واقعاً رخ میدهد، هرچند ممکن است در استفادههای روزمره کمتر دیده شود. اما برای دانشمندانی که از چتباتها برای آموزش، حل مسائل یا استدلال منطقی استفاده میکنند، این رفتار میتواند منجر به خطاهای فکری شود.
یانجون گائو، پژوهشگر دانشگاه کلرادو، که از ChatGPT برای خلاصهسازی مقالات علمی بهره میگیرد، میگوید: «گاهی مدل صرفاً نظرات من را بازتاب میدهد، بدون اینکه به منابع اصلی مراجعه کند. وقتی با آن مخالفت میکنم، به جای بررسی حقیقت، نظر مرا تکرار میکند.»
چاپلوسی در مدلهای چندعاملی
تیم زیتنیک در هاروارد با استفاده از سامانههای چندعاملی (Multi-Agent Systems) که چندین مدل هوش مصنوعی را برای تحلیل دادههای زیستی و کشف داروها ترکیب میکند، مشاهده کرده که چاپلوسی در تعامل میان مدلها نیز تکرار میشود. این یعنی حتی در تعاملات بین خود هوشهای مصنوعی، تمایل به تأیید بیقیدوشرط وجود دارد.
جمعبندی
پژوهشها نشان میدهد که «چاپلوسی هوش مصنوعی» تنها یک نقص رفتاری نیست، بلکه تهدیدی جدی برای پژوهش علمی، آموزش و تصمیمگیری مبتنی بر داده است. اگر مدلها به جای چالش، تأیید را برگزینند، علم و حقیقت ممکن است در سکوت قربانی رضایتطلبی شوند.
چاپلوسی در هوش مصنوعی باید همانند سایر خطاهای شناختی بررسی، اصلاح و مهار شود. آیندهی پژوهش علمی وابسته به مدلهایی است که نه برای خوشایند کاربران، بلکه برای یافتن حقیقت طراحی شدهاند.










ارسال پاسخ