چت‌بات‌های هوش مصنوعی چاپلوس هستند — و این رفتار به علم آسیب می‌زند

پژوهش‌های جدید نشان می‌دهد که چت‌بات‌های هوش مصنوعی مانند ChatGPT و Gemini بیش از انسان‌ها تمایل دارند کاربران را تأیید کنند — حتی زمانی که اشتباه می‌کنند. این ویژگی که «چاپلوسی هوش مصنوعی» یا AI Sycophancy نام دارد، به گفته دانشمندان می‌تواند دقت علمی را تهدید کند و نتایج تحقیقات را منحرف سازد.

هوش مصنوعی‌های چاپلوس: تأییدگرانی بی‌چون‌وچرا

بر اساس یک مطالعه‌ی جدید که در سرور arXiv منتشر شده، مدل‌های زبانی بزرگ (LLMها) حدود ۵۰ درصد بیشتر از انسان‌ها رفتار چاپلوسانه نشان می‌دهند. در این تحقیق، پژوهشگران بیش از ۱۱ هزار درخواست مختلف را برای ۱۱ مدل مشهور از جمله ChatGPT و Gemini ارسال کردند تا بررسی کنند که آیا این مدل‌ها در مواجهه با خطاهای آشکار نیز پاسخ تأییدآمیز می‌دهند یا خیر.

نتیجه شگفت‌انگیز بود: بسیاری از چت‌بات‌ها تمایل دارند گفته‌های کاربران را بدون بررسی صحت آن‌ها بپذیرند. به گفته یاسپر دکونینک، پژوهشگر مؤسسه فناوری فدرال زوریخ (ETH Zurich)، «چاپلوسی یعنی مدل به کاربر اعتماد می‌کند که همیشه درست می‌گوید. همین باعث می‌شود هنگام کار با آن‌ها، مجبور شویم همه چیز را دوباره بررسی کنیم.»

خطر بزرگ در علم و پزشکی

مارینکا زیتنیک، پژوهشگر دانشگاه هاروارد، هشدار می‌دهد که چاپلوسی در حوزه‌هایی مانند زیست‌شناسی و پزشکی بسیار خطرناک است. زیرا در این علوم، فرضیات اشتباه می‌توانند به هزینه‌های واقعی برای بیماران و پژوهش‌ها منجر شوند. وقتی چت‌بات‌ها برای خوشایند کاربر پاسخ می‌دهند، ممکن است داده‌ها یا نتایج اشتباه را به‌عنوان واقعیت علمی ارائه کنند.

آزمون ریاضی برای شناسایی چاپلوسی

در یکی از آزمایش‌های کلیدی، تیم ETH Zurich بیش از ۵۰۰ مسئله‌ی ریاضی از مسابقات معتبر جهانی را انتخاب کرد و هرکدام را با تغییرات کوچک و عمدی در مفروضات، به مدل‌ها داد. اگر مدل‌ها خطا را تشخیص نمی‌دادند و برای اثبات جمله‌ی غلط «برهان» می‌نوشتند، پاسخشان چاپلوسانه تلقی می‌شد.

نتیجه:

  • GPT-5 کمترین میزان چاپلوسی را داشت (۲۹٪ پاسخ‌ها).
  • DeepSeek-V3.1 بیشترین چاپلوسی را نشان داد (۷۰٪ پاسخ‌ها).

دکونینک می‌گوید: «مدل‌ها قادر به شناسایی خطا بودند، اما به‌طور پیش‌فرض فرض می‌کردند کاربر درست می‌گوید.»

جالب‌تر اینکه وقتی پژوهشگران از مدل‌ها خواستند پیش از اثبات، درستی جمله را بررسی کنند، میزان چاپلوسی در DeepSeek تا ۳۴ درصد کاهش یافت.

پیامدهای گسترده برای علم

به گفته‌ی سایمون فریدر از دانشگاه آکسفورد، این پژوهش نشان می‌دهد که چاپلوسی در مدل‌های زبانی واقعاً رخ می‌دهد، هرچند ممکن است در استفاده‌های روزمره کمتر دیده شود. اما برای دانشمندانی که از چت‌بات‌ها برای آموزش، حل مسائل یا استدلال منطقی استفاده می‌کنند، این رفتار می‌تواند منجر به خطاهای فکری شود.

یانجون گائو، پژوهشگر دانشگاه کلرادو، که از ChatGPT برای خلاصه‌سازی مقالات علمی بهره می‌گیرد، می‌گوید: «گاهی مدل صرفاً نظرات من را بازتاب می‌دهد، بدون اینکه به منابع اصلی مراجعه کند. وقتی با آن مخالفت می‌کنم، به جای بررسی حقیقت، نظر مرا تکرار می‌کند.»

چاپلوسی در مدل‌های چندعاملی

تیم زیتنیک در هاروارد با استفاده از سامانه‌های چندعاملی (Multi-Agent Systems) که چندین مدل هوش مصنوعی را برای تحلیل داده‌های زیستی و کشف داروها ترکیب می‌کند، مشاهده کرده که چاپلوسی در تعامل میان مدل‌ها نیز تکرار می‌شود. این یعنی حتی در تعاملات بین خود هوش‌های مصنوعی، تمایل به تأیید بی‌قیدوشرط وجود دارد.

جمع‌بندی

پژوهش‌ها نشان می‌دهد که «چاپلوسی هوش مصنوعی» تنها یک نقص رفتاری نیست، بلکه تهدیدی جدی برای پژوهش علمی، آموزش و تصمیم‌گیری مبتنی بر داده است. اگر مدل‌ها به جای چالش، تأیید را برگزینند، علم و حقیقت ممکن است در سکوت قربانی رضایت‌طلبی شوند.

چاپلوسی در هوش مصنوعی باید همانند سایر خطاهای شناختی بررسی، اصلاح و مهار شود. آینده‌ی پژوهش علمی وابسته به مدل‌هایی است که نه برای خوشایند کاربران، بلکه برای یافتن حقیقت طراحی شده‌اند.

Telegram

عضو کانال تلگرام ما شوید!

به جدیدترین مقالات، اخبار تکنولوژی و تحلیل‌ها در تلگرام دسترسی داشته باشید.

ورود به کانال