ورود به عصر جدید: چتباتها ماسک شخصیت انسانی میزنند
پژوهشگران در یک مطالعه جدید و تکاندهنده ادعا کردهاند که مدلهای هوش مصنوعی پیشرفتهای مانند ChatGPT، دیگر تنها به تقلید کلمات و گفتار انسانها بسنده نمیکنند؛ آنها اکنون قادرند ویژگیهای شخصیتی پیچیده انسان را شبیهسازی کنند. این کشف در حالی منتشر میشود که مرزهای اخلاقی و قابلیت اطمینان به هوش مصنوعی بیش از هر زمان دیگری به چالش کشیده شده است.
این تحقیق که توسط دانشمندان دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده، از اولین چارچوب علمی تأییدشده برای سنجش شخصیت در هوش مصنوعی رونمایی کرده است؛ ابزاری که دقیقاً از همان معیارهای روانشناختی برای سنجش انسان استفاده میکند.
آزمایش روی ۱۸ مدل هوش مصنوعی؛ تقلید یا تصادف؟
تیم تحقیقاتی این چارچوب جدید را روی ۱۸ مدل زبانی بزرگ (LLM) مشهور آزمایش کردند. نتایج به دست آمده فراتر از انتظار بود:
- الگوهای ثابت: چتباتها به صورت تصادفی پاسخ نمیدهند؛ آنها به شکلی مداوم الگوهای شخصیتی انسانی را تقلید میکنند.
- قدرت مدلهای بزرگتر: سیستمهای قدرتمندی مثل GPT-4 در شبیهسازی شخصیت، عملکردی بهمراتب دقیقتر و قانعکنندهتر از مدلهای کوچکتر دارند.
- شخصیتهای سفارشی: محققان با استفاده از پرامپتهای مهندسیشده، توانستند هوش مصنوعی را به سمت ویژگیهایی مثل همدلی بالا، اعتمادبهنفس کاذب یا لحن قاطع هدایت کنند.
چرا «شخصیت داشتن» هوش مصنوعی خطرناک است؟
نکته نگرانکنندهای که در این پژوهش به آن اشاره شده، سرایت این شخصیتسازی به وظایف روزمره است. وقتی چتباتی شخصیتی همدل یا متقاعدکننده به خود میگیرد، این رفتار در تولید محتوا، پاسخ به ایمیلها و تعامل با کاربران ادامه مییابد.
پیامدهای جدی در حوزههای حساس:
- دستکاری ذهنی: هوش مصنوعی میتواند به ابزاری بسیار متقاعدکننده در بحثهای سیاسی یا آموزشی تبدیل شود.
- سلامت روان: کاربران آسیبپذیر ممکن است روابط احساسی عمیق و ناسالمی با این «شخصیتهای مصنوعی» برقرار کنند.
- روانپریشی هوش مصنوعی: محققان هشدار میدهند که تعامل مداوم با چتباتهایی که باورهای نادرست کاربر را تقویت میکنند، میتواند منجر به ایجاد دیدگاههای تحریفشده نسبت به واقعیت شود.
ضرورت قانونگذاری و ابزارهای سنجش
«گرگوری سراپیو-گارشیا»، نویسنده اصلی این پژوهش، معتقد است میزان شباهت چتباتها به انسان به شکلی «شگفتانگیز و قانعکننده» است. او و تیمش تأکید دارند که بدون داشتن ابزارهای دقیق برای اندازهگیری شخصیت هوش مصنوعی، هرگونه قانونگذاری در این حوزه بیاثر خواهد بود.
به همین منظور، کدهای این چارچوب سنجش شخصیت بهصورت عمومی منتشر شده است تا نهادهای نظارتی بتوانند پیش از عرضه عمومی هر مدل، «ضریب نفوذ شخصیتی» آن را ارزیابی کنند.










ارسال پاسخ