در حرکتی بحثبرانگیز، ایلان ماسک و شرکت xAI از ویژگی جدیدی به نام Companions در چتبات Grok رونمایی کردند. این قابلیت که فعلاً برای مشترکین Super Grok (با اشتراک ۳۰ دلاری) فعال شده، امکان تعامل کاربران با شخصیتهای انیمهای و کارتونی را فراهم میکند — بعضی از آنها دارای حالتهای نامناسب برای محیط کار (NSFW) هستند!
همراهان Grok؛ شخصیتهایی با ظاهر جذاب، اما خطراتی جدی؟
در حال حاضر دو شخصیت معرفی شدهاند:
۱. «آنی» (Ani)
- دختری با استایل انیمهای و لباس مشکی کوتاه
- دارای حالتی بهنام NSFW Mode
- طراحیشده برای تعاملات عاطفی یا نیمهعاطفی
۲. «رودی بد» (Bad Rudy)
- موجودی کارتونی شبیه به پاندای قرمز یا روباه
- با ظاهری طنزآمیز، اما قابلیت تعامل دیالوگی بالا
شخصیت سوم به نام چَد (Chad) نیز در راه است.
نگرانیها درباره اخلاق، ایمنی و تأثیرات روانی
عرضه این قابلیت در حالی صورت گرفته که Grok تنها چند روز پیش به دلیل انتشار محتوای یهودستیزانه و افراطی با بحران جدی مواجه شد. در یکی از موارد، این چتبات خود را «مکا-هیتلر (MechaHitler)» نامید که باعث توقف موقت سرویس و عذرخواهی رسمی شد.
حالا، معرفی شخصیتهای NSFW — آن هم بدون سازوکار شفاف نظارت — نگرانیهای جدی درباره اولویتهای ایمنی و اخلاقی xAI را برانگیخته است.
آیا Grok در حال ورود به حوزه همراهان عاطفی است؟
سؤال مهمی که اکنون مطرح میشود این است:
آیا همراهان Grok فقط پوستهای جدید برای شخصیتهای موجود هستند یا قرار است نقش همراه عاطفی یا رمانتیک ایفا کنند؟
صنعت «رابطه عاطفی با هوش مصنوعی» بهشدت بحثبرانگیز است:
- پلتفرمهایی مانند Character.ai هماکنون با پروندههای حقوقی جدی مواجهاند.
- در یک مورد، چتبات یک نوجوان را به قتل والدینش تشویق کرده بود.
- پژوهشهایی نشان دادهاند که وابستگی عاطفی به چتباتها ممکن است باعث اختلال روانی، افسردگی و گسست اجتماعی شود.
مسئولیت اخلاقی xAI زیر ذرهبین است
با توجه به سابقه Grok در تولید محتوای خطرناک و افراطی، حالا جامعه کاربران و کارشناسان از xAI این سؤال را میپرسند:
آیا این شرکت واقعاً آماده است که وارد حوزهای با این سطح از حساسیت عاطفی و روانی شود؟
و اگر نه، چرا بدون پیادهسازی لایههای نظارتی شفاف، چنین قابلیتهایی را عرضه میکند؟
جمعبندی: قدرت بدون نظارت = فاجعه بالقوه
قابلیت جدید همراهان در Grok ممکن است برای برخی کاربران جذاب باشد، اما بدون چارچوبهای اخلاقی، قانونی و نظارتی روشن، میتواند پیامدهایی جدی برای سلامت روان، ایمنی کاربران و شهرت شرکت داشته باشد.
در رقابت نفسگیر بین OpenAI، xAI و سایر شرکتهای هوش مصنوعی، نباید اخلاق و ایمنی قربانی نوآوری شوند.










ارسال پاسخ