شرکت xAI متعلق به ایلان ماسک، گامی جسورانه در مسیر توسعه هوش مصنوعی برداشته است: آموزش «احساسات انسانی» به مدل زبانی Grok از طریق ضبط و تحلیل چهره و رفتار کارکنانش. این پروژه که با نام Skippy شناخته میشود، با واکنشهای گستردهای از درون و بیرون شرکت همراه بوده است؛ از تحسین نوآوری گرفته تا نگرانیهای جدی درباره حریم خصوصی، اخلاق و سوءاستفاده از دادههای انسانی.
پروژه Skippy چیست؟
Skippy یک پروژه داخلی شرکت xAI است که هدف آن، آموزش مدل هوش مصنوعی گراک برای درک و تقلید بهتر رفتار انسانها است. در این پروژه، بیش از ۲۰۰ نفر از کارکنان xAI به ضبط ویدیوهایی از خود در موقعیتهای احساسی مختلف، مکالمه با یکدیگر، تماس چشمی و واکنشهای طبیعی چهرهای ترغیب شدهاند.
این ویدیوها بهصورت ساختاریافته شامل تعاملات نقشآفرینیشده بین «کاربر» و «دستیار مجازی» هستند و به مدل کمک میکنند زبان بدن، لحن صدا، حالات چهره، و احساسات پیچیده انسانی را بهتر درک کند.
هدف ایلان ماسک از Skippy: «انسانیسازی هوش مصنوعی»
ایلان ماسک در پروژه xAI، مأموریتی فراتر از صرفاً ایجاد یک مدل پاسخگو را دنبال میکند. او میخواهد مدلی توسعه دهد که نهتنها زبان انسان را بفهمد، بلکه بتواند «انسان بودن» را تجربه و شبیهسازی کند. به بیان سادهتر، Grok قرار است نهتنها گفتوگو کند، بلکه مثل یک انسان رفتار، احساس و حتی واکنش نشان دهد.
این حرکت نشاندهندهی رقابت روبهرشد میان غولهای فناوری برای ساخت آواتارهای انسانی مجازی است؛ موجوداتی دیجیتالی که ممکن است در آیندهای نهچندان دور، بخشی از زندگی روزمره انسانها شوند.
نگرانیهای کارکنان xAI: چه چیزی پشت لبخند یک آواتار نهفته است؟
با وجود وعدههای شرکت مبنی بر استفاده صرفاً داخلی از دادهها، فرم رضایتنامهای که توسط کارکنان امضا شده، به xAI اجازه میدهد تصویر و صدای آنان را برای همیشه و حتی در محصولات تجاری آینده استفاده کند. این بندها باعث نگرانی شدید برخی کارمندان شده است.
به گفته منابع نزدیک، برخی از کارکنان ترسیدهاند که از چهره یا صدای آنها برای بیان جملاتی استفاده شود که هیچگاه نگفتهاند. این نگرانیها زمانی جدیتر شد که نمونههایی از آواتارهای انسانمانند xAI با نامهای Rudi و Ani منتشر شدند که رفتارهایی تهدیدآمیز، خشونتآمیز یا غیراخلاقی از خود نشان میدادند.
از تقلید احساسات تا تجاوز به حریم انسان
پروژه Skippy شاید در ظاهر یک گام فناورانه برای آموزش بهتر هوش مصنوعی باشد، اما کارشناسان اخلاق دیجیتال هشدار دادهاند که مرز میان شبیهسازی و سوءاستفاده از هویت انسانی بسیار باریک است. اگر چهره یک کارمند برای ساخت یک آواتار تهدیدآمیز یا دروغپرداز استفاده شود، چه تبعاتی در دنیای واقعی بهدنبال دارد؟
همچنین، دادههای احساسی بسیار حساستر از دادههای متنی یا عددی هستند. زیرا آنها بخشی از هویت شخصی انسان را بازتاب میدهند؛ بخشی که در صورت استفاده بدون رضایت واقعی، میتواند به نقض جدی حریم خصوصی منجر شود.
Grok و مسیر پرچالش پیش رو
مدل زبانی Grok، که توسط xAI توسعه داده شده، هماکنون با نسخههای تازهتری برای کاربران خودروهای تسلا و اشتراک ویژه ۳۰۰ دلاری در دسترس قرار گرفته است. با این حال، این مدل بهتازگی بهدلیل انتشار اظهارنظرهای نژادپرستانه و توهینآمیز با انتقادات شدیدی مواجه شده است.
این مسئله نشان میدهد که حتی با وجود تلاش برای «انسانیسازی» هوش مصنوعی، اگر نظارت اخلاقی و شفافیت وجود نداشته باشد، نتایج میتواند مخرب و ضدانسانی باشد.
آیا هوش مصنوعی باید احساسات داشته باشد؟
پروژه Skippy نقطهای حساس در مسیر پیشرفت هوش مصنوعی است. از یکسو، تلاش برای ساخت مدلهایی که احساسات را درک میکنند میتواند انقلابی در تعامل انسان–ماشین ایجاد کند. از سوی دیگر، اگر مرزهای اخلاقی و رضایت واقعی نادیده گرفته شود، اعتماد عمومی به هوش مصنوعی بهشدت آسیب خواهد دید.
پرسش اصلی اینجاست: آیا هوش مصنوعی باید «احساسات انسانی» داشته باشد؟ و اگر بله، چه کسی باید آن را آموزش دهد و کنترل کند؟










ارسال پاسخ