ایلان ماسک می‌خواهد «انسان‌بودن» را به هوش مصنوعی آموزش دهد

شرکت xAI متعلق به ایلان ماسک، گامی جسورانه در مسیر توسعه هوش مصنوعی برداشته است: آموزش «احساسات انسانی» به مدل زبانی Grok از طریق ضبط و تحلیل چهره و رفتار کارکنانش. این پروژه که با نام Skippy شناخته می‌شود، با واکنش‌های گسترده‌ای از درون و بیرون شرکت همراه بوده است؛ از تحسین نوآوری گرفته تا نگرانی‌های جدی درباره حریم خصوصی، اخلاق و سوءاستفاده از داده‌های انسانی.

پروژه Skippy چیست؟

Skippy یک پروژه داخلی شرکت xAI است که هدف آن، آموزش مدل هوش مصنوعی گراک برای درک و تقلید بهتر رفتار انسان‌ها است. در این پروژه، بیش از ۲۰۰ نفر از کارکنان xAI به ضبط ویدیوهایی از خود در موقعیت‌های احساسی مختلف، مکالمه با یکدیگر، تماس چشمی و واکنش‌های طبیعی چهره‌ای ترغیب شده‌اند.

این ویدیوها به‌صورت ساختاریافته شامل تعاملات نقش‌آفرینی‌شده بین «کاربر» و «دستیار مجازی» هستند و به مدل کمک می‌کنند زبان بدن، لحن صدا، حالات چهره، و احساسات پیچیده انسانی را بهتر درک کند.

هدف ایلان ماسک از Skippy: «انسانی‌سازی هوش مصنوعی»

ایلان ماسک در پروژه xAI، مأموریتی فراتر از صرفاً ایجاد یک مدل پاسخ‌گو را دنبال می‌کند. او می‌خواهد مدلی توسعه دهد که نه‌تنها زبان انسان را بفهمد، بلکه بتواند «انسان بودن» را تجربه و شبیه‌سازی کند. به بیان ساده‌تر، Grok قرار است نه‌تنها گفت‌وگو کند، بلکه مثل یک انسان رفتار، احساس و حتی واکنش نشان دهد.

این حرکت نشان‌دهنده‌ی رقابت رو‌به‌رشد میان غول‌های فناوری برای ساخت آواتارهای انسانی مجازی است؛ موجوداتی دیجیتالی که ممکن است در آینده‌ای نه‌چندان دور، بخشی از زندگی روزمره انسان‌ها شوند.

نگرانی‌های کارکنان xAI: چه چیزی پشت لبخند یک آواتار نهفته است؟

با وجود وعده‌های شرکت مبنی بر استفاده صرفاً داخلی از داده‌ها، فرم رضایت‌نامه‌ای که توسط کارکنان امضا شده، به xAI اجازه می‌دهد تصویر و صدای آنان را برای همیشه و حتی در محصولات تجاری آینده استفاده کند. این بندها باعث نگرانی شدید برخی کارمندان شده است.

به گفته منابع نزدیک، برخی از کارکنان ترسیده‌اند که از چهره یا صدای آن‌ها برای بیان جملاتی استفاده شود که هیچ‌گاه نگفته‌اند. این نگرانی‌ها زمانی جدی‌تر شد که نمونه‌هایی از آواتارهای انسان‌مانند xAI با نام‌های Rudi و Ani منتشر شدند که رفتارهایی تهدیدآمیز، خشونت‌آمیز یا غیراخلاقی از خود نشان می‌دادند.

از تقلید احساسات تا تجاوز به حریم انسان

پروژه Skippy شاید در ظاهر یک گام فناورانه برای آموزش بهتر هوش مصنوعی باشد، اما کارشناسان اخلاق دیجیتال هشدار داده‌اند که مرز میان شبیه‌سازی و سوءاستفاده از هویت انسانی بسیار باریک است. اگر چهره یک کارمند برای ساخت یک آواتار تهدیدآمیز یا دروغ‌پرداز استفاده شود، چه تبعاتی در دنیای واقعی به‌دنبال دارد؟

همچنین، داده‌های احساسی بسیار حساس‌تر از داده‌های متنی یا عددی هستند. زیرا آن‌ها بخشی از هویت شخصی انسان را بازتاب می‌دهند؛ بخشی که در صورت استفاده بدون رضایت واقعی، می‌تواند به نقض جدی حریم خصوصی منجر شود.

Grok و مسیر پرچالش پیش رو

مدل زبانی Grok، که توسط xAI توسعه داده شده، هم‌اکنون با نسخه‌های تازه‌تری برای کاربران خودروهای تسلا و اشتراک ویژه ۳۰۰ دلاری در دسترس قرار گرفته است. با این حال، این مدل به‌تازگی به‌دلیل انتشار اظهارنظرهای نژادپرستانه و توهین‌آمیز با انتقادات شدیدی مواجه شده است.

این مسئله نشان می‌دهد که حتی با وجود تلاش برای «انسانی‌سازی» هوش مصنوعی، اگر نظارت اخلاقی و شفافیت وجود نداشته باشد، نتایج می‌تواند مخرب و ضدانسانی باشد.

آیا هوش مصنوعی باید احساسات داشته باشد؟

پروژه Skippy نقطه‌ای حساس در مسیر پیشرفت هوش مصنوعی است. از یک‌سو، تلاش برای ساخت مدل‌هایی که احساسات را درک می‌کنند می‌تواند انقلابی در تعامل انسان–ماشین ایجاد کند. از سوی دیگر، اگر مرزهای اخلاقی و رضایت واقعی نادیده گرفته شود، اعتماد عمومی به هوش مصنوعی به‌شدت آسیب خواهد دید.

پرسش اصلی اینجاست: آیا هوش مصنوعی باید «احساسات انسانی» داشته باشد؟ و اگر بله، چه کسی باید آن را آموزش دهد و کنترل کند؟

Telegram

عضو کانال تلگرام ما شوید!

به جدیدترین مقالات، اخبار تکنولوژی و تحلیل‌ها در تلگرام دسترسی داشته باشید.

ورود به کانال