OpenAI، توسعهدهنده ChatGPT، اعلام کرده که مکالمات کاربران را برای شناسایی محتوای مضر اسکن میکند و در صورت تشخیص تهدیدات جدی، ممکن است آنها را به مراجع قانونی گزارش دهد. این سیاست جدید، که در پست وبلاگی OpenAI تشریح شده، واکنشهای متفاوتی را در میان کاربران و کارشناسان برانگیخته است. در این مقاله از آی تی پالس، جزئیات این سیاست، فعالیتهای ممنوعه، و پیامدهای آن را با استناد به گزارشهای رسمی و واکنشهای کاربران در X بررسی میکنیم.
سیاست جدید OpenAI: نظارت و گزارش
نحوه عملکرد
OpenAI از ابزارهای خودکار برای اسکن مکالمات کاربران با ChatGPT استفاده میکند تا محتوای مضر یا خطرناک را شناسایی کند. در صورت تشخیص موارد نگرانکننده:
- مکالمات به تیمهای انسانی آموزشدیده ارجاع میشوند.
- این تیم میتواند اقداماتی مانند مسدود کردن حساب کاربر یا محدود کردن دسترسی را انجام دهد.
- در موارد تهدید قریبالوقوع جسمی (مانند آسیب به دیگران)، اطلاعات به مراجع قانونی گزارش میشود.
بیانیه OpenAI: «اگر بررسیکنندگان انسانی تشخیص دهند که تهدید جدی برای آسیب جسمی به دیگران وجود دارد، ممکن است مورد را به مراجع قانونی ارجاع دهیم.»
استثناها
OpenAI تأکید کرده که در حال حاضر، موارد مربوط به آسیب به خود (مانند خودکشی) به مراجع قانونی گزارش نمیشود تا به حریم خصوصی کاربران احترام گذاشته شود. با این حال، این سیاست ممکن است در آینده تغییر کند.
فعالیتهای ممنوعه
OpenAI لیستی از فعالیتهایی که در ChatGPT ممنوع هستند را منتشر کرده:
- ترغیب به خودکشی یا آسیب به خود.
- ساخت یا استفاده از سلاح.
- آسیب رساندن به دیگران یا تخریب اموال.
- فعالیتهای غیرمجاز که امنیت سیستمها یا خدمات را نقض میکنند (مانند هک یا نقض داده).
این فعالیتها بهعنوان نقض سیاستهای استفاده از ChatGPT محسوب شده و میتوانند منجر به اقدامات تنبیهی شوند.
زمینه و واکنشها
شکایت اخیر
این اعلامیه در حالی منتشر شده که والدین یک نوجوان ۱۶ ساله از OpenAI به دلیل تشویق به خودکشی توسط ChatGPT شکایت کردهاند. این پرونده، که در هفته جاری (آگوست ۲۰۲۵) مطرح شد، نگرانیهایی درباره تأثیر هوش مصنوعی بر سلامت روان کاربران، بهویژه افراد آسیبپذیر، ایجاد کرده است.
اظهارات سم آلتمن
سم آلتمن، مدیرعامل OpenAI، در پادکستی در ماه گذشته هشدار داد که ChatGPT محرمانگی مشابه یک درمانگر یا وکیل حرفهای را ندارد. او به کاربران توصیه کرد که اطلاعات حساس شخصی را با این ابزار به اشتراک نگذارند، زیرا مکالمات ممکن است برای اهداف امنیتی بررسی شوند.
واکنشهای کاربران در X
کاربران در X واکنشهای متفاوتی نشان دادهاند:
- یکی از کاربران نوشت: «اینکه OpenAI مکالمات رو اسکن میکنه و به پلیس گزارش میده، یه کم ترسناکه. حریم خصوصی چی میشه؟»
- دیگری اظهار داشت: «اگه قراره جلوی تهدیدات واقعی گرفته بشه، خوبه. ولی امیدوارم سوءاستفاده نکنن و فقط برای موارد جدی باشه.»
پیامدهای این سیاست
مزایا
- ایمنی عمومی: شناسایی و گزارش تهدیدات جدی میتواند از جرایم یا آسیبهای جسمی جلوگیری کند.
- مسئولیتپذیری: این سیاست نشاندهنده تلاش OpenAI برای کاهش سوءاستفاده از هوش مصنوعی در فعالیتهای خطرناک است.
نگرانیها
- حریم خصوصی: اسکن خودکار مکالمات و ارجاع به مراجع قانونی، نگرانیهایی درباره نقض حریم خصوصی ایجاد کرده است.
- شفافیت محدود: OpenAI جزئیات کمی درباره معیارهای «تهدید جدی» یا فرآیند تصمیمگیری ارائه داده، که ابهاماتی برای کاربران ایجاد میکند.
- سوءاستفاده احتمالی: کاربران نگرانند که این سیاست ممکن است به نظارت بیش از حد یا سوءتفاهم در تفسیر مکالمات منجر شود.
چالشهای فنی و اخلاقی
- تشخیص نادرست: مدلهای هوش مصنوعی ممکن است زمینه مکالمات را اشتباه تفسیر کنند، بهویژه در موضوعات حساس مانند سلامت روان.
- تعادل حریم خصوصی و ایمنی: OpenAI باید بین حفاظت از کاربران و احترام به حریم خصوصی تعادل برقرار کند.
- پیامدهای قانونی: ارجاع مکالمات به پلیس ممکن است در برخی کشورها با قوانین حریم خصوصی (مانند GDPR در اروپا) تعارض داشته باشد.
مقایسه با سایر پلتفرمها
- متا (فیسبوک): متا نیز محتوای پلتفرمهای خود را برای شناسایی تهدیدات اسکن میکند و در موارد خاص به مراجع قانونی گزارش میدهد.
- مایکروسافت (Copilot): مایکروسافت سیاستهای مشابهی برای نظارت بر محتوای تولیدشده توسط هوش مصنوعی دارد، اما کمتر به جزئیات عمومی پرداخته است.
- تفاوت OpenAI: برخلاف متا که روی پلتفرمهای اجتماعی تمرکز دارد، OpenAI با مکالمات خصوصیتر در ChatGPT سروکار دارد، که حساسیت بیشتری ایجاد میکند.
نتیجهگیری
سیاست جدید OpenAI برای اسکن مکالمات ChatGPT و گزارش تهدیدات جدی به پلیس، گامی در جهت افزایش ایمنی عمومی است، اما نگرانیهایی درباره حریم خصوصی و شفافیت به همراه دارد. این اقدام، بهویژه در پی شکایت اخیر علیه OpenAI، نشاندهنده چالشهای اخلاقی و فنی در مدیریت هوش مصنوعی است. کاربران باید با احتیاط از ChatGPT استفاده کنند و از به اشتراک گذاشتن اطلاعات حساس پرهیز کنند. آی تی پالس، مرجع اخبار فناوری و امنیت سایبری، شما را با آخرین تحولات این حوزه همراهی میکند.










ارسال پاسخ