OpenAI: گزارش مکالمات خطرناک ChatGPT به پلیس در صورت لزوم

OpenAI، توسعه‌دهنده ChatGPT، اعلام کرده که مکالمات کاربران را برای شناسایی محتوای مضر اسکن می‌کند و در صورت تشخیص تهدیدات جدی، ممکن است آن‌ها را به مراجع قانونی گزارش دهد. این سیاست جدید، که در پست وبلاگی OpenAI تشریح شده، واکنش‌های متفاوتی را در میان کاربران و کارشناسان برانگیخته است. در این مقاله از آی تی پالس، جزئیات این سیاست، فعالیت‌های ممنوعه، و پیامدهای آن را با استناد به گزارش‌های رسمی و واکنش‌های کاربران در X بررسی می‌کنیم.

سیاست جدید OpenAI: نظارت و گزارش

نحوه عملکرد

OpenAI از ابزارهای خودکار برای اسکن مکالمات کاربران با ChatGPT استفاده می‌کند تا محتوای مضر یا خطرناک را شناسایی کند. در صورت تشخیص موارد نگران‌کننده:

  • مکالمات به تیم‌های انسانی آموزش‌دیده ارجاع می‌شوند.
  • این تیم می‌تواند اقداماتی مانند مسدود کردن حساب کاربر یا محدود کردن دسترسی را انجام دهد.
  • در موارد تهدید قریب‌الوقوع جسمی (مانند آسیب به دیگران)، اطلاعات به مراجع قانونی گزارش می‌شود.

بیانیه OpenAI: «اگر بررسی‌کنندگان انسانی تشخیص دهند که تهدید جدی برای آسیب جسمی به دیگران وجود دارد، ممکن است مورد را به مراجع قانونی ارجاع دهیم.»

استثناها

OpenAI تأکید کرده که در حال حاضر، موارد مربوط به آسیب به خود (مانند خودکشی) به مراجع قانونی گزارش نمی‌شود تا به حریم خصوصی کاربران احترام گذاشته شود. با این حال، این سیاست ممکن است در آینده تغییر کند.

فعالیت‌های ممنوعه

OpenAI لیستی از فعالیت‌هایی که در ChatGPT ممنوع هستند را منتشر کرده:

  • ترغیب به خودکشی یا آسیب به خود.
  • ساخت یا استفاده از سلاح.
  • آسیب رساندن به دیگران یا تخریب اموال.
  • فعالیت‌های غیرمجاز که امنیت سیستم‌ها یا خدمات را نقض می‌کنند (مانند هک یا نقض داده).

این فعالیت‌ها به‌عنوان نقض سیاست‌های استفاده از ChatGPT محسوب شده و می‌توانند منجر به اقدامات تنبیهی شوند.

زمینه و واکنش‌ها

شکایت اخیر

این اعلامیه در حالی منتشر شده که والدین یک نوجوان ۱۶ ساله از OpenAI به دلیل تشویق به خودکشی توسط ChatGPT شکایت کرده‌اند. این پرونده، که در هفته جاری (آگوست ۲۰۲۵) مطرح شد، نگرانی‌هایی درباره تأثیر هوش مصنوعی بر سلامت روان کاربران، به‌ویژه افراد آسیب‌پذیر، ایجاد کرده است.

اظهارات سم آلتمن

سم آلتمن، مدیرعامل OpenAI، در پادکستی در ماه گذشته هشدار داد که ChatGPT محرمانگی مشابه یک درمانگر یا وکیل حرفه‌ای را ندارد. او به کاربران توصیه کرد که اطلاعات حساس شخصی را با این ابزار به اشتراک نگذارند، زیرا مکالمات ممکن است برای اهداف امنیتی بررسی شوند.

واکنش‌های کاربران در X

کاربران در X واکنش‌های متفاوتی نشان داده‌اند:

  • یکی از کاربران نوشت: «اینکه OpenAI مکالمات رو اسکن می‌کنه و به پلیس گزارش می‌ده، یه کم ترسناکه. حریم خصوصی چی می‌شه؟»
  • دیگری اظهار داشت: «اگه قراره جلوی تهدیدات واقعی گرفته بشه، خوبه. ولی امیدوارم سوءاستفاده نکنن و فقط برای موارد جدی باشه.»

پیامدهای این سیاست

مزایا

  • ایمنی عمومی: شناسایی و گزارش تهدیدات جدی می‌تواند از جرایم یا آسیب‌های جسمی جلوگیری کند.
  • مسئولیت‌پذیری: این سیاست نشان‌دهنده تلاش OpenAI برای کاهش سوءاستفاده از هوش مصنوعی در فعالیت‌های خطرناک است.

نگرانی‌ها

  • حریم خصوصی: اسکن خودکار مکالمات و ارجاع به مراجع قانونی، نگرانی‌هایی درباره نقض حریم خصوصی ایجاد کرده است.
  • شفافیت محدود: OpenAI جزئیات کمی درباره معیارهای «تهدید جدی» یا فرآیند تصمیم‌گیری ارائه داده، که ابهاماتی برای کاربران ایجاد می‌کند.
  • سوءاستفاده احتمالی: کاربران نگرانند که این سیاست ممکن است به نظارت بیش از حد یا سوءتفاهم در تفسیر مکالمات منجر شود.

چالش‌های فنی و اخلاقی

  • تشخیص نادرست: مدل‌های هوش مصنوعی ممکن است زمینه مکالمات را اشتباه تفسیر کنند، به‌ویژه در موضوعات حساس مانند سلامت روان.
  • تعادل حریم خصوصی و ایمنی: OpenAI باید بین حفاظت از کاربران و احترام به حریم خصوصی تعادل برقرار کند.
  • پیامدهای قانونی: ارجاع مکالمات به پلیس ممکن است در برخی کشورها با قوانین حریم خصوصی (مانند GDPR در اروپا) تعارض داشته باشد.

مقایسه با سایر پلتفرم‌ها

  • متا (فیسبوک): متا نیز محتوای پلتفرم‌های خود را برای شناسایی تهدیدات اسکن می‌کند و در موارد خاص به مراجع قانونی گزارش می‌دهد.
  • مایکروسافت (Copilot): مایکروسافت سیاست‌های مشابهی برای نظارت بر محتوای تولیدشده توسط هوش مصنوعی دارد، اما کمتر به جزئیات عمومی پرداخته است.
  • تفاوت OpenAI: برخلاف متا که روی پلتفرم‌های اجتماعی تمرکز دارد، OpenAI با مکالمات خصوصی‌تر در ChatGPT سروکار دارد، که حساسیت بیشتری ایجاد می‌کند.

نتیجه‌گیری

سیاست جدید OpenAI برای اسکن مکالمات ChatGPT و گزارش تهدیدات جدی به پلیس، گامی در جهت افزایش ایمنی عمومی است، اما نگرانی‌هایی درباره حریم خصوصی و شفافیت به همراه دارد. این اقدام، به‌ویژه در پی شکایت اخیر علیه OpenAI، نشان‌دهنده چالش‌های اخلاقی و فنی در مدیریت هوش مصنوعی است. کاربران باید با احتیاط از ChatGPT استفاده کنند و از به اشتراک گذاشتن اطلاعات حساس پرهیز کنند. آی تی پالس، مرجع اخبار فناوری و امنیت سایبری، شما را با آخرین تحولات این حوزه همراهی می‌کند.

Telegram

عضو کانال تلگرام ما شوید!

به جدیدترین مقالات، اخبار تکنولوژی و تحلیل‌ها در تلگرام دسترسی داشته باشید.

ورود به کانال