کاربران نباید اطلاعات حساس خود را با ChatGPT در میان بگذارند

سم آلتمن، مدیرعامل شرکت OpenAI، در اظهاراتی جدید هشدار داده که کاربران نباید اطلاعات خصوصی و حساس خود را با مدل‌های هوش مصنوعی مانند ChatGPT به اشتراک بگذارند. او تأکید کرده که در حال حاضر هیچ چارچوب قانونی مشخصی برای حفظ حریم خصوصی چنین گفتگوهایی وجود ندارد؛ مسئله‌ای که می‌تواند پیامدهای حقوقی و امنیتی جدی به‌دنبال داشته باشد.

محرمانگی قانونی در گفت‌وگو با هوش مصنوعی وجود ندارد

آلتمن در مصاحبه با پادکست This Past Weekend، با اشاره به نبود استانداردهای حقوقی در حوزه هوش مصنوعی گفت:

«اگر کاربران مسائل عاطفی، روانی یا حقوقی خود را با ChatGPT مطرح کنند، این مکالمات همانند گفت‌وگو با یک درمانگر، وکیل یا پزشک تحت پوشش محرمانگی قانونی قرار نمی‌گیرند.»

او ادامه داد:

«در صورت بروز یک شکایت یا پرونده حقوقی، ممکن است از نظر قانونی ملزم به ارائه داده‌های مکالمه باشیم؛ این موضوع به‌شدت نگران‌کننده است، به‌ویژه زمانی که کاربر انتظار محرمانگی کامل را دارد.»

استفاده درمانی از ChatGPT و خطرات بالقوه آن

طبق گفته‌های مدیرعامل OpenAI، بسیاری از کاربران، به‌ویژه نوجوانان و جوانان، از ChatGPT به‌عنوان یک مشاور عاطفی یا درمانگر استفاده می‌کنند. اما برخلاف مشاوران حرفه‌ای، چت‌بات‌ها تحت قوانین حفاظت از اطلاعات درمانی قرار نمی‌گیرند. در نتیجه، مکالمات حساس کاربران می‌توانند در معرض افشا قرار گیرند.

آلتمن تصریح کرد که هنوز راه‌حلی مطمئن برای محافظت از حریم خصوصی کاربران در سطحی مشابه با تعاملات انسانی پیدا نشده و کاربران باید هنگام مطرح‌کردن مسائل مهم، محتاط باشند.

پرونده نیویورک‌تایمز و دغدغه‌های حریم خصوصی

در بخش دیگری از گفت‌وگو، آلتمن به پرونده حقوقی نیویورک‌تایمز علیه OpenAI اشاره کرد. در این پرونده، دادگاه از OpenAI خواسته مکالمات کاربران ChatGPT را به‌عنوان شواهد ارائه دهد. او این درخواست را «زیاده‌خواهی» توصیف کرد و گفت:

«اینکه بخواهند مکالمات صدها میلیون کاربر را جمع‌آوری کنند، کاملاً ناعادلانه است. ما به این حکم اعتراض کرده‌ایم و خواهان حمایت از حریم خصوصی کاربران هستیم.»

وی افزود که تنها کاربران نسخه سازمانی (Enterprise) ChatGPT از محافظت کامل در برابر ذخیره‌سازی مکالمات برخوردارند و بقیه کاربران باید مراقب محتوایی که به اشتراک می‌گذارند، باشند.

جمع‌بندی

هشدار سم آلتمن بار دیگر نشان می‌دهد که اگرچه هوش مصنوعی می‌تواند نقش مؤثری در پشتیبانی عاطفی و حتی درمانی ایفا کند، اما هنوز جایگزینی برای ارتباط انسانی و مشاوره حرفه‌ای نیست. تا زمانی که چارچوب‌های حقوقی برای حفاظت از مکالمات خصوصی با هوش مصنوعی ایجاد نشود، کاربران باید با دقت بیشتری با این فناوری‌ها تعامل داشته باشند.

Telegram

عضو کانال تلگرام ما شوید!

به جدیدترین مقالات، اخبار تکنولوژی و تحلیل‌ها در تلگرام دسترسی داشته باشید.

ورود به کانال