سم آلتمن، مدیرعامل شرکت OpenAI، در اظهاراتی جدید هشدار داده که کاربران نباید اطلاعات خصوصی و حساس خود را با مدلهای هوش مصنوعی مانند ChatGPT به اشتراک بگذارند. او تأکید کرده که در حال حاضر هیچ چارچوب قانونی مشخصی برای حفظ حریم خصوصی چنین گفتگوهایی وجود ندارد؛ مسئلهای که میتواند پیامدهای حقوقی و امنیتی جدی بهدنبال داشته باشد.
محرمانگی قانونی در گفتوگو با هوش مصنوعی وجود ندارد
آلتمن در مصاحبه با پادکست This Past Weekend، با اشاره به نبود استانداردهای حقوقی در حوزه هوش مصنوعی گفت:
«اگر کاربران مسائل عاطفی، روانی یا حقوقی خود را با ChatGPT مطرح کنند، این مکالمات همانند گفتوگو با یک درمانگر، وکیل یا پزشک تحت پوشش محرمانگی قانونی قرار نمیگیرند.»
او ادامه داد:
«در صورت بروز یک شکایت یا پرونده حقوقی، ممکن است از نظر قانونی ملزم به ارائه دادههای مکالمه باشیم؛ این موضوع بهشدت نگرانکننده است، بهویژه زمانی که کاربر انتظار محرمانگی کامل را دارد.»
استفاده درمانی از ChatGPT و خطرات بالقوه آن
طبق گفتههای مدیرعامل OpenAI، بسیاری از کاربران، بهویژه نوجوانان و جوانان، از ChatGPT بهعنوان یک مشاور عاطفی یا درمانگر استفاده میکنند. اما برخلاف مشاوران حرفهای، چتباتها تحت قوانین حفاظت از اطلاعات درمانی قرار نمیگیرند. در نتیجه، مکالمات حساس کاربران میتوانند در معرض افشا قرار گیرند.
آلتمن تصریح کرد که هنوز راهحلی مطمئن برای محافظت از حریم خصوصی کاربران در سطحی مشابه با تعاملات انسانی پیدا نشده و کاربران باید هنگام مطرحکردن مسائل مهم، محتاط باشند.
پرونده نیویورکتایمز و دغدغههای حریم خصوصی
در بخش دیگری از گفتوگو، آلتمن به پرونده حقوقی نیویورکتایمز علیه OpenAI اشاره کرد. در این پرونده، دادگاه از OpenAI خواسته مکالمات کاربران ChatGPT را بهعنوان شواهد ارائه دهد. او این درخواست را «زیادهخواهی» توصیف کرد و گفت:
«اینکه بخواهند مکالمات صدها میلیون کاربر را جمعآوری کنند، کاملاً ناعادلانه است. ما به این حکم اعتراض کردهایم و خواهان حمایت از حریم خصوصی کاربران هستیم.»
وی افزود که تنها کاربران نسخه سازمانی (Enterprise) ChatGPT از محافظت کامل در برابر ذخیرهسازی مکالمات برخوردارند و بقیه کاربران باید مراقب محتوایی که به اشتراک میگذارند، باشند.
جمعبندی
هشدار سم آلتمن بار دیگر نشان میدهد که اگرچه هوش مصنوعی میتواند نقش مؤثری در پشتیبانی عاطفی و حتی درمانی ایفا کند، اما هنوز جایگزینی برای ارتباط انسانی و مشاوره حرفهای نیست. تا زمانی که چارچوبهای حقوقی برای حفاظت از مکالمات خصوصی با هوش مصنوعی ایجاد نشود، کاربران باید با دقت بیشتری با این فناوریها تعامل داشته باشند.










ارسال پاسخ