چالش‌های اخلاقی دستگاه‌های خوانش مغز و راهکارهای پیشنهادی برای محافظت از حقوق بشر

آغاز عصری نوین در فناوری‌های عصبی

در سال ۲۰۲۲، “ان جانسون” پس از دو دهه ناتوانی در تکلم و حرکت به دلیل سکته مغزی، برای نخستین‌بار صدای خود را از طریق یک آواتار شنید. این اتفاق شگفت‌انگیز به‌واسطه یک ایمپلنت مغزی ممکن شد. این دستگاه بخشی از نسل جدیدی از فناوری‌های عصبی است که در پنج سال اخیر وارد مرحله آزمایش انسانی شده‌اند.

شرکت‌هایی مانند Neuralink (به رهبری ایلان ماسک) و گروه‌های پژوهشی مختلف، اکنون در حال توسعه سیستم‌هایی هستند که با دستکاری فعالیت‌های سیستم عصبی، عملکردهایی مانند گفتار، لمس و حرکت را تحت تأثیر قرار می‌دهند.

نشست یونسکو و شکل‌گیری اصول اخلاقی جهانی

ماه گذشته، یونسکو میزبان نشستی در پاریس بود که در آن دانشمندان، اخلاق‌پژوهان و متخصصان حقوقی گرد هم آمدند تا مجموعه‌ای از اصول اخلاقی برای مدیریت این فناوری‌ها تدوین کنند. در نهایت ۹ اصل بنیادین به تصویب رسید که هدف آن‌ها حفاظت از حقوق کاربران و جلوگیری از سوء‌استفاده از فناوری‌هایی است که می‌توانند استقلال و آزادی اندیشه انسان را تهدید کنند.

یکی از مهم‌ترین توصیه‌ها، الزام شرکت‌های فناوری به شفاف‌سازی درباره نحوه جمع‌آوری و استفاده از داده‌های عصبی است. همچنین تأکید شده که ایمنی روانی و بلندمدت کاربران باید تضمین شود.

دستگاه‌های عصبی مصرفی و تهدید حریم خصوصی ذهن

در حالی‌که دستگاه‌های پزشکی کاشتنی تحت قوانین مشخصی در ایالات متحده و اتحادیه اروپا کنترل می‌شوند، دستگاه‌های مصرفی غیرپزشکی مانند ابزارهای پوشیدنی هنوز در وضعیت نظارتی نامشخصی قرار دارند. این دستگاه‌ها به‌دلیل قابلیت گسترش سریع، چالش‌های اخلاقی تازه‌ای به همراه دارند.

یکی از نگرانی‌های اصلی، استفاده از فناوری در محیط‌های آموزشی برای سنجش عملکرد دانش‌آموزان یا معلمان است؛ اقدامی که می‌تواند نابرابری‌های موجود را تشدید کند. همچنین اطلاعاتی مانند حرکت چشم یا تن صدا ممکن است برای استنباط وضعیت ذهنی فرد یا فعالیت مغزی او به کار رود، حتی در شرایطی مانند خواب که فرد از آن بی‌اطلاع است.

نورو مارکتینگ؛ دستکاری تصمیمات در سایه ناآگاهی

نمونه‌ای از سوءاستفاده‌های احتمالی، کاربرد فناوری‌های مغزی در حوزه بازاریابی عصبی یا تبلیغات سیاسی است؛ جایی که فعالیت‌های ذهنی افراد بدون رضایت آن‌ها هدف قرار گرفته و تصمیم‌گیری‌شان دستکاری می‌شود.

“مارچلو اینکا”، متخصص اخلاق در دانشگاه فنی مونیخ، هشدار می‌دهد که داده‌های مربوط به مغز و ذهن باید با بالاترین سطح حفاظت ذخیره و پردازش شوند تا از افشای غیرمجاز اطلاعات ذهنی جلوگیری شود.

رضایت آگاهانه؛ کلید حفاظت از حریم ذهنی

یکی از اصول پیشنهادی برای حفظ حریم ذهن، دریافت رضایت آگاهانه، آزادانه و پیشینی از کاربران است؛ رضایتی که باید شامل حق انصراف در هر مرحله باشد. با این حال، برخی متخصصان مانند “ویکرام بارگاوا” معتقدند که حتی با رضایت فرد، داده‌های عصبی می‌توانند به‌طور غیرمستقیم اطلاعات افراد مشابه را نیز فاش کنند.

برخلاف این دیدگاه، “پدرو مالدونادو”، عصب‌پژوه اهل شیلی، باور دارد که شباهت‌های رفتاری افراد بیشتر به سبک زندگی مرتبط است تا ساختار عملکرد مغز.

ضرورت استاندارد جهانی برای فناوری‌های عصبی

“نیتا فراهانی”، استاد حقوق و اخلاق زیستی در دانشگاه دوک، معتقد است تدوین یک استاندارد جهانی که کشورها به آن پایبند باشند اقدامی بسیار تأثیرگذار خواهد بود. اگرچه در برخی کشورها مانند آمریکا رویکردهایی برای کاهش قوانین در حوزه‌هایی نظیر هوش مصنوعی دیده می‌شود، اما فراهانی بر این باور است که توسعه‌دهندگان باید تشویق شوند تا ویژگی‌هایی را در طراحی محصولات خود بگنجانند که از کاربران محافظت بیشتری به عمل آورد.