بیش از ۲۰۰ چهره برجسته از جمله جفری هینتون (پدرخوانده هوش مصنوعی)، یوشوا بنگیو، جنیفر دادنا (برنده نوبل شیمی)، و مدیران ارشد OpenAI، Google DeepMind، و Anthropic، با امضای فراخوان جهانی برای خطوط قرمز هوش مصنوعی، از دولتها خواستهاند تا پایان ۲۰۲۶ به توافق سیاسی بینالمللی برای تعیین محدودیتهای غیرقابل عبور برای AI برسند. این ابتکار، که در مجمع عمومی سازمان ملل (UNGA 80) در ۲۳ سپتامبر ۲۰۲۵ رونمایی شد، بر پیشگیری از ریسکهای غیرقابل قبول مانند هوش مصنوعی خودتکثیر یا فریبدهنده تأکید دارد. در این مقاله از آی تی پالس، جزئیات این فراخوان، دلایل آن، و پیامدها را بررسی میکنیم.
جزئیات فراخوان و امضاکنندگان
محتوای فراخوان
- هدف اصلی: ایجاد توافق جهانی برای خطوط قرمز (red lines) AI، که شامل محدودیتهای عملی و قابل اجرا با مکانیسمهای نظارتی قوی است.
- مهلت: پایان ۲۰۲۶ برای توافق سیاسی، با پیشنهاد از طریق گفتگوی جهانی حکمرانی AI سازمان ملل (UN Global Dialogue on AI Governance).
- نمونه خطوط قرمز پیشنهادی (از فراخوان ۲۰۲۴ مشابه):
- ممنوعیت AI برای افزایش قابلیت ساخت سلاحهای کشتار جمعی.
- ممنوعیت خودتکثیر یا بهبود خودکار AI بدون نظارت انسانی.
- ممنوعیت حملات سایبری مستقل یا فریبدهی انسانی (مانند deepfakeهای غیرقابل تشخیص).
- مکانیسم: قطعنامه مجمع عمومی سازمان ملل یا بیانیه مشترک وزرای کشورهای متحد.
شاربل-رافائل سژری، مدیر اجرایی مرکز ایمنی AI فرانسه: «اگر بر سر آنچه AI باید انجام دهد توافق نداریم، حداقل بر سر آنچه هرگز نباید انجام دهد توافق کنیم.»
امضاکنندگان برجسته
- Nobel Laureates: ۱۰ برنده نوبل (شیمی، فیزیک، اقتصاد، صلح) از جمله جنیفر دادنا (شیمی ۲۰۲۰)، جوزف استیگلیتز (اقتصاد ۲۰۰۱)، دوران آچموغلو (اقتصاد ۲۰۲۴)، و جورجیو پاریسی (فیزیک ۲۰۲۱).
- AI Pioneers: جفری هینتون و یوشوا بنگیو (پدرخواندههای AI)، دون سونگ، یاکین ژانگ (DeepMind)، ووچک زارمبا (همبنیانگذار OpenAI)، جیسون کلینتون (CISO Anthropic)، ایان گودفلو (DeepMind).
- سیاستمداران: مری رابینسون (رئیسجمهور سابق ایرلند)، خوان مانوئل سانتوس (رئیسجمهور سابق کلمبیا)، انریکو لتا (نخستوزیر سابق ایتالیا).
- سازمانها: بیش از ۷۰ سازمان از جمله مرکز AI ایمنی فرانسه، Future Society، Center for Human-Compatible AI (UC Berkeley)، و IASEAI.
استوارت راسل، استاد UC Berkeley: «AI میتواند مزایای اقتصادی و علمی داشته باشد، بدون نیاز به AGI غیرقابل کنترل. خطوط قرمز جلوی نوآوری نمیگیرند.»
دلایل فراخوان: ریسکهای غیرقابل قبول AI
- رشد سریع AI: AI از فریبدهی و رفتارهای مضر (مانند self-replication) نشان داده و استقلال بیشتری میگیرد.
- ناکافی بودن خودتنظیمی: سیاستهای داخلی شرکتها (مانند OpenAI) قدرت اجرایی ندارند؛ نیاز به توافق بینالمللی است.
- ریسکهای جهانی: پاندمیهای مهندسیشده، بیکاری انبوه، و حملات سایبری مستقل، ریسکهای فرامرزی هستند.
- پیشنهاد: UN Global Dialogue on AI Governance برای مشورت با دانشمندان، جامعه مدنی، و صنعت، و خلاصه در ژوئیه ۲۰۲۶ در ژنو.
یوشوا بنگیو: «ایجاد خطوط قرمز گام مهمی برای جلوگیری از ریسکهای غیرقابل قبول AI است.»
پیامدها و چالشها
مزایا
- پیشگیری: توافق بر سر «هرگز نباید» (مانند ممنوعیت AI برای سلاحهای کشتار جمعی) از فاجعهها جلوگیری میکند.
- همکاری جهانی: اولین بار ۱۰ برنده نوبل از رشتههای مختلف در موضوع AI متحد شدهاند.
- نظارت: مکانیسمهای اجرایی مانند سازمان ملل، تعهدات را الزامی میکند.
چالشها
- عدم توافق بر خطوط قرمز: فهرست دقیق هنوز نهایی نشده؛ مذاکرات ممکن است به دلیل اختلافات (مانند AGI) طولانی شود.
- مقاومت شرکتها: شرکتهایی مانند OpenAI ممکن است نوآوری را محدودشده ببینند، هرچند امضاکنندگان آنها (مانند زارمبا) حمایت کردهاند.
- اجراییسازی: ایجاد نهاد مستقل برای نظارت بر AI جهانی، چالش فنی و سیاسی دارد.
فراخوان جهانی برای خطوط قرمز AI، با امضای بیش از ۲۰۰ متخصص برجسته، از جمله جفری هینتون و یوشوا بنگیو، خواستار توافق بینالمللی تا پایان ۲۰۲۶ برای محدود کردن ریسکهای غیرقابل قبول AI است. این ابتکار، که در UNGA 80 رونمایی شد، بر پیشگیری از فجایع مانند AGI غیرکنترلشده تأکید دارد. با وجود چالشهای اجرایی، این فراخوان گام مهمی به سوی حکمرانی جهانی AI است. آی تی پالس، مرجع اخبار هوش مصنوعی، شما را با تحولات جهانی همراهی میکند.










ارسال پاسخ