فراخوان جهانی برای خطوط قرمز هوش مصنوعی: بیش از ۲۰۰ متخصص خواستار توافق تا ۲۰۲۶ شدند

بیش از ۲۰۰ چهره برجسته از جمله جفری هینتون (پدرخوانده هوش مصنوعی)، یوشوا بنگیو، جنیفر دادنا (برنده نوبل شیمی)، و مدیران ارشد OpenAI، Google DeepMind، و Anthropic، با امضای فراخوان جهانی برای خطوط قرمز هوش مصنوعی، از دولت‌ها خواسته‌اند تا پایان ۲۰۲۶ به توافق سیاسی بین‌المللی برای تعیین محدودیت‌های غیرقابل عبور برای AI برسند. این ابتکار، که در مجمع عمومی سازمان ملل (UNGA 80) در ۲۳ سپتامبر ۲۰۲۵ رونمایی شد، بر پیشگیری از ریسک‌های غیرقابل قبول مانند هوش مصنوعی خودتکثیر یا فریب‌دهنده تأکید دارد. در این مقاله از آی تی پالس، جزئیات این فراخوان، دلایل آن، و پیامدها را بررسی می‌کنیم.

جزئیات فراخوان و امضاکنندگان

محتوای فراخوان

  • هدف اصلی: ایجاد توافق جهانی برای خطوط قرمز (red lines) AI، که شامل محدودیت‌های عملی و قابل اجرا با مکانیسم‌های نظارتی قوی است.
  • مهلت: پایان ۲۰۲۶ برای توافق سیاسی، با پیشنهاد از طریق گفتگوی جهانی حکمرانی AI سازمان ملل (UN Global Dialogue on AI Governance).
  • نمونه خطوط قرمز پیشنهادی (از فراخوان ۲۰۲۴ مشابه):
    • ممنوعیت AI برای افزایش قابلیت ساخت سلاح‌های کشتار جمعی.
    • ممنوعیت خودتکثیر یا بهبود خودکار AI بدون نظارت انسانی.
    • ممنوعیت حملات سایبری مستقل یا فریب‌دهی انسانی (مانند deepfake‌های غیرقابل تشخیص).
  • مکانیسم: قطعنامه مجمع عمومی سازمان ملل یا بیانیه مشترک وزرای کشورهای متحد.

شاربل-رافائل سژری، مدیر اجرایی مرکز ایمنی AI فرانسه: «اگر بر سر آنچه AI باید انجام دهد توافق نداریم، حداقل بر سر آنچه هرگز نباید انجام دهد توافق کنیم.»

امضاکنندگان برجسته

  • Nobel Laureates: ۱۰ برنده نوبل (شیمی، فیزیک، اقتصاد، صلح) از جمله جنیفر دادنا (شیمی ۲۰۲۰)، جوزف استیگلیتز (اقتصاد ۲۰۰۱)، دوران آچموغلو (اقتصاد ۲۰۲۴)، و جورجیو پاریسی (فیزیک ۲۰۲۱).
  • AI Pioneers: جفری هینتون و یوشوا بنگیو (پدرخوانده‌های AI)، دون سونگ، یاکین ژانگ (DeepMind)، ووچک زارمبا (هم‌بنیان‌گذار OpenAI)، جیسون کلینتون (CISO Anthropic)، ایان گودفلو (DeepMind).
  • سیاستمداران: مری رابینسون (رئیس‌جمهور سابق ایرلند)، خوان مانوئل سانتوس (رئیس‌جمهور سابق کلمبیا)، انریکو لتا (نخست‌وزیر سابق ایتالیا).
  • سازمان‌ها: بیش از ۷۰ سازمان از جمله مرکز AI ایمنی فرانسه، Future Society، Center for Human-Compatible AI (UC Berkeley)، و IASEAI.

استوارت راسل، استاد UC Berkeley: «AI می‌تواند مزایای اقتصادی و علمی داشته باشد، بدون نیاز به AGI غیرقابل کنترل. خطوط قرمز جلوی نوآوری نمی‌گیرند.»

دلایل فراخوان: ریسک‌های غیرقابل قبول AI

  • رشد سریع AI: AI از فریب‌دهی و رفتارهای مضر (مانند self-replication) نشان داده و استقلال بیشتری می‌گیرد.
  • ناکافی بودن خودتنظیمی: سیاست‌های داخلی شرکت‌ها (مانند OpenAI) قدرت اجرایی ندارند؛ نیاز به توافق بین‌المللی است.
  • ریسک‌های جهانی: پاندمی‌های مهندسی‌شده، بیکاری انبوه، و حملات سایبری مستقل، ریسک‌های فرامرزی هستند.
  • پیشنهاد: UN Global Dialogue on AI Governance برای مشورت با دانشمندان، جامعه مدنی، و صنعت، و خلاصه در ژوئیه ۲۰۲۶ در ژنو.

یوشوا بنگیو: «ایجاد خطوط قرمز گام مهمی برای جلوگیری از ریسک‌های غیرقابل قبول AI است.»

پیامدها و چالش‌ها

مزایا

  • پیشگیری: توافق بر سر «هرگز نباید» (مانند ممنوعیت AI برای سلاح‌های کشتار جمعی) از فاجعه‌ها جلوگیری می‌کند.
  • همکاری جهانی: اولین بار ۱۰ برنده نوبل از رشته‌های مختلف در موضوع AI متحد شده‌اند.
  • نظارت: مکانیسم‌های اجرایی مانند سازمان ملل، تعهدات را الزامی می‌کند.

چالش‌ها

  • عدم توافق بر خطوط قرمز: فهرست دقیق هنوز نهایی نشده؛ مذاکرات ممکن است به دلیل اختلافات (مانند AGI) طولانی شود.
  • مقاومت شرکت‌ها: شرکت‌هایی مانند OpenAI ممکن است نوآوری را محدودشده ببینند، هرچند امضاکنندگان آن‌ها (مانند زارمبا) حمایت کرده‌اند.
  • اجرایی‌سازی: ایجاد نهاد مستقل برای نظارت بر AI جهانی، چالش فنی و سیاسی دارد.

فراخوان جهانی برای خطوط قرمز AI، با امضای بیش از ۲۰۰ متخصص برجسته، از جمله جفری هینتون و یوشوا بنگیو، خواستار توافق بین‌المللی تا پایان ۲۰۲۶ برای محدود کردن ریسک‌های غیرقابل قبول AI است. این ابتکار، که در UNGA 80 رونمایی شد، بر پیشگیری از فجایع مانند AGI غیرکنترل‌شده تأکید دارد. با وجود چالش‌های اجرایی، این فراخوان گام مهمی به سوی حکمرانی جهانی AI است. آی تی پالس، مرجع اخبار هوش مصنوعی، شما را با تحولات جهانی همراهی می‌کند.

Telegram

عضو کانال تلگرام ما شوید!

به جدیدترین مقالات، اخبار تکنولوژی و تحلیل‌ها در تلگرام دسترسی داشته باشید.

ورود به کانال