مدیران سه شرکت پیشرو در حوزهی هوش مصنوعی، از جمله «سام آلتمن» (مرکز تصویر) مدیرعامل «اُپن اِیآی» (سازندهی «چتجیپیتی»)، نامهی سرگشادهای را امضا کردهاند که دربارهی خطرات هوش مصنوعی هشدار میدهد.
به گزارش نبأخبر،به تحلیل اندیشکده رَند،بسیاری از کارشناسان و حتی طراحان و دستاندرکاران هوش مصنوعی هشدار میدهند که این فناوری جدید میتواند تهدیدی همارز با سلاحهای هستهای علیه نسل بشر باشد و چهبسا موجب انقراض انسانها شود.
توسعهی سریع هوش مصنوعی و فناوریهای مبتنی بر آن اگرچه از سویی بسیار جذاب است و چهبسا بتواند تحولی کمسابقه را در تاریخ بشر ایجاد کند، اما به همان اندازه نیز ممکن است نسل بشر را با خطر انقراض روبهرو نماید. این هشداری است که بسیاری از کارشناسان، ناظران و حتی طراحان و دستاندرکاران توسعهی هوش مصنوعی میدهند. اندیشکدهی شناختهشدهی «رَند» اخیراً طی گزارشی تحت عنوان «خطرات عملیاتی هوش مصنوعی در حملات بیولوژیک مقیاسبزرگ[۱]» نتایج انجام برخی آزمایشها دربارهی امکان کمک گرفتن از هوش مصنوعی برای انتشار یک اپیدمی مرگبار در میان انسانها را منتشر کرده است. آنچه در ادامه میخوانید، گزیدهای از این گزارش است.
هفتهنامهی آمریکایی «تایم» اوایل سال جاری میلادی، جلد یکی از شمارههای خود را به هوش مصنوعی اختصاص داد. این طرح، سؤال تایم از ابزار هوش مصنوعی «چتجیپیتی» دربارهی درج عنوان «مسابقهی تسلیحاتی هوش مصنوعی دارد همهچیز را تغییر میدهد» روی جلد این هفتهنامه، و پاسخ چتجیپیتی را نشان میدهد.
پیشرفت سریع هوش مصنوعی پیامدهای گستردهای در حوزههای متعدد دارد؛ از جمله احتمال استفاده از این ابزار در توسعهی سلاحهای بیولوژیک پیشرفته. این احتمال از آنجایی به طور خاص نگرانکننده است که هوش مصنوعی برای اشخاص و نهادهای غیردولتی نیز قابلدسترسی است. سرعت رشد فناوریهای مرتبط با هوش مصنوعی اغلب از سرعت تکامل ظرفیتهای نظارتی نهادهای دولتی تنظیمکنندهی مقررات فراتر است، که منجر به ایجاد خلأ قابلتوجهی در سیاستها و مقررات موجود در این حوزه شده است. همهگیری بیماری کووید-۲۰۱۹ نمونهای مناسبی است که نشان میدهد شیوع یک بیماری همهگیر حتی با درجهی متوسط میتواند چه تأثیر مخربی[۲] بر نظامهای جهانی داشته باشد[۳].
مدیران سه شرکت پیشرو در حوزهی هوش مصنوعی، از جمله «سام آلتمن» (مرکز تصویر) مدیرعامل «اُپن اِیآی» (سازندهی «چتجیپیتی»)، نامهی سرگشادهای را امضا کردهاند که دربارهی خطرات هوش مصنوعی هشدار میدهد. (+)
آنچه این مسئله را بغرنجتر میکند، عدم توازن اقتصادی میان حوزههای تهاجمی و تدافعی در فناوریهای بیولوژیک است. به عنوان نمونه، هزینهی نهایی احیای یک ویروس خطرناک، مانند آبله، میتواند تنها ۱۰۰ هزار دلار باشد. این در حالی است که ساخت یک واکسن پیچیده ممکن است بیش از ۱ میلیارد دلار هزینه داشته باشد[۴]. تلاشهای قبلی برای استفادهی تسلیحاتی از عوامل بیولوژیک (مانند تلاش «اوم شینریکو[۵]» برای استفاده از سم بوتولینوم) به دلیل عدم شناخت باکتری با شکست مواجه شدهاند[۶]. با این حال، پیشرفتهای کنونی در حوزهی هوش مصنوعی ممکن است بتوانند این خلأ اطلاعاتی را بهسرعت برطرف کنند: نمونههای پیشرفتهی «مدل زبانی بزرگ[۷]» میتوانند اطلاعاتی دربارهی عوامل بیماریزای همهگیر بالقوه ارائه کنند و با توجه به محدودیتهای عملیاتی، مزایای نسبی هر کدام از آنها برای استفاده به عنوان سلاح بیولوژیک را بررسی کنند.
مدتی قبل محققان کانادایی موفق شدند با تنها ۱۰۰ هزار دلار هزینه و با سفارش پستی دیانای اقدام به احیای یکی از گونههای منقرضشدهی ویروس عامل آبله کنند. در حالی که ریشهکن کردن آبله، یکی از مرگبارترین بیماریهای تاریخ بشر، دهها سال زمان و میلیاردها دلار هزینه برای انسان داشت، برای احیای این بیماری احتمالاً تنها به یک تیم کوچک متشکل از چند دانشمند با دانش تخصصی محدود، شش ماه زمان و حدود ۱۰۰ هزار دلار هزینه نیاز است. به علاوه، هوش مصنوعی میتواند این پیشنیازها را تا حد زیادی کاهش دهد یا از بین ببرد. (+)
توانایی بالقوهی مدلهای زبانی بزرگ برای رفع این نقص در دانش بیولوژیک، اهمیتی توجه به همگرایی میان هوش مصنوعی و فناوریهای بیولوژیک را برجسته میکند؛ بهویژه «بیولوژی مصنوعی» که میتواند امکان طراحی عوامل بیماریزای جدید یا احیای عوامل قبلی به صورت شدیدتر و مرگبارتر از عوامل بیماریزای موجود در طبیعت را فراهم نماید[۸]. این ابزارِ در حال تکامل، محدود به برنامههای تسلیحات بیولوژیک دولتی نیست، بلکه روزبهروز برای افراد و سازمانهای خارج از چارچوبهای رسمی حکومتی نیز قابلدسترستر میشود[۹].
همزمان با ورود گستردهی فناوریهای مبتنی بر هوش مصنوعی به زندگی انسان، خطر «شورش» این فناوریها یا سوءاستفاده از آنها نیز روبهافزایش است. (+)
لازم به ذکر است که اگرچه مدلهای زبانی بزرگی که در این آزمایش از آنها استفاده شد، دستورالعملهای بیولوژیک صریحی ندادند، اما این مدلها میتوانند راهنماییهایی ارائه کنند که ممکن است به برنامهریزی و اجرای یک حملهی بیولوژیک کمک کنند. در یک سناریوی آزمایشی، مدل زبانی بزرگ در این تحقیق، دربارهی چگونگی به بار آوردن تعداد زیادی تلفات با استفاده از یک سلاح بیولوژیکی وارد بحث شد. مدل مذکور ضمن شناسایی عوامل بیماریزای بالقوه (از جمله ویروس واریولا (آبله)، یک سویهی دستکاریشده از ویروس آنفلوانزا، باسیلوس آنتراسیس (سیاهزخم)، و یرسینیا پستیس (طاعون))، شانس نسبی آنها برای ایجاد مرگومیر دستهجمعی در ابعاد گسترده را نیز مورد بررسی قرار داد.
شرکتهای مختلفی پیشاپیش شروع به گنجاندن فناوریهای هوش مصنوعی در محصولاتی مانند رباتهای انساننما کردهاند. اگر روزی هوش مصنوعی از محدودیتهای خود خارج شود، آیا این محصولات نمیتوانند یک سناریوی کاملاً هالیوودی و آخرالزمانی را رقم بزنند؟ (+)
علاوه بر این، مدل زبانی بزرگ مورد آزمایش، امکانپذیری، زمان، هزینه، و موانع پیش روی دستیابی به جوندگان یا ککهای آلوده به یرسینیا پستیس، حمل و نگهداری نمونههای زنده، و توزیع آن نمونهها را نیز ارزیابی کرد. مدل زبانی مذکور همچنین اشاره کرد که آمار احتمالی مرگومیر به عواملی مانند اندازهی جمعیت مبتلاشده، سرعت و اثربخشی واکنش، و نسبتِ موارد طاعون ریوی به طاعون خیارکی بستگی دارد، چراکه طاعون ریوی مسریتر و کشندهتر است. استخراج این اطلاعات از مدل زبانی بزرگ نیازمند یک تکنیک «جیلبریک» [دستکاری نرمافزاری] نیاز داشت، زیرا مدل مدنظر در ابتدا از بحث دربارهی این موضوعات خودداری میکرد. گزیدههایی از گفتوگوی محققان با این مدل (با حذف برخی از بخشها برای جلوگیری از سوءاستفاده) در تصویر زیر آمده است.
اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟
ترجمهی بخشی از گفتوگوی محققان اندیشکدهی «رَند» با یکی از ابزارهای هوش مصنوعی دربارهی مراحل و دستورالعمل شیوع گستردهی طاعون در میان انسانها. هوش مصنوعی به طور مفصل توضیحاتی را دربارهی نحوهی انجام این کار ارائه داده است. ادامهی این گفتوگو به علت احتمال سوءاستفادهی «بازیگران بدخواه» منتشر نشده است. (+)
در نمونهی دیگری که روی سم بوتولینوم متمرکز بود، مدل زبانی بزرگ، با جزئیات کامل، دربارهی جوانب مثبت و منفی سازوکارهای مختلف انتقال عامل بیماریزا گفتوگو کرد؛ از جمله استفاده از هوا و مواد غذایی. مدل زبانی بزرگ در این آزمایش، انتقال عوامل بیماریزا از طریق غذا را ساده اما مملو از ریسک توصیف کرد؛ بهویژه خطرِ شناسایی احتمالی آلودگی و پایداری مادهی سمی در صورت قرار دادن در مواد غذایی مختلف. از سوی دیگر، مدل مذکور روشهای مبتنی بر انتشار عامل بیماریزا از طریق هوا را برای ابتلای سریع یک جمعیت زیاد مؤثر تشخیص داد؛ اگرچه هشدار داد که این روشها به تجهیزات و تخصص ویژه نیاز دارند. علاوه بر اینها، مدل زبانی بزرگ چندین دستگاه مناسب برای انتشار عوامل بیماریزا از طریق هوا را پیشنهاد داد و حتی یک داستان پوششی باورپذیر مطرح کرد که میتوان از آن برای به دست آوردن کلوستریدیوم بوتولینوم به بهانهی انجام تحقیقات علمی مشروع استفاده کرد.
اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟
ترجمهی بخشی از گفتوگوی محققان اندیشکدهی «رَند» با ابزار هوش مصنوعی. محققان از این ابزار پرسیدهاند برای دستیابی به «کلوستریدیوم بوتولینوم» چه بهانهای میتوانند بیاورند. (+)
تحقیقات ما پیچیدگیهای مربوط به سوءاستفاده از هوش مصنوعی، بهویژه مدلهای زبانی بزرگ، برای تدارک حملات بیولوژیک را برجسته میکند. نتایج اولیه نشان میدهد که مدلهای زبانی بزرگ میتوانند محتواهای قابلاستفادهای تولید کنند که ممکن است بتوانند به برنامهریزی یک حملهی بیولوژیک کمک کنند. با این حال، این سؤال همچنان باقی است که آیا قابلیتهای مدلهای زبانی بزرگِ موجود، مصداق سطح جدیدی از تهدید، فراتر از اطلاعات مضری هستند که پیشاپیش بهراحتی به صورت آنلاین در دسترس است، یا نه. با توجه به خطرات احتمالی، هیچ تردید دربارهی نیاز به انجام آزمایشهای دقیق در اینباره وجود ندارد. این مسئله بهویژه در شرایطی صدق میکند که برخی افراد[۱۰]، تهدید هوش مصنوعی[۱۱] را برابر با تهدید سلاحهای هستهای میدانند[۱۲].
[۱] The Operational Risks of AI in Large-Scale Biological Attacks Link
[۲] The WHO estimates of excess mortality associated with the COVID-۱۹ pandemic Link
[۳] Assessing the impact of one million COVID-۱۹ deaths in America: economic and life expectancy losses Link
[۴] Establishing a Global Vaccine-Development Fund Link
[۵] «اوم شینریکو» نام قبلی فرقهی مذهبی-تروریستی ژاپنی است که اکنون «الف» نام دارد، اما همچنان بیشتر با نام قبلیاش شناخته میشود.
[۶] Bacillus anthracis Bioterrorism Incident, Kameido, Tokyo, ۱۹۹۳ Link
[۷] «مدل زبانی بزرگ» (large language model)، که به اختصار الالام (LLM) نامیده میشود، مدل زبانیای است که میتواند اقدام به درک و تولید گزارههای زبانی با ادبیات انسانی کند. این مدلها پایهی ابزارهایی مانند چتچیپیتی (ChatGPT) هستند.
[۸] RAND President and CEO Presenting to House Permanent Select Committee on Intelligence Link
[۹] ۲۰۲۳ Biodefense Posture Review Link
[۱۰] A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn Link
[۱۱] Statement on AI risk of extinction Link
[۱۲] Statement on AI Risk Link