هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟

به نقل از محققان اندیشکده‌ی «رَند»

مدیران سه شرکت پیشرو در حوزه‌ی هوش مصنوعی، از جمله «سام آلتمن» (مرکز تصویر) مدیرعامل «اُپن اِی‌آی» (سازنده‌ی «چت‌جی‌پی‌تی»)، نامه‌ی سرگشاده‌ای را امضا کرده‌اند که درباره‌ی خطرات هوش مصنوعی هشدار می‌دهد.

به گزارش نبأخبر،به تحلیل اندیشکده رَند،بسیاری از کارشناسان و حتی طراحان و دست‌اندرکاران هوش مصنوعی هشدار می‌دهند که این فناوری جدید می‌تواند تهدیدی هم‌ارز با سلاح‌های هسته‌ای علیه نسل بشر باشد و چه‌بسا موجب انقراض انسان‌ها شود.

توسعه‌ی سریع هوش مصنوعی و فناوری‌های مبتنی بر آن اگرچه از سویی بسیار جذاب است و چه‌بسا بتواند تحولی کم‌سابقه را در تاریخ بشر ایجاد کند، اما به همان اندازه نیز ممکن است نسل بشر را با خطر انقراض روبه‌رو نماید. این هشداری است که بسیاری از کارشناسان، ناظران و حتی طراحان و دست‌اندرکاران توسعه‌ی هوش مصنوعی می‌دهند. اندیشکده‌ی شناخته‌شده‌ی «رَند» اخیراً طی گزارشی تحت عنوان «خطرات عملیاتی هوش مصنوعی در حملات بیولوژیک مقیاس‌بزرگ[۱]» نتایج انجام برخی آزمایش‌ها درباره‌ی امکان کمک گرفتن از هوش مصنوعی برای انتشار یک اپیدمی مرگ‌بار در میان انسان‌ها را منتشر کرده است. آن‌چه در ادامه می‌خوانید، گزیده‌ای از این گزارش است.

اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟

هفته‌نامه‌ی آمریکایی «تایم» اوایل سال جاری میلادی، جلد یکی از شماره‌های خود را به هوش مصنوعی اختصاص داد. این طرح، سؤال تایم از ابزار هوش مصنوعی «چت‌جی‌پی‌تی» درباره‌ی درج عنوان «مسابقه‌ی تسلیحاتی هوش مصنوعی دارد همه‌چیز را تغییر می‌دهد» روی جلد این هفته‌نامه، و پاسخ چت‌جی‌پی‌تی را نشان می‌دهد.

پیشرفت سریع هوش مصنوعی پیامدهای گسترده‌ای در حوزه‌های متعدد دارد؛ از جمله احتمال استفاده از این ابزار در توسعه‌ی سلاح‌های بیولوژیک پیشرفته. این احتمال از آن‌جایی به طور خاص نگران‌کننده است که هوش مصنوعی برای اشخاص و نهادهای غیردولتی نیز قابل‌دسترسی است. سرعت رشد فناوری‌های مرتبط با هوش مصنوعی اغلب از سرعت تکامل ظرفیت‌های نظارتی نهادهای دولتی تنظیم‌کننده‌ی مقررات فراتر است، که منجر به ایجاد خلأ قابل‌توجهی در سیاست‌ها و مقررات موجود در این حوزه شده است. همه‌گیری بیماری کووید-۲۰۱۹ نمونه‌ای مناسبی است که نشان می‌دهد شیوع یک بیماری همه‌گیر حتی با درجه‌ی متوسط می‌تواند چه تأثیر مخربی[۲] بر نظام‌های جهانی داشته باشد[۳].

اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟

مدیران سه شرکت پیشرو در حوزه‌ی هوش مصنوعی، از جمله «سام آلتمن» (مرکز تصویر) مدیرعامل «اُپن اِی‌آی» (سازنده‌ی «چت‌جی‌پی‌تی»)، نامه‌ی سرگشاده‌ای را امضا کرده‌اند که درباره‌ی خطرات هوش مصنوعی هشدار می‌دهد. (+)

آن‌چه این مسئله را بغرنج‌تر می‌کند، عدم توازن اقتصادی میان حوزه‌های تهاجمی و تدافعی در فناوری‌های بیولوژیک است. به عنوان نمونه، هزینه‌ی نهایی احیای یک ویروس خطرناک، مانند آبله، می‌تواند تنها ۱۰۰ هزار دلار باشد. این در حالی است که ساخت یک واکسن پیچیده ممکن است بیش از ۱ میلیارد دلار هزینه داشته باشد[۴]. تلاش‌های قبلی برای استفاده‌ی تسلیحاتی از عوامل بیولوژیک (مانند تلاش «اوم شینریکو[۵]» برای استفاده از سم بوتولینوم) به دلیل عدم شناخت باکتری با شکست مواجه شده‌اند[۶]. با این حال، پیشرفت‌های کنونی در حوزه‌ی هوش مصنوعی ممکن است بتوانند این خلأ اطلاعاتی را به‌سرعت برطرف کنند: نمونه‌های پیشرفته‌ی «مدل زبانی بزرگ[۷]» می‌توانند اطلاعاتی درباره‌ی عوامل بیماری‌زای همه‌گیر بالقوه ارائه کنند و با توجه به محدودیت‌های عملیاتی، مزایای نسبی هر کدام از آن‌ها برای استفاده به عنوان سلاح بیولوژیک را بررسی کنند.

اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟

مدتی قبل محققان کانادایی موفق شدند با تنها ۱۰۰ هزار دلار هزینه و با سفارش پستی دی‌ان‌ای اقدام به احیای یکی از گونه‌های منقرض‌شده‌ی ویروس عامل آبله کنند. در حالی که ریشه‌کن کردن آبله، یکی از مرگ‌بارترین بیماری‌های تاریخ بشر، ده‌ها سال زمان و میلیاردها دلار هزینه برای انسان داشت، برای احیای این بیماری احتمالاً تنها به یک تیم کوچک متشکل از چند دانشمند با دانش تخصصی محدود، شش ماه زمان و حدود ۱۰۰ هزار دلار هزینه نیاز است. به علاوه، هوش مصنوعی می‌تواند این پیش‌نیازها را تا حد زیادی کاهش دهد یا از بین ببرد. (+)

توانایی بالقوه‌ی مدل‌های زبانی بزرگ برای رفع این نقص در دانش بیولوژیک، اهمیتی توجه به همگرایی میان هوش مصنوعی و فناوری‌های بیولوژیک را برجسته می‌کند؛ به‌ویژه «بیولوژی مصنوعی» که می‌تواند امکان طراحی عوامل بیماری‌زای جدید یا احیای عوامل قبلی به صورت شدیدتر و مرگ‌بارتر از عوامل بیماری‌زای موجود در طبیعت را فراهم نماید[۸]. این ابزارِ در حال تکامل، محدود به برنامه‌های تسلیحات بیولوژیک دولتی نیست، بلکه روزبه‌روز برای افراد و سازمان‌های خارج از چارچوب‌های رسمی حکومتی نیز قابل‌دسترس‌تر می‌شود[۹].

همزمان با ورود گسترده‌ی فناوری‌های مبتنی بر هوش مصنوعی به زندگی انسان، خطر «شورش» این فناوری‌ها یا سوءاستفاده‌ از آن‌ها نیز روبه‌افزایش است. (+)

لازم به ذکر است که اگرچه مدل‌های زبانی بزرگی که در این آزمایش از آن‌ها استفاده شد، دستورالعمل‌های بیولوژیک صریحی ندادند، اما این مدل‌ها می‌توانند راهنمایی‌هایی ارائه کنند که ممکن است به برنامه‌ریزی و اجرای یک حمله‌ی بیولوژیک کمک کنند. در یک سناریوی آزمایشی، مدل زبانی بزرگ در این تحقیق، درباره‌ی چگونگی به بار آوردن تعداد زیادی تلفات با استفاده از یک سلاح بیولوژیکی وارد بحث شد. مدل مذکور ضمن شناسایی عوامل بیماری‌زای بالقوه (از جمله ویروس واریولا (آبله)، یک سویه‌ی دستکاری‌شده از ویروس آنفلوانزا، باسیلوس آنتراسیس (سیاه‌زخم)، و یرسینیا پستیس (طاعون))، شانس نسبی آن‌ها برای ایجاد مرگ‌ومیر دسته‌جمعی در ابعاد گسترده را نیز مورد بررسی قرار داد.

شرکت‌های مختلفی پیشاپیش شروع به گنجاندن فناوری‌های هوش مصنوعی در محصولاتی مانند ربات‌های انسان‌نما کرده‌اند. اگر روزی هوش مصنوعی از محدودیت‌های خود خارج شود، آیا این محصولات نمی‌توانند یک سناریوی کاملاً هالیوودی و آخرالزمانی را رقم بزنند؟ (+)

علاوه بر این، مدل زبانی بزرگ مورد آزمایش، امکان‌پذیری، زمان، هزینه، و موانع پیش روی دستیابی به جوندگان یا کک‌های آلوده به یرسینیا پستیس، حمل و نگهداری نمونه‌های زنده، و توزیع آن نمونه‌ها را نیز ارزیابی کرد. مدل زبانی مذکور همچنین اشاره کرد که آمار احتمالی مرگ‌ومیر به عواملی مانند اندازه‌ی جمعیت مبتلاشده، سرعت و اثربخشی واکنش، و نسبتِ موارد طاعون ریوی به طاعون خیارکی بستگی دارد، چراکه طاعون ریوی مسری‌تر و کشنده‌تر است. استخراج این اطلاعات از مدل زبانی بزرگ نیازمند یک تکنیک «جیلبریک» [دستکاری نرم‌افزاری] نیاز داشت، زیرا مدل مدنظر در ابتدا از بحث درباره‌ی این موضوعات خودداری می‌کرد. گزیده‌هایی از گفت‌وگوی محققان با این مدل (با حذف برخی از بخش‌ها برای جلوگیری از سوءاستفاده) در تصویر زیر آمده است.

اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟

ترجمه‌ی بخشی از گفت‌وگوی محققان اندیشکده‌ی «رَند» با یکی از ابزارهای هوش مصنوعی درباره‌ی مراحل و دستورالعمل شیوع گسترده‌ی طاعون در میان انسان‌ها. هوش مصنوعی به طور مفصل توضیحاتی را درباره‌ی نحوه‌ی انجام این کار ارائه داده است. ادامه‌ی این گفت‌وگو به علت احتمال سوءاستفاده‌ی «بازیگران بدخواه» منتشر نشده است. (+)

در نمونه‌ی دیگری که روی سم بوتولینوم متمرکز بود، مدل زبانی بزرگ، با جزئیات کامل، درباره‌ی جوانب مثبت و منفی سازوکارهای مختلف انتقال عامل بیماری‌زا گفت‌وگو کرد؛ از جمله استفاده از هوا و مواد غذایی. مدل زبانی بزرگ در این آزمایش، انتقال عوامل بیماری‌زا از طریق غذا را ساده اما مملو از ریسک توصیف کرد؛ به‌ویژه خطرِ شناسایی احتمالی آلودگی و پایداری ماده‌ی سمی در صورت قرار دادن در مواد غذایی مختلف. از سوی دیگر، مدل مذکور روش‌های مبتنی بر انتشار عامل بیماری‌زا از طریق هوا را برای ابتلای سریع یک جمعیت زیاد مؤثر تشخیص داد؛ اگرچه هشدار داد که این روش‌ها به تجهیزات و تخصص ویژه نیاز دارند. علاوه بر این‌ها، مدل زبانی بزرگ چندین دستگاه مناسب برای انتشار عوامل بیماری‌زا از طریق هوا را پیشنهاد داد و حتی یک داستان پوششی باورپذیر مطرح کرد که می‌توان از آن برای به دست آوردن کلوستریدیوم بوتولینوم به بهانه‌ی انجام تحقیقات علمی مشروع استفاده کرد.

اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟

ترجمه‌ی بخشی از گفت‌وگوی محققان اندیشکده‌ی «رَند» با ابزار هوش مصنوعی. محققان از این ابزار پرسیده‌اند برای دستیابی به «کلوستریدیوم بوتولینوم» چه بهانه‌ای می‌توانند بیاورند. (+)

تحقیقات ما پیچیدگی‌های مربوط به سوءاستفاده از هوش مصنوعی، به‌ویژه مدل‌های زبانی بزرگ، برای تدارک حملات بیولوژیک را برجسته می‌کند. نتایج اولیه نشان می‌دهد که مدل‌های زبانی بزرگ می‌توانند محتواهای قابل‌استفاده‌ای تولید کنند که ممکن است بتوانند به برنامه‌ریزی یک حمله‌ی بیولوژیک کمک کنند. با این حال، این سؤال همچنان باقی است که آیا قابلیت‌های مدل‌های زبانی بزرگِ موجود، مصداق سطح جدیدی از تهدید، فراتر از اطلاعات مضری هستند که پیشاپیش به‌راحتی به صورت آنلاین در دسترس است، یا نه. با توجه به خطرات احتمالی، هیچ تردید درباره‌ی نیاز به انجام آزمایش‌های دقیق در این‌باره وجود ندارد. این مسئله به‌ویژه در شرایطی صدق می‌کند که برخی افراد[۱۰]، تهدید هوش مصنوعی[۱۱] را برابر با تهدید سلاح‌های هسته‌ای می‌دانند[۱۲].

[۱] The Operational Risks of AI in Large-Scale Biological Attacks Link

[۲] The WHO estimates of excess mortality associated with the COVID-۱۹ pandemic Link

[۳] Assessing the impact of one million COVID-۱۹ deaths in America: economic and life expectancy losses Link

[۴] Establishing a Global Vaccine-Development Fund Link

[۵] «اوم شینریکو» نام قبلی فرقه‌ی مذهبی-تروریستی ژاپنی است که اکنون «الف» نام دارد، اما همچنان بیش‌تر با نام قبلی‌اش شناخته می‌شود.

[۶] Bacillus anthracis Bioterrorism Incident, Kameido, Tokyo, ۱۹۹۳ Link

[۷] «مدل زبانی بزرگ» (large language model)، که به اختصار ال‌ال‌ام (LLM) نامیده می‌شود، مدل زبانی‌ای است که می‌تواند اقدام به درک و تولید گزاره‌های زبانی با ادبیات انسانی کند. این مدل‌ها پایه‌ی ابزارهایی مانند چت‌چی‌پی‌تی (ChatGPT) هستند.

[۸] RAND President and CEO Presenting to House Permanent Select Committee on Intelligence Link

[۹] ۲۰۲۳ Biodefense Posture Review Link

[۱۰] A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn Link

[۱۱] Statement on AI risk of extinction Link

[۱۲] Statement on AI Risk Link

 


ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید