پارادوکس قدرت هوش مصنوعی

به تحلیل منابع کارشناسی

هوش مصنوعی
هوش مصنوعی

مهمترین رابطه جهانی در حوزه هوش مصنوعی، رابطه بین ایالات متحده و چین است. رقابت کنترل‌نشده در حوزه هوش مصنوعی، می‌تواند همه امیدها را برای شکل‌دادن به یک اجماع بین‌المللی روی حکمرانی هوش مصنوعی ناامید کند. یکی از حوزه‌هایی که ممکن است واشنگتن و پکن همکاری در آن را مفید ببینند، کاهش سرعت گسترش سیستم‌های قدرتمندی است که می‌توانند اتوریته دولت-‌ملت‌ها را به خطر بیندازند.

به گزارش نبأخبر،سال ۲۰۳۵ است و هوش مصنوعی همه جا هست. سیستم‌های هوش مصنوعی بیمارستان‌ها را اداره می‌کنند، خطوط هوایی را مدیریت می‌کنند و با یکدیگر در دادگاه‌ها نبرد می‌کنند. تولید به سطوح بی‌سابقه‌ای رسیده. کسب‌وکارهای بی‌شماری که پیشتر غیرقابل‌تصور بودند، با سرعت خیره‌کننده در حال رشد هستند و پیشرفت‌های عظیم در رفاه حاصل می‌کنند. محصولات، درمان‌ها و نوآوری‌های جدید هر روز به بازار می‌آیند و علم و فناوری شتاب تازه‌ای می‌گیرند. با این حال، دنیا هم غیرقابل‌پیش‌بینی‌تر می‌شود و هم شکننده‌تر. تروریست‌ها راه‌های جدیدی می‌يابند تا با تسلیحات هوشمند در حال تکامل، جوامع را تهدید کنند و کارگران یقه‌سفید، گروه‌گروه کارشان را از دست می‌دهند. همین یک سال پیش، چنین سناریویی به نظر کاملاً تخیلی می‌آمد. امروز به نظر تقریباً اجتناب‌ناپذیر است. سیستم‌های هوش مصنوعی مولد همین حالا هم می‌توانند واضح‌تر و قانع‌کننده‌تر از بیشتر انسان‌ها بنویسند و می‌توانند تصاویر، آثار هنری و حتی کدهای رایانه‌ای اصلی تولید کنند؛ براساس دستورات ساده زبانی. هوش مصنوعی مولد هم فقط نوک کوه یخ است. از راه رسیدن آن، یک «انفجار بزرگ» است، شروع انقلابی تکنولوژیک که دنیا را تغییر می‌دهد و به سیاست، اقتصاد و جامعه شکل جدیدی می‌دهد. همانند امواج پیشین فناوری، هوش مصنوعی رشد و فرصت خارق‌العاده را در کنار اخلال و ریسک شدید دارد؛ اما برخلاف امواج پیشین، زلزله‌ای هم در ساختار و تعادل قدرت جهانی ایجاد می‌کند و تهدیدی برای جایگاه دولت-‌ملت‌ها به‌عنوان بازیگران اصلی ژئوپلیتیک در جهان است. تولیدکنندگان هوش مصنوعی، بپذیرند یا نه، خودشان بازیگران ژئوپلیتیک هستند و خودمختاری و استقلالی که در هوش مصنوعی دارند، نظم «قطب‌های فناوری» را تعمیق می‌کند؛ نظمی که در آن شرکت‌های فناوری قدرتی را در دامنه اختیار خود دارند که زمانی مخصوص دولت-‌ملت‌ها بود. در یک دهه گذشته، شرکت‌های بزرگ فناوری در عرصه‌های دیجیتالی که ساخته‌اند، عملا به بازیگرانی مستقل و خودمختار تبدیل شده‌اند. هوش مصنوعی این روند را تسریع می‌کند و آن را بسیار فراتر از دنیای دیجیتال می‌گستراند. پیچیدگی فناوری و سرعت پیشرفتش، باعث می‌شود ایجاد قواعد مربوط به آن با سرعتی معقول برای دولت‌ها تقریبا غیرممکن شود. اگر دولت‌ها همین روزها به آن نرسند، ممکن است دیگر هرگز نرسند. خوشبختانه، سیاستگذاران سراسر جهان کم‌کم دارند بیدار می‌شوند، متوجه چالشی که هوش مصنوعی ایجاد می‌کند شده‌اند و با این موضوع کلنجار می‌روند که چگونه بر آن حکمرانی کنند. در ماه مه ۲۰۲۳، گروه ۷، «فرایند هوش مصنوعی هیروشیما» را کلید زد، انجمن وقف هماهنگی حکمرانی در عرصه هوش مصنوعی. در ماه ژوئن، پارلمان اروپایی، پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا را تصویب کرد، اولین تلاش جامع اتحادیه اروپا برای برپایی حفاظ‌هایی حول صنعت هوش مصنوعی. در ماه ژوئیه هم، آنتونیو گوترش، دبیرکل سازمان ملل متحد، خواستار برپایی دیده‌بان جهانی مقررات هوش مصنوعی شد. همزمان در ایالات متحده، سیاستمداران هر دو جناح خواستار اقدام برای تنظیم مقررات شده‌اند؛ اما خیلی‌ها با تد کروز، سناتور جمهوری‌خواه تگزاس، موافق هستند: کروز در ماه ژوئن چنین نتیجه‌گیری‌ای را اعلام کرد که کنگره «نمی‌داند دارد چه غلطی می‌کند.» متأسفانه، بخش زیادی از گفت‌وگوها درباره حکمرانی عرصه هوش مصنوعی در دام یک دوراهی جعلی و خطرناک مانده است: استفاده از هوش مصنوعی به‌عنوان اهرمی برای افزایش قدرت ملی یا خفه‌کردنش برای پرهیز از خطراتش. حتی آن‌هایی که به درستی مشکل را تشخیص می‌دهند، دارند سعی می‌کنند آن را با چپاندن هوش مصنوعی در چارچوب‌های حکمرانی موجود یا تاریخی حل کنند؛ اما هوش مصنوعی را نمی‌توان مثل فناوری‌های پیشین تحت حکمرانی گرفت، مثل هیچ کدام‌شان؛ همین حالا هم دارد تصورات سنتی را از قدرت ژئوپلیتیکال تغییر می‌دهد.

گر بناست حکمرانی جهانی بر هوش مصنوعی ممکن شود، نظام بین‌الملل باید از مفاهیم سنتی خودمختاری عبور کند و از حضور شرکت‌های فناوری بر سر میز گفت‌وگو استقبال کند. جامعه بین‌المللی نیاز دارد، در فرضیات اساسی‌اش درباره نظم ژئوپلیتیکال تجدیدنظر کند. چالشی که به اندازه هوش مصنوعی، غیرعادی و فوری است، راه‌حلی نو لازم دارد. قبل از اینکه سیاست‌گذاران بتوانند شروع به تنظیم ساختار مقرراتی مناسبی کنند، نیاز خواهند داشت که درباره اصول اساسی نحوه حکمرانی بر هوش مصنوعی توافق کنند. برای شروع، نیاز خواهد بود، هرگونه چارچوب حکمرانی، محتاط، چابک، دربرگیرنده، نفوذناپذیر و هدفمند باشد. بر پایه این اصول، سیاست‌گذاران باید لااقل سه رژیم حکمرانی هم‌پوشان ایجاد کنند: یکی برای مشخص‌کردن حقایق و مشاوره به دولت‌ها درباره خطرات هوش مصنوعی، یکی برای پیشگیری از یک رقابت تسلیحاتی تمام‌عیار در این عرصه بین دولت‌ها و یکی برای مدیریت نیروهای مخرب یک فناوری که با هیچ‌کدام از آنچه جهان پیشتر دیده، شباهت ندارد.

سریع‌تر، بالاتر، قوی‌تر
هوش مصنوعی متفاوت است؛ متفاوت با فناوری‌های دیگر و متفاوت در اثرش بر قدرت. تنها، چالش‌های سیاست‌گذاری ایجاد نمی‌کند. طبیعت ابرتکاملی‌اش حل آن چالش‌ها را هم مدام سخت‌تر و سخت‌تر می‌کند. این پارادوکس قدرت هوش مصنوعی است. سرعت این پیشرفت، سرسام‌آور است. با هر مرتبه ارتقا، ظرفیت‌هایی غیرمنتظره سر بر می‌آورند. کمتر کسی پیش‌بینی کرده بود، تمرین با متون خام به مدل‌های زبانی بزرگ اجازه خواهد داد، جملات منسجم، نو و حتی خلاقانه تولید کنند. از آن هم کمتر آن‌هایی بودند که انتظار داشتند مدل‌های زبانی بتوانند آهنگ بسازند یا مسائل علمی را حل کنند؛ کاری که الان بعضی‌هایشان می‌توانند بکنند. احتمالا به‌زودی توسعه‌دهندگان هوش مصنوعی موفق خواهند شد سیستم‌هایی بسازند که ظرفیت ارتقای خود را دارند، پیچی کلیدی در مسیر این فناوری که باید همه را وادار به تأمل کند. به‌علاوه، مدل‌های هوش مصنوعی دارند با منابع کمتر، کار بیشتر می‌کنند. ظرفیت‌های پیشرفته پیشین، الان دارند روی سیستم‌های کوچک‌تر، ارزان‌تر و دسترسی‌پذیرتر اجرا می‌شوند. مثل هر نرم‌افزار یا کد دیگر، کپی و اشتراک‌گذاری (یا دزدی) الگوریتم‌های هوش مصنوعی بسیار آسان‌تر و ارزان‌تر از اموال فیزیکی است. خطرات گسترش و شیوع این‌ها واضح هستند. گرچه قوی‌ترین مدل‌ها، همچنان برای اینکه کار کنند، به سخت‌افزارهای سطح بالا نیاز دارند، نسخه‌های میانی می‌توانند در رایانه‌هایی اجرا شوند که می‌شود با چند دلار در ساعت اجاره‌شان کرد. به‌زودی، چنین مدل‌هایی روی گوشی‌های هوشمند اجرا خواهند شد. هیچ فناوری با این قدرت، به این سرعت و به این گستردگی، این‌قدر در دسترس قرار نگرفته است.

هوش مصنوعی با دیگر فناوری‌ها تفاوت دیگری هم دارد: اینکه تقریبا همه‌اش را می‌توان «دوکاره» توصیف کرد، یعنی هم کاربرد نظامی دارد و هم غیرنظامی. بسیاری از سیستم‌ها ذاتاً کلی هستند و در واقع، کلی‌بودن هدف اصلی بسیاری از شرکت‌های هوش مصنوعی است. می‌خواهند برنامه‌هایشان تا جایی که امکان دارد به تعداد بیشتری از افراد کمک کند؛ اما همان سیستم‌هایی که می‌توانند ماشین برانند، می‌توانند تانک برانند. برنامه هوش مصنوعی که ساخته شده تا بیماری‌ها را تشخیص دهد، ممکن است بتواند یک بیماری جدید هم بسازد و آن را به سلاحی تبدیل کند. مرزهای بین کاربرد امن غیرنظامی با کاربرد ویرانگر نظامی، ذاتاً محو شده‌اند و این تا حدودی توضیح می‌دهد چرا ایالات متحده صادرات پیشرفته‌ترین نیمه‌رساناها را به چین محدود کرده است. همه این‌ها در صحنه جهانی رخ می‌دهند: مدل‌های هوش مصنوعی وقتی منتشر می‌شوند، می‌توانند همه جا باشند و همه جا هم خواهند بود. فقط هم یک مدل با سوءنیت کافی خواهد بود تا آشوب به راه بیفتد. به این دلیل، تنظیم مقررات برای هوش مصنوعی را نمی‌توان چهل‌تکه پیش برد. تنظیم مقررات برای هوش مصنوعی فقط در بعضی کشورها، فایده‌ای ندارد، اگر در بقیه کشورها بدون مقررات بماند. هوش مصنوعی می‌تواند به‌سادگی گسترش یابد، از این رو، حکمرانی در این عرصه نمی‌تواند حفره‌ای داشته باشد. به‌علاوه، آسیبی که هوش مصنوعی ممکن است بزند، هیچ سقف واضحی ندارد، با اینکه انگیزه‌های ایجاد چنین سقفی (و منافع چنین کاری) همچنان بیشتر می‌شود. ممکن است هوش مصنوعی برای تولید و پخش اطلاعات غلط و مسموم، تخریب اعتماد اجتماعی و دموکراسی به کار گرفته شود؛ برای نظارت، بازیچه‌کردن و مقهورکردن شهروندان، تضعیف آزادی‌های فردی و جمعی یا ایجاد سلاح‌های قدرتمند دیجیتال یا فیزیکی که زندگی انسان‌ها را تهدید می‌کنند. ممکن هم هست هوش مصنوعی میلیون‌ها شغل را نابود کند، نابرابری‌های موجود را بدتر کند و نابرابری‌های تازه‌ای بسازد؛ الگوهای تبعیض‌آمیز را تعمیق کند و تصمیم‌گیری‌ها را با تشدید چرخه‌های بازخورد اطلاعات غلط، دچار اعوجاج کند؛ یا باعث تشدید غیرعمدی یا غیرقابل‌کنترل تنش‌های نظامی شود که منجر به جنگ خواهد شد. دوره زمانی بزرگترین خطراتش هم معلوم نیست. ترویج آنلاین اطلاعات غلط، تهدید کوتاه‌مدت آشکاری است، به همان نسبت که جنگ‌افروزی خودکار در کوتاه‌مدت محتمل به نظر می‌رسد. کمی دورتر در افق، وعده توانایی کلی ذهنی مصنوعی یا اِی‌جی‌آی در کمین است، نقطه‌ای هنوز نامطمئن که در آن هوش مصنوعی در هر کاری از عملکرد انسانی فراتر می‌رود و نیز این خطر که ممکن است ای‌جی‌آی فراتر از کنترل انسانی، خود هدایت خود را به دست بگیرد، خود را تکثیر کند و خود را ارتقا دهد. (البته باید اذعان کرد که تصویر این خطر، حاصل گمانه‌زنی است.) لازم است همه این خطرها را از همان اول در معماری حکمرانی حوزه هوش مصنوعی به حساب آورد. هوش مصنوعی اولین فناوری نیست که چنین ویژگی‌های قدرتمندی دارد، اما اولینی است که همه‌شان را ترکیب می‌کند. سیستم‌های هوش مصنوعی مثل خودرو یا هواپیما نیستند که روی سخت‌افزاری با قابلیت ارتقای پله‌پله سوار شده‌اند و هزینه‌آفرین‌ترین ناکامی‌هایشان به شکل حوادث منفرد بروز می‌کند. مثل تسلیحات شیمیایی یا هسته‌ای نیست که تولید و ذخیره‌کردن‌شان سخت و گران است، چه برسد به تبادل یا استقرار مخفیانه‌شان. همچنان که فواید عظیم‌شان عیان می‌شود، سیستم‌های هوش مصنوعی مدام بزرگتر، بهتر، ارزان‌تر و شایع‌تر خواهند شد. حتی ظرفیت شبه‌خودمختاری (یعنی توانایی دستیابی به اهدافی ملموس را با نظارت حداقلی انسانی) و به طور بالقوه، ارتقای خود را هم پیدا خواهند کرد. هر کدام از این ویژگی‌ها، الگوهای سنتی حکمرانی را به چالش خواهند کشید. همه‌شان در کنار هم، این الگوها را به شکل ناامیدکننده‌ای ناکارآمد خواهند ساخت.

قدرتمندتر از آن است که بشود متوقفش کرد
تازه انگار این‌ها هم کافی نیستند. هوش مصنوعی با تغییر ساختار و تعادل قدرت جهانی، دقیقاً همان بستر سیاسی را که در آن تحت حکمرانی قرار می‌گیرد،‌ پیچیده‌تر می‌کند. هوش مصنوعی، فقط توسعه نرم‌افزار به همان روال مرسوم نیست. ابزار کاملا جدیدی برای ابراز قدرت است. در برخی موارد، اتوریته‌های موجود را برهم خواهد زد. در موارد دیگر، آن‌ها را محکم‌تر خواهد کرد. به‌علاوه، پیشرفتش را انگیزه‌هایی پیش می‌برد که نمی‌توان در مقابل‌شان مقاومت کرد. هر کشوری، شرکتی و فردی نسخه‌ای از این‌ها را خواهد خواست. درون کشورها، کسانی هوش مصنوعی را برای نظارت، فریب و حتی کنترل مردم به کار خواهند گرفت و هوش مصنوعی قدرت این‌ها را بیشتر خواهد کرد. این اتفاق جمع‌آوری و استفاده تجاری از اطلاعات شخصی را در دموکراسی‌ها چندین برابر خواهد کرد و ابزارهای سرکوب دولت‌های استبدادی را برای مقهورکردن جوامع‌شان، کارآتر خواهد کرد. برتری‌یافتن در هوش مصنوعی، هدفی راهبردی برای هر دولتی خواهد شد که منابع رقابت را داشته باشد؛ راهبردی که با کمترین میزان خلاقیت و تخیل باشد، برای پیشروهای عرصه هوش مصنوعی پول خواهد پاشید یا تلاش خواهد کرد، ابررایانه‌ها و الگوریتم‌ها را بسازد و کنترل کند. راهبردهای ظریف‌تر، برتری‌های خاص رقابتی را رشد خواهد داد، چنان که فرانسه به‌دنبال چنین کاری است و با حمایت مستقیم از استارت‌آپ‌های هوش مصنوعی چنین خواهد کرد. بریتانیا هم با استفاده مؤکد از دانشگاه‌های کلاس جهانی‌اش و اکوسیستم سرمایه‌گذاری ریسک‌پذیرش چنین می‌کند. اتحادیه اروپا نیز این کار را با شکل‌دادن به گفت‌وگوی جهانی درباره تنظیم مقررات و تعیین هنجارها می‌کند. اکثریت قاطع کشورها نه پول و نه دانش فناوری‌اش را دارند که بخواهند برای رهبری و پیشگامی در عرصه هوش مصنوعی رقابت کنند. دسترسی آن‌ها به هوش مصنوعی پیشگام به جای این‌ها در نتیجه روابط‌شان با چند شرکت و دولت تعیین خواهد شد که همین حالا ثروتمند و قدرتمند هستند. این اتکا، این تهدید را با خود دارد که عدم تعادل قدرت ژئوپلیتیکال فعلی را بیشتر کند. قدرتمندترین دولت‌ها به دنبال کنترل ارزشمندترین منابع دنیا خواهند رفت و بار دیگر، کشورهای جنوب جهانی پشت سر آن خواهند ماند. اما در سمت دیگر طیف ژئوپلیتیکال، رقابت برای برتری در هوش مصنوعی، شدید خواهد بود. شاید در پایان جنگ سرد، کشورهای قدرتمند همکاری کردند تا ترس‌های یکدیگر را آرام کنند و مسابقه قدرتی را که در حوزه فناوری بود و بالقوه می‌توانست مخرب ثبات باشد، مهار کنند؛ اما محیط ژئوپلیتیکال پرتنش امروز، چنین همکاری‌ای را بسیار سخت‌تر می‌کند. هوش مصنوعی پتانسیل این را دارد که برتری قابل‌توجهی را در عرصه‌های نظامی و اقتصادی در مقابل دشمنان ممکن کند. دو بازیگری که بیشترین اهمیت را دارند، یعنی چین و ایالات متحده، به درست یا غلط، هر دو توسعه هوش مصنوعی را بازی حاصل جمع صفری می‌بینند که به برنده، برتری راهبردی تعیین‌کننده‌ای را برای دهه‌های پیش رو خواهد داد. این داینامیک حاصل جمع صفر و فقدان اعتماد در هر دو سمت، به این معناست که پکن و واشنگتن به جای آرام‌کردن ماجرا، روی شتاب‌دادن به توسعه هوش مصنوعی تمرکز کرده‌اند. از نگاه آن‌ها، «توقف» در توسعه برای ارزیابی خطرها، چیزی که برخی از پیشگامان صنعت هوش مصنوعی خواستارش شده‌اند، در حد خلع سلاح یک‌جانبه‌ای، احمقانه است.اما این چشم‌انداز فرض را بر این می‌گذارد که دولت‌ها می‌توانند لااقل حدی از کنترل را روی هوش مصنوعی اعمال و حفظ کنند. شاید در چین چنین باشد؛ چینی که شرکت‌های فناوری‌اش را در تاروپود دولت ادغام کرده است؛ اما در غرب و جاهای دیگر، بیشتر احتمال دارد هوش مصنوعی قدرت دولت را تضعیف کند تا تقویت. خارج از چین، در حال حاضر، مشتی شرکت‌های بزرگ و تخصصی همه جنبه‌های این موج جدید فناوری را کنترل می‌کنند. انقلاب هوش مصنوعی، خارج از دولت رخ خواهد داد. بعضی از این چالش‌ها، به میزان محدودی شبیه چالش‌های قبلی فناوری‌های دیجیتال هستند. بسترهای اینترنتی، شبکه‌های اجتماعی و حتی دستگاه‌هایی مانند گوشی‌های هوشمند، همه‌شان تا حدی در فضاهای محدودی که تحت کنترل سازندگان‌شان است، پیش می‌روند. زمان‌هایی که دولت‌ها اراده سیاسی‌اش را فراهم کرده‌اند، توانسته‌اند رژیم‌های مقرراتی را برای این فناوری‌ها پیاده کنند؛ اما حدود یک دهه طول کشید تا چنین مقرراتی در اتحادیه اروپا عملی شود و هنوز هم در ایالات متحده، کاملاً تحقق نیافته است. هوش مصنوعی، بسیار سریع‌تر از آن پیش می‌رود که سیاست‌گذاران با سرعت‌های معمول‌شان به آن واکنش نشان دهند. همه این‌ها یعنی لااقل در چند سال آینده، مسیر هوش مصنوعی را تصمیمات مشتی شرکت خصوصی تعیین خواهد کرد؛ به عبارت دیگر، اهالی فناوری و نه سیاست‌گذاران یا بروکرات‌ها، اتوریته‌شان را بر این نیرو اعمال خواهند کرد؛ نیرویی که ممکن است هم قدرت دولت-‌ملت‌ها و هم نحوه ارتباط‌شان با یکدیگر را عمیقاً تغییر دهد.

هدف متحرک، سلاح در حال تکامل
دولت‌ها همین حالا هم عقب افتاده‌اند. بیشتر پیشنهادات برای حکمرانی در عرصه هوش مصنوعی، با آن به‌عنوان مسئله‌ای متعارف برخورد می‌کنند که می‌تواند با راه‌حل‌های دولت‌محور قرن بیستمی مهار شود. مصالحه‌هایی که رهبران سیاسی دور یک میز به آن می‌رسند؛ اما این برای هوش مصنوعی جواب نخواهد داد. تلاش‌های مقرراتی تا اینجای کار در مراحل اولیه شکل‌گیری هستند و هنوز ناکارآمدند. قانون هوش مصنوعی اتحادیه اروپا، جاه‌طلبانه‌ترین تلاش برای حکمرانی بر هوش مصنوعی است، اما اعمال کامل آن تازه از سال ۲۰۲۶ شروع خواهد شد، یعنی زمانی که هوش مصنوعی آن‌قدر پیش خواهد رفت که دیگر شباهتی به امروز ندارد. بریتانیا رویکردی برای تنظیم مقررات هوش مصنوعی پیشنهاد داده که از این هم ملایم‌تر و داوطلبانه‌تر است و زور آن را ندارد که مؤثر باشد. هیچ‌کدام از این ایده‌ها تلاشی برای حکمرانی بر توسعه و به‌کارگیری هوش مصنوعی در سطح جهانی نمی‌کنند، یعنی کاری که برای موفقیت حکمرانی در عرصه هوش مصنوعی لازم خواهد بود. وعده‌های داوطلبانه هم که برای احترام‌گذاشتن به خطوط راهنمای ایمنی هوش منصوعی داده شده، مانند آن‌هایی که در ماه ژوئیه، هفت توسعه‌دهنده پیشگام هوش مصنوعی داده‌اند، لااقل مورد استقبال یکی از ماست (سلیمان)، اما جایگزینی برای مقررات لازم‌الاجرای قانونی در سطح ملی و بین‌المللی نیستند. حامیان توافقات در سطح بین‌المللی برای مهارکردن هوش مصنوعی، معمولا به‌دنبال الگوی کنترل تسلیحات هسته‌ای می‌روند؛ اما توسعه، سرقت و کپی سیستم‌های هوش مصنوعی، بی‌نهایت از تسلیحات هسته‌ای آسان‌تر است؛ به‌علاوه، شرکت‌های خصوصی کنترل‌شان می‌کنند، نه دولت‌ها. برای اینکه حکمرانی بر هوش مصنوعی جواب بدهد، باید آن را با ذات خاص این فناوری تنظیم کرد. باید به همان اندازه فناوری‌ای که می‌خواهد بر آن حکمرانی کند، نوآورانه و تکاملی باشد. هدف کلی هر نوع معماری مقرراتی هوش مصنوعی باید شناسایی و تخفیف خطراتش برای ثبات جهانی باشد، بدون اینکه نوآوری‌های هوش مصنوعی و فرصت‌های ناشی از آن را خفه کند.

اولین و شاید حیاتی‌ترین اصل حکمرانی هوش مصنوعی، احتیاط است. محدودکردن حداکثری هوش مصنوعی به معنای از دست دادن مزایایش خواهد بود؛ اما آزادگذاشتن حداکثری‌اش هم به معنای قرارگرفتن در معرض خطر همه ضرراتش خواهد بود که بالقوه، فاجعه‌بارند. هوش مصنوعی می‌تواند دمکراسی را در برخی کشورها تضعیف کند و اعمال مقررات را در آن‌ها سخت‌تر کند. به‌علاوه، در موضوع اینکه میزان امن‌بودن یک سیستم هوش مصنوعی از یک کف معقول بالاتر است، مسئولیت اثبات به گردن توسعه‌دهنده و مالک آن است. نباید این مسئله فقط بر عهده دولت‌ها باشد که وقتی مشکلات ظاهر می‌شوند، به آن‌ها رسیدگی کنند. حکمرانی در عرصه هوش مصنوعی باید چابک هم باشد تا بتواند همین‌طور که هوش مصنوعی تکامل می‌یابد و خود را ارتقا می‌دهد، انطباق یابد و مسیر خود را اصلاح کند. باید تطابق نزدیک‌تری داشته باشد، با فناوری‌ای که به دنبال کنترلش است. حکمرانی هوش مصنوعی باید همه‌شمول باشد و برای اعمال مقررات هوش مصنوعی در عمل، از همه بازیگران لازم دعوت کند که مشارکت کنند. دولت‌ها نه هوش مصنوعی را می‌فهمند و نه کنترلش می‌کنند. شرکت‌ها و توسعه‌دهنده‌ها، این بازیگران غیردولتی، نباید همان حقوق و امتیازهای دولت‌ها را داشته باشند؛ دولت‌هایی که در صحنه بین‌المللی به این عنوان به رسمیت شناخته می‌شوند که اقدامات‌شان را به نمایندگی از شهروندان‌شان انجام می‌دهند. اما این شرکت‌ها باید از طرف‌های حاضر در نشست‌های بین‌المللی و امضاکنندگان هر گونه توافق در حوزه هوش مصنوعی باشند. شرکت‌های فناوری، همیشه هم نباید نظر بدهند. بهتر است بعضی جنبه‌های حکمرانی هوش مصنوعی در اختیار دولت‌ها بماند. دولت‌ها باید تضمین کنند که شرکت‌های فناوری، از نفوذشان درون نظام سیاسی برای پیشبرد منافع خودشان به قیمت صدمه به منافع عمومی، استفاده نخواهند کرد؛ اما الگویی همه‌شمول و با سهام‌داران متعدد برای حکمرانی، این را تضمین خواهد کرد: بازیگرانی که سرنوشت هوش مصنوعی را تعیین خواهند کرد، در فرایندهای تعیین قواعد شریک و به آن‌ها پایبند خواهند بود. دانشمندان، اخلاق‌شناسان، اتحادیه‌های صنفی، نهادهای مدنی و دیگرانی که دانش، قدرت یا سود و زیانی در نتایج اقدامات هوش مصنوعی دارند، باید بر سر میز حاضر باشند. حکمرانی هوش مصنوعی باید تا حد امکان، بدون درز و حفره هم باشد. تنها یک الگوریتم گریزان می‌تواند آسیب‌های بی‌حساب بزند. کارآیی حکمرانی جهانی در هوش مصنوعی را کشور، شرکت یا فناوری‌ای تعیین می‌کند که بدترین حکمرانی را داشته باشد. علاوه‌بر پوشش تمام جهان، حکمرانی هوش مصنوعی باید تمام زنجیره تأمین را هم پوشش دهد. چنین نفوذناپذیری‌ای تضمین خواهد کرد هیچ منطقه خاکستری‌ای در مقررات برای سوءاستفاده نیست. در نهایت، حکمرانی هوش مصنوعی باید هدفمند باشد و نه اینکه یک پاسخ برای همه حالت‌ها داشته باشد. یک ابزار منفرد حکمرانی، برای رسیدگی به منشأهای متنوع خطرات هوش مصنوعی کافی نیست.برای همه این‌ها، فهم عمیق و دانش به‌روز از فناوری‌های مربوطه لازم است. عملا، لازم خواهد بود یک نظام حسابرسی باشد که نه‌تنها از راه دور، ظرفیت‌ها را رصد کند، بلکه دسترسی مستقیم به هسته مرکزی فناوری‌ها هم داشته باشد. فقط چنین ابزارهایی می‌توانند تضمین کنند که کارکردهای جدید هوش مصنوعی، پیش‌دستانه ارزیابی می‌شوند. به عبارت دیگر، حکمرانی هدفمند، باید حکمرانی با اطلاعات درست و کافی باشد.

ضرورت‌های رویکرد محتاطانه به فناوری
بر پایه این اصول، باید حداقل سه رژیم حکمرانی هوش مصنوعی برپا شوند. رژیم اول، روی پیداکردن حقایق تمرکز خواهند کرد و شکل یک نهاد علمی جهانی را خواهد داشت که به دولت‌ها و نهادهای بین‌المللی مشورت‌هایی عینی بدهد، درباره سوالاتی که حتی در این حد پایه‌ای که هوش مصنوعی چیست و چه چالش‌های سیاست‌گذاری ایجاد می‌کند. اگر نشود روی تعریف هوش مصنوعی یا دامنه بالقوه آسیب‌هایش توافق کرد، سیاست‌گذاری مؤثر غیرممکن خواهد بود. این نهاد باید پذیرش جهانی و استقلال علمی و ژئوپلیتیک داشته باشد. گزارش‌هایش هم می‌توانند اطلاعات لازم را در دسترس طرف‌های مذاکرات چندجانبه و گفت‌وگو با چندین ذی‌نفع قرار دهد.

دنیا باید راهی برای مدیریت تنش‌ها بین قدرت‌های بزرگ هوش مصنوعی هم داشته باشد و از گسترش سیستم‌های پیشرفته خطرناک هوش مصنوعی جلوگیری کند. مهمترین رابطه جهانی در حوزه هوش مصنوعی، رابطه بین ایالات متحده و چین است. رقابت کنترل‌نشده در حوزه هوش مصنوعی، می‌تواند همه امیدها را برای شکل‌دادن به یک اجماع بین‌المللی روی حکمرانی هوش مصنوعی ناامید کند. یکی از حوزه‌هایی که ممکن است واشنگتن و پکن همکاری در آن را مفید ببینند، کاهش سرعت گسترش سیستم‌های قدرتمندی است که می‌توانند اتوریته دولت-‌ملت‌ها را به خطر بیندازند. واشنگتن و پکن باید به دنبال ایجاد حوزه‌های اشتراک و حتی حفاظ‌هایی باشند که یک طرف سوم آن‌ها را پیشنهاد و بر آن‌ها نظارت می‌کند. اینجا می‌شود رویکردهای نظارت و تأییدی را که اغلب در رژیم‌های کنترل تسلیحات پیدا می‌شوند بر مهم‌ترین بخش‌های هوش مصنوعی اعمال کرد.

اما از آنجا که بیشتر حوزه‌های هوش مصنوعی، همین حالا هم مرکزیت‌زدایی شده‌اند، موضوع بیش از آنکه حوزه اختصاصی دو ابرقدرت باشد، مسئله‌ای از مشترکات جهانی است. ذات توسعه هوش مصنوعی و ویژگی‌های اساسی این فناوری، از قبیل گسترش متن‌باز آن، این است که در انحصار محدوده قدرت‌های بالادستی و مرکزی نیست. این ذات احتمال استفاده از آن به‌عنوان یک سلاح را از سوی مجرمان سایبری، بازیگرانی دارای حمایت دولت‌ها و کسانی که به‌تنهایی و مستقلاً دست به خرابکاری می‌زنند، بیشتر می‌کند. به این دلیل، دنیا به رژیم سومی برای حکمرانی در حوزه هوش مصنوعی نیاز دارد که بتواند وقتی اخلال‌های خطرناک رخ می‌دهد، واکنش نشان دهد. برای الگوهای این زمینه، سیاست‌گذاران می‌توانند به رویکردی نگاه کنند که نهادهای مسئول مسائل مالی برای حفظ ثبات مالی در جهان به کار گرفته‌اند. این رژیم با بخش خصوصی هم مستقیم در تعامل خواهد بود. چنین نهادی، با اختیاراتی که ریشه در حمایت دولت‌ها دارد، جایگاه خوبی خواهد داشت تا مانع شود، بازیگران جهانی بخش فناوری رانت‌خواری کنند یا پشت کشور محل استقرار رسمی شرکت‌شان پنهان شوند.

رژیمی که برای حفظ ثبات ژئوتکنولوژیکال طراحی شده باشد، یک خلأ خطرناک در صحنه فعلی قانون و مقررات را هم پر خواهد کرد: مسئولیت حکمرانی بر هوش مصنوعی متن باز. این میزان از سانسور آنلاین لازم خواهد بود. اگر کسی الگوی بسیار خطرناک را در فضای اینترنت بارگذاری کند، این نهاد باید اختیار مشخص و توانایی‌اش را داشته باشد که آن را حذف کند یا مقامات کشور مربوطه را برای این کار بفرستد. این فرایند شامل استفاده از ابزارهای سایبری مداخله‌گرانه هم می‌شود. این حوزه، حوزه دیگری برای همکاری دوجانبه بالقوه بین چین و ایالات متحده است. ضروری خواهد بود هر کدام از این رژیم‌ها، جهانی عمل کنند. در عین حال، این‌ها به‌هیچ‌وجه تنها نهادهای لازم نخواهند بود. دیگر سازوکارهای مقرراتی هم باید در چند سال آینده در عرصه هوش مصنوعی به کار گرفته شوند، از قبیل شناخت مشتری، استانداردهای شفافیت، نیاز به مجوز، پروتکل‌های آزمایش امنیت و فرایندهای ثبت و تأیید محصولات.

ترویج بهترین‌ها، ممانعت از بدترین‌ها
پیاده‌سازی هیچ‌کدام از این راه‌حل‌ها آسان نخواهد بود. سروصداها و حرف‌وسخن‌های بسیاری از رهبران جهان درباره نیاز به تعیین مقررات برای هوش مصنوعی به گوش می‌رسد، اما به‌‌رغم همه این‌ها، همچنان اراده سیاسی برای این کار نیست. الان، از میان گروه‌های قدرتمندی که در این باره رأی و نظر می‌دهند، تعداد کمی مدعی مهار هوش مصنوعی هستند و همه عوامل انگیزشی هم، طرف ادامه انفعال هستند؛ اما اگر رژیم حکمرانی هوش مصنوعی، به شکلی که اینجا توصیف شد، به خوبی طراحی شود، می‌تواند مناسب همه طرف‌های ذی‌نفع باشد و اصول و ساختارهایی را برقرار و مستقر کند که بهترین‌های عرصه هوش مصنوعی را ترویج و ارتقا دهد، درحالی‌که مانع بدترین‌هایش می‌شود. جایگزین این ایده،‌ یعنی هوش مصنوعی مهارنشده، نه‌تنها خطراتی غیرقابل‌قبول برای ثبات جهانی ایجاد خواهد کرد، بلکه برای کسب‌وکارها هم مضر خواهد بود و خلاف منافع ملی همه کشورها است.

یک رژیم قدرتمند حکمرانی بر هوش مصنوعی، هم خطرات اجتماعی هوش مصنوعی را کاهش خواهد داد و هم تنش‌ها بین چین و ایالات متحده را کمتر خواهد کرد، به این طریق که گستره نقش‌آفرینی هوش مصنوعی را به عنوان صحنه و ابزاری برای رقابت ژئوپلیتیک، کم خواهد کرد. چنین رژیمی، دستاورد دیگری هم خواهد داشت که از این هم عمیق‌تر و ماندگارتر خواهد بود: الگویی برپا خواهد کرد برای نحوه رسیدگی به دیگر فناوری‌های مخرب در راه. هوش مصنوعی می‌تواند کاتالیزوری منحصربه‌فرد برای تغییر باشد، اما به‌هیچ‌وجه آخرین فناوری مخرب نخواهد بود که بشریت با آن مواجه می‌شود. کوانتوم‌کامپیوترها، فناوری‌های زیستی، فناوری‌های نانو و رباتیک هم پتانسیل این را دارند که از اساس شکل جدید به دنیا بدهند. حکمرانی موفق بر هوش مصنوعی به دنیا کمک خواهد کرد بر آن فناوری‌ها هم حکمرانی کنند.

قرن بیست‌ویکم، چند چالش به سختی هوش مصنوعی و چند فرصت به امیدوارکنندگی هوش مصنوعی بر سر راه خواهد گذاشت. در قرن پیشین، سیاست‌گذاران شروع به برپایی معماری حکمرانی جهانی کردند و امید داشتند این معماری، از پس کارهای لازم در آن دوران بر خواهد آمد. حالا، باید معماری تازه‌ای برای حکمرانی بسازند تا از پس نیرویی بربیایند که مهیب‌ترین و به‌صورت بالقوه تعیین‌کننده‌ترین نیروی این عصر خواهد بود. سال ۲۰۳۵ همین نزدیکی‌هاست. وقتی برای تلف‌کردن نداریم.


ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید