بنیانگذار اتریوم، ویتالیک بوترین، در جدیدترین نوشته خود، هشدارهایی جدی درباره خطرات هوش مصنوعی فوقهوشمند داده و راهحلهایی برای کاهش این خطرات پیشنهاد کرده است. بوترین در این پست پیشنهاد کرد که برای خرید زمان بیشتر و آمادهسازی بشر، قدرت محاسباتی جهانی باید به مدت یک یا دو سال تا ۹۹ درصد کاهش یابد.
تهدید هوش مصنوعی فوقهوشمند و نیاز به اقدامات فوری
بوترین در پستی که در تاریخ ۵ ژانویه منتشر کرد، به نگرانیهای خود درباره سرعت رشد هوش مصنوعی و خطرات آن اشاره کرد. او معتقد است که هوش مصنوعی فوقهوشمند تنها پنج سال با ما فاصله دارد و هیچ تضمینی برای نتیجه مثبت آن وجود ندارد. او بر اهمیت اتخاذ رویکردی محتاطانه برای توسعه این فناوری تأکید کرد و خواستار استراتژیهای مشخصتری برای کاهش ریسکهای ناشی از هوش مصنوعی شد.
راهحلهای بوترین برای مهار توسعه هوش مصنوعی
بنیانگذار اتریوم پیشنهاد کرد که علاوه بر کاهش قدرت محاسباتی جهانی، میتوان محدودیتهایی برای سختافزارهای مقیاس صنعتی نیز اعمال کرد. این محدودیتها میتوانند شامل ثبتنام قطعات سختافزاری، شناسایی محل قرارگیری چیپهای هوش مصنوعی و همچنین اخذ مجوز هفتگی از نهادهای بینالمللی برای دستگاههای مقیاس صنعتی باشد. او باور دارد که این اقدامات میتوانند توسعه هوش مصنوعی را بهطور مؤثری کنترل کنند.
رویکرد د/اکسلریشن و تنظیمات قانونی
بوترین در پست خود همچنین به تنظیم صنعت هوش مصنوعی و قوانین مسئولیتپذیری اشاره کرد. به گفته او، اگر قوانین مسئولیتپذیری بهتنهایی کافی نباشند، توقف نرم سختافزار میتواند بهعنوان گزینهای برای کند کردن توسعه هوش مصنوعی مطرح شود. این قوانین به سازمانها و افرادی که از هوش مصنوعی استفاده میکنند یا آن را توسعه میدهند، این امکان را میدهند که در صورت آسیبهای ناشی از مدلهایشان، مسئولیتپذیر شناخته شوند.
تحول در کنترل جهانی سختافزارهای هوش مصنوعی
یکی از پیشنهادات مهم بوترین، ادغام روشهای نوین برای کنترل سختافزارهای مقیاس صنعتی هوش مصنوعی است. به عقیده او، نیاز به مجوز هفتگی از سه نهاد بینالمللی میتواند بهطور مؤثری بر عملیات هوش مصنوعی در سطح جهانی نظارت داشته باشد. این سیستم بهطور کامل از طریق امضای دیجیتال میتواند مطمئن شود که تمامی دستگاهها تحت نظارت قرار گرفته و بهطور کامل قابل کنترل هستند.
نتیجهگیری: رویکردی محتاطانه در برابر پیشرفت سریع فناوری
بوترین با پیشنهاد رویکرد د/اکسلریشن (d/acc) خود، خواهان توسعه فناوریها بهطور محتاطانه و حسابشده است. این رویکرد در تضاد با تسریعگرایی مؤثر (e/acc) است که بر توسعه سریع و بیملاحظه فناوریها تأکید دارد. او معتقد است که برای مقابله با خطرات هوش مصنوعی، باید زمان بیشتری برای آمادهسازی بشر و اعمال نظارتهای دقیقتر فراهم شود.