ویتالیک بوترین از خطرات هوش مصنوعی می‌گوید؛ پیشنهاد کاهش قدرت محاسباتی جهانی

بنیان‌گذار اتریوم، ویتالیک بوترین، در جدیدترین نوشته خود، هشدارهایی جدی درباره خطرات هوش مصنوعی فوق‌هوشمند داده و راه‌حل‌هایی برای کاهش این خطرات پیشنهاد کرده است. بوترین در این پست پیشنهاد کرد که برای خرید زمان بیشتر و آماده‌سازی بشر، قدرت محاسباتی جهانی باید به مدت یک یا دو سال تا ۹۹ درصد کاهش یابد.

تهدید هوش مصنوعی فوق‌هوشمند و نیاز به اقدامات فوری

بوترین در پستی که در تاریخ ۵ ژانویه منتشر کرد، به نگرانی‌های خود درباره سرعت رشد هوش مصنوعی و خطرات آن اشاره کرد. او معتقد است که هوش مصنوعی فوق‌هوشمند تنها پنج سال با ما فاصله دارد و هیچ تضمینی برای نتیجه مثبت آن وجود ندارد. او بر اهمیت اتخاذ رویکردی محتاطانه برای توسعه این فناوری تأکید کرد و خواستار استراتژی‌های مشخص‌تری برای کاهش ریسک‌های ناشی از هوش مصنوعی شد.

راه‌حل‌های بوترین برای مهار توسعه هوش مصنوعی

بنیان‌گذار اتریوم پیشنهاد کرد که علاوه بر کاهش قدرت محاسباتی جهانی، می‌توان محدودیت‌هایی برای سخت‌افزارهای مقیاس صنعتی نیز اعمال کرد. این محدودیت‌ها می‌توانند شامل ثبت‌نام قطعات سخت‌افزاری، شناسایی محل قرارگیری چیپ‌های هوش مصنوعی و همچنین اخذ مجوز هفتگی از نهادهای بین‌المللی برای دستگاه‌های مقیاس صنعتی باشد. او باور دارد که این اقدامات می‌توانند توسعه هوش مصنوعی را به‌طور مؤثری کنترل کنند.

رویکرد د/اکسلریشن و تنظیمات قانونی

بوترین در پست خود همچنین به تنظیم صنعت هوش مصنوعی و قوانین مسئولیت‌پذیری اشاره کرد. به گفته او، اگر قوانین مسئولیت‌پذیری به‌تنهایی کافی نباشند، توقف نرم سخت‌افزار می‌تواند به‌عنوان گزینه‌ای برای کند کردن توسعه هوش مصنوعی مطرح شود. این قوانین به سازمان‌ها و افرادی که از هوش مصنوعی استفاده می‌کنند یا آن را توسعه می‌دهند، این امکان را می‌دهند که در صورت آسیب‌های ناشی از مدل‌هایشان، مسئولیت‌پذیر شناخته شوند.

تحول در کنترل جهانی سخت‌افزارهای هوش مصنوعی

یکی از پیشنهادات مهم بوترین، ادغام روش‌های نوین برای کنترل سخت‌افزارهای مقیاس صنعتی هوش مصنوعی است. به عقیده او، نیاز به مجوز هفتگی از سه نهاد بین‌المللی می‌تواند به‌طور مؤثری بر عملیات هوش مصنوعی در سطح جهانی نظارت داشته باشد. این سیستم به‌طور کامل از طریق امضای دیجیتال می‌تواند مطمئن شود که تمامی دستگاه‌ها تحت نظارت قرار گرفته و به‌طور کامل قابل کنترل هستند.

نتیجه‌گیری: رویکردی محتاطانه در برابر پیشرفت سریع فناوری

بوترین با پیشنهاد رویکرد د/اکسلریشن (d/acc) خود، خواهان توسعه فناوری‌ها به‌طور محتاطانه و حساب‌شده است. این رویکرد در تضاد با تسریع‌گرایی مؤثر (e/acc) است که بر توسعه سریع و بی‌ملاحظه فناوری‌ها تأکید دارد. او معتقد است که برای مقابله با خطرات هوش مصنوعی، باید زمان بیشتری برای آماده‌سازی بشر و اعمال نظارت‌های دقیق‌تر فراهم شود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا