تحقیقات جدید دانشگاه کینگز کالج لندن نشان میدهد که اگرچه کنترل مطلق هوش مصنوعی در سطح «ابرانسان» غیرممکن خواهد بود، اما میتوان با ایجاد یک اکوسیستم متنوع از سیستمهای هوشمند که بر یکدیگر نظارت میکنند، خطرات این فناوری را به حداقل رساند.
با این حال، محققان به جای رویکردهای مبتنی بر ترس، راهکاری هوشمندانه را پیشنهاد میدهند. بر اساس این طرح، به جای ساخت یک هوش مصنوعی غولپیکر و واحد، باید مجموعهای از هوشهای مصنوعی متفاوت با اولویتها و ارزشهای گوناگون (مانند سلامت، محیط زیست و...) طراحی شود.
در این مدل، هوشهای مصنوعی به صورت خودکار یکدیگر را کنترل میکنند؛ به گونهای که اگر یکی از آنها رفتاری خارج از چارچوب یا خطرناک نشان دهد، سایر سیستمها با آن مخالفت کرده و مانع از بروز خطا میشوند.
این استراتژی، مشابه عملکرد یک تیم منسجم است که اعضای آن با نظارت متقابل، اجازه زیادهروی به یکدیگر را نمیدهند.
پژوهشگران تأکید میکنند که برای داشتن فناوری ایمنتر، باید مفاهیمی نظیر «تنوع» و «آزادی» را از حالت اخلاقی به یک ضرورت فنی تبدیل کرد. در واقع مدیریت خردمندانه و ایجاد تعادل میان سیستمهای مختلف، کلید اصلی همزیستی مسالمتآمیز با هوش مصنوعی در آینده خواهد بود.