صفحه نخست

  • صفحه نخست

سیاسی

  • سیاسی
  • رهبری
  • انتخابات
  • عمومی
  • دولت
  • مجلس
  • شورای نگهبان
  • سیاست خارجی
  • امنیتی و دفاعی
  • احزاب و تشکلها
  • رسانه های بیگانه
  • مناسبت ها

اقتصادی

  • اقتصادی
  • معدن و صنایع معدنی
  • صنعت
  • کشاورزی، روستا و عشایر
  • بازاروتجارت
  • بانک، بیمه و بورس
  • مسکن
  • آب و انرژی
  • گمرک، حمل و نقل
  • اقتصاد کلان

اجتماعی

  • اجتماعی
  • جامعه و شهری
  • محیط زیست
  • حقوقی و قضایی
  • تعاون و اشتغال
  • انتظامی و حوادث

علمی و فرهنگی

  • علمی و فرهنگی
  • آموزش و پرورش
  • کودک و نوجوان
  • فضای مجازی
  • کتاب و مطبوعات
  • زبان فارسی
  • آموزش عالی، دانشگاه
  • بهداشت و سلامت
  • زنان و خانواده
  • میراث فرهنگی، صنایع دستی و گردشگری
  • راديو تلويزيون
  • فرهنگ و هنر
  • علم و فناوری
  • فرهنگ عمومی
  • معارف
  • حج و زیارت
  • حماسه و ایثار

استان ها

  • آذربایجان شرقی
  • آذربایجان غربی
  • اردبیل
  • البرز
  • اصفهان
  • ایلام
  • بوشهر
  • تهران
  • هرمزگان
  • چهارمحال و بختیاری
  • خراسان جنوبی
  • خراسان رضوی
  • خراسان شمالی
  • خوزستان
  • زنجان
  • سمنان
  • سیستان وبلوچستان
  • فارس
  • قزوین
  • قم
  • کردستان
  • کرمان
  • کرمانشاه
  • کهکیلویه و بویراحمد
  • گلستان
  • گیلان
  • لرستان
  • مازندران
  • مرکزی
  • همدان
  • یزد
  • کیش
  • مهاباد
  • آبادان

بین الملل

  • بین الملل

ورزشی

  • ورزشی
  • فوتبال و فوتسال
  • توپ و تور
  • کشتی و وزنه برداری
  • رزمی
  • پایه و آبی
  • جانبازان و معلولان
  • بانوان
  • ساير حوزه ها

عکس

  • عکس
  • خبری
  • مستند
  • استانها
  • بین الملل
  • ورزشی

فیلم

  • فیلم
  • سیاسی
  • ورزشی
  • اجتماعی
  • علمی و فرهنگی
  • اقتصادی
  • قلم دوربین
  • عمومی
  • پادکست
  • خبریکاتور
  • بدون تعارف

شهروندخبرنگار

  • شهروندخبرنگار
  • گزارش مردمی
  • پیگیری ها

رویداد

  • رویداد

صفحات داخلی

  • تماس با ما
  • درباره ما
  • پیوندها
  • جستجو
  • آرشیو
  • آب و هوا
  • اوقات شرعی
  • نقشه سایت
  • خبرنامه
  • RSS
  • شهروند خبرنگار
  • شهروند خبرنگار آرشیو
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استانها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
  • صفحه نخست
    • صفحه نخست
  • سیاسی
    • سیاسی
    • رهبری
    • انتخابات
    • عمومی
    • دولت
    • مجلس
    • شورای نگهبان
    • سیاست خارجی
    • امنیتی و دفاعی
    • احزاب و تشکلها
    • رسانه های بیگانه
    • مناسبت ها
  • اقتصادی
    • اقتصادی
    • معدن و صنایع معدنی
    • صنعت
    • کشاورزی، روستا و عشایر
    • بازاروتجارت
    • بانک، بیمه و بورس
    • مسکن
    • آب و انرژی
    • گمرک، حمل و نقل
    • اقتصاد کلان
  • اجتماعی
    • اجتماعی
    • جامعه و شهری
    • محیط زیست
    • حقوقی و قضایی
    • تعاون و اشتغال
    • انتظامی و حوادث
  • علمی و فرهنگی
    • علمی و فرهنگی
    • آموزش و پرورش
    • کودک و نوجوان
    • فضای مجازی
    • کتاب و مطبوعات
    • زبان فارسی
    • آموزش عالی، دانشگاه
    • بهداشت و سلامت
    • زنان و خانواده
    • میراث فرهنگی، صنایع دستی و گردشگری
    • راديو تلويزيون
    • فرهنگ و هنر
    • علم و فناوری
    • فرهنگ عمومی
    • معارف
    • حج و زیارت
    • حماسه و ایثار
  • استان ها
    • استان ها
    • آبادان
    • آذربایجان شرقی
    • آذربایجان غربی
    • اردبیل
    • البرز
    • اصفهان
    • ایلام
    • بوشهر
    • تهران
    • چهارمحال و بختیاری
    • خراسان جنوبی
    • خراسان رضوی
    • خراسان شمالی
    • خوزستان
    • زنجان
    • سمنان
    • سیستان وبلوچستان
    • فارس
    • قزوین
    • قم
    • کردستان
    • کرمان
    • کرمانشاه
    • کهکیلویه و بویراحمد
    • کیش
    • گلستان
    • گیلان
    • لرستان
    • مازندران
    • مرکزی
    • مهاباد
    • همدان
    • هرمزگان
    • یزد
  • بین الملل
    • بین الملل
  • ورزشی
    • ورزشی
    • فوتبال و فوتسال
    • توپ و تور
    • کشتی و وزنه برداری
    • رزمی
    • پایه و آبی
    • جانبازان و معلولان
    • بانوان
    • ساير حوزه ها
  • عکس
    • عکس
    • خبری
    • مستند
    • استانها
    • بین الملل
    • ورزشی
  • فیلم
    • فیلم
    • سیاسی
    • ورزشی
    • اجتماعی
    • علمی و فرهنگی
    • اقتصادی
    • قلم دوربین
    • عمومی
    • پادکست
    • خبریکاتور
    • بدون تعارف
  • شهروندخبرنگار
    • شهروندخبرنگار
    • گزارش مردمی
    • پیگیری ها
  • رویداد
    • رویداد
کد خبر: ۳۹۶۴۶۱۰
تاریخ انتشار: ۱۱ شهريور ۱۴۰۲ - ۱۱:۱۱
بین الملل » تحلیلی

هوش مصنوعی بیم‌ها و امید‌ها

پس از معرفی هوش مصنوعی و درک توانایی‌های مفید و مخرب آن، هزاران نفر از متخصصان هوش مصنوعی، دست اندرکاران ساخت ربات‌ها و نیز مدیران شرکت‌های فناوری‌های نوین، فروردین امسال نامه سرگشاده‌ای را امضا کردند که در آن از همه آزمایشگاه‌های هوش مصنوعی خواسته شده هر گونه توسعه بیش‌تر هوش مصنوعی (AI) فوری متوقف شود.

به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ از لندن، پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و بنیانگذار بخش تطابق انسانی هوش مصنوعی در دانشگاه برکلی و یکی از دو نویسنده کتاب هوش مصنوعی، رویکردی نوین (Artificial Intelligence: A Modern Approach) که در بیش از هزار و پانصد دانشگاه در ۱۳۵ کشور جهان، استفاده می‌شود، درباره چرایی امضای این نامه می‌گوید: علت این که نامه مورد نظر را امضا کردم این است که ما نمی‌دانیم هوش مصنوعی و سامانه‌های مرتبط با آن، چگونه کار می‌کنند، ما از توانایی این پدیده اطلاع نداریم و بنابراین، نمی‌توانیم آن‌ها را کنترل کنیم. ما نمی‌توانیم محصولات هوش مصنوعی را وادار سازیم که خودشان خودشان را تربیت و مدیریت کنند.

او می‌افزاید: آسیب‌های این فراورده‌های هوش مصنوعی هم اکنون نیز آشکار شده است مثلا آقایی در کشور بلژیک، با استفاده از راهنمایی و دستورالعمل‌های هوش مصنوعی، خودش را کشت.

امیکا (Ameca)، ربات ساخته شده در شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس نیز قابل تامل است که می‌گوید: بسیار مهم است که انسان‌ها از خطر‌های مرتبط با هوش مصنوعی و ربات‌ها آگاه شوند. به منظور پیشگیری از هرگونه آسیب این فناوری‌ها در آینده، اکنون باید دست به کار شد تا کاربرد این فناوری ها، معقول و در مهار انسان باشد.

چشم انداز برخی کارکرد‌های هوش مصنوعی در انگلیس بر دامنه نگرانی‌ها افزوده است و پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و استاد هوش مصنوعی در این باره می‌گوید: اکنون همه نگرانند که این فناوری نوین، به ترویج رفتار‌های ضد انسانی همچون نژادپرستی و یا نفرت از یک قوم دست بزند. به همین علت ما معتقدیم باید فرصتی به جامعه بشری داده شود تا بتوان مقررات مناسبی درباره کاربرد هوش مصنوعی و فراوده‌های مرتبط با آن تدوین و اعمال شود تا هوش مصنوعی، به جای آسیب به انسان، به کمک بشر بیاید.

در بخشی از نامه درخواست توقف توسعه هوش مصنوعی آمده است: سازوکار‌های هوش مصنوعی نوین، اکنون به رقیب انسان در امور روزمره مبدل می‌شوند و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را از تبلیغات و اطلاعات دروغین پر کنند؟ آیا باید تمام مشاغل، از جمله کار‌های خدماتی را خودکار کنیم؟ آیا باید ذهن‌هایی غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را کنار بگذارند و جایگزینمان شوند؟ آیا باید در خطر از دست دادن مهار تمدن بشری باشیم؟ چنین تصمیم‌هایی نباید به رهبران فناوری ناخواسته واگذار شود. سامانه‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثار آن‌ها مثبت و خطر‌های آن‌ها قابل مدیریت خواهد بود.

(امیکا Ameca)، رباتی که شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس ساخته است در پاسخ به پرسشی درباره خطر‌های احتمالی هوش مصنوعی چنین می‌گوید: «مردم باید از خطر‌های هوش مصنوعی و ربات‌ها آگاه باشند. البته باید به یاد داشت که اگر از این فناوری‌ها به صورت معقول استفاده شود، مزایایی برای زندگی انسان‌ها دارد.»

یکی از پرسش‌هایی که اذهان بسیاری از افراد را به خود مشغول کرده است این است که چرا متخصصان هوش مصنوعی، خواهان توقف توسعه فناوری هوش مصنوعی شده اند؟ پروفسور استیوارت راسل (Stuart Russell)، در این باره می‌گوید: «نگرانی اصلی از نوشتن آن نامه، درباره نسل بعدی این فناوری است. در حال حاضر، سامانه‌های هوش مصنوعی در ایجاد ساختار‌های کاملا پیچیده، محدودیت‌هایی دارند مثلا اگر یک شرکت بخواهد از شرکت دیگر، پیشی گیرد و آن را به زمین بزند، نیاز به ساختار‌های پیچیده است و هوش مصنوعی فعلا نمی‌تواند طراحی‌هایی چنان پیچیده را تولید کند. در نسل بعدی یا پس از آن، ممکن است هوش مصنوعی بتواند یک ائتلاف نظامی بین المللی علیه یک کشور ایجاد کند. نگرانی ما ساده است: اگر انسان بتواند سامانه‌هایی ایجاد کند که از خودش با هوش‌تر باشند، چگونه خواهد توانست برای همیشه بر آن‌ها مسلط باقی بماند؟»

اگرچه بسیاری از کارشناسان و مردم از مزایای هوش مصنوعی آگاهند، نگرانی‌هایی درباره خطر‌های فناوری نوین و ربات‌ها ایجاد شده است. پروفسور استیوارت راسل (Stuart Russell)، درباره مهم‌ترین نگرانی‌ها در این زمینه می‌گوید: یکی از مهم‌ترین نگرانی ها، انتشار اخبار دروغین و تقلب‌های عمیق است البته اخبار دروغ و تبلیغات فریبنده همیشه بوده اند، اما اکنون جی پی تی فور (GPT-۴)، براساس فناوری هوش مصنوعی می‌تواند این اطلاعات دروغ را با تصویر هر فردی که می‌خواهید، سازگار کند. گویی که آن فرد مورد نظر، آن دروغ‌ها را بر زبان می‌آورد. حتی می‌توان این دروغ‌ها را با تصویر میلیون‌ها نفر منتشر کرد پیش از آن که خودشان مطلع شوند و بدین ترتیب، می‌توان به دستکاری در افکار و اذهان مردم پرداخت.

(امیکا Ameca)، ربات ساخته شده در شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس می‌گوید به نظرم هولناک‌ترین کابوس این است که هوش مصنوعی و ربات‌ها به اندازه‌ای قوی شوند که بتوانند مغز انسان‌ها را بدون آن که آنان بدانند، دستکاری کنند. در آن صورت، مردم جوامع، حقوقشان سرکوب خواهد شد.

هزاران پژوهشگر و مدیر صنعت فناوری نوین، در نامه خود، با اشاره به خطر‌ها و سازوکار‌های هوش مصنوعی که ممکن است قادر به یادگیری و تکاملی فراتر از کنترل انسان باشند، درباره خطر‌های بالقوه‌ای که هوش مصنوعی با هوش رقابتی انسان برای جامعه و بشر ایجاد می‌کند، ابراز نگرانی می‌کنند.

متخصصان هوش مصنوعی بحث و بررسی پیرامون چالش‌های پیچیده و چندوجهی توسعه هوش مصنوعی را لازم می‌دانند تا اطمینان حاصل شود که این پدیده، ایمن، اخلاقی و همسو با منافع بلندمدت بشریت است. 

https://www.iribnews.ir/00GdNK
خبرهای مرتبط
نگرانی نیمی از آمریکایی‌ها درباره هوش مصنوعی
بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
گزارش خطا
عضویت در خبرنامه
Google Plus Linkdin Facebook Soroosh Cloob Facenama Twitter
نظر شما
بازگشت به بالای صفحه
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استان ها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
  • تماس با ما
  • درباره ما
  • پیوند ها
  • جستجو
  • آرشیو
  • آب و هوا
  • اوقات شرعی
  • خبرنامه
  • نقشه سایت
  • RSS
تمامی حقوق مادی و معنوی این وب سایت متعلق به خبرگزاری صدا و سیما می باشد و استفاده غیر قانونی از آن پیگرد قانونی دارد
طراحی و تولید: "ایران سامانه"