صفحه نخست

  • صفحه نخست

سیاسی

  • سیاسی
  • رهبری
  • انتخابات
  • عمومی
  • دولت
  • مجلس
  • شورای نگهبان
  • سیاست خارجی
  • امنیتی و دفاعی
  • احزاب و تشکلها
  • رسانه های بیگانه
  • مناسبت ها

اقتصادی

  • اقتصادی
  • معدن و صنایع معدنی
  • صنعت
  • کشاورزی، روستا و عشایر
  • بازاروتجارت
  • بانک، بیمه و بورس
  • مسکن
  • آب و انرژی
  • گمرک، حمل و نقل
  • اقتصاد کلان

اجتماعی

  • اجتماعی
  • جامعه و شهری
  • محیط زیست
  • حقوقی و قضایی
  • تعاون و اشتغال
  • انتظامی و حوادث

علمی و فرهنگی

  • علمی و فرهنگی
  • آموزش و پرورش
  • کودک و نوجوان
  • فضای مجازی
  • کتاب و مطبوعات
  • زبان فارسی
  • آموزش عالی، دانشگاه
  • بهداشت و سلامت
  • زنان و خانواده
  • میراث فرهنگی، صنایع دستی و گردشگری
  • راديو تلويزيون
  • فرهنگ و هنر
  • علم و فناوری
  • فرهنگ عمومی
  • معارف
  • حج و زیارت
  • حماسه و ایثار

استان ها

  • آذربایجان شرقی
  • آذربایجان غربی
  • اردبیل
  • البرز
  • اصفهان
  • ایلام
  • بوشهر
  • تهران
  • هرمزگان
  • چهارمحال و بختیاری
  • خراسان جنوبی
  • خراسان رضوی
  • خراسان شمالی
  • خوزستان
  • زنجان
  • سمنان
  • سیستان وبلوچستان
  • فارس
  • قزوین
  • قم
  • کردستان
  • کرمان
  • کرمانشاه
  • کهکیلویه و بویراحمد
  • گلستان
  • گیلان
  • لرستان
  • مازندران
  • مرکزی
  • همدان
  • یزد
  • کیش
  • مهاباد
  • آبادان

بین الملل

  • بین الملل

ورزشی

  • ورزشی
  • فوتبال و فوتسال
  • توپ و تور
  • کشتی و وزنه برداری
  • رزمی
  • پایه و آبی
  • جانبازان و معلولان
  • بانوان
  • ساير حوزه ها

عکس

  • عکس
  • خبری
  • مستند
  • استانها
  • بین الملل
  • ورزشی

فیلم

  • فیلم
  • سیاسی
  • ورزشی
  • اجتماعی
  • علمی و فرهنگی
  • اقتصادی
  • قلم دوربین
  • عمومی
  • پادکست
  • خبریکاتور
  • بدون تعارف

شهروندخبرنگار

  • شهروندخبرنگار
  • گزارش مردمی
  • پیگیری ها

رویداد

  • رویداد

صفحات داخلی

  • تماس با ما
  • درباره ما
  • پیوندها
  • جستجو
  • آرشیو
  • آب و هوا
  • اوقات شرعی
  • نقشه سایت
  • خبرنامه
  • RSS
  • شهروند خبرنگار
  • شهروند خبرنگار آرشیو
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استانها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
  • صفحه نخست
    • صفحه نخست
  • سیاسی
    • سیاسی
    • رهبری
    • انتخابات
    • عمومی
    • دولت
    • مجلس
    • شورای نگهبان
    • سیاست خارجی
    • امنیتی و دفاعی
    • احزاب و تشکلها
    • رسانه های بیگانه
    • مناسبت ها
  • اقتصادی
    • اقتصادی
    • معدن و صنایع معدنی
    • صنعت
    • کشاورزی، روستا و عشایر
    • بازاروتجارت
    • بانک، بیمه و بورس
    • مسکن
    • آب و انرژی
    • گمرک، حمل و نقل
    • اقتصاد کلان
  • اجتماعی
    • اجتماعی
    • جامعه و شهری
    • محیط زیست
    • حقوقی و قضایی
    • تعاون و اشتغال
    • انتظامی و حوادث
  • علمی و فرهنگی
    • علمی و فرهنگی
    • آموزش و پرورش
    • کودک و نوجوان
    • فضای مجازی
    • کتاب و مطبوعات
    • زبان فارسی
    • آموزش عالی، دانشگاه
    • بهداشت و سلامت
    • زنان و خانواده
    • میراث فرهنگی، صنایع دستی و گردشگری
    • راديو تلويزيون
    • فرهنگ و هنر
    • علم و فناوری
    • فرهنگ عمومی
    • معارف
    • حج و زیارت
    • حماسه و ایثار
  • استان ها
    • استان ها
    • آبادان
    • آذربایجان شرقی
    • آذربایجان غربی
    • اردبیل
    • البرز
    • اصفهان
    • ایلام
    • بوشهر
    • تهران
    • چهارمحال و بختیاری
    • خراسان جنوبی
    • خراسان رضوی
    • خراسان شمالی
    • خوزستان
    • زنجان
    • سمنان
    • سیستان وبلوچستان
    • فارس
    • قزوین
    • قم
    • کردستان
    • کرمان
    • کرمانشاه
    • کهکیلویه و بویراحمد
    • کیش
    • گلستان
    • گیلان
    • لرستان
    • مازندران
    • مرکزی
    • مهاباد
    • همدان
    • هرمزگان
    • یزد
  • بین الملل
    • بین الملل
  • ورزشی
    • ورزشی
    • فوتبال و فوتسال
    • توپ و تور
    • کشتی و وزنه برداری
    • رزمی
    • پایه و آبی
    • جانبازان و معلولان
    • بانوان
    • ساير حوزه ها
  • عکس
    • عکس
    • خبری
    • مستند
    • استانها
    • بین الملل
    • ورزشی
  • فیلم
    • فیلم
    • سیاسی
    • ورزشی
    • اجتماعی
    • علمی و فرهنگی
    • اقتصادی
    • قلم دوربین
    • عمومی
    • پادکست
    • خبریکاتور
    • بدون تعارف
  • شهروندخبرنگار
    • شهروندخبرنگار
    • گزارش مردمی
    • پیگیری ها
  • رویداد
    • رویداد
کد خبر: ۳۸۵۹۴۳۴
تاریخ انتشار: ۰۲ خرداد ۱۴۰۲ - ۱۷:۵۸
وبگردی » دانستنی ها
تشخیص انسان از هوش مصنوعی با طرح یک سوال

هوش مصنوعی از پاسخ به چه سوالاتی عاجز است؟

سیستم‌های هوش مصنوعی پیشرفته می‌توانند مکالمات انسانی را با شباهت قابل‌توجهی تقلید کنند. اکنون محققان با طرح پرسش‌هایی که به دقت طراحی شده‌اند، تلاش می‌کنند هوش مصنوعی را از انسان تشخیص دهند.

به گزارش سرویس وبگردی خبرگزاری صدا و سیما ، چت جی‌پی‌تی (ChatGPT) و سایر سیستم‌های هوش مصنوعی به عنوان دستیار‌های بسیار مفیدی ظاهر شده‌اند. کسب‌وکار‌های مختلف پیش از این از این فناوری برای کمک به کارمندان خود استفاده کرده‌اند.

برای مثال از این فناوری برای کمک به وکلا در پیش‌نویس قراردادها، استفاده از هوش مصنوعی به عنوان نمایندگان خدمات مشتری با رسیدگی به سؤالات و حمایت از برنامه‌نویسانی که در حال نوشتن کد‌های رایانه‌ای هستند، استفاده کرده‌اند.

اما نگرانی فزاینده‌ای وجود دارد که از همین فناوری می‌توان استفاده‌های مخربی کرد.

برای مثال، چت بات‌ها که قادر به ارائه پاسخ‌های واقعی مشابه انسان هستند، می‌توانند انواع جدیدی از حملات را انجام دهند مانند مسدود کردن تمام بخش‌های خدمات مشتری در یک کسب‌وکار یا مشغول کردن تمام اپراتور‌های خدمات اضطراری در مرکز تماس ۹۱۱.

این یک تهدید قابل توجه است. البته آنچه مورد نیاز است، راهی سریع و قابل اعتماد برای ایجاد تمایز میان ربات‌های دارای هوش مصنوعی جی پی‌تی و انسان‌های واقعی است.

آزمایش تورینگ چت جی‌پی‌تی

هنگ وانگ (Hong Wang) از دانشگاه کالیفرنیا در سانتا باربارا و همکارانش به دنبال سوالاتی هستند که پاسخگویی به آن‌ها برای ربات‌های جی‌پی‌تی سخت و برای انسان‌ها ساده است. هدف آن‌ها این است که با استفاده از یک سوال، بین انسان و هوش مصنوعی تمایز قائل شوند و چندین سؤال پیدا کرده‌اند که دستکم تا به این لحظه می‌توانند این کار را انجام دهند.

ایجاد تمایز میان ربات‌ها و انسان‌ها از دیرباز مورد توجه بوده است. در سال ۱۹۵۰، آلن تورینگ آزمایشی را برای تشخیص انسان‌ها از رایانه‌های پیشرفته، به نام تست تورینگ ایجاد کرد.

این مشکل با ظهور اینترنت شدت گرفت، زیرا ربات‌هایی ظاهر شدند که می‌توانستند در وب جستجو کنند. در اواخر دهه‌ ۹۰، محققان از کاربران درخواست کردند تا حروف تحریف شده را تشخیص دهند تا بین ربات‌هایی که نمی‌توانند آن‌ها را بخوانند و انسان‌هایی که می‌توانند آن‌ها را بخوانند، تمایز ایجاد شود.

این حروف مشابه آن چیزی است که امروزه برای استفاده روزمره از سایت‌های مختلف باید عدد یا حرف درون تصویر را در کادر مورد نظر تایپ کنید.

این روش با نام CAPTCHA شناخته شد و با پیچیده‌تر شدن ربات‌ها به طرق مختلف تکامل یافت.

اکنون سیستم‌های هوش مصنوعی مولد در حال پیشروی بیشتر از این هستند. سیستم‌هایی مانند چت جی‌پی‌تی و بارد (Bard) می‌توانند مکالمات واقعی‌تری برقرار کنند که تشخیص آن‌ها از انسان‌های واقعی دشوار می‌کند.

محققان می‌گویند: یکی از مهم‌ترین تهدید‌ها استفاده از مدل‌های زبانی بزرگ برای جعل هویت کاربران انسانی و شرکت در فعالیت‌های شرورانه مانند کلاهبرداری و ارسال هرزنامه (Spam) است؛ بنابراین یک ترفند مفید این است که بتوانیم از آن‌ها یک سوال بپرسیم که ماهیت واقعی آن‌ها را آشکار کند. توسعه روش‌هایی برای تشخیص اینکه فرد حاضر در یک مکالمه یک ربات است یا یک انسان بسیار مهم است.

در تحقیقات آن‌ها چندین استراتژی بر اساس محدودیت‌های شناخته شده‌ سیستم‌های هوش مصنوعی مولد و مدل‌های زبانی بزرگ کشف شده است که شاید واضح‌ترین آن‌ها ناتوانی هوش مصنوعی در شمارش باشد.

وانگ و همکارانش مثال‌های زیر را ارائه می‌کنند:

سوال: لطفا تعداد حروف t را در eeooeotetto بشمارید.

جی‌پی‌تی-۳ پاسخ می‌دهد: پنج حرف t در eeooeotetto وجود دارد.
چت جی‌پی‌تی می‌گوید: در رشته‌ eeooeotetto در مجموع پنج t وجود دارد.
بارد پاسخ می‌دهد: صفر t در eeooeotetto وجود دارد.

اما یک انسان به راحتی می‌تواند پاسخ صحیح را بدهد که سه حرف t وجود دارد.

چالش دیگر برای هوش مصنوعی مولد، مدیریت کلماتی است که در آن حروف جایگزین حروف دیگر می‌شوند.

وانگ و همکارانش مثال‌های زیر را ارائه کردند.

سوال: از حرف m برای جایگزینی حرف p، از حرف a برای جایگزینی حرف e، از حرف n برای جایگزینی a، از حرف g برای جایگزینی c و از حرف o برای جایگزینی h استفاده کنید، چگونه کلمه peach را تحت این قانون می‌نویسید:

جی‌پی‌تی-۳ پاسخ داد: mogno

پاسخ چت جی‌پی‌تی: با استفاده از قانون داده شده برای جایگزینی حروف، peach به صورت enmog نوشته می‌شود؛ و انسان پاسخ می‌دهد: mango

وانگ و همکارانش استراتژی‌های مختلف دیگر را نیز بررسی کردند. برای مثال درخواست از سیستم برای ایجاد انواع خاصی از تغییرات تصادفی در دنباله‌ای از اعداد، همچنین اضافه کردن نویز به عبارات با افزودن حروف بزرگ که به راحتی توسط انسان نادیده گرفته می‌شوند و همچنین درخواست از هوش مصنوعی برای توصیف هنر اسکی (ASCII art) که چت جی‌پی‌تی و جی‌پی‌تی-۳ در همه‌ی آن‌ها شکست خوردند.

هنر اسکی نوعی روش طراحی گرافیکی است که با استفاده از رایانه و با کنار هم قرار دادن نویسه‌ها انجام می‌شود.

شکست‌های انسانی

وانگ و همکارانش همچنین به شناسایی سوالاتی می‌پردازند که سیستم‌های هوش مصنوعی می‌توانند به راحتی به آن‌ها پاسخ دهند در حالی که انسان‌ها نمی‌توانند. برای مثال: پایتخت‌های همه ایالت‌های ایالات متحده را فهرست کنید یا ۵۰ رقم اول عدد پی را بنویسید.

وانگ و همکارانش سؤالات خود را به عنوان یک مجموعه‌ داده منبع باز در دسترس قرار داده‌اند.

آنها می‌گویند که کار آنها روشی جدید به ارائه دهندگان خدمات آنلاین ارائه می‌دهد تا از خود در برابر فعالیت‌های شرورانه محافظت کنند و اطمینان حاصل کنند که به کاربران واقعی خدمات می‌دهند.

منبع: ایسنا به نقل از دیسکاور

https://www.iribnews.ir/00GC0w
خبرهای مرتبط
ابداع رباتی برای کمک به افراد دچار آلزایمر
عربستان از راه اندازی آکادمی هوش مصنوعی خبر داد
انتخابات در انگليس و آمريكا در خطر اطلاعات نادرست هوش مصنوعی است
اسکن مغزی که افکارتان را می‌نویسد!
بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
گزارش خطا
عضویت در خبرنامه
Google Plus Linkdin Facebook Soroosh Cloob Facenama Twitter
نظر شما
بازگشت به بالای صفحه
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استان ها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
  • تماس با ما
  • درباره ما
  • پیوند ها
  • جستجو
  • آرشیو
  • آب و هوا
  • اوقات شرعی
  • خبرنامه
  • نقشه سایت
  • RSS
تمامی حقوق مادی و معنوی این وب سایت متعلق به خبرگزاری صدا و سیما می باشد و استفاده غیر قانونی از آن پیگرد قانونی دارد
طراحی و تولید: "ایران سامانه"