صفحه نخست

  • صفحه نخست

سیاسی

  • سیاسی
  • رهبری
  • انتخابات
  • عمومی
  • دولت
  • مجلس
  • شورای نگهبان
  • سیاست خارجی
  • امنیتی و دفاعی
  • احزاب و تشکلها
  • رسانه های بیگانه
  • مناسبت ها

اقتصادی

  • اقتصادی
  • معدن و صنایع معدنی
  • صنعت
  • کشاورزی، روستا و عشایر
  • بازاروتجارت
  • بانک، بیمه و بورس
  • مسکن
  • آب و انرژی
  • گمرک، حمل و نقل
  • اقتصاد کلان

اجتماعی

  • اجتماعی
  • جامعه و شهری
  • محیط زیست
  • حقوقی و قضایی
  • تعاون و اشتغال
  • انتظامی و حوادث

علمی و فرهنگی

  • علمی و فرهنگی
  • آموزش و پرورش
  • کودک و نوجوان
  • فضای مجازی
  • کتاب و مطبوعات
  • زبان فارسی
  • آموزش عالی، دانشگاه
  • بهداشت و سلامت
  • زنان و خانواده
  • میراث فرهنگی، صنایع دستی و گردشگری
  • راديو تلويزيون
  • فرهنگ و هنر
  • علم و فناوری
  • فرهنگ عمومی
  • معارف
  • حج و زیارت
  • حماسه و ایثار

استان ها

  • آذربایجان شرقی
  • آذربایجان غربی
  • اردبیل
  • البرز
  • اصفهان
  • ایلام
  • بوشهر
  • تهران
  • هرمزگان
  • چهارمحال و بختیاری
  • خراسان جنوبی
  • خراسان رضوی
  • خراسان شمالی
  • خوزستان
  • زنجان
  • سمنان
  • سیستان وبلوچستان
  • فارس
  • قزوین
  • قم
  • کردستان
  • کرمان
  • کرمانشاه
  • کهکیلویه و بویراحمد
  • گلستان
  • گیلان
  • لرستان
  • مازندران
  • مرکزی
  • همدان
  • یزد
  • کیش
  • مهاباد
  • آبادان

بین الملل

  • بین الملل

ورزشی

  • ورزشی
  • فوتبال و فوتسال
  • توپ و تور
  • کشتی و وزنه برداری
  • رزمی
  • پایه و آبی
  • جانبازان و معلولان
  • بانوان
  • ساير حوزه ها

عکس

  • عکس
  • خبری
  • مستند
  • استانها
  • بین الملل
  • ورزشی

فیلم

  • فیلم
  • سیاسی
  • ورزشی
  • اجتماعی
  • علمی و فرهنگی
  • اقتصادی
  • قلم دوربین
  • عمومی
  • پادکست
  • خبریکاتور
  • بدون تعارف

شهروندخبرنگار

  • شهروندخبرنگار
  • گزارش مردمی
  • پیگیری ها

رویداد

  • رویداد

صفحات داخلی

  • تماس با ما
  • درباره ما
  • پیوندها
  • جستجو
  • آرشیو
  • آب و هوا
  • اوقات شرعی
  • نقشه سایت
  • خبرنامه
  • RSS
  • شهروند خبرنگار
  • شهروند خبرنگار آرشیو
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استانها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
  • صفحه نخست
    • صفحه نخست
  • سیاسی
    • سیاسی
    • رهبری
    • انتخابات
    • عمومی
    • دولت
    • مجلس
    • شورای نگهبان
    • سیاست خارجی
    • امنیتی و دفاعی
    • احزاب و تشکلها
    • رسانه های بیگانه
    • مناسبت ها
  • اقتصادی
    • اقتصادی
    • معدن و صنایع معدنی
    • صنعت
    • کشاورزی، روستا و عشایر
    • بازاروتجارت
    • بانک، بیمه و بورس
    • مسکن
    • آب و انرژی
    • گمرک، حمل و نقل
    • اقتصاد کلان
  • اجتماعی
    • اجتماعی
    • جامعه و شهری
    • محیط زیست
    • حقوقی و قضایی
    • تعاون و اشتغال
    • انتظامی و حوادث
  • علمی و فرهنگی
    • علمی و فرهنگی
    • آموزش و پرورش
    • کودک و نوجوان
    • فضای مجازی
    • کتاب و مطبوعات
    • زبان فارسی
    • آموزش عالی، دانشگاه
    • بهداشت و سلامت
    • زنان و خانواده
    • میراث فرهنگی، صنایع دستی و گردشگری
    • راديو تلويزيون
    • فرهنگ و هنر
    • علم و فناوری
    • فرهنگ عمومی
    • معارف
    • حج و زیارت
    • حماسه و ایثار
  • استان ها
    • استان ها
    • آبادان
    • آذربایجان شرقی
    • آذربایجان غربی
    • اردبیل
    • البرز
    • اصفهان
    • ایلام
    • بوشهر
    • تهران
    • چهارمحال و بختیاری
    • خراسان جنوبی
    • خراسان رضوی
    • خراسان شمالی
    • خوزستان
    • زنجان
    • سمنان
    • سیستان وبلوچستان
    • فارس
    • قزوین
    • قم
    • کردستان
    • کرمان
    • کرمانشاه
    • کهکیلویه و بویراحمد
    • کیش
    • گلستان
    • گیلان
    • لرستان
    • مازندران
    • مرکزی
    • مهاباد
    • همدان
    • هرمزگان
    • یزد
  • بین الملل
    • بین الملل
  • ورزشی
    • ورزشی
    • فوتبال و فوتسال
    • توپ و تور
    • کشتی و وزنه برداری
    • رزمی
    • پایه و آبی
    • جانبازان و معلولان
    • بانوان
    • ساير حوزه ها
  • عکس
    • عکس
    • خبری
    • مستند
    • استانها
    • بین الملل
    • ورزشی
  • فیلم
    • فیلم
    • سیاسی
    • ورزشی
    • اجتماعی
    • علمی و فرهنگی
    • اقتصادی
    • قلم دوربین
    • عمومی
    • پادکست
    • خبریکاتور
    • بدون تعارف
  • شهروندخبرنگار
    • شهروندخبرنگار
    • گزارش مردمی
    • پیگیری ها
  • رویداد
    • رویداد
کد خبر: ۴۲۰۴۴۲۳
تاریخ انتشار: ۲۵ فروردين ۱۴۰۳ - ۱۲:۰۰
علمی و فرهنگی » فضای مجازی

مقررات هوش مصنوعی با تناقضات بسیاری مواجه‌اند

یک نشریه آمریکایی از تناقض‌های موجود در مقررات مربوط به فناوری نوین هوش مصنوعی و لزوم به‌روزرسانی مداوم آنها نوشت.

 
به گزارش خبرگزاری صداوسیما، نشریه «هیل» در مقاله‌ای با عنوان «پارادوکس ذاتی مقررات هوش مصنوعی» نوشت: روزی نیست که ما درباره مقررات جدید هوش مصنوعی (AI) چیزی نیاموزیم و این تعجب‌آور نیست، زیرا هوش مصنوعی به‌عنوان قدرتمندترین فناوری قرن بیست‌ویکم معرفی می‌شود.
 
اما به این دلیل که هیچ تعریف توافق شده‌ای از هوش مصنوعی وجود ندارد و چشم‌انداز آن دائما در حال رشد است، بسیاری از مقررات جدید این فناوری در تناقض غوطه‌ور هستند.
 
در میان چنین تناقض‌های نظارتی، تمایل به مقررات‌گذاری برای یک فعالیت که با استفاده از هوش مصنوعی انجام می‌شود، تنها در زمانی وجود دارد که از دیدگاه کاربر نهایی، آن فعالیت انجام نشده باشد.
 
به عنوان مثال جعل هویت و تقلید از افراد مشهور و سیاستمداران، از زمان‌های قدیم وجود داشته و معمولا اقدام قابل قبولی در نظر گرفته می‌شود.
 
با این حال، ممکن است به سمت محیطی حرکت کنیم که در آن، تقلیدکننده انسان و جعل هویتِ انجام‌شده توسط هوش مصنوعی که یکسان به نظر می‌رسند و دقیقاً همان کار‌ها را انجام می‌دهند، برای اهداف نظارتی، کاملاً متفاوت طبقه‌بندی می‌شوند.
 
«لینا خان» رئیس کمیسیون تجارت فدرال آمریکا (FTC) در تلاش است تا به چنین تناقض‌هایی در مقررات نوظهور هوش مصنوعی این کمیسیون رسیدگی کند.
 
به گفته او، در این مرحله می‌توانیم مدل هوش مصنوعی «زبان بزرگ» یا LLGAI را ببینیم، زیرا رایانه‌ها از اینترنت برای جمع‌آوری میلیون‌ها داده استفاده و سپس دستورالعمل‌ها، متون، تصاویر، ویدئو‌ها و فایل‌های صوتی پیچیده تولید می‌کنند. این فناوری می‌تواند حوزه‌های مختلفی مانند پزشکی را دچار آسیب کند و این خطر باعث آسیب به مردم است.
 
تشخیص جعل هویت مخرب و در عین حال بی‌نقص LLGAI مثلاً یک مقام دولتی که دیگران را فریب می‌دهد، دشوار نیست.
 
سناریو‌های ترسناک، اما واقع‌بینانه هوش مصنوعی به طور قابل توجهی، دولت‌ها را به سمت ایجاد مقررات برای مصرف کننده قبل از وقوع فاجعه سوق داده است.
 
اما یک مشکل نادیده گرفته‌شده در اینجا وجود دارد؛ از آنجا که ما در مرحله اولیه، مصرف‌کننده LLGAI هستیم، هر مقرراتی که اکنون ایجاد می‌شود بر اساس چیز‌های کمی است که امروز می‌دانیم و با چنین فناوری در حال تحولی، آنچه در سال ۲۰۲۴ کاملاً منطقی است، ممکن است تا سال ۲۰۲۹ نامربوط یا معکوس باشد.
 
این اولین باری نیست که فناوری‌ها خطرات زیادی ایجاد می‌کنند.
 
بین سال‌های ۱۹۱۵ و ۱۹۳۰، اتومبیل‌های بنزینی در آمریکا از حدود ۲ میلیون مصرف‌کننده به یک وسیله حمل‌ونقل رایج با حدود ۲۳ میلیون کاربر تبدیل شدند.
 
بسیاری از دولت‌ها، مقررات مربوط به خودرو را در دهه ۱۹۱۰ وضع کردند. این مقررات از روزی که توسعه یافتند منطقی بودند، اما نتایج نشان می‌دهد که تنظیم یک فناوری انقلابی و سریع در دوران ابتدایی آن چقدر دشوار است.
 
در سال ۱۹۱۵، یک مسئله نظارتی عمده، تعامل خودرو با اسب‌ها و کالسکه‌ها بود. تنظیم‌گر‌ها در سال ۱۹۱۵ می‌توانستند درباره پارکینگ‌ها، پمپ‌بنزین‌ها و خطوط عابر چه بگویند؟
 
لازم نیست به یک قرن پیش برگردیم تا درک کنیم که تنظیم کردن فناوری‌های مصرفی نوظهور در دوران ابتدایی آنها چقدر دشوار است.
 
در دهه ۱۹۹۰، فناوری اینترنت برای عموم مردم فراهم شد. به سرعت مشخص شد که این فناوریِ نوظهور، امکان ارتباطات جهانی بین افراد یا گروه‌ها را با استفاده از متن، تصویر، ویدئو، صدا و ... فراهم می‌کند.
 
قانون‌گذاران در آن زمان شروع به ایجاد قوانین و مقرراتی برای اینترنت کردند، اما تقریباً همه تصورات از آینده اینترنت اشتباه بود.
 
در واقع بسیاری از ما فکر می‌کردیم که اینترنت سال ۲۰۲۴ بسیار شبیه اینترنت سال ۱۹۹۵ است، فقط در مقیاس بزرگ‌تر، در نتیجه، تعداد اندکی از قوانین اینترنت که در دهه ۱۹۹۰ ابداع شدند، امروز دقیقاً به همان شکل استفاده می‌شوند.
 
مهم‌ترین درسی که باید از تلاش‌های دهه ۱۹۱۰ برای تنظیم صنعت خودرو و تلاش‌های دهه ۱۹۹۰ برای تنظیم صنعت اینترنت بیاموزیم، این است که قانون‌گذاران باید خِرد کافی داشته باشند تا بدانند مقررات امروزی می‌تواند سال‌ها بعد بی‌معنا یا حتی معکوس باشد. 
 
راه حل این است که قانونگذاران هر چند سال یک بار، قوانین و مقررات هوش مصنوعی خود را تغییر داده و بر اساس شرایط فعلی آن را تکامل دهند.
 
مقررات هوش مصنوعی هم باید به طور مداوم بازبینی، به‌روز و بازنویسی شوند. 
 
طبیعتا انتظار نمی‌رود که قواعدی که در دوران ابتدایی هوش مصنوعی ایجاد شده، دائمی باشد.
 
دست‌کم یک نگاه گذرا به مدل هوش مصنوعی LLGAI نشان می‌دهد که هیچ چیز در مورد آن پایدار نیست.
https://www.iribnews.ir/00HdlH
خبرهای مرتبط
برزیل استفاده از فناوری جعل عمیق هوش مصنوعی را ممنوع می‌کند
ابزار‌های هوش مصنوعی باید از دولت هند مجوز بگیرند
ایلان ماسک سرویس «ایکس‌مِیل» را راه‌اندازی می‌کند
بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
گزارش خطا
عضویت در خبرنامه
Google Plus Linkdin Facebook Soroosh Cloob Facenama Twitter
نظر شما
بازگشت به بالای صفحه
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استان ها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
  • تماس با ما
  • درباره ما
  • پیوند ها
  • جستجو
  • آرشیو
  • آب و هوا
  • اوقات شرعی
  • خبرنامه
  • نقشه سایت
  • RSS
تمامی حقوق مادی و معنوی این وب سایت متعلق به خبرگزاری صدا و سیما می باشد و استفاده غیر قانونی از آن پیگرد قانونی دارد
طراحی و تولید: "ایران سامانه"