آیا بخش ۲۳۰ قانون ارتباطات آمریکا باید برای هوش مصنوعی اعمال شود؟
ابزارهای مولد هوش مصنوعی (AI) در حال آزمایش موضوعی هستند که صنعت فناوری را برای دههها از شکایت بر سر محتوای شخص ثالث محافظت میکند.
به گزارش خبرگزاری صداوسیما به نقل از نشریه آمریکایی د هیل، با افزایش محبوبیت برنامههایی مانند چتجیپیتی و محصولات رقیب، کارشناسان و ذینفعان در مورد اینکه آیا و چگونه بخش ۲۳۰ قانون ارتباطات (سپر مسئولیت شرکتهای اینترنتی نسبت به محتوای شخص ثالث) باید در مورد ابزارهای جدید اعمال شود یا خیر، اختلاف نظر دارند.
اشلی جانسون، تحلیلگر ارشد سیاست در بنیاد فناوری اطلاعات و نوآوری گفت: محتملترین سناریو این است که اگر هوش مصنوعی مولد در دادگاه به چالش کشیده شود، احتمالا مشمول بخش ۲۳۰ در نظر گرفته نخواهد شد.
حتی سم آلتمن، مدیر عامل اوپن ای آی، سازنده چتجیپیتی، هفته گذشته در جلسه استماع سنا توضیح داد که بخش ۲۳۰ «چارچوب مناسبی» برای ابزارهایی مانند شرکت او نیست. آلتمن گفت: ما مدعی هستیم که برای یافتن یک رویکرد کاملا جدید باید با هم کار کنیم.
این بحث در حالی مطرح میشود که قانونگذاران برای تنظیم فناوری نوظهور هوش مصنوعی رقابت میکنند و تصمیم اخیر دیوان عالی، ماده بحثبرانگیز بخش ۲۳۰ را دست نخورده نگه داشته است. هسته اصلی بحث این است که آیا محتوای ایجاد شده توسط یک ابزار هوش مصنوعی، محتوای شخص ثالث در نظر گرفته میشود یا خیر.
گروههای صنعت فناوری استدلال میکنند که بخش ۲۳۰ میتواند برای ابزارهای هوش مصنوعی تولید محتوا اعمال شود و از شرکتها در برابر مسئولیت محتوایی که ابزار تولید میکنند محافظت کند.
جس میرز، مشاور حقوقی در Chamber of Progress گفت: ما باید واقعا سرعت خود را کاهش دهیم و ببینیم که آیا فناوری هوش مصنوعی مولد یک مورد استثنایی را فراهم میکند که در آن نیاز به تصور مجدد یا تجدیدنظر در قانون فعلی مسئولیت واسطهها داشته باشیم. غولهایی مانند گوگل، متا و آمازون در میان شرکای هستند. در این برهه از زمان، ما باور نداریم که ابزارهای هوش مصنوعی و شرکتهایی که آنها را ارائه میدهند، استثنایی بودن را طلب کنند.
مقررات بخش ۲۳۰ که تقریبا سه دهه از عمر آن میگذرد، در حال حاضر با مخالفت قانونگذاران در هر دو طرف مواجه شده و هجوم ابزارهای مولد هوش مصنوعی ممکن است محرکی برای مقررات فناوری جدید باشد.
جانسون با اشاره به تصمیمات دادگاه در هفته گذشته گفت: اکنون پاسخهای ملموس تری در مورد الگوریتمها داریم. اگر پروندههایی مشابه با هوش مصنوعی مولد دریافت کنیم، این یکی از راههای حل این مشکل خواهد بود، اگرچه ممکن است مدتی طول بکشد تا پروندههایی مانند آن به سیستم قضایی راه پیدا کنند.
پس از اینکه دادگاه عالی در تصمیمی که هفته گذشته صادر شد که بر نحوه توصیه و ارائه محتوا توسط سکوها تمرکز داشت، هرگونه اصلاحی را در زمینه حفاظت به قوه مقننه بازگرداند، اقدام کنگره در تصمیمگیری درباره سرنوشت گسترش یا حک کردن بخش ۲۳۰ بسیار مهمتر خواهد بود.
Public Knowledge، یک گروه حمایتی که اینترنت باز را ترویج میکند، میگوید: بخش ۲۳۰ نباید در مورد هوش مصنوعی مولد اعمال شود. با این حال، مدیر حقوقی این گروه، جان برگمایر، اذعان کرد که اگر کاربران به عمد ابزارهای هوش مصنوعی را برای تولید محتوای اعتراض آمیز استفاده میکنند، شرکتهای فناوری نباید پاسخگو باشند.
او گفت: اگر من بگویم "هی چتجیپیتی، بعد از من تکرار کن" و من فقط چیزهای افتراآمیز را به آن بگویم، و سپس آن مطالب افتراآمیز را به من بازگرداند، در این مورد هیچ مسئولیتی وجود ندارد. ابزارهای مولد هوش مصنوعی در خلاء کار نمیکنند و به ورودیهای کاربر متکی هستند. هوش مصنوعی نمیتواند خروجیهای خودش را ایجاد کند، بدون اینکه کسی پرس و جو را بررسی و ورودی را مشخص کند. تنها راهی که از طریق آن میتوان خروجی خاصی به دست آورد این است که ورودیهای خاصی ارائه شود. این موضوع واقعا تفاوتی با زمانی که ما سوالات خاصی را برای جستجوی گوگل ارائه میکنیم، و جستجوی گوگل با فهرستی از نتایجی که آنها تنظیم کردهاند باز میگردد، ندارد و همه آن نتایج محتوای شخص ثالث هستند.