• شهروند خبرنگار
  • شهروند خبرنگار آرشیو
امروز: -
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استانها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
پخش زنده
امروز: -
پخش زنده
نسخه اصلی
کد خبر: ۲۸۸۱۵۰۴
تاریخ انتشار: ۰۶ آبان ۱۳۹۹ - ۰۸:۰۰

جعل عمیق (DeepFake) جعل واقعیت با هوش مصنوعی

دیپ فیک در واقع تداوم روند وانمایی رسانه ای است که منجر به دور شدن مخاطبان از واقعیت ها می شود.

به گزارش سرویس پژوهش خبرگزاری صدا وسیما: جعل عمیق (DeepFake) تکنیک جدیدی برمبنای هوش مصنوعی است که به‌واسطه آن تصاویر و ویدئو‌های دروغین واقع‌گرایانه درست می‌شود.
 
تلفیق تصاویر و فیلم‌های موجود با منبع مورد نظر ویدئویی به نحوی صورت می‌گیرد که گویی ترکیب هر دو تصویر یا هر دو فیلم یکی است و دریک صحنه رخ می‌دهد. این ترکیب پیچیده به‌طور مثال می‌تواند یک فرد یا افراد را به گفتن چیز‌ها و یا انجام اقداماتی نشان دهد که هرگز در واقعیت رخ نداده‌اند. دیپ فیک بردو سیستم استوار است. یکی از سیستم‌ها خلق می‌کند و دیگری تشخیص می‌دهد.

در فرآیند خلق کردن، سیستم یک چهره یا صدا را دریافت کرده و تلاش می‌کند آن را عیناً خلق کند، سیستم دوم این محصول را با نسخه اصلیش مقایسه کرده و شباهت چیزی که تولید شده با اصل آن را بررسی می‌کند.
 
فرآیند خلق و تأیید آنقدر تکرار می‌شود تا چهره یا صدایی که مورد نظر است عیناً ساخته شود. در واقع ماجرای جعل عمیق از سال ۲۰۱۷ شروع شد. یک کاربر اینترنت که اسم خودش را «دیپ فیک» گذاشته بود، با استفاده از یک الگو تلاش کرد چهره سلبریتی‌ها را روی فیلم‌های مستهجن کپی کند.

هرچند جلوی کار او گرفته شد، اما بعد از این حرکت بود که موجی از چنین کپی کردن‌هایی به راه افتاد و ویدئو‌های دیپ فیک زیادی در حوزه‌های مختلف ساخته شد. برنامه‌هایی مانند FakeApp، DeepFaceLab، FaceSwap و myFakeApp برنامه‌هایی هستند که نمونه ساده شده این تکنیک را ارائه می‌کنند.
 
با این اوصاف دیپ فیک یا جعل عمیق مثل هر تکنولوژی جدیدی، هم اثرات مثبت و منفی خودش را دارد. یکی از پیامد‌های منفی این ماجرا این است که افراد می‌توانند از این قابلیت درساخت فیلم‌های جعلی غیراخلاقی استفاده کنند.

مشکل دیگر استفاده از این تکنیک در فعالیت‌های مجرمانه و انواع کلاهبرداری است. همچنین گروه‌های مختلف سیاسی می‌توانند با استفاده از دیپ فیک ویدئو‌های جعلی از سیاستمداران مختلف ساخته و بر مسائل سیاسی و انتخاباتی تأثیر بگذارد. البته دیپ فیک کاربرد‌های مفیدتری هم دارد. سینما، بازار و تبلیغات از بزرگترین کاربران این تکنولوژی هستند.

یکی از مفیدترین ویدئو‌های مثبتی که به کمک دیپ فیک تولید شد، ویدئویی از یک فوتبالیست مشهور خارجی بود که به ۹ زبان درباره خطرات ابتلا به بیماری مالاریا توضیح می‌داد.
 
همچنین یکی از مهم‌ترین کاربرد‌های این تکنولوژی در دوبله است که می‌توان فیلم‌ها را با صدا و تصویر بازیگر دوبله کرد و این مسئله به معنای خداحافظی با زیرنویس است.

سال ۲۰۱۴ یان گودفلو، یکی از پژوهشگران نامدار عرصه یادگیری ژرف و هوش مصنوعی در آمریکا، سیستم شبکه‌های رقابتی مولد را که به اختصار (GAN Generative Adversarial Network) نام دارند، به دنیای تکنولوژی معرفی کرد؛ GAN‌ها از جمله می‌توانستند به عنوان ابزاری مفید در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیو‌هایی که حالا آن‌ها را دیپ فیک می‌نامیم، به کار روند.
 
با توجه به پیامد‌های این تکنیک و اهمیت آن نشستی با موضوع “جعل عمیق“ با حضور دکتر حمید ضیایی پرور‏، دکتر هادی البرزی مدرس حوزه رسانه و محمد حسین آزادی پژوهشگرحوزه رسانه برگزار شد که مهمترین نکات این نشست در پی می‌آید
.
جعل عمیق (DeepFake) جعل واقعیت با هوش مصنوعی
متن کامل این مطلب در اینجا قابل دریافت است
پژوهشگر: محمد نیک ملکی
بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
گزارش خطا
Bookmark and Share
X Share
Telegram Google Plus Linkdin
ایتا سروش
عضویت در خبرنامه
نظر شما
آخرین اخبار
برنامه حرکت شناور‌های مسافربری و حمل خودرو کیش، جمعه ۱۱ اردیبهشت
جایگزینی رادار‌ها و موشک‌های آمریکا دشوار و زمان بر است
انتقاد نخست‌وزیر اسلواکی از عملکرد سازمان ملل در قبال حمله آمریکا به ایران
راه اندازی میز خدمت تا ایستگاه مشاوره
موج مجازی با نام «خلیج همیشه فارس» در سایه بیانات رهبری
هیچ شناور متخاصمی وارد خلیج فارس نخواهد شد
امنیت مراودات با دنیا را در خلیج فارس ایجاد می‌کنیم
سازمان ملل: هزینه جنگ علیه ایران برابر با کمک به حدود ۹۰ میلیون نفر است
هشدار درباره وقوع فاجعه درمانی قریب الوقوع در غزه
مدیرکل صمت زنجان: اجازه توقف چرخ تولید حتی یک واحد را نخواهیم داد
تاکید اسپانیا بر لغو فوری توافق همکاری اتحادیه اروپا با رژیم صهیونیستی
افزایش خطر تب کریمه‌کنگو با آغاز فصل گرما
تقویم و اوقات شرعی زنجان ۱۱ اردیبهشت ماه ۱۴۰۵
سنندج میزبان جشنواره امتنان از کارگران نمونه
اوقات شرعی اهواز، ۱۱ اردیبهشت ۱۴۰۵
سفارتخانه‌های ایران با هشتگ «پرشین گلف» از تاریخ خلیج فارس نوشتند
مخالفت دوباره سنای آمریکا با توقف جنگ علیه ایران
روشن ماندن چراغ آموزش در روستای خرمتا با همت معلم سقزی
دعوت هیئت دولت از مردم برای شرکت در مراسم چهلم شهید لاریجانی
تقویم روز و اوقات شرعی گیلان، ۱۱ اردیبهشت ۱۴۰۵
  • پربازدیدها
  • پر بحث ترین ها
بهای نفت خام به بیشترین میزان در چهار سال گذشته رسید
پرچم‌گردانی دو ملی پوش فوتبال در میدان ولیعصر (عج)
مخالفت دوباره سنای آمریکا با توقف جنگ علیه ایران
بازگشت به جنگ آثار مخربی بر غیرنظامیان خواهد داشت
«کادر فنی» و «پویش پرچم»، از شبکه ورزش
تهدید خودکفایی با احتمال مصرف گندم برای دام و طیور
هشدار درباره وقوع فاجعه درمانی قریب الوقوع در غزه
تهران با دیپلماسی فعال، آمریکا را به عقب راند
دبستان شجره‌ طیبه، نماد مظلومیت و عزت ملت ایران
فراخوان مسابقه عکس خط مقدم مرهم
حتی در بدترین شرایط جنگی و اقتصادی تعدیل نیرو نخواهیم کرد
پزشکیان: ادامه محاصره دریایی غیرقابل تحمل است
پیوند‌های عمیق فرهنگی ایران و هندوستان
امارات برای گذران زندگی طلا‌های خود را حراج کرد
پیکر عبدالحمید نقره کار پیشکسوت معماری ایرانی- اسلامی به خاک سپرده شد
اعتماد ۸۹/۹ درصدی مردم به توان نیروهای مسلح  (۱ نظر)
ایران در آستانه پاسخ عملی به «راهزنی دریایی» آمریکا؟  (۱ نظر)
جان فدا به وسعت تاریخ  (۱ نظر)
ادامه افزایش قیمت جهانی نفت  (۱ نظر)
تاخیر در تحویل خودروی سهند اس مشتریان را سردرگم کرد  (۱ نظر)
ارائه خدمات رایگان ۷۰ مرکز مشاوره و روانشناسی به همدانی‌ها  (۱ نظر)