گسترش فناوری دیپ فیک این نگرانی را ایجاد می‌کند؛ که هوش مصنوعی می‌تواند حس واقعی ما را منحرف کند.

تحقیقات جدید نشان می‌دهد؛ چهره‌های ترکیب‌شده با هوش مصنوعی به سادگی ما را فریب می‌دهند و ما فکر می‌کنیم آن‌ها افراد واقعی هستند. در واقع حتّی بیشتر از هم‌نوعان خود به آن‌ها اعتماد داریم!

در سال ۲۰۱۸، شرکت انودیا با هوش مصنوعی توانست عکس‌هایی فوق‌العاده واقعی از افرادی که وجود ندارند ایجاد کند، جهان را شگفت‌زده کرد.

دیپ فیک با شبکه متخاصم مولد

محققان هوش مصنوعی بر نوعی الگوریتم به نام شبکه متخاصم مولد (GAN) تکیه کردند که دو شبکه عصبی را در مقابل یکدیگر قرار می‌دهد، یکی بخش مولد سعی دارد تا تصاویر واقع گرایانه‌ای خلق کند، و بخش متخاصم نیز سعی دارد تا تعیین کند که آیا جعل عمیق وجود دارد یا خیر. اگر بخش مولد بتواند قسمت متخاصم را فریب دهد، بخش متخاصم با استفاده از داده های جمع آوری شده می‌تواند بهتر قضاوت کند. همچنین اگر بخش متخاصم تعیین کند که تصویر ساخته شده به دست مولد جعلی است، شبکه ثانویه در ساختن تصویر جعلی بهتر عمل خواهد کرد. این چرخه ادامه می‌یابد و هیچ وقت تمام نخواهد شد.با توجه داشتن به زمان کافی، شبکه متخاصم مولد می تواند عکسهای تقلبی بسیار خوبی تولید کند.

اما این پیشرفت ها با برخی پیامدهای نگران‌کننده را بوجود اورده است از قبیل : 

  • امکان فریب دادن افراد به کلاهبرداران

یکی از  موارد سوءاستفاده از دیپ فیک در انگلستان رخ داد. در جریان این سوءاستفاده که در حقیقت یک کلاهبرداری بوده است، مدیرعامل یک شرکت انگلیسی فعال در حوزه انرژی با جعل صدای یکی از روسای آلمانی این شرکت فریب خورد و به ۲۲۰ هزار یورو به یک حساب بانکی شخص ثالث واریز کرد.

  • امکان قرار دادن افراد در فیلمهای غیراخلاقی بدون رضایت آنها

قربانیان این کار غیراخلاقی در اغلب موارد سلبریتی‌ها و سیاستمداران هستند.

  • تضعیف اعتماد به رسانه‌های آنلاین

با استفاده از این تکنولوژی ،می‌توان با ساخت ویدیوهای جعلی دربردارنده اخبار جعلی، اعتماد افراد را از رسانه بین ببرند.

در واقع اگر یک فرد تمامی اطلاعات مربوط به تشخیص ویدئو‌های دیپ فیک را در اختیار هوش‌های مصنوعی GAN قرار دهد دیگر هیچ راهی برای تشخیص صحت آن‌ها وجود نخواهد داشت. چنین مسئله‌ای باعث از بین رفتن اعتماد به محتوای قرار گرفته شده در اینترنت و رسانه‌ها می‌شود.

  • استفاده به عنوان سلاح شخصی برای انتقام
  • برای دستکاری بازارهای مالی یا برای بی ثبات کردن روابط بین‌الملل
  • تولید ویدیوهایی که مردم را در حال انجام و گفتن چیزهایی نشان می‌دهند که هرگز انجام نداده‌اند یا نگفته‌اند.

البته میتوان از خود هوش مصنوعی برای تشخیص دیپ فیکها استفاده کرد اما سوال مهم‌ این است که آیا انسان‌ها می‌توانند تفاوت را تشخیص دهند ؟ و مهم‌تر از آن اینکه چگونه با دیپ‌فیک‌ها ارتباط دارند ؟

نتایج تحقیقات جدید شبکه متخاصم مولد(GAN) امیدوار کننده نیست محققان دریافتند افراد نه نتها توانایی تشخیص تصاویر واقعی از فیک را ندارند بلکه آنها چهره‌های ساخته شده را قابل اعتمادتر از چهره‌های واقعی ارزیابی کردند.

با توجه به کاربردهای شرورانه ای که می توان از دیپ فیک ها استفاده کرد، این یک یافته نگران کننده است.به دنبال این مسائل کاربران فضای مجازی باید مراقب تصاویری که در شبکه‌های اجتماعی قرار می‌دهند باشند. همان‌طور که مدتی پیش ربات‌هایی در تلگرام برای ساخت محتوای غیر اخلاقی توسط تصویر کاربران ساخته شده بود و افراد زیادی مورد سوءاستفاده قرار گرفتند، هر شخصی که افراد ناشناس را در صفحات خود راه می‌دهد ممکن است در معرض چنین خطرهایی قرار گیرد.

رفرنس: https://singularityhub.com/2022/02/21/people-trust-deepfake-faces-more-than-real-ones-study-finds/

Leave A Reply

Exit mobile version