گسترش فناوری دیپ فیک این نگرانی را ایجاد میکند؛ که هوش مصنوعی میتواند حس واقعی ما را منحرف کند.
تحقیقات جدید نشان میدهد؛ چهرههای ترکیبشده با هوش مصنوعی به سادگی ما را فریب میدهند و ما فکر میکنیم آنها افراد واقعی هستند. در واقع حتّی بیشتر از همنوعان خود به آنها اعتماد داریم!
در سال ۲۰۱۸، شرکت انودیا با هوش مصنوعی توانست عکسهایی فوقالعاده واقعی از افرادی که وجود ندارند ایجاد کند، جهان را شگفتزده کرد.
محققان هوش مصنوعی بر نوعی الگوریتم به نام شبکه متخاصم مولد (GAN) تکیه کردند که دو شبکه عصبی را در مقابل یکدیگر قرار میدهد، یکی بخش مولد سعی دارد تا تصاویر واقع گرایانهای خلق کند، و بخش متخاصم نیز سعی دارد تا تعیین کند که آیا جعل عمیق وجود دارد یا خیر. اگر بخش مولد بتواند قسمت متخاصم را فریب دهد، بخش متخاصم با استفاده از داده های جمع آوری شده میتواند بهتر قضاوت کند. همچنین اگر بخش متخاصم تعیین کند که تصویر ساخته شده به دست مولد جعلی است، شبکه ثانویه در ساختن تصویر جعلی بهتر عمل خواهد کرد. این چرخه ادامه مییابد و هیچ وقت تمام نخواهد شد.با توجه داشتن به زمان کافی، شبکه متخاصم مولد می تواند عکسهای تقلبی بسیار خوبی تولید کند.
اما این پیشرفت ها با برخی پیامدهای نگرانکننده را بوجود اورده است از قبیل :
-
امکان فریب دادن افراد به کلاهبرداران
یکی از موارد سوءاستفاده از دیپ فیک در انگلستان رخ داد. در جریان این سوءاستفاده که در حقیقت یک کلاهبرداری بوده است، مدیرعامل یک شرکت انگلیسی فعال در حوزه انرژی با جعل صدای یکی از روسای آلمانی این شرکت فریب خورد و به ۲۲۰ هزار یورو به یک حساب بانکی شخص ثالث واریز کرد.
-
امکان قرار دادن افراد در فیلمهای غیراخلاقی بدون رضایت آنها
قربانیان این کار غیراخلاقی در اغلب موارد سلبریتیها و سیاستمداران هستند.
-
تضعیف اعتماد به رسانههای آنلاین
با استفاده از این تکنولوژی ،میتوان با ساخت ویدیوهای جعلی دربردارنده اخبار جعلی، اعتماد افراد را از رسانه بین ببرند.
در واقع اگر یک فرد تمامی اطلاعات مربوط به تشخیص ویدئوهای دیپ فیک را در اختیار هوشهای مصنوعی GAN قرار دهد دیگر هیچ راهی برای تشخیص صحت آنها وجود نخواهد داشت. چنین مسئلهای باعث از بین رفتن اعتماد به محتوای قرار گرفته شده در اینترنت و رسانهها میشود.
-
استفاده به عنوان سلاح شخصی برای انتقام
-
برای دستکاری بازارهای مالی یا برای بی ثبات کردن روابط بینالملل
-
تولید ویدیوهایی که مردم را در حال انجام و گفتن چیزهایی نشان میدهند که هرگز انجام ندادهاند یا نگفتهاند.
البته میتوان از خود هوش مصنوعی برای تشخیص دیپ فیکها استفاده کرد اما سوال مهم این است که آیا انسانها میتوانند تفاوت را تشخیص دهند ؟ و مهمتر از آن اینکه چگونه با دیپفیکها ارتباط دارند ؟
نتایج تحقیقات جدید شبکه متخاصم مولد(GAN) امیدوار کننده نیست محققان دریافتند افراد نه نتها توانایی تشخیص تصاویر واقعی از فیک را ندارند بلکه آنها چهرههای ساخته شده را قابل اعتمادتر از چهرههای واقعی ارزیابی کردند.
با توجه به کاربردهای شرورانه ای که می توان از دیپ فیک ها استفاده کرد، این یک یافته نگران کننده است.به دنبال این مسائل کاربران فضای مجازی باید مراقب تصاویری که در شبکههای اجتماعی قرار میدهند باشند. همانطور که مدتی پیش رباتهایی در تلگرام برای ساخت محتوای غیر اخلاقی توسط تصویر کاربران ساخته شده بود و افراد زیادی مورد سوءاستفاده قرار گرفتند، هر شخصی که افراد ناشناس را در صفحات خود راه میدهد ممکن است در معرض چنین خطرهایی قرار گیرد.
رفرنس: https://singularityhub.com/2022/02/21/people-trust-deepfake-faces-more-than-real-ones-study-finds/