به عصر «دیپ فیک‌«ها خوش‌آمدید!

25 آذر 1398

وقتی دیگر به چشممان هم اعتماد نمی‌کنیم

خود اوباماست، نگاهمان می‌کند و می‌گوید ترامپ احمق است؛ اما اوباما نیست یک دیپ فیک است؛ یک ویدیوی دستکاری‌شده. برخی نگران گسترش چنین ویدیوهایی هستند. خطر دیپ فیک چیست و قربانیان آنچه کسانی هستند؟

روزگاری بود که می‌گفتند: تا با چشم خودت ندیده‌ای یا با گوش خودت نشنیده‌ای، باور نکن؛ اما آیا این گفته در مورد انسان امروزی دریکی از نقش‌هایش به‌عنوان کاربر اینترنت و بیننده و شنونده محتوایی که روزانه در شبکه‌ها منتشر می‌شود هم درست است؟ برای نمونه وقتی‌که چشم می‌بیند که باراک اوباما، رئیس‌جمهور آمریکا در تصویر، مقابل دوربین به بیننده زل زده و گوش می‌شنود که همین رئیس‌جمهور پیشین، دونالد ترامپ را یک احمق می‌نامد.

به عصر «دیپ فیک‌»ها خوش‌آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دست‌کم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونه‌ای از محتوایی است که به آن «دیپ ‌فیک» (جعل عمیق) می‌گویند.

دیپ ‌فیک‌ به ویدیوهای دستکاری‌شده می‌گویند؛ ویدیوهایی که در آن‌ها می‌توان سر شخصی را که در فیلم دیده می‌شود با دیگری عوض کرد.

دیپ فیک چیست؟

دیپ ‌فیک‌ به ویدیوهای دستکاری‌شده می‌گویند؛ ویدیوهایی که در آن‌ها می‌توان سر شخصی را که در فیلم دیده می‌شود با دیگری عوض کرد، حرف‌هایی توی دهانش گذاشت که تابه‌حال نزده و حالاتی به بدن او داد که تاکنون از او دیده نشده است.

دیپ فیک‌ها یکی از دستاوردهای هوش مصنوعی هستند که می‌توانند برای نمونه حرکات و چهره یک نفر را دست‌کاری کنند و حرف‌های ناگفته توی دهانش بگذارند. این ویدیوهای جعلی که با بهره‌گیری از (یادگیری ژرف[1]) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند، نتیجه محاسبات پیچیده‌ای هستند که برای نمونه می‌توانند از دو ویدیو (دو منبع تصویری)، یک ویدیوی جعلی تازه خلق کنند. البته همان‌گونه که اشاره شد، این دست‌کاری تنها به ویدیو خلاصه نمی‌شود؛ با این تکنولوژی می‌توان صداها را هم دست‌کاری کرد به‌گونه‌ای که شخصی جمله‌ای را بر زبان بیاورد که هیچ‌گاه نگفته است.

دیپ فیک چگونه متولد شد؟

سال ۲۰۱۴ یان گودفلو، یکی از پژوهشگران نامدار عرصه یادگیری ژرف و هوش مصنوعی در آمریکا، سیستم شبکه‌های رقابتی مولد را که به‌اختصار «گان»[2] نام دارند، به دنیای تکنولوژی معرفی کرد؛ گان‌ها ازجمله می‌توانستند به‌عنوان ابزاری مفید در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیوهایی که حالا آن‌ها را دیپ فیک می‌نامیم، به کار روند. سه سال گذشت تا این کشف جدید را صنعت پورنو گرافی به خدمت بگیرد. در پلتفرم «ردیت» یک کاربر ویدیویی پست کرد که در آن چهره افراد مشهور روی بدن بازیگران فیلم‌های پورنو گذاشته بود. این کاربر نام ویدیویش را «دیپ فیک» گذاشت. ویدیو توجه‌ها را به خودش جلب کرد و ژانر تازه‌ای در دنیای «فیک» ها خلق شد: دیپ فیک.

هرچند این ویدیو به‌سرعت از این صفحه پاک شد اما جذابیت این ابتکار برای بسیاری از کاربران عادی فراموش‌نشدنی بود. برای ساخت چنین ویدیوهایی نه نیاز به مهارت خاصی بود و نه ابزار بسیار ویژه‌ای. کاربرانی با امکانات بسیار ساده‌ای مانند  Fake App شروع به ساخت ویدیوهای این‌چنینی برای سرگرمی کردند.

در بسیاری از حوزه‌ها می‌شد از دیپ فیک بهره جست. صنعت فیلم‌سازی و بازی‌های کامپیوتری و حتی صنعت مد، حوزه‌هایی بودند که بیش‌ازپیش به این نوآوری علاقه نشان دادند؛ اما استفاده از این فناوری مانند هر نوآوری دیگری، بی‌خطر نماند: سوژه‌ای که در بیشتر این ویدیوها به چشم می‌خورد، استفاده از چهره زنان مشهور بود بر بدنی دیگر، در متنی جنسیتی. طبق گزارش‌های منتشرشده، بیش از ۹۰ درصد از محتوای تولیدشده‌ای که نام دیپ فیک بر آن می‌نهند و در شبکه در حال چرخش است، محتوای پورن است.

خدمت و خیانت دیپ ‌فیک‌ها به سیاست و سیاستمداران

اما این تنها زمینه سوءاستفاده از دیپ‌ فیک‌ها نیست. آنچه این روزها به بحث‌ها و نگرانی‌های زیادی در مورد دیپ ‌فیک‌ها دامن زده است، پتانسیل سوء‌استفاده از آن برای مثال در حوزه‌های سیاسی و امنیتی است. مشکل اساسی به نظر بسیاری از کارشناسان از آنجایی شروع می‌شود که حرف‌های جنجالی در دهان سیاستمداران گذاشته شود. از دیگر سوءاستفاده‌هایی که می‌توان برای این تکنولوژی تصور کرد، بهره‌گیری از این «جعل» برای زهرچشم گرفتن و خاموش کردن فعالان سیاسی و مدنی یا خبرنگاران است.

در این میان یکی از موضوع‌هایی که به‌ویژه به نگرانی سیاستمداران دامن زده، نزدیک شدن به انتخابات آمریکا و سوء‌استفاده از دیپ فیک در فضای پیش انتخاباتی این کشور است. سال ۲۰۱۶ آنچه بر انتخابات ریاست جمهوری آمریکا سایه افکند، موضوع انتشار اطلاعات اشتباه، فیک نیوز، بود و ظن تلاش برای دست‌کاری اطلاعات. اکنون پیش از انتخابات ۲۰۲۰ آمریکا و در فضایی که هر جرقه‌ای می‌تواند آتش دودستگی را در این کشور شعله‌ور کند، بیم و نگرانی از دیپ فیک‌ها و نقش احتمالی آن‌ها در انحراف افکار عمومی برجسته می‌شود.

تلاش برای مقابله با دیپ ‌فیک‌ها از راه تشخیص اصل از جعل

نگرانی آن‌ها جدی است، تا آنجا که دست‌به‌کار شده‌اند. آژانس پروژه‌های پیشرفته دفاعی وزارت دفاع آمریکا میلیون‌ها دلار بودجه برای پژوهش در مورد راه‌های تشخیص دیپ فیک اختصاص داده است. این مرکز تحقیقاتی تنها نیست؛ فیس‌بوک و گوگل هم برای رسیدن به متدهایی که چنین محتوایی را از اصل تشخیص و تمییز دهد، هزینه می‌کنند. آژانس‌های خبری مانند رویترز از همین حالا برای مبارزه و تشخیص دیپ‌ فیک‌ها خودشان را مجهز می‌کنند. رویترز با تنظیم «فکتن‌ چکر» سعی می‌کند خود را مجهز کند؛ اما مسئول بخش یوجی سی و راست آزمایی یوجی سی رویترز می‌گوید، دیپ فیک‌های بسیار خوب حتی حرفه‌ای‌ها را هم به‌اشتباه می‌اندازند.

هائو لی، پروفسور دانشگاه کالیفرنیای جنوبی که یکی از زمینه‌های فعالیتش هوش مصنوعی است، در مصاحبه‌ای با روزنامه آلمانی دی‌تسایت می‌گوید، احتمال اینکه به‌زودی با پیشرفت فناوری دیپ ‌فیک‌هایی تولید شوند که نه انسان و نه ماشین قادر به تشخیص اصل یا جعل بودن آن‌ها نباشند، زیاد است؛ یعنی به گفته این پژوهشگر، در آینده‌ای نه‌چندان دور، نه چشم ما و نه متخصصان قادر به تشخیص دست‌کاری نخواهند بود. این متخصص برای اثبات پیش‌بینی خود به‌سرعت رشد این تکنولوژی اشاره می‌کند و پیشرفتی کیفی که در فاصله زمانی کوتاهی در این ویدیوها دیده می‌شود.

 نگرانی وقتی بزرگ‌تر می‌شود که «اصل» را ببینیم و بشنویم ولی گمان بر «جعل» بودن آن ببریم.

وقتی‌که به «اصل» هم دیگر اعتماد نمی‌کنیم

اما خطر دیپ فیک‌ها تنها این نیست که نتوانیم ویدیو و محتوای جعلی را تشخیص دهیم. نگرانی وقتی بزرگ‌تر می‌شود که «اصل» را ببینیم و بشنویم ولی گمان بر «جعل» بودن آن ببریم. اتفاقی که در کمتر از یک سال پیش افتاد.

در دسامبر سال ۲۰۱۸ در کشور گابُن در فیس‌بوک ویدیویی پست شد که در آن، رئیس‌جمهور این کشور، علی بونگو سخنرانی می‌کرد. ماه‌ها بود که بونگو در تلویزیون و مراسم دیگر ظاهرنشده بود و بسیاری مردم احتمال بیماری شدید یا حتی احتمال مرگ او را می‌دادند. با انتشار این ویدیو، رقیبان سیاسی، آن را دیپ فیک نامیدند و همین موضوع یکی از علت‌های کودتای ارتش در چند هفته بعد از انتشار ویدیو شد. این تنها نمونه‌ای است ازآنچه دیپ‌ فیک می‌تواند در دنیای سیاست به بار بیاورد؛ یک احتمال و دست‌به‌کار شدن، بدون راستی آزمایی احتمال و محتوا.

قربانی زنان‌اند و شهروندان عادی

بااین‌وجود هستند متخصصان و کارشناسانی که می‌گویند، شاید «دیپ فیک» پدیده‌ای نو باشد، اما «جعل» پدیده‌ی امروز نیست؛ دست‌کاری کردن سطحی تا پیچیده عکس با فتوشاپ تا نشاندن متنی که با عکس مرتبط نبوده، در پای تصویر ... مثال‌ها زیاد است ازآنچه کارشناسان آن را «چیپ فیک: دست‌کاری سطحی» می‌نامند و معتقدند تا بوده همین بوده. این کارشناسان خطر دیپ فیک را نه آن‌گونه که تبلیغ می‌شود، متوجه سیاستمداران، خبرنگاران و در کل آدم‌های مشهور می‌دانند که معتقدند، کاربران عادی و به‌ویژه زنان قربانی اصلی دیپ فیک‌ها هستند و باید برای مقابله با آن به فکر چاره بود؛ زنانی که قربانی انتقام می‌شوند و سرشان روی بدن یک پورن‌استار قرار می‌گیرد و فیلمشان منتشر می‌شود یا دانش‌آموزانی که با این روش موبینگ می‌شوند یا شهروندان عادی که از این طریق از آن‌ها اخاذی می‌شود.

کم نیستند کارشناسانی که در مورد نگرانی بزرگی که در مورد سوء‌استفاده سیاسی از دیپ فیک وجود دارد، بر این باورند که برای  پروپاگاندا و تخریب، روش‌های دیگر آسان‌تر و باورپذیرترند تا تعویض برای نمونه سر ترامپ با سارکوزی. هرچند خطر دیپ فیک را نباید دست‌کم گرفت اما برای نمونه برای تخریب رقیب سیاسی در یک کارزار انتخاباتی، حتماً نباید دست به دامن دیپ فیک شد، می‌توان به دوربین زل زد و در برابر میلیون‌ها بیننده، دروغ گفت.

منبع: دویچه‌‌وله

[1]. Deep Learning

[2]. GAN