دیپ فیک (Deepfake) یا جعل عمیق نوعی فناوری بر پایه هوش مصنوعی است که برای تولید یا تغییر محتوای ویدیویی استفاده میشود تا ویدیو نمایانگر چیزی باشد که، در واقع، اصلاً اتفاق نیفتاده است.

نام گذاری دیپ فیک به پیروی از نام کاربری یک کاربر Reddit به نام deepfakes انجام شده است که در دسامبر 2017 از فناوری یادگیری عمیق جهت جایگذاری چهره سلبریتی ها به جای چهره افراد در فیلم های مستهجن استفاده کرده بود. این عبارت، که هم به فناوری مورد استفاده و هم ویدیوهای ساخته شده توسط آن اشاره دارد، ترکیبی از یادگیری عمیق (deep learning) و جعل (fake) است.

ویدیو جعل عمیق توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد.

تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversarial Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود.

با بهبود تولید کننده در تولید کلیپ های ویدیویی، تفکیک کننده نیز در شناسایی آنها بهتر میشود. برعکس، با بهبود تفکیک کننده در شناسایی ویدیوهای جعلی، تولید کننده در ساخت آنها بهتر میشود.

تا همین اواخر، تغییر محتوای ویدیویی به طرزی محسوس، بسیار سخت تر بود. با این حال، چون جعل عمیق توسط هوش مصنوعی ساخته میشود، مهارت چشمگیر مورد نیاز جهت تولید ویدیویی واقع گرا به روش های دیگر را نیاز ندارد. متاسفانه، این بدان معناست که هرکسی میتواند یک ویدیوی جعلی عمیق برای ترویج موضوع مورد نظر خود تولید کند. یکی از خطرات مرتبط این است که افراد ممکن است این ویدیوها را باور کنند، خطر دیگر این است که ممکن است دیگر به اعتبار هیچ ویدویی نتوان اعتماد کرد.

عرفان ابراهیم اصفهانی – مدياسافت