• طبقه بندی مقالات
    • خلاءهای قانونی و اقدامات در برابر جعل عمیق
      خلاءهای قانونی و اقدامات در برابر جعل عمیق
      دیپ فیک1 یا جعل عمیق، فناوری ترکیب و قرار دادن صوت و تصویر مصنوع، بر روی تصاویر یا فیلم‌های مورد نظر، با استفاده از تکنیک یادگیری ماشین تحت عنوان “شبکه تقابلی مولد”GAN) 2) بوده، به نحوی که گویی ترکیب هر دو در یک صحنه رخ داده است. این ترکیب پیچیده می تواند یک فرد یا افراد را در حال صحبت کردن و یا انجام اقداماتی3 مثل حضور در فیلم های غیر اخلاقی، نشان دهد که هرگز در واقعیت رخ نداده اند؛
      این ویدئوها حتی می توانند تصویر فرد را در رویدادهای سیاسی و مجرمانه از جمله صحنه های قتل، سرقت و غیره قرار دهند و روز به روز تشخیص جعلی بودن آنها سخت تر می شود. حتی در‌ این‌ زمینه ابزارهایی نیز ساخته شده‌اند تا فرآیند ساخت چنین ویدئو‌هایی ساده‌تر شود؛ به‌عنوان‌ نمونه می‌توان به موتور جستجویی اشاره کرد که تصویر اشخاص عادی جامعه را دریافت می‌کند و براساس آن شبیه‌ترین بازیگر را پیشنهاد می‌دهد تا از ویدئو‌های وی برای ساخت محتوای غیراخلاقی دروغین با چهره فرد موردنظر استفاده نماید.
      گسترش این موضوع باعث شده تا عده‌ای برای کسب درآمد، زندگی و اعتبار اجتماعی افرادی را قربانی کنند. در انجمن‌های اینترنتی، عده‌ای بابت ساخت ویدئو‌های غیراخلاقی از فرد موردنظرشان، قیمت‌های بالایی پرداخت می‌کنند. موضوع تأسف‌برانگیز این است که فعلا هیچ قانون صریحی برای توسل قربانیان به آن تدوین نشده است. فرای نگرانی‌ها درباره حریم‌ خصوصی، متخصصان پیش‌بینی می‌کنند که دیپ‌فیک در آینده نزدیک به یکی از بزرگ‌ترین خطر‌ها برای دموکراسی و امنیت ملی کشورها تبدیل شود. به‌عنوان‌ نمونه، رقبا و دشمنان آمریکا می‌توانند با ساخت تصاویر، ویدئو‌ و فایل‌های صوتی جعلی، در انتخابات پیش‌رو تأثیر بگذارند.
      گسترش استفاده از دیپ فیک، نه‌ تنها اطلاعات نادرست را در سطح جامعه گسترش می‌دهد بلکه پذیرش حقیقت را نیز توسط افراد به امری سخت و ناممکن تبدیل می‌سازد. تصور کنید شبکه‌های اجتماعی پر از ویدئو‌های جعلی و دروغین باشد، رهبران سیاسی کشور‌ها حرف‌های پیشین خود را تکذیب کنند و افراد جامعه همواره نگرانی سوءاستفاده از تصاویرشان را با‌ خود به‌همراه داشته باشند. در‌ این‌ صورت با جامعه‌ای بیمار و بدگمان رو‌به‌رو خواهیم شد که به‌ همه‌چیز مشکوک است، سخنان رهبرانش را باور ندارد و از آن‌ سو رهبران سیاسی کشور‌ها نیز به‌سادگی و با پناه‌بردن به واژه‌ دیپ‌فیک، نه‌تنها هیچ انتقادی را نمی‌پذیرند بلکه حرف‌های واقعی خود را نیز تکذیب می‌کنند تا از زیرِ بار مسئولیت شانه خالی کنند. در چنین جامعه یا بهتر است بگوییم چنین جهانی، دیگر مرزی بین حقیقت و دروغ باقی نمی‌ماند، «اعتماد» به واژه‌ای مضحک تبدیل می‌شود و دروغ، خوراک روزانه همگان خواهد شد.
      یکی از دلایلی که اشخاص معروف و سیاستمداران بیشتر از سایرین در خطر جعل عمیق هستند این است که به سادگی با جستجویی سریع در اینترنت می توان تمام داده های مورد نیاز از آنها را به منظور جابجایی چهره و القاء حالات چهره از تصاویر موجود به ویدئو مقصد بدست آورد. حتی در صورت نبود تعداد متعدد تصاویر و زوایا، با روش هایی همانند کشیدن تصاویر و فریم های چندگانه می توان شکاف ها را از بین برد.
      نمی توان راهکارهایی به طور کامل امن برای مقابله با دیپ فیک ها پیدا کرد ولی می توان با آگاه سازی عموم از پیامدهای جعل عمیق، راهکارهایی را به آنها توصیه نمود، از جمله اینکه حتی الامکان از ارسال بی مورد تصاویر در شبکه های اجتماعی خودداری کنند و یا در عکس ها و فیلم های کسانی که نمی شناسند حضور نیابند یا اگر ناچارند صورت خود را به نحوی دور از دید دوربین نگه دارند. برخی از راهکارهای تشخیص دیپ فیک عبارتند از:
      • جستجوی معکوس تصویر: با این فرض که دیپ فیک اغلب توسط یک الگوریتم، از عکس های ثابت جمع آوری می شود، با پیدا کردن نسخه اصلی تصویر و حتی تصویر کوچکِ4 مشابه از نوار ویدئویی، می توان متوجه جعل یا واقعی بودن فیلم شد. در فیلم جعلی، فرد کمتر پلک می زند و صورت افراد معمولا به طور کامل شبیه سازی نمی شود. در نتیجه تصاویر جعلی، بسیاری از حالات قابل مشاهده در چهره افراد در حالت عادی از جمله احساسات، اضطراب و عصبانیت را کمتر القاء می‌کنند.

      • بزرگنمایی: روش فنی و پیچیده‌تر برای تشخیص جعل عمیق، حتی در صورت عدم وجود تصویر مشابه، مقایسه نشانگرهای فیزیولوژیکی فرد از جمله مقایسه نبض عنبیه سوژه با نبض یک نقطه از گردن او است که در صورت عدم تطابق آنها، جعلی بودن تصویر قابل تشخیص است.

      برخی شیوه های پیگیری و مواجهه با دیپ فیک عبارتند از:
      1- شکایت از خالق جعل عمیق تحت یکی از قوانین حریم خصوصی: این قوانین معیارهای مختلفی دارند. بعنوان مثال، اساسنامه آزار جنسی، سوءاستفاده خانگی، قوانین مربوط به تبلیغات سایبری و غیره که کاربردی‌ترین نمونه این قوانین false light 5 است. بر این اساس، شاکی باید ثابت کند که جعل عمیق برای او شرم آور یا توهین آمیز بوده است. حتی قربانی می‌تواند در برابر انتشار جعل عمیق حکم قضایی بگیرد تا نمونه‌های جعل عمیق را از اینترنت حذف یا دسترسی به آن را محدود کند. اگر از جعل عمیق برای تبلیغ یک محصول یا خدمت استفاده شود، قربانی می تواند علاوه بر سایر خسارات قانونی و تنبیهی، سودهای حاصل از استفاده تجاری از تصویر خود را پس بگیرد.

      2- استفاده از حق کپی رایت: از آن‌جا که مردم عموماً برای عکس‌های شخصی خود حق کپی‌رایت اتخاذ نمی‌کنند، قانون کپی‌رایت راه حل مناسبی برای مقابله با جعل عمیق محسوب نمی‌شود، به خصوص که حق کپی‌رایت معمولا به صاحب اثر و نه سوژه‌ی آن تعلق می‌گیرد. با این حال، در صورتی که بتوان تصویر یا ویدئوی منشا جعل عمیق را تشخیص داد و صاحب کپی‌رایت نیز حاضر به شکایت باشد، این قانون تاثیرگذار است.6

      3- استفاده از ماده 17 آئین نامه حفاظت از داده های عمومی اتحادیه اروپا (GDPR): این قانون با عنوان «حق حذف» می تواند برای کمک به قربانیان جعل عمیق ساکن اروپا مورد استفاده قرار گیرد. سوژه‌ی جعل عمیق اجازه درخواست حذف دیتای مربوط به خود را از سازنده یا ناشر جعل عمیق دارد.

      4- استفاده از ماده 21 آیین‌نامه GDPR: در اروپا در شرایطی که از جعل عمیق برای اهداف بازاریابی و تحقیقاتی استفاده شود می توان از این قانون جهت پیگیری حقوق و منافع پایمال شده بهره برد.

      5- رعایت استانداردهای نظارتی حداقلی در برابر محتوای شخص ثالث در وب سایت ها و شبکه های اجتماعی نظیر یوتیوب، پینترست، فیس‌بوک و غیره: این شرکت ها به جای مصونیت کامل در برابر محتوای شخص ثالث، می توانند استانداردهای نظارتی حداقلی را رعایت کنند. البته این شرکت ها توسط دادگاه، قابل مجازات هستند و از قوانین جزایی یا ایالتی نیز مستثنی نبوده و امکان توسعه‌ و اجرای آزادانه‌ی راه‌حل‌های نظارت بر جعل عمیق برای آنان فراهم است. این نوع نظارت را می‌توان با ایجاد مسئولیت برای این وب سایت‌ها و شبکه ها ایجاد کرد؛

      الگوریتم ها و نرم افزارهای متعددی در ایجاد دیپ فیک و حتی تشخیص آن توسط استارتاپ هایی با عنوان "فکت چکینگ" موجود است ولی نمونه های توسعه یافته با قابلیت بهره برداری حرفه ای به صورت انحصاری در کشورهای چین و روسیه وجود دارد که تا به حال بکارگیری نشده است. البته فناوری جعل عمیق کاربردهای قانونی نیز دارد، به خصوص در فیلم‌ها که از آن برای قرار دادن چهره بازیگر روی بدن بدل و یا رتوش چهره استفاده می شود.


      پی نوشت:
      1- Deep fake
      2- Generative adversarial network (GAN)
      3- سخنرانی دروغین باراک اوباما، ویدئو منتشر شده از مارک زاکربرگ، مدیرعامل فیسبوک، ویدئو جان اسنو، یکی از شخصیت‌های محوری سریال «بازی تاج و تخت»، نمونه هایی از ویدئوهای تولید شده توسط دیپ فیک هستند.
      4- thumbnail
      5- مجازات حریم خصوصی در برابر سوءاستفاده های تبلیغاتی از داده مرتبط با افراد در آمریکا
      6- با توجه به اینکه در الگوریتم‌های جعل عمیق از برش‌های تصویر و ترکیب آن‌ها استفاده می‌شود، لازم است امکان استفاده‌ی محدود از قسمت‌هایی از اثر -بدون اجازه گرفتن از صاحب اثر- تحت قانون کپی‌رایت بررسی شود.
      کلمات کلیدی

      شورای عالی فضای مجازی، مرکز ملی فضای مجازی ، معاونت راهبری فنی، Deep Fake ، جعل عمیق ، GAN ، شبکه تقابلی مولد، GDPR

      منبع اصلی مقاله


      منبع درج


      منابع


      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
تمامی حقوق برای مرکز ملی فضای مجازی محفوظ است. هر گونه کپی‌برداری از مطالب با ذکر منبع بلامانع است.