تقنية "التزييف العميق" تحل لغز جريمة قتل وقعت قبل عقدين


أعلنت الشرطة الهولندية، أنها استخدمت تقنية "التزييف العميق" (Deep Fake) لحل أطوار جريمة قتل وقعت قبل عقدين من الزمن، في مرآب سيارات تابع لمحطة مترو روتردام.


ولجأت الشرطة إلى تركيب فيديو يطلب فيه مراهق قتل بالرصاص في مرآب سيارات تابع لمحطة مترو روتردام، معلومات وشهادات تفيد في حل لغز جريمة القتل التي تعرض لها. واعتبرت الشرطة أن خطوتها هذه قد تكون الأولى من نوعها في العالم.


ويظهر الفيديو الممتد على أكثر من دقيقة الفتى وهو يلوح للكاميرا ويمسك بالكرة أثناء لعب كرة القدم. ثم يتقدم على وقع موسيقى مؤثرة باتجاه أحد الحراس في الملعب حيث يتواجد أقاربه ومعلموه السابقون وأصدقاؤه.


ويسمع في مقطع الفيديو صوت يقول "هنالك شخص لا بد أنه يعرف من قتل أخي العزيز، لهذا السبب أعيد (سواريس) إلى الحياة في مقطع الفيديو هذا"، ثم يتوقف سيدار في شريط الفيديو ويرمي الكرة.


ويقول سيدار وأقاربه وأصدقاؤه "هل تعرف المزيد؟ إذا تحدث"، قبل أن تختفي صورة المراهق من الملعب وتظهر تفاصيل تتعلق بطريقة التواصل مع الشرطة بالهاتف أو البريد الإلكتروني.


وبعد يوم على نشر شريط الفيديو، قالت المتحدثة باسم شرطة روتردام ليليان فان دويفنبوده لوكالة الأنباء الفرنسية إن "تلقّي الشرطة عشرات المعلومات مؤشر إيجابي جدا"، مضيفة "لكننا لم نتحقق بعد ما إذا كانت المعطيات مفيدة".


وقتل سيدار سواريس بالرصاص في عام 2003 بينما كان يقذف كرات الثلج مع أصدقائه في ساحة انتظار السيارات بمحطة مترو روتردام.


وأثار مقتل الشاب البالغ من العمر 13 عاما حيرة الشرطة لسنوات، التي قامت الآن، بإذن من عائلة سواريس، بتصوير مقطع فيديو يطلب فيه المراهق من الجمهور المساعدة في حل جريمته الباردة.


تقنية التزييف العميق


هي تقنية تقوم على صنعِ فيديوهات مزيّفة عن طريق استخدام برامج الحاسوب والذكاء الاصطناعي، وتقوم هذه التقنية بدمج الصور ومقاطع الفيديو لشخصية ما من أجل إنتاج مقطع فيديو جديد قد يبدو للوهلة الأولى أنه حقيقي لكنه في واقع الأمر مُزيّف.


ظهرت أولي معالم هذه التقنية في عام 1997، حيث كان يقوم برنامج "فيديو ريرايت" (Video Rewrite)‏ بتحويل فيديو لشخص يتحدث في موضوع معين إلى فيديو لنفس الشخص لكنه يتحدث في موضوع آخر، وينطق بكلمات جديدة لم يقلها في الفيديو الأصلي.


وعادة ما يتم استغلال هذه التقنيّة في المجال الأكاديمي في مجال الرؤية الحاسوبيّة الذي يستند إلى الذكاء الاصطناعي، ولكن لم يتوقف استخدام هذه التقنية على المجال الأكاديمي فقط، فيرجع استخدام مصطلح التزييف العميق إلي اسم أحد مستخدمي "ريديت" الذي قام هو وآخرون في نهاية عام 2017 بمشاركة فيديوهات إباحية مزيفة كانوا قد صنعوها لمشاهير، وحققت تلك الفيديوهات نسب مشاهدات عالية.


بحلول فبراير/شباط من العام التالي (2018)، قام موقع "ريديت" بحظر المُستخدم، كما قامت باقي المواقع بحظر كل من يروج لهذه التقنيّة، ومع ذلك؛ لا تزال هناك منصات أخرى على الإنترنت تعمل على مشاركة الفيديوهات المصنوعة بهذه التقنية بعلم أو بدون علم.


وفي ديسمبر/كانون الأول من نفس العام تحدثت الممثلة سكارليت جوهانسون علنا عن موضوع التزييف العميق خلال مقابلة لها مع واشنطن بوست حيث أعربت عن قلقها إزاء هذه "الظاهرة" ووصفت عالم الإنترنت بأنه "ثقب كبير من الظلام يأكل نفسه".


استُخدمت تقنية التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بدونالد ترامب من قبل.


وفي أبريل/نيسان 2018؛ نشر فيديو للرئيس الأمريكي السابق باراك أوباما وهو يتكلم بصوت عالٍ حول هذه التقنية وشرح مخاطرها، وهو ما لم يفعله الرئيس الأمريكي أصلا.


وفي نفس العام أيضا أصدر الحزب الاشتراكي البلجيكي مقطع فيديو مزيف للرئيس ترامب وهو يهين بلجيكا، وكما هو متوقع حصل الفيديو على رد فعل كاف لإظهار المخاطر المحتملة للتزييف العميق عالي الجودة.

وفي يناير/كانون الثاني2019، بثت شبكة فوكس التلفزيونية فيديو مصنوع بتقنية التزييف العميق للرئيس ترامب خلال خطابه في المكتب البيضاوي.


معركة الذكاء الاصطناعي

يرسم الباحثون سيناريو لصحفي استقصائي يتلقى مقطع فيديو من مجهول، يظهر فيه مرشح الرئاسة الأمريكية يعترف فيه بنشاط غير قانوني، ويتساءل الجميع: هل هذا الفيديو حقيقي؟ إذا كان الأمر كذلك، فسيكون خبرا مدويا يمكن أن يقلب نتيجة الانتخابات القادمة تماما.


يري هاني فريد من جامعة كاليفورنيا (University of California) في بيركلي أن الأمر ربما يكون أكثر رعبا، حيث يمكن استخدام تلك التقنية لإثارة الشك حول محتوى مقاطع الفيديو الحقيقية، وأنه من المفيد للغاية أن تكون قادرا على اكتشاف التزييف العميق وتصنفه بوضوح.


بدأ اكتشاف التزييف العميق كمجال بحثي منذ ما يزيد قليلا عن ثلاث سنوات، وركزت الأعمال المبكرة على اكتشاف المشكلات المرئية في مقاطع الفيديو، ومع مرور الوقت، أصبحت المنتجات المقلدة أفضل في محاكاة مقاطع الفيديو الحقيقية وأصبح من الصعب اكتشافها.


ولهذا، يحاول الباحثون تطوير أداة متخصصة لإختبار التزييف العميق للفيديوهات باستخدام الذكاء الاصطناعي والتعلم العميق، وقد يستخدم الصحفيون في جميع أنحاء العالم أداة كهذه في غضون سنوات قليلة.

ومع ذلك، لن تحل هذه الأداه جميع المشاكل المتعلقة بهذه التقنية، ولكنها ستكون مجرد سلاح واحد فقط من الترسانة الحربية في معركة الذكاء الإصطناعي ضد المعلومات المضللة.


ويري باحثون أخرون أن تقنية التزييف العميق جاءت لتبقي، وأن حماية الجمهور من المعلومات المضللة ستكون أكثر صعوبة من أي وقت مضى حيث تزداد قوة الذكاء الاصطناعي.


ويري بعض من يدرسون آثار هذه التطبيقات أن السياسيين الأمريكيين الكبار لا يخشون بشكل كبير من التهديدات التي تشكلها هذه التطبيقات، ولكن من المرجح أن تصبح هذه التقنية سلاحا يُستخدم لتوسيع نطاق المضايقات والتسلط والابتزاز عبر الإنترنت.


وفي حقيقة الأمر فأن المضايقات التي نتجت عن مثل هذه التقنيات تمثل أول أثر سلبي كبير وواضح لهذه التقنية الحديثة، ويوجد بالفعل الكثير من الفيديوهات استخدمت فيها تقنية التزييف العميق وتسببت فى فضائح سياسية ولكن لم يكن هناك إمكانية، ولا وقت لإثبات ذلك.



ألهمني ألهمني أضف تعليقك

التعليقات

إقرأ المزيد من تدوينات د. طارق قابيل

تدوينات ذات صلة