في القصة الأولى في سلسلة الخيال العلمي الجديدة التي تقدمهاswissinfo.ch ، "يوتوبيا ودستوبيا الغد"، يساند فريق من الباحثين الذين يُحَقِّقون في مقاطع فيديو تم التلاعُب بها من خلال تقنية "التزييف العميق" خلال جائحة كوفيد-19 رئيستهم الجديدة، ليكتشفوا بالنتيجة شيئاً مُخيفاً عنها يُعَرِّض العَمَلَية بأكملها - مع فريق العمل المَعني - للخطر .
عقارب الساعة تشير إلى 7:52 صباحاً. ريجي تبحث عن هاتفها الجوال وهي تغالب النعاس.
لم يكن العمل من المنزل هو حلمها الكبير، لكنها وجَدَت فيه مزايا بلا شك. فالعمل من السرير يعني أن بوسعها اختصار روتينها الصباحي إلى ثماني دقائق سريعة فقط. أما الدُش الصباحي فيبقى اختيارياً.
بعد أن وجد وعاء القهوة الساخن مكانه بالقرب من مرفقها، قامت ريجي بفتح جهاز الكمبيوتر وسجَّلَت دخولها إلى العديد من أنظمة الشبكات البعيدة، لِتُلقي بعدها نظرة على منصة اتصالات “سلاك” Slack [وهو تطبيق مُخصّص أساساً للتواصل بين فرق العمل الواحد أو الموظفين بداخل الشركة الواحدة] للحصول على تعليمات حول العمل الذي يتعيّن عليها تنفيذه اليوم. كانت آنّابيل قد بعثت إليها بقائمة مهامٍ طويلة ذيلتها بعبارة “لا تخذليني”!
قلَّبَت ريجي عينيها ببعض الانزعاج، ولكنها كانت تريد أن تثير إعجاب رئيستها أيضاً. ها قد مَرّ شهران على بدء عملها دون أن تجتمع معها على تطبيق “زووم” إلا نادراً. لكن ريجي كانت ترى في آنّابيل نموذجاً يُحتذى به، مع إجادتها لسبع لغات، وسيرتها الذاتية المثيرة للاعجاب التي تؤشر لخبرة مثبتة في مجال التخابر والتحليل، وترؤسها لفريق بَحث عَبر وطني للتعامل مع الدعاية والمعلومات المضلّلة – وهي لم تُكمل سنّ الثلاثين بعد.
مدينة فاضلة أم واقع فاسد؟ حلم أم حقيقة؟ تضعنا الثورة التكنولوجية المُعاصرة في مواجهة أسئلة جوهرية حول مستقبل البشرية. هل ستكون التقنيات الجديدة حليفنا أم عدونا؟ كيف ستغير هذه التقنيات دورَنا في المجتمع؟ هل كُتِب علينا أن نتطور إلى نوع من البشر الخارقين، أم أننا سنكون خاضعين لقوة الآلات؟
“يوتوبيا وديستوبيا الغد”هي سلسلة فريدة من قصص الخيال العلمي القصيرة التي طورتها SWI swissinfo.ch للإجابة على هذه الأسئلة بطريقة مُبتكرة ومُتبصِرة. وبفضل إبداع مجموعة من كتاب الروايات الخيالية وتعاون الباحثين والمهنيين السويسريين العاملين في المجالات التي تم طرحها في القصص، سوف نحاول أن نتخيل ونفهم احتمالات قدرة التكنولوجيا على تشكيل حياتنا. سوف تكون كل قصة خيال علمي مترافقة مع مقالة واقعية بالتعاون مع علماء سويسريين بارزين لفهم ما يحدث في بعض مجالات البحث الأكثر تطوراً وإثارة لخيالك!
في رأس قائمة آنّابيل، كان هناك خطاب متداول عبر الانترنت يُزعم أنه لفيكتور أوربان. الفيديو بدا طبيعياً للوهلة الأولى، وليس فيه ما يثير الشُبهات. لكن متى حَدَث وأن أصدَرَ رئيس وزراء المجر دعوة إلى اللاجئين؟ بَعْض النقرات القليلة بدأت تشير إلى مجموعة من القراصنة الروس سيئي السُمعة، لكن المُهِمة الفِعلية هنا لم تكن أبداً مَعرِفة مَنْ يقف وراء هذا العمل، لكن لماذا؟ ما هي الفائدة التي ستعود على روسيا من مجرّ أكثر ليبرالية؟ أو من أوربان غاضب؟
استدارت ريجي من محطة عملها وأخرجت جهاز الكمبيوتر المحمول الخاص بها وسجلت الدخول إلى الإنترنت المظلم (The Dark Web). وفي غرفة دردشة جيدة الحماية كتبت عبارة:
(أوربان ليبرالي/ مؤيِّد للهجرة في مقطع فيديو بتقنية التزييف العميق. من المستفيد (من شيء من هذا القبيل)؟)
وفقاً لساعتها، كان الوقت مبكراً جداً لِتَوَقُّع أي ردود، إلا في حال طوَّر أصدقاؤها في شرق آسيا اهتماماً مفاجئاً بالمجر.. حان الوقت إذن للاستمرار مع قائمة آنّابيل – وكما يبدو فإن المعركة ضد الأخبار المزيفة لا نهاية لا.
بِحلول وقت الغداء، استطاعت ريجي كَشف زَيف ستة مقاطع فيديو زُعِمَ أنها لساسة من الدرجة الثانية، يهتفون فيها بِشعارات مُناهضة للاتحاد الأوروبي، وكادت أن تنسى طلبها في غرفة الدردشة. على عكسها، لم ينسَ زملاؤها الغريبو الأطوار المهوُوسون بالشبكة المظلمة الموضوع بتاتاً، حيث كان منتدى peelthis.onion يطن باستمرار مع تَدَفق مشاركات مُحققي القرصنة الألكترونية على الموقع.
بالنسبة لخطاب أوربان المزعوم، تم الكَشْف عن “البصمات الروسية” على يد مُتَسَللين أكثَر خِبرة من ريجي، كانوا يستعرضون مهاراتهم الرقمية في نِزاع واضح على التفوق. رغم ذلك، لم تتفق الآراء على الدافع من وراء هذا الفيديو، كما أن قائمة الفيديوهات السريعة الإنتشار التي كان يتعيّن على ريجي التحقق منها لاتزال طويلة.
كان اتصالها مع آنابيل عَبر تطبيق زووم رديئاً كالعادة. لذا، وبعد عدّة محاولات فاشلة، عادت الاثنتان إلى استخدام تطبيق “سلاك” (slack). من جانبها، لم تستطِع ريجي أن تفهم أبداً كيف يمكن لرئيستها إدارة هذه المهمة التقنية بنجاح من داخل شقة تكون فيها إشارة الواي فاي (WiFi) ضعيفة بهذا الشكل، بِصَرف النظر عن المنظر الخلاب لبحيرة زيورخ. لكن آنّابيل بَدَت سعيدة بعمل ريجي، وهو ما كان واضحاً من خلال تزايد حجم العمل المُلقى على عاتقها.
فجأة، ظَهَر إشعار على الشاشة. هل تستطيعين التحدث؟أعني عَبْر الهاتف. كان المُتَصل هو سايمون، الذي كان يُفتَرَض أن يكون زميلها في المكتب، لو لَم يتم توظيفهما في منتصف الجائحة.
بدأ هاتفها بالرنين قبل أن تتمكن من الرد حتى
“سايمون، ماذا يجري”؟
“هل لازلتِ تَعمَلين على تلك الاكتشافات التي أرسلتها آنّابيل؟”
“نعم! يبدو أنني لَنْ أنتهي منها أبداً”.
“هل يُمكنكِ أن تُؤَجلي العمل عليها لفترة وَجيزة للتَحَقُّق من فيديو سارسله لك”؟
“بالتأكيد. ما الذي أبحث عنه؟”
“هذا ما لا أريد أن أخبرك به الآن. أريد أن أعرف ما إذا كنتِ سَتَرين ما أرى. ما عليكِ سوى تشغيل خوارزميات الكَشف المُعتادة والعودة إليّ عند الانتهاء، هلا فعلتِ ذلك؟ واحرصي على استخدام ‘تلغرام’ فقط بهذا الخصوص من فضلك”.
* * *
استندت ريجي إلى الوراء فاغرة فاهها ومدّت يدها نحو هاتفها. “سايمون. إنها آنّابيل، أليس كذلك؟ إنها … “
“ليست حقيقية؟ هذا ما يبدو لي أيضاً”.
الشيفرة المصدريّة… إنها غير مفهومة تماماً. ما الذي يختبيء وراء ذلك”؟
“هذا ما نحتاج إلى اكتشافه”.
“نحن؟ ولكننا مبتدؤون”!
“أو قد نكون عَديمي الأهمية لدرجة أن أحداً لن يهتم بنا. هذا الموضوع يجب أن لا يصل قرب المكتب”.
“أي مكتب” تجيب ريجي وهي تضحك. “غرفة نومي”؟
خارج نافذتها، كانت الغيوم المُنذرة بحلول عاصفة تتجمّع فوق الجبال الواقعة في جهة الجنوب الشرقي.
“هذا أمر خطير يا ريج. نحن لا نعرفُ معَ مَنْ نتعامل”.
“لنَعُد إلى البداية إذن. ما الذي نعرفه عن ‘آنّابيل’ أو الشركة؟ دعنا نبدأ من المعلومات المعروفة لدينا وننطلق من هناك. من المُفتَرَض أن نكون مُحَللين، لنبدأ بالتحليل إذن”.
* * *
كانت ريجي تقطع شرفتها جيئة وذهاباً في محاولة يائسة لتجنب النزول إلى الشارع وشراء علبة سجائر من المتجر الكائن هناك. فبعد ثلاثة أيام من تحليل ومعالجة البيانات على مدار الساعة، لم تحرز هي أو سايمون تقدماً يُذكَر فيما يتعلق بـ آنّابيل. ومن الواضح أن مَن ظنّوها رئيستهم لم يكن لها وجود، لكنهما لم يقتربا من معرفة هوية الطرف الذي ابتكرها، أو لماذا.
ما توصل الإثنان إلى معرفته هو أن “آنّابيل” كانت موجودة منذ فترة طويلة – فآثارها على شبكة الإنترنت تعود إلى أكثر من عشر سنوات. لهذا السبب، قررت ريجي التصعيد واستدعاء اللاعبين الكبار للإستفادة من مصادرهم في شبكة الإنترنت المظلم (The Dark Web)، سواء وافق سايمون أم لا.
عندما رَنَّ جرس الباب، كانت ريجي غارقة في أفكارها. مع ذلك، سَجَّل صوت الرَنين في دماغها نَمط مُشابهاً لنداء الإستغاثة S-O-S (“أنقذوا أرواحنا”) الذي يُرسَل عن طريق شفرة “مورس”، ما دفعها للتوجّه إلى جهاز الاتصال الداخلي (إنترفون). لكنها عندما أمعَنَت النَظَر، لم تَستَطِع تحديد هوية الرجل الظاهر على الشاشة بسبب نظارته الشمسية وكمامته الطبية التي فرضتها ظروف الوباء.
“من هناك”؟ قالت
“سيدة نويباور، أنا من جهاز المخابرات. هل يُمكنني أن آخذ دقيقة من وقتك”؟
“المخابرات”؟
“الأمر يتعلق بأنشطتك على الإنترنت. هلا سمحت لي بالدخول”؟
* * *
بمجرد رحيل ‘العميل’ الشبح، أحكمت ريجي إغلاق الباب. ولأول مرّة منذ انتقالها إلى هنا، استخدمت جميع الأقفال الثلاثة لذلك. لكنها لم تشعر بالأمان رغم ذلك.
قبل أن يدخل في صُلب الموضوع، بدأ السيد برونَّر – إذا كان هذا هو اسمه الحقيقي – بالسخرية من الحياد السويسري لبعض الوقت. لم يكن من الواضح بالنسبة لـ ريجي ما إذا كان السويسريون مُحايدين بالفعل، أو مُنزعجين فقط من عدم كونهم جزءاً من تحالف “العيون الخمس”. لكن ما بات واضحاً تماماً الآن هو أنها قامت بنكش “عش الدبابير”.
“لقد لفتت أنشطتك على الإنترنت انتباهي لأنها قد تتداخل مع أحد مجالات اهتمامي. “أنت تقومين بتحليل تقنية التزييف العميق، أليس كذلك؟” سألها ‘برونَّر’
“نعم، هذا صحيح.”
“وماذا عن أنشطتك في الإنترنت المُظلم؟ ألا تعاقب الشركة التي تعملين فيها على ذلك؟ “
” الإنترنت المظلم”؟
“لا تعتقدي أنني غبي. لقد كنت تطرحين الأسئلة في المنتدى، أليس كذلك”؟ سألها وهو ينظر إليها بعيونه الزرقاء الشاحبة. “أنصحك بالكف عن ذلك”.
راجعت ريجي المحادثة التي دارت بينها وبين ‘برونَّر’ في ذهنها وهي تمسح المنتدى بحثاً عن أدلة في الآراء المدونة من قِبَل أصحاب نظريات المؤامرة التي تجاهلتها سابقاً بوصفها هراء. أما فريقها، فبدأ بجمع تلك الإشاعات بحماسة مُشابهة لإنصار جماعة ‘كيو أنون’ (QAnon)، وقدَّم إليها ملفات بحثية كاملة. كان الأمر يتعلق بعلاقات مشبوهة وأسرار مظلمة. وكما بدا واضحاً الآن، كانت شركة ريجي مُمَوَلة من قِبَل شركات وهمية تابعة لشركات وهمية أخرى مدعومة بشكل وثيق من وكالات الاستخبارات الأنجلو – أمريكية.
في مدونتها، كتبت ريجي السؤال التالي:
هل اكتشفنا شيئاً عن التزييف العميق لا يُريدنا جهاز المخابرات معرفته؟
الردود بدأت تنهال على الفور، لكن رداً واحداً فقط لفت انتباهها.
برون بير: أرى أنك لستِ معتادة على الأخذ بالنصائح. قلت لك أن تكُفّيِ عن الخوض في هذا الموضوع”.…
في تلك اللحظة، دوّى صوت رهيب خلفها وتطايرت شظايا الخشب. وعندما استدارت حولها بفزع سمعت أصواتاً خشنة تأمرها بـ “عدم الحركة”!
—————————————————————————————————————
كيت ووكر ، صحفية بريطانية مستقلة غطت رياضة المحركات الآلية في صحف مثل “فاينانشال تايمز” و”نيويورك تايمز” وشبكة التلفزيون الرياضية “أي أس بي أن.” وهي تهوى أيضاً كتابة الروايات الخيالية.
ما مدى واقعية القصة التي قرأتها للتو؟ في المقال التالي، يشرح اثنان من كبار خبراء التزييف العميق في سويسرا سبب سهولة خداع العين البشرية ونَشر المعلومات المضللة من خلال مقاطع الفيديو المزيفة:
المزيد
المزيد
كيف تغيّر عمليات “التزييف المتقنة” نظرتنا للواقع
تم نشر هذا المحتوى على
مسألة مثيرة للقلق: نتيجة التطوّرات التقنية المتسارعة، أصبح من الصعب على عين الإنسان المجردة التفريق بين ما هو حقيقي وما هو مزيّف.
كيف يحاول العلماء السويسريون رصد الوسائط المفبركة باستخدام تقنية “ديبفيك”؟
تم نشر هذا المحتوى على
في مختبر الكمبيوتر التابع للحرَم الشاسع للمعهد التقني الفدرالي العالي بلوزان، يتأمل فريق صغير من المهندسين في صورة رجل مبتسم، وردي البشرة، شعره أسود مجعّد، ويرتدي نظارة.
"نعم، هذا واحد من الأعمال الجيّدة"، كما يقول الباحث البارز توراج إبراهيمي، الذي يحمل تشابهاً عابراً مع مؤسس تسلا إيلون موسك، الظاهرة صورته على الشاشة. قام الفريق بطريقة حرَفية بالتلاعب بصورة رأس إبراهيمي وإسقاطه على صورة على الإنترنت لهذا الرجل، لابتكار صورة رقمية ومقاطع فيديو مفبركة من خلال الذكاء الاصطناعي.
إنها واحدة من الأمثلة المزيفة - وبعضها ما هو أكثر واقعية من غيرها من الصور- والتي قام فريق إبراهيمي بالتعاون مع شركة الأمن الإلكتروني "كوانتوم إنتغريتي" Quantum Integrity (QI) بفبركتها أثناء تطوير برنامج يمكنه اكتشاف الصور التي تم التلاعب بها، بما فيها تلك التي تم تلفيقها باستخدام تقنية "ديبفيك".
ويعمل البرنامج على معرفة الفوارق بين الأصلي والمزور باستخدام تقنية التعلم الآلي، وهي نفس التقنية الكامنة وراء إنشاء "المقاطع بالغة الزيف" أو "ديبفيك": فهناك "مبتكر" يغذي البرنامج بصور مزيفة، ويحاول "كاشف" العثور عليها بعد ذلك.
"مع الكثير من الإعداد والتدريب، يمكن للآلات أن تساعد في اكتشاف عمليات التزوير بالطريقة نفسها التي قد يلجأ إليها الإنسان"، كما يوضح إبراهيمي. ويضيف قائلاً: "كلما زاد استخدام هذه الآلات، كلما جاءت النتائج أفضل."
والجدير بالذكر، أن الصور ومقاطع الفيديو المزيفة موجودة منذ ظهور الوسائط المتعددة، لكن تقنيات الذكاء الاصطناعي الحديثة، لم تسمح للمزيفين سوى بتغيير الوجوه في مقطع فيديو، أو جعل شخص يبدو وكأنه يقول شيئاً، لم يقله مطلقاً. وخلال السنوات القليلة الماضية، فاقت سرعة انتشار تقنية "ديبفيك"، توقع معظم الخبراء.
وفقاً لمجلس الحوكمة الدولية للمخاطر في المعهد التقني الفدرالي العالي بلوزان، فقد أصبح تصنيع مقاطع فيديو، بتقنية "ديبفيك" و"بشكل تصاعدي، أسرع وأسهل وأرخص"، وذلك بفضل توزيع أدوات برمجية سهلة الاستخدام، وتقديم خدمات وتطبيقات ذات صلة، مدفوعة عبر الإنترنت.
"ولأن تطوّرها يجري بسرعة كبيرة تحديدا، بتنا نحتاج إلى معرفة حدود هذا التطور - وما هي القطاعات والمجموعات والبلدان التي قد تتأثر به" بحسب قول نائب مدير المركز، أنجوس كولينز.
وعلى الرغم من أن الكثير من مشاكل تقنية "ديبفيك" الخبيثة، تتعلق باستخدامها في إنتاج المواد الإباحية، فإن هناك حاجة متزايدة إلى الاستعداد لكشف الحالات التي يتم فيها استخدام هذه التقنيات، من أجل التلاعب بالرأي العام.
مجال يتطوّر بسرعة
عندما بدأ الإبراهيمي، منذ ثلاث سنوات، العمل مع "كوانتوم إنتغريتي" Quantum Integrity لأول مرة على برنامج الكشف، لم تكن قضايا المقاطع المزيفة بعمق، على جدول أعمال معظم الباحثين. في ذلك الوقت، كان عملاء قلقين بشأن الصور التي تم تزييفها والتلاعب بها، والمستخدمة عند الحوادث، في مطالبات تعويضات التأمين على السيارات وعلى المنازل. ولكن، بحلول عام 2019، عندما وصلت التقنية المستخدمة إلى مستوى متقدّم من التطور، تم اتخاذ القرار بتكريس المزيد من الوقت لهذه القضية.
يقول أنتوني ساحاكيان، الرئيس التنفيذي لشركة "كوانتوم إنتغريتي": "أنا مندهش، لأنني لم أعتقد أنها [التقنية] ستتطوّر بهذه السرعة الكبيرة".
لقد رأى ساحاكيان بشكل مباشر إلى أي مدى حققت تقنيات "ديبفيك" نتائج بدت واقعية، وكان آخرها تبديل صوَر الوجوه على جواز سفر، بطريقة تركت جميع أختام المستندات سليمة.
والواقع، أن التحسينات في تقنيات التلاعب بالصور والفيديوهات ليست وحدها موضع اهتمام الخبراء من أمثاله، بل أعدادها المتزايدة؛ حيث وصل عدد مقاطع الفيديو المزيّفة بعمق على الإنترنت إلى الضعف تقريباً، وذلك خلال فترة تسعة أشهر، فبلغت 14678 بحلول سبتمبر 2019، وفقاً لتقديرات شركة أمن الإنترنت الهولندية "ديب تريس" Deeptrace.
مواطن الخطر
تستهدف معظم عمليات التزييف العميقة التي تم القيام بها على الإنترنت بغرض الإيذاء، النساء اللواتي تم نقل وجوههن إلى أخريات يظهرن في لقطات أو صور إباحية. ووفقاً لتقديرات شركة أمن الإنترنت الهولندية "ديب تريس" Deeptrace، فإن هذا النوع من الاستخدام استحوذ في عام 2019، على 96 % من مقاطع الفيديو التي استخدمت فيها تقنية "ديبفيك" والموضوعة على الإنترنت. ويظهر البعض من هذه الفيديوهات أو الصور، على مواقع إباحية مخصصة بإنتاج المقاطع بالغة الزيف، بينما ينضوي نشر البعض الآخر منها، تحت ما يسمّى بـ " الانتقام الإباحي" الذي يهدف إلى الإساءة إلى سمعة الضحايا.
يقول كولينز: "الابتزاز والتنمّر عبر شبكة الإنترنت هي من المواضيع المتكررة". في المقابل، تعد الحالات التي استخدمت فيها تقنية "ديبفيك"، من أجل ارتكاب عمليات احتيال، وتمّ التفطّن إليها، قليلة. وقد اتخذت معظم هذه الحالات شكل انتحال صوتي لشخص يعرفه الضحايا، لتحويل أموالهم إلى المزور.
من ناحية أخرى، ما يزال قطاع الأعمال في مرحلة تدوين الملاحظات لأخذ كل هذه الأخطار بعين الاعتبار. وقد أرسلت بعض الشركات ومن يبنها شركة زيورخ للتأمين و شركة "سويس ري Swiss Re " للتأمين وإعادة التأمين ومصرف "بي إن بي باري با BNP Paribas “، ممثلين لها إلى ورشة عمل نظمها مجلس الحوكمة الدولية للمخاطر حول مخاطر تقنية "ديبفيك".
ويقول ساحاكيان إن الاستخدام المحتمل لمقاطع فيديوهات مفبركة باستخدام هذه التقنية في مطالبات تعويضات الحوادث، على سبيل المثال، هو مصدر قلق في أوساط شركات التأمين، التي يعمل معها.
ويضيف: "إن التكنولوجيا الآن موجودة لجعل عملية KYC [أعرف عميلك] بائدة وعديمة الجدوى"، في إشارة منه، إلى عملية التحقق من هوية العملاء ونواياهم، التي تتبعها المؤسسات التجارية، من أجل تجنب إمكانية وقوعها ضحية الاحتيال.
كما أدى تنامي انتشار تقنية "ديبفيك" أيضاً إلى بروز مخاوف حول إمكانية استخدامها للتدخل في العمليات السياسية.
وقد تأكدت هذه المخاوف عندما ظهر شريط فيديو تم التلاعب به، تبدو فيه نانسي بيلوسي رئيسة مجلس النواب الأمريكي، لتشويه خطابها. كانت التكنولوجيا المستخدمة في التلاعب بالفيديو ذات نوعية منخفضة، أو ما يسمى بـ"التزييف الرخيص". ولكن كما يقول إبراهيمي، "إنها علامة على ما يمكن القيام به، والنوايا التي تكمن وراء هذا النوع من التلاعب بالإعلام."
التكيف مع واقع رقمي جديد
ومع ذلك، يحذر خبير المخاطر كولينز من أن استخدام وسائل الإعلام الاصطناعية في السياسة يجب أن يوضع في سياقه. ويحذر قائلاً: "من المحتمل أن تلعب تقنية "الديبفيك" دوراً في زعزعة نتائج الانتخابات، لكنني أتوخّى الحذر من التشديد المفرط على خطر هذه التقنية، لأنك بذلك تُخاطر بتجاهل الصورة الكاملة".
ويقول إن ما تفعله "الديبفيك" هو "الفجوة المحتملة الناشئة بين سرعة تطور النظام الإيكولوجي للمعلومات الرقمية وقدرة المجتمع على التكيّف معه".
ولإعطاء مثال على هذا، يعود كولينز إلى استخدام تقنية "الديبفيك" كأداة للتنمّر الإلكتروني؛ فيقول: "هذا الأمر يثير أسئلة حول مدى استجابة النظم القانونية للأذى الفردي عبر الإنترنت". ويضيف: "كيف يمكنك التخلّص من المحتوى الرقمي المسيء بعد مجرد ابتكاره، وكيف تجد مبتكره الأصلي أو تتخذ بحقه أية إجراءات قانونية، خاصة إذا كان يخضع لسلطة قضائية أخرى؟".
يمكن أن تساعد تقنية "الديبفيك" أيضاً في حملات التضليل، مما يؤدي إلى تآكل حلقة الوصل بين الحقيقة والثقة بها.
الذكاء الاصطناعي لتزييف المقاطع ولكشف التزييف
قد يسبب استخدام هذه التقنية حالة من الذعر في بعض الأوساط، لكنه لا يوجد إجماع على أن مقاطع الفيديو المفبركة واقعية لدرجة أن تخدع معظم المستخدمين. يقول الخبراء إن جودة هذه التقنية اليوم لا تزال تعتمد إلى حد كبير على مهارات المبتكر. ويوضح خبير أمن المقاييس الحيوية سيباستيان مارسيل، أن تبديل الوجوه على فيديو ما، يسبب حتماً وجود بعض العيوب في الصورة.
ويقول: "ستكون الجودة متباينة بدرجة كبيرة، بحسب العمل اليدوي الذي تم القيام به لتعزيز الصورة. فإذا بذل المبتكر جهداً لمواءمة النتيجة مع النسخة الأصلية، فقد يكون من الصعب جداً اكتشاف التزييف".
يعمل مارسيل وزملاؤه في معهد أبحاث "أي دياب Idiap " في مارتيني - جنوب غرب سويسرا، على برنامج للكشف خاص بهم، في مشروع كان نتيجة الجهود المبذولة للكشف عن التلاعب في الوجوه والأصوات في لقطات الفيديو.
ويقوم معهد “Idiap " بالعمل في هذا المجال على المدى الطويل. يقول مارسيل: "لن يتم حل هذه المشكلة في الحال". "إنه موضوع بحث متنامي ولذا فإننا نخطط لكيفية رصد المزيد من الموارد في هذا المجال."
ويشارك هذا المعهد غير الهادف للربح، في تحدٍ أطلقه موقع فيسبوك لإنتاج برنامج اكتشاف للصور والفيديوهات المزيفة بتقنية "الديبفيك"، من أجل مساعدة هذا الأخير على الاستفادة من بعض النتائج الأولية التي حصل عليها. وتعهد عملاق وسائل التواصل الاجتماعي بالمساهمة، بأكثر من 10 ملايين دولار للباحثين في مجال الكشف عن الحقائق المزيّفة، في جميع أنحاء العالم (انظر الحاشية).
ولكن ما قد يحدثه الكشف عن الفارق بين الحقيقة المجردة والحقيقة المزيّفة، هو موضوع مطروح للنقاش.
يقول كولينز: "من غير المحتمل إيجاد حل سحري؛ فمهما امتلكنا من تقنيات لكشف التزوير، فإن الخصم سوف يجد طريقة للتغلب عليها."
لعبة القط والفأر
يقول كل من إبراهيمي ومارسيل إن هدفهما ليس التوصل إلى أداة تشكل مفتاح أمان؛ فجزء من وظيفة الكاشف هو توقع المنحى الذي قد يسلكه المتلاعبون بالحقائق، وضبط أساليبهم وفقاً لذلك.
ويتوقع مارسيل من معهد "Idiap" مستقبلاً يتمكن فيه مبتكري المقاطع بالغة الزيف، ليس فقط من تغيير جانب واحد من الفيديو، مثل الوجوه، وإنما الصورة بأكملها.
ويقول: " إن جودة تقنيات "الديبفيك" آخذة في التحسن، لذا يتعين علينا مواكبة الأمر بتحسين أجهزة الكشف كذلك"، حتى لا تعود نسبة التكلفة إلى العائد، والناتجة عن صنع مقاطع خبيثة بالغة الزيف، في صالح المبتكر.
يعتقد إبراهيمي من المعهد التقني الفدرالي العالي بلوزان أن حدثاً كبيراً، مثل الانتخابات الرئاسية في الولايات المتحدة، يمكن أن يمنح الجهات الفاعلة الخبيثة حافزاً لتسريع عملها في هذا المضمار، مع وضع هدف واضح في الاعتبار.
"قد يستغرق الأمر شهوراً أو أعواماً" قبل أن تصبح العين المدربة قادرة على اكتشاف ما هو زائف، وفي هذه المرحلة، ستكون الأجهزة هي فقط، من تملك القدرة على القيام بذلك.منصات وسائل الإعلام الاجتماعية ضد المقاطع البالغة الزيف
أدخل تويتر Twitter قاعدة جديدة في مارس 2020 ضد مشاركة محتوى الوسائط الاصطناعية أو التلاعب الذي يمكن أن يسبب بأذية الآخرين. من بين الإجراءات التي ستتخذها، هي وسم هذه التغريدات وتحذير المستخدمين منها. كما تعهدت شركة يوتيوب YouTube، المملوكة لشركة غوغل Google، بأنها لن تتسامح مع مقاطع الفيديو البالغة الزيف ذات الصلة بالانتخابات أو بالإحصاءات في الولايات المتحدة عام 2020، والتي تم تصميمهما لتضليل الجمهور. وقد أطلق فيسبوك Facebook تحدياً بقيمة تزيد عن 10 ملايين دولار لدعم الباحثين في مجال الكشف عن الحقائق المزيّفة حول العالم. كما أصدر كل من فيسبوك Facebook وغوغل Google مجموعات بيانات لمقاطع بالغة الزيف، لمساعدة الباحثين على تطوير تقنيات الكشف. المقاطع البالغة الزيف للترفيه والمحاكاة الساخرة
بحسب مجلس الحوكمة الدولية للمخاطر (IRGC): "فإن المصنفات الأكثر تداولاً على نطاق واسع تميل إلى السخرية، حيث تتضمن شخصيات بارزة" مثل المشاهير والسياسيين، مما يشير إلى أنه "لا يتم ابتكار كل المقاطع بقصد خبيث". وقد انخرطت هوليوود أيضاً في تقنية "الديبفيك"، للسماح على سبيل المثال، بعودة الممثلين المتوفين منذ وقت طويل إلى الشاشة الفضية. ويقول إبراهيمي من EPFL إنه إذا سار كل شيء وفقاً للخطة الموضوعة، فقد تكون النتيجة الثانوية لمشروع EPFL / QI لتطوير برنامج الكشف عن المقاطع بالغة الزيف هو الاستخدام النهائي لنفس التكنولوجيا لإنشاء مؤثرات خاصة للأفلام.
وتشمل الاستخدامات الإيجابية المحتملة الأخرى لتقنيات "الديبفيك" التوليف الصوتي للأغراض الطبية والطب الشرعي الرقمي في التحقيقات الجنائية، وفقاً لمجلس الحوكمة الدولية للمخاطر.
مقاومة “الأخبار المضللة” حول كوفيد – 19 بجرعة عالية من ثقة الجمهور
تم نشر هذا المحتوى على
انتشرت المعلومات المضللة حول كوفيد – 19، كالوباء نفسه، في جميع أنحاء العالم. وأثر ذلك على بعض البلدان أكثر من غيرها. ما هو الوضع في سويسرا بالنسبة لـ "وباء المعلومات"؟
“الأخبار المزيفة”.. والسؤال الشائك بشأن ضمان حماية الانتخابات
تم نشر هذا المحتوى على
لقد أصبح هذا السيناريو شائعاً على نحو متزايد، حيث ظهر مؤخراً في مقدونيا قبيل الاستفتاء على تغيير اسم البلد، والذي كان يشكل عقبة قديمة العهد لالتحاق مقدونيا بحلف الناتو والاتحاد الأوروبي. فقام المتصيدون وأصحاب الحسابات المزيفة وروبوتات الويب (الحسابات الآلية) بنشر معلومات زائفة مثيرة للخلاف على تويتر وفيسبوك، وذلكرابط خارجي لإقناع المواطنين بمقاطعة التصويت، في…
المعركة الطويلة للحَد من انتشار الأخبار الكاذبة على شبكة الإنترنت
تم نشر هذا المحتوى على
تنكب مجموعة من الباحثين السويسريين والأوروبيين على تطوير خوارزميات جديدة للكَشف عن المعلومات المُضللة المُتداوَلة في وسائل الإعلام الاجتماعية، لكنهم يحذرون في نفس الوقت من أن تدريب الآلات لتنفيذ هذه العملية ليس بالمهمة السهلة.
يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!
إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.