فتحت مقاطع الفيديو المزوّرة بتقنية عالية - التزييف العميق - الباب أمام حرية التلاعب بالمحتوى المرئي، للتأثير على الرأي العام ونشر معلومات مضللة . ويوضح لنا اثنان من أبرز خبراء تقنية التزييف العميق "ديبفيك" في سويسرا سبب سهولة خداع العين البشرية.
تم نشر هذا المحتوى على
12دقائق
أهتم بالقضايا المتعلقة بتأثير التقنيات الجديدة على مجتمعنا. هل نحن على وعي بالثورة الجارية وبنتائجها؟ الهواية المفضلة: التفكير الحر، أما العادة المتكررة فهي: أسئلة كثيرة جدًا.
إن التلاعب بالصور قديم جدًا قدم نشأة التصوير الفوتوغرافي، وقد استخدمه أبراهام لينكولن ليبدو أكثر جمالا وليزيد من هالته الرئاسيه، واستخدمه جوزيف ستالين وماو تسي تونغ للقضاء على المعارضين السياسيين ويمسحهم من التاريخ.
مصطلح “التزييف العميق” بالعربية هو الترجمة الحرفية لمصطلح “ديبفيك deepfake” بالانجليزية والذي تمت صياغته في عام 2017 مستوحًى من مصطلح “التعلم العميق” أو “ديب ليرننغ deep learning” ومعناه (التعلم الآلي “العميق” المعتمد على الذكاء الاصطناعي).
لكن ، إذا كان خداع العين البشرية في الماضي لا يحسنه سوى البارعون، فقد أصبح اليوم مجرد لعبة أطفال ويكفي مجرد تنزيل برنامج من الإنترنت وتجميع بعض الصور من هنا وهناك عبر محركات البحث أو وسائل التواصل الاجتماعي ليقوم أي شخص بعمل فيديوهات مزيفة تنتشر على الويب كالنار في الهشيم، وكما يقول توراج إبراهيميرابط خارجي، الذي يرأس مختبر معالجة إشارات الوسائط المتعددة التابع للمعهد التقني الفدرالي العالي في لوزانرابط خارجي: “اليوم، صورة واحدة تكفي للقيام بعملية تزييف متقنة”.
وتَستخدم تقنية التزييف العميق الذكاء الاصطناعي لإنشاء صور مفبركة أقرب ما تكون إلى الحقيقة إلى درجة أنها لا تخدع أعيننا فحسب، بل تخدع أيضًا الخوارزميات المستخدمة للتعرف عليها، ومنذ سنوات، يركز فريق إبراهيمي على هذه التقنية وانشاء أنظمة متطورة للتيقن من حقيقة الوجوه والأصوات والصور ولقطات الفيديو.
غير أن القضية أصبحت سباقًا مع الزمن ومع تطوّر التكنولوجيا، فلقد انفجر بركان التلاعب بالمعلومات وأصبح، مع تفشي وسائل التواصل الاجتماعي، يهدد الأمن القومي في أنحاء كثيرة من العالم ، وصار بإمكان ملايين الأشخاص، وكذلك الشركات والحكومات، إنشاء محتوى وسهولة الوصول إليه، بل وأيضَا التلاعب به، وتعتبر وفقًا لإبراهيمي دول مثل روسيا والصين وإيران وكوريا الشمالية نشطة للغاية في نشر الإشاعات، والأخبار المزيفة باستخدام تقنية “التزييف العميق” داخل وخارج حدودها الوطنية.
المزيد
المزيد
الكُلُّ يراقبني
تم نشر هذا المحتوى على
يكتشف فريق من الباحثين يُحَقِّقون في مقاطع فيديو تم التلاعُب بها من خلال تقنية “التزييف العميق” شيئًا مثيرا للرعب بشأن رئيسهم الجديد يُعرّض حياتهم للخطر.
ليس من السهل على الناس التشكيك في صحة ما تراه الأعين، وقد أظهرت دراسة أجراها معهد ماساتشوستس للتكنولوجيارابط خارجي أن الأخبار المزيفة تنتشر على تويتر بسرعة قد تفوق الأخبار الحقيقية بست مرات، مما يجعل ظاهرة التزييف العميق مثار قلق كبير، بحسب إبراهيمي الذي يقول: “إن للتزييف العميق قدرة كبيرة على التضليل لأن الناس ما زالوا يميلون إلى تصديق ما يرَوْن”.
كما وأن جودة الفيديوهات مستمرة هي الأخرى في التطور، وهذا يجعل إمكانية التمييز بين الحقيقي منها والمزيّف أكثر صعوبة، ووفق إبراهيمي: “بإمكان أي دولة لديها موارد غير محدودة أو غنيّة أن تنتج اليوم فيديوهات مزيّفة تطابق الحقيقية لدرجة أنها تخدع حتى أكثر العيون خبرة”، وبينما تستطيع البرامج المتطورة كشف التزييف، إلا أن أستاذ المعهد التقني الفدرالي العالي في لوزان يقدر أنه في غضون عامين إلى خمسة أعوام لن تكون حتى الآلات المتطوّرة قادرة على تمييز المحتوى الحقيقي من المزيف.
«المزيد والمزيد من التلاعب»
بدايةً ، استُخدمت الفيديوهات المزيفة بشكل رئيسي على سبيل إنشاء مقاطع فيديو ساخرة لممثلين أو لغيرهم من الشخصيات المشهورة أو في ألعاب الفيديو ، ولكنها سرعان ما أصبحت أداة فعالة لتشويه السمعة، خاصة في حق النساء، ووسيلة لابتزاز الأموال والتلاعب بالرأي العام.
يعمل مختبر توراج إبراهيمي منذ عشرين عامًا على قضايا أمن وسائط الإعلام وسلامة مقاطع الفيديو والصور والصوت والكلام . ففي بداية الأمر، كان التلاعب يتعلّق أساسًا بحقوق التأليف والنشر، ثم انتقل بعد ذلك إلى الخصوصية والمراقبة بالفيديو ، إلى أن ظهرت وسائل التواصل الاجتماعي، فساهمت بشكل هائل في نشر المحتوى المزيّف.
يمكن للتزييف العميق أن يتجاوز أجهزة كشف المنتجات المقلّدة، ولذلك يستخدم مختبر إبراهيمي “نموذجًا تحليليًا” يعرف باسم “تقنية المصدر” لتحديد، بشكل مجهول الهوية، كيف أنشئ المحتوى وما هو التلاعب الذي حصل فيه: “ولكي تكون تقنية المصدر فاعلة ، لابد من استخدامها من جانب عدد كبير من ذوي النفوذ على الويب بدءًا من غوغل وموزيلا وأدوب، ومايكروسوفت إلى جميع وسائل التواصل الاجتماعي، على سبيل المثال لا حصر”، كما يقول الخبير ، ويضيف أن: “المقصود هو الاتفاق على معيار JPEG [ملف صور وفيديو] ليتم تطبيقه عالميًا”.
وقد أثبتت تقنية “ديبفيك” قدرتها على المزج بين صورتي وجهي شخصين مختلفين لتزوير الملامح، على سبيل المثال، أو حتى لتزوير الهوية، كما استغلها مجرمو الإنترنت لخداع الشركات وتحصيل أموال منهارابط خارجي وانتحال شخصيات مدراء والتذرع بطلب تحويلات مصرفية عاجلة.
“في الوقت الحاضر، هذا النوع من التلاعب قليل الانتشار، ولكن حينما تنضج هذه التكنولوجيا، فسنرى المزيد والمزيد” ، هكذا يتوقع سيباستيان مارسيلرابط خارجي، كبير الباحثين في معهد الأبحاث السويسري “آي دياب idiap” ، ويوضح بأن تقنية “التزييف العميق” الحالية تتيح التلاعب بالمحتوى المرئي فقط، وليس الصوتي، وإذا لم تؤخذ الأصوات من مقاطع فيديو أخرى، فبالإمكان انتحالها من قبل محترفين، وبينما: “لا يزال تزييف الصوت يمثل تحديًا، سنشهد مستقبلًا تقنية ꞌديبفيكꞌ في غاية الواقعية ، قادرة على استنساخ صورة أي شخص وصوته في الوقت الحقيقي وبدقة متناهية”، عندئذ ستصبح عمليات التلاعب، مثل فبركة فضائح زائفة ضد منافسين لتعطيل صفقات أو عقود تجارية غير مرغوب بها ، أمرًا في غاية السهولة.
إنكار الحقيقة
ويشير إبراهيمي إلى أن تزييف مقاطع الفيديو قد تكون له أيضًا نتائج إيجابية، ويقول: “تمّ بالفعل استخدام تقنية التزييف العميق في العلاج النفسي للتخفيف من معاناة أشخاص فقدوا عزيزًا عليهم” ، كما حصل في هولندارابط خارجي أن أنشأ أب حزين على فراق ابنته، التي عاجلتها الوفاة وهي في مقتبل عمرها، صورة لها مزيفة رغبة منه في تحيتها، وهناك موقع “ماي هيريتاج MyHeritage” مختص بعلم الأنساب يستطيع القيام بشيء مماثل، ويمكنه عبر أداة تسمى “ديب نوستالجيا DeepNostalgiaرابط خارجي” “بعث الحياة” في صور الأقارب المتوفين من خلال تحريك قسمات الوجه.
غير أنه مع زيادة الوعي بمحتوى التزييف العميق، من الممكن أن يحصل خلط في التفريق بين مقاطع الفيديو الحقيقية وتلك ذات المحتوى المزيّف، ففي الغابون، اعتُبر الفيديو الذي ظهر فيه الرئيس علي بونغو ، بعد غيابٍ عن المشهد العام لأسابيع بسبب المرض، مزوّرًا، ممّا تسبب في قيام مجموعة من قادة الجيش بانقلاب عسكريرابط خارجي.
إن عدم التيقّن ممّا هو حقيقي عمّا هو غير ذلك، وفق قول الباحثة نينا شيك في كتابها “Deepfakes: The Coming Infocalypseرابط خارجي“، يمكن أن يقود إلى عواقب غير محمودة، فقد تنشأ ثقافة “إنكار المعقول” بالتالي يتنصّل الجميع من تحمّل المسؤولية لأن كل شيء قد يكون مزيّفًا.
ولفتت شيك إلى أن: ” تقنية التزييف العميق يمكن أن تتيح لكل شخص إمكانية تزوير كل شيء، وإذا كان بالإمكان تزوير كل شيء، فكل شخص يمكنه أن يتخذ “إنكار المعقول ذريعة”، وهو ما يعتبر ، بحسب الخبيرة ، واحدًا من أكبر الأخطار التي يشكّلها التزييف العميق على المجتمع.
كيفية محاربة ثقافة “الأخبار الزائفة”
وما يبشر بالخير هو أن الاتحاد الأوروبي يحمل القضية محمل جدٍ ، ومن شأن مشاريع مثل “هوريزون يوروب Horizon Europe” أن تشجع البحث في مجال مقاطع الفيديو المزيفة، ويقول مارسيل: ” نتوقع أن يطلق الاتحاد الأوروبي في السنوات القادمة مزيدًا من النداءات بخصوص تقنية ꞌديبفيك” ، وأما على المستوى التقني ، فتقتضي معالجة التزييف العميق أن نكون سبّاقين ونركز على نقاط ضعف النظام، وقال الباحث لدى معهد “آي دياب idiap”: “لكنّ قد لا يكون الأمر بتلك البساطة ، لاسيما وأنّ الإجراءات الأكاديمية للحصول على التمويل بطيئة”.
ومن الأهمية بمكان تفعيل المجتمع المدني، ويتفق إبراهيمي ومارسيل على أن محاربة الأخبار المزيفة تتطلّب زيادة وعي وتثقيف الجمهور لتعزيز الوجدان النقدي وتعميق الإحساس بالمسؤولية المدنية، ووفقًا لإبراهيمي: “علينا أن نعلّم أبناءنا التوجّس من كل شيء يرونه على الإنترنت وعدم نشر أي محتوى دون تثبّت”.
وبالفعل ، نجحت فنلندا في ذلكرابط خارجي. هذه الدولة الاسكندنافية تحارب الأخبار المزيفة في المدارس، وهذا يجعلها نموذجًا للديمقراطيات الغربية، فخبراء الحكومة الفنلندية يعتبرون معلمة رياض الأطفال خط الدفاع الأول في مواجهة المعلومات المضلّلة.
قراءة معمّقة
المزيد
سياسة فدرالية
اقتراع فدرالي: هل تحتاج عقود إيجار العقارات في سويسرا إلى تعديل؟ الكلمة للشعب
إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.
اقرأ أكثر
المزيد
كيف يحاول العلماء السويسريون رصد الوسائط المفبركة باستخدام تقنية “ديبفيك”؟
تم نشر هذا المحتوى على
في مختبر الكمبيوتر التابع للحرَم الشاسع للمعهد التقني الفدرالي العالي بلوزان، يتأمل فريق صغير من المهندسين في صورة رجل مبتسم، وردي البشرة، شعره أسود مجعّد، ويرتدي نظارة.
"نعم، هذا واحد من الأعمال الجيّدة"، كما يقول الباحث البارز توراج إبراهيمي، الذي يحمل تشابهاً عابراً مع مؤسس تسلا إيلون موسك، الظاهرة صورته على الشاشة. قام الفريق بطريقة حرَفية بالتلاعب بصورة رأس إبراهيمي وإسقاطه على صورة على الإنترنت لهذا الرجل، لابتكار صورة رقمية ومقاطع فيديو مفبركة من خلال الذكاء الاصطناعي.
إنها واحدة من الأمثلة المزيفة - وبعضها ما هو أكثر واقعية من غيرها من الصور- والتي قام فريق إبراهيمي بالتعاون مع شركة الأمن الإلكتروني "كوانتوم إنتغريتي" Quantum Integrity (QI) بفبركتها أثناء تطوير برنامج يمكنه اكتشاف الصور التي تم التلاعب بها، بما فيها تلك التي تم تلفيقها باستخدام تقنية "ديبفيك".
ويعمل البرنامج على معرفة الفوارق بين الأصلي والمزور باستخدام تقنية التعلم الآلي، وهي نفس التقنية الكامنة وراء إنشاء "المقاطع بالغة الزيف" أو "ديبفيك": فهناك "مبتكر" يغذي البرنامج بصور مزيفة، ويحاول "كاشف" العثور عليها بعد ذلك.
"مع الكثير من الإعداد والتدريب، يمكن للآلات أن تساعد في اكتشاف عمليات التزوير بالطريقة نفسها التي قد يلجأ إليها الإنسان"، كما يوضح إبراهيمي. ويضيف قائلاً: "كلما زاد استخدام هذه الآلات، كلما جاءت النتائج أفضل."
والجدير بالذكر، أن الصور ومقاطع الفيديو المزيفة موجودة منذ ظهور الوسائط المتعددة، لكن تقنيات الذكاء الاصطناعي الحديثة، لم تسمح للمزيفين سوى بتغيير الوجوه في مقطع فيديو، أو جعل شخص يبدو وكأنه يقول شيئاً، لم يقله مطلقاً. وخلال السنوات القليلة الماضية، فاقت سرعة انتشار تقنية "ديبفيك"، توقع معظم الخبراء.
وفقاً لمجلس الحوكمة الدولية للمخاطر في المعهد التقني الفدرالي العالي بلوزان، فقد أصبح تصنيع مقاطع فيديو، بتقنية "ديبفيك" و"بشكل تصاعدي، أسرع وأسهل وأرخص"، وذلك بفضل توزيع أدوات برمجية سهلة الاستخدام، وتقديم خدمات وتطبيقات ذات صلة، مدفوعة عبر الإنترنت.
"ولأن تطوّرها يجري بسرعة كبيرة تحديدا، بتنا نحتاج إلى معرفة حدود هذا التطور - وما هي القطاعات والمجموعات والبلدان التي قد تتأثر به" بحسب قول نائب مدير المركز، أنجوس كولينز.
وعلى الرغم من أن الكثير من مشاكل تقنية "ديبفيك" الخبيثة، تتعلق باستخدامها في إنتاج المواد الإباحية، فإن هناك حاجة متزايدة إلى الاستعداد لكشف الحالات التي يتم فيها استخدام هذه التقنيات، من أجل التلاعب بالرأي العام.
مجال يتطوّر بسرعة
عندما بدأ الإبراهيمي، منذ ثلاث سنوات، العمل مع "كوانتوم إنتغريتي" Quantum Integrity لأول مرة على برنامج الكشف، لم تكن قضايا المقاطع المزيفة بعمق، على جدول أعمال معظم الباحثين. في ذلك الوقت، كان عملاء قلقين بشأن الصور التي تم تزييفها والتلاعب بها، والمستخدمة عند الحوادث، في مطالبات تعويضات التأمين على السيارات وعلى المنازل. ولكن، بحلول عام 2019، عندما وصلت التقنية المستخدمة إلى مستوى متقدّم من التطور، تم اتخاذ القرار بتكريس المزيد من الوقت لهذه القضية.
يقول أنتوني ساحاكيان، الرئيس التنفيذي لشركة "كوانتوم إنتغريتي": "أنا مندهش، لأنني لم أعتقد أنها [التقنية] ستتطوّر بهذه السرعة الكبيرة".
لقد رأى ساحاكيان بشكل مباشر إلى أي مدى حققت تقنيات "ديبفيك" نتائج بدت واقعية، وكان آخرها تبديل صوَر الوجوه على جواز سفر، بطريقة تركت جميع أختام المستندات سليمة.
والواقع، أن التحسينات في تقنيات التلاعب بالصور والفيديوهات ليست وحدها موضع اهتمام الخبراء من أمثاله، بل أعدادها المتزايدة؛ حيث وصل عدد مقاطع الفيديو المزيّفة بعمق على الإنترنت إلى الضعف تقريباً، وذلك خلال فترة تسعة أشهر، فبلغت 14678 بحلول سبتمبر 2019، وفقاً لتقديرات شركة أمن الإنترنت الهولندية "ديب تريس" Deeptrace.
مواطن الخطر
تستهدف معظم عمليات التزييف العميقة التي تم القيام بها على الإنترنت بغرض الإيذاء، النساء اللواتي تم نقل وجوههن إلى أخريات يظهرن في لقطات أو صور إباحية. ووفقاً لتقديرات شركة أمن الإنترنت الهولندية "ديب تريس" Deeptrace، فإن هذا النوع من الاستخدام استحوذ في عام 2019، على 96 % من مقاطع الفيديو التي استخدمت فيها تقنية "ديبفيك" والموضوعة على الإنترنت. ويظهر البعض من هذه الفيديوهات أو الصور، على مواقع إباحية مخصصة بإنتاج المقاطع بالغة الزيف، بينما ينضوي نشر البعض الآخر منها، تحت ما يسمّى بـ " الانتقام الإباحي" الذي يهدف إلى الإساءة إلى سمعة الضحايا.
يقول كولينز: "الابتزاز والتنمّر عبر شبكة الإنترنت هي من المواضيع المتكررة". في المقابل، تعد الحالات التي استخدمت فيها تقنية "ديبفيك"، من أجل ارتكاب عمليات احتيال، وتمّ التفطّن إليها، قليلة. وقد اتخذت معظم هذه الحالات شكل انتحال صوتي لشخص يعرفه الضحايا، لتحويل أموالهم إلى المزور.
من ناحية أخرى، ما يزال قطاع الأعمال في مرحلة تدوين الملاحظات لأخذ كل هذه الأخطار بعين الاعتبار. وقد أرسلت بعض الشركات ومن يبنها شركة زيورخ للتأمين و شركة "سويس ري Swiss Re " للتأمين وإعادة التأمين ومصرف "بي إن بي باري با BNP Paribas “، ممثلين لها إلى ورشة عمل نظمها مجلس الحوكمة الدولية للمخاطر حول مخاطر تقنية "ديبفيك".
ويقول ساحاكيان إن الاستخدام المحتمل لمقاطع فيديوهات مفبركة باستخدام هذه التقنية في مطالبات تعويضات الحوادث، على سبيل المثال، هو مصدر قلق في أوساط شركات التأمين، التي يعمل معها.
ويضيف: "إن التكنولوجيا الآن موجودة لجعل عملية KYC [أعرف عميلك] بائدة وعديمة الجدوى"، في إشارة منه، إلى عملية التحقق من هوية العملاء ونواياهم، التي تتبعها المؤسسات التجارية، من أجل تجنب إمكانية وقوعها ضحية الاحتيال.
كما أدى تنامي انتشار تقنية "ديبفيك" أيضاً إلى بروز مخاوف حول إمكانية استخدامها للتدخل في العمليات السياسية.
وقد تأكدت هذه المخاوف عندما ظهر شريط فيديو تم التلاعب به، تبدو فيه نانسي بيلوسي رئيسة مجلس النواب الأمريكي، لتشويه خطابها. كانت التكنولوجيا المستخدمة في التلاعب بالفيديو ذات نوعية منخفضة، أو ما يسمى بـ"التزييف الرخيص". ولكن كما يقول إبراهيمي، "إنها علامة على ما يمكن القيام به، والنوايا التي تكمن وراء هذا النوع من التلاعب بالإعلام."
التكيف مع واقع رقمي جديد
ومع ذلك، يحذر خبير المخاطر كولينز من أن استخدام وسائل الإعلام الاصطناعية في السياسة يجب أن يوضع في سياقه. ويحذر قائلاً: "من المحتمل أن تلعب تقنية "الديبفيك" دوراً في زعزعة نتائج الانتخابات، لكنني أتوخّى الحذر من التشديد المفرط على خطر هذه التقنية، لأنك بذلك تُخاطر بتجاهل الصورة الكاملة".
ويقول إن ما تفعله "الديبفيك" هو "الفجوة المحتملة الناشئة بين سرعة تطور النظام الإيكولوجي للمعلومات الرقمية وقدرة المجتمع على التكيّف معه".
ولإعطاء مثال على هذا، يعود كولينز إلى استخدام تقنية "الديبفيك" كأداة للتنمّر الإلكتروني؛ فيقول: "هذا الأمر يثير أسئلة حول مدى استجابة النظم القانونية للأذى الفردي عبر الإنترنت". ويضيف: "كيف يمكنك التخلّص من المحتوى الرقمي المسيء بعد مجرد ابتكاره، وكيف تجد مبتكره الأصلي أو تتخذ بحقه أية إجراءات قانونية، خاصة إذا كان يخضع لسلطة قضائية أخرى؟".
يمكن أن تساعد تقنية "الديبفيك" أيضاً في حملات التضليل، مما يؤدي إلى تآكل حلقة الوصل بين الحقيقة والثقة بها.
الذكاء الاصطناعي لتزييف المقاطع ولكشف التزييف
قد يسبب استخدام هذه التقنية حالة من الذعر في بعض الأوساط، لكنه لا يوجد إجماع على أن مقاطع الفيديو المفبركة واقعية لدرجة أن تخدع معظم المستخدمين. يقول الخبراء إن جودة هذه التقنية اليوم لا تزال تعتمد إلى حد كبير على مهارات المبتكر. ويوضح خبير أمن المقاييس الحيوية سيباستيان مارسيل، أن تبديل الوجوه على فيديو ما، يسبب حتماً وجود بعض العيوب في الصورة.
ويقول: "ستكون الجودة متباينة بدرجة كبيرة، بحسب العمل اليدوي الذي تم القيام به لتعزيز الصورة. فإذا بذل المبتكر جهداً لمواءمة النتيجة مع النسخة الأصلية، فقد يكون من الصعب جداً اكتشاف التزييف".
يعمل مارسيل وزملاؤه في معهد أبحاث "أي دياب Idiap " في مارتيني - جنوب غرب سويسرا، على برنامج للكشف خاص بهم، في مشروع كان نتيجة الجهود المبذولة للكشف عن التلاعب في الوجوه والأصوات في لقطات الفيديو.
ويقوم معهد “Idiap " بالعمل في هذا المجال على المدى الطويل. يقول مارسيل: "لن يتم حل هذه المشكلة في الحال". "إنه موضوع بحث متنامي ولذا فإننا نخطط لكيفية رصد المزيد من الموارد في هذا المجال."
ويشارك هذا المعهد غير الهادف للربح، في تحدٍ أطلقه موقع فيسبوك لإنتاج برنامج اكتشاف للصور والفيديوهات المزيفة بتقنية "الديبفيك"، من أجل مساعدة هذا الأخير على الاستفادة من بعض النتائج الأولية التي حصل عليها. وتعهد عملاق وسائل التواصل الاجتماعي بالمساهمة، بأكثر من 10 ملايين دولار للباحثين في مجال الكشف عن الحقائق المزيّفة، في جميع أنحاء العالم (انظر الحاشية).
ولكن ما قد يحدثه الكشف عن الفارق بين الحقيقة المجردة والحقيقة المزيّفة، هو موضوع مطروح للنقاش.
يقول كولينز: "من غير المحتمل إيجاد حل سحري؛ فمهما امتلكنا من تقنيات لكشف التزوير، فإن الخصم سوف يجد طريقة للتغلب عليها."
لعبة القط والفأر
يقول كل من إبراهيمي ومارسيل إن هدفهما ليس التوصل إلى أداة تشكل مفتاح أمان؛ فجزء من وظيفة الكاشف هو توقع المنحى الذي قد يسلكه المتلاعبون بالحقائق، وضبط أساليبهم وفقاً لذلك.
ويتوقع مارسيل من معهد "Idiap" مستقبلاً يتمكن فيه مبتكري المقاطع بالغة الزيف، ليس فقط من تغيير جانب واحد من الفيديو، مثل الوجوه، وإنما الصورة بأكملها.
ويقول: " إن جودة تقنيات "الديبفيك" آخذة في التحسن، لذا يتعين علينا مواكبة الأمر بتحسين أجهزة الكشف كذلك"، حتى لا تعود نسبة التكلفة إلى العائد، والناتجة عن صنع مقاطع خبيثة بالغة الزيف، في صالح المبتكر.
يعتقد إبراهيمي من المعهد التقني الفدرالي العالي بلوزان أن حدثاً كبيراً، مثل الانتخابات الرئاسية في الولايات المتحدة، يمكن أن يمنح الجهات الفاعلة الخبيثة حافزاً لتسريع عملها في هذا المضمار، مع وضع هدف واضح في الاعتبار.
"قد يستغرق الأمر شهوراً أو أعواماً" قبل أن تصبح العين المدربة قادرة على اكتشاف ما هو زائف، وفي هذه المرحلة، ستكون الأجهزة هي فقط، من تملك القدرة على القيام بذلك.منصات وسائل الإعلام الاجتماعية ضد المقاطع البالغة الزيف
أدخل تويتر Twitter قاعدة جديدة في مارس 2020 ضد مشاركة محتوى الوسائط الاصطناعية أو التلاعب الذي يمكن أن يسبب بأذية الآخرين. من بين الإجراءات التي ستتخذها، هي وسم هذه التغريدات وتحذير المستخدمين منها. كما تعهدت شركة يوتيوب YouTube، المملوكة لشركة غوغل Google، بأنها لن تتسامح مع مقاطع الفيديو البالغة الزيف ذات الصلة بالانتخابات أو بالإحصاءات في الولايات المتحدة عام 2020، والتي تم تصميمهما لتضليل الجمهور. وقد أطلق فيسبوك Facebook تحدياً بقيمة تزيد عن 10 ملايين دولار لدعم الباحثين في مجال الكشف عن الحقائق المزيّفة حول العالم. كما أصدر كل من فيسبوك Facebook وغوغل Google مجموعات بيانات لمقاطع بالغة الزيف، لمساعدة الباحثين على تطوير تقنيات الكشف. المقاطع البالغة الزيف للترفيه والمحاكاة الساخرة
بحسب مجلس الحوكمة الدولية للمخاطر (IRGC): "فإن المصنفات الأكثر تداولاً على نطاق واسع تميل إلى السخرية، حيث تتضمن شخصيات بارزة" مثل المشاهير والسياسيين، مما يشير إلى أنه "لا يتم ابتكار كل المقاطع بقصد خبيث". وقد انخرطت هوليوود أيضاً في تقنية "الديبفيك"، للسماح على سبيل المثال، بعودة الممثلين المتوفين منذ وقت طويل إلى الشاشة الفضية. ويقول إبراهيمي من EPFL إنه إذا سار كل شيء وفقاً للخطة الموضوعة، فقد تكون النتيجة الثانوية لمشروع EPFL / QI لتطوير برنامج الكشف عن المقاطع بالغة الزيف هو الاستخدام النهائي لنفس التكنولوجيا لإنشاء مؤثرات خاصة للأفلام.
وتشمل الاستخدامات الإيجابية المحتملة الأخرى لتقنيات "الديبفيك" التوليف الصوتي للأغراض الطبية والطب الشرعي الرقمي في التحقيقات الجنائية، وفقاً لمجلس الحوكمة الدولية للمخاطر.
تم نشر هذا المحتوى على
“عندما نعثر داخل الشّنط على بضائع مقلّدة، فغالبا ما يصرّح أصحابها بأنهم لا يعرفون بأن تلك المنتجات مقلدة، ومثل هذا التصرف معتاد وليس في حالة التزوير فقط”، يشير ميروسلاف ريتشارد، نائب مدير الجمارك في مطار زيورخ كلوتن،رابط خارجي وأضاف: “عندما نتحدث مع هؤلاء الأشخاص ونطلب منهم بعض التفسيرات كأن يكشفوا لنا من أين اشتروا تلك…
المؤسسات البحثية السويسرية تلتجئ للعلم للتحقيق في الغش الأكاديمي
تم نشر هذا المحتوى على
في شهر أبريل المُنصرم، أعلن المعهد الفدرالي التقني العالي بزيورخ، وهو من أشهر المؤسسات البحثية في سويسرا، أنه بصدد التّحقيق في حالة أستاذ اتُّهم بنشر مضامين قائمة على الغش. ورغم أن سوء السلوك الأكاديمي ليس وليد اليوم، فإن السويسريين اعتمدوا فقط في الآونة الأخيرة نهجا متساوقا للتحقيق فيه.
الذكاء الاصطناعي الأخلاقي: هل يُمكن لسويسرا أن تتقدم الصفوف؟
تم نشر هذا المحتوى على
يسلط النقاش المتعلق بتتبع جهات الاتصال، الضوء على الحاجة الملحة إلى معالجة التكنولوجيات غير المقننة مثل الذكاء الاصطناعي (AI). ولأن سويسرا متميّزة بديمقراطيتها القوية وسمعتها المعروفة في إجراء أبحاث من الدرجة الأولى، فهي تمتلك القدرة على أن تكون في طليعة الدول لرسم معالم الذكاء الاصطناعي الأخلاقي. ما هو الذكاء الاصطناعي؟ ذات مرة، قال العالم البارز، ستيفن…
شارف على الإنتهاء... نحن بحاجة لتأكيد عنوان بريدك الألكتروني لإتمام عملية التسجيل، يرجى النقر على الرابط الموجود في الرسالة الألكترونية التي بعثناها لك للتو
يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!
إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.