Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

هل يمكنك التمييز بين الحقيقي والمزيف؟.. لا تثق بكل ما تراه على الانترنت

على مدار الثلاثين عامًا الماضية أو نحو ذلك، تم إخبار الأطفال بعدم تصديق كل ما يشاهدونه عبر الإنترنت، ولكن يمكن أن يحتاج الأمر الآن إلى توسيع نطاق هذه النصيحة لتشمل البالغين.

فبحسب ما نشرته “ديلي ميل” البريطانية، إن العالم يشهد حاليًا طفرة فيما يسمى بظاهرة “التزييف العميق”، حيث يتم استخدام تقنية الذكاء الاصطناعي AI لمعالجة مقاطع الفيديو والصوت بطريقة تحاكي الحياة الواقعية بدقة عالية.

خطوط فاصلة

للمساعدة على مزيد من الإيضاح بمثال أكثر شفافية، تم إصدار أول فيديو مزيف عميق في العالم باستخدام برنامج استوديو الذكاء الاصطناعي Revel.ai، والذي يبدو وكأنه يُظهر نينا شيك، مستشارة الذكاء الاصطناعي المحترفة، بينما تقوم بتقديم تحذير حول كيفية “عدم وضوح الخطوط الفاصلة بين الواقع والخيال”.

بالطبع، لم تكن نينا شيك هي من تظهر في مقطع الفيديو حقًا، كما أنه تم توقيع الفيديو بشكل مشفر من قبل شركة الأصالة الرقمية Truepic، معلنة أنه يتضمن محتوى مزيف تم إنشاؤه باستخدام برنامج ذكاء اصطناعي.

يقول مقطع الفيديو المزيف ببطء ووضوح: “يقول البعض أن الحقيقة هي انعكاس لواقعنا. نحن معتادون على تعريفه بحواسنا. لكن ماذا لو تغير واقعنا؟ ماذا لو لم نعد قادرين على الاعتماد على حواسنا لتحديد أصالة ما نراه وهنا؟ إننا في فجر الذكاء الاصطناعي، وأصبحت الخطوط الفاصلة بين الواقع والخيال غير واضحة بالفعل”.

ويضيف المقطع أنه في “عالم يتم الخلط بين الظلال والحقيقة، فإن المرء في بعض الأحيان يحتاج إلى تغيير منظوره بشكل جذري لرؤية الأشياء كما هي بالفعل.”

توقيع مشفر

وينتهي مقطع الفيديو المُفبرك بدقة عالية بتوصيل رسالة مفادها أن المقطع تم تزييفه باستخدام برنامج Revel.ai وبموافقة من نينا شيك نفسها وأنه تم توقيعه بشكل مشفر بواسطة شركة Truepic.”

إن تقنيات “ديب فيك” هي أشكال من الذكاء الاصطناعي تستخدم “التعلم العميق” لمعالجة الصوت أو الصور أو الفيديو، وإنشاء محتوى وسائط شديد الواقعية، ولكنه في الحقيقة مقطع فيديو مزيف.

رئيس أوكرانيا

ومن أشهر الاستخدامات السيئة السمعة لتقنية التزييف العميق أو “ديب فيك” كان انتحالًا فظًا لشخصية الرئيس الأوكراني فولوديمير زيلينسكي وهو يبدو مستسلمًا لروسيا في مقطع فيديو تم تداوله على نطاق واسع على وسائل التواصل الاجتماعي الروسية العام الماضي.

يُظهر المقطع الرئيس الأوكراني وهو يتحدث من منصته وهو يدعو قواته إلى إلقاء أسلحتهم والإذعان للقوات الروسية. لكن لاحظ مستخدمو الإنترنت الأذكياء على الفور التناقضات بين لون رقبة ووجه زيلينسكي، واللهجة الغريبة وعدم التماهي بين الخلفية والظلال المحيطة حول رأسه.

الأغراض الترفيهية

على الرغم من القيمة الترفيهية للـ”ديب فيك”، فقد حذر بعض الخبراء من المخاطر التي يمكن أن تشكلها، إذ أثيرت مخاوف في الماضي حول كيفية استخدامها لإنشاء مقاطع فيديو لإيذاء الأطفال أو الانتقام من آخرين بمواد إباحية مزيفة، فضلاً عن الخدع السياسية.

مشروع قانون

في نوفمبر 2022، تم إجراء تعديل على مشروع قانون الأمان على الإنترنت للحكومة البريطانية والذي نص على أن استخدام تقنية التزييف العميق لتزييف صور إباحية ولقطات لأشخاص دون موافقتهم غير قانونية.

قال دكتور تيم ستيفنز، مدير مجموعة أبحاث الأمن السيبراني في “كينغز كوليدج لندن”، إن الذكاء الاصطناعي المزيف العميق لديه القدرة على تقويض المؤسسات الديمقراطية والأمن القومي.

سلاح في الحروب

وقال إن التوافر الواسع لهذه الأدوات يمكن أن تستغل من قبل دول متحاربة لـ “التصيد” والتلاعب بالسكان المستهدفين في محاولة لتحقيق أهداف السياسة الخارجية و “تقويض” الأمن القومي للدول الأخرى.

تهديد الأمن القومي

وأضاف دكتور ستيفنز أن “هناك إمكانية لأن تؤثر أنظمة الذكاء الاصطناعي والتزييف العميق على الأمن القومي، وأن الأمر لا يقتصر فقط على مستوى الدفاع العالي والحرب بين الدول، ولكن بشكل عام لتقويض الثقة في المؤسسات الديمقراطية ووسائل الإعلام. ويمكن للأنظمة الاستبدادية أن تستغل تقنيات “ديب فيك” لتزييف مقاطع فيديو من شأنها تقليل مستوى الثقة في المؤسسات والمنظمات الرسمية للدول المتحاربة معها.

انتشار واسع النطاق

مع ظهور أدوات AI المتاحة مجانًا لتحويل النص إلى صورة والنص إلى الفيديو، مثل DALL-E و Make-A-VideoمنMeta ، ستصبح الوسائط التي يتم التلاعب بها أكثر انتشارًا.

في الواقع، تم التنبؤ بأن 90% من المحتوى عبر الإنترنت سيتم إنشاؤه باستخدام الذكاء الاصطناعي بحلول عام 2025. وعلى سبيل المثال، تمكن مستخدمو وسائل التواصل الاجتماعي من اكتشاف حقيقة صورة مزيفة، يُفترض أنها تم إنشاؤها بواسطة الذكاء الاصطناعي، لقط به بقع زواحف سوداء وصفراء على جسمه، والتي تم الإعلان عن أنه من الأنواع المُكتشفة حديثًا.

معيار للمصداقية

وأعرب الخبراء الأمن الإلكتروني والذكاء الاصطناعي عن أملهم في أن يتم إجبار المنصات وشركات الذكاء الاصطناعي على وضع توقيع على المحتوى الذي يتم إنشاؤه بواسطة برامجهم لوضع معيار مفتوح لمصداقية المحتوى.

وتوقع الخبراء أن الذكاء الاصطناعي سيكون جزءًا أساسيًا من عملية إنتاج جميع المعلومات الرقمية تقريبًا، لذلك إذا لم يكن هناك طريقة لمصادقة هذه المعلومات، سواء تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا، فإنه سيكون من الصعب للغاية التعامل بثقة ومصداقية مع نظام المعلومات الرقمي.

مصدر المعلومات

وقال الخبراء أنه “على الرغم من أن المستخدمين لم يدركوا أن لديهم الحق في فهم مصدر المعلومات، التي يتلقونها أو يطلعون عليها، فإنهم يأملون في أن تظهر هذه الحملة أن ذلك ممكن وأن هذا حق يجب عليهم المطالبة به”.

تتوافق تقنية إنشاء التوقيع الرقمي المُشفر مع المعيار الجديد، الذي طوره التحالف من أجل إنشاء المحتوى والأصالة C2PA، وهو عبارة عن هيئة صناعية، تضم أعضاء من بينهم Adobe وMicrosoft وBBC، والذي يعمل على معالجة انتشار المعلومات المضللة عبر الإنترنت.

إزالة الالتباس لمزيد من الأمان

تقول السيدة شيك وشركتا Truepic و Revel.aiإن مقطع الفيديو الخاص بهم يوضح أنه من الممكن للتوقيع الرقمي زيادة الشفافية فيما يتعلق بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، معربين عن أملهم في أن يعمل على إزالة الالتباس حول مصدر الفيديو، مما يساعد على جعل الإنترنت مكانًا أكثر أمانًا.

عالم أخلاقي بموثوقية وشفافية

وقال بوب دي جونغ، المدير الإبداعي في شركة Revel.ai: “عندما تُستخدم أداة ذكاء اصطناعي بشكل جيد، فإنها ستكون وسيلة رائعة لسرد القصص والحرية الإبداعية في صناعة الترفيه. إن قوة الذكاء الاصطناعي والسرعة التي يتطور بها شيء لم يسبق للعالم رؤيته من قبل”.

وأشار دي جونغ إلى أن “الأمر متروك للجميع، بما يشمل صُنّاع المحتوى، لتصميم عالم أخلاقي بمصداقية وشفافية لإنشاء المحتوى حتى يُمكن الاستمرار في استخدام الذكاء الاصطناعي وأن يستطيع المجتمع احتضانه والاستمتاع به ولا يتضرر منه.”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى