• Home  
  • رغم التطور التقني.. لماذا يصعب كشف الصور المولدة بالذكاء الاصطناعي؟
- تكنولوجيا

رغم التطور التقني.. لماذا يصعب كشف الصور المولدة بالذكاء الاصطناعي؟

في مايو/أيار 2023، انتشرت صورة مزيفة على منصات التواصل الاجتماعي تظهر انفجارا قرب مبنى وزارة الحرب (الدفاع سابقا) الأميركية، مما أدى إلى تراجع البورصة وخسارة مؤشر “ستاندرد آند بورز 500” أكثر من ربع نقطة مئوية، قبل أن يتبين لاحقا أن الصورة منتجة بالذكاء الاصطناعي، في وقت نفى فيه البنتاغون وقوع أي هجوم.لم تكن هذه الحادثة […]

رغم التطور التقني.. لماذا يصعب كشف الصور المولدة بالذكاء الاصطناعي؟
في مايو/أيار 2023، انتشرت صورة مزيفة على منصات التواصل الاجتماعي تظهر انفجارا قرب مبنى وزارة الحرب (الدفاع سابقا) الأميركية، مما أدى إلى تراجع البورصة وخسارة مؤشر “ستاندرد آند بورز 500” أكثر من ربع نقطة مئوية، قبل أن يتبين لاحقا أن الصورة منتجة بالذكاء الاصطناعي، في وقت نفى فيه البنتاغون وقوع أي هجوم.لم تكن هذه الحادثة استثناء، إذ نجحت صور مزيفة أخرى في خداع عشرات الملايين حول العالم، على سبيل المثال، صورة البابا فرانشيسكو وهو يرتدي معطفا أبيض فضفاضا، التي انتشرت على نطاق واسع في العام نفسه، حتى اعترف البابا نفسه في وقت لاحق أنه كان “ضحية” لصورة مزيفة.

اقرأ أيضا

list of 2 itemsend of list

اليوم، وبعد أكثر من عامين، لم تعد هذه مجرد أمثلة عابرة، بل مؤشرات على أزمة تتفاقم بوتيرة متسارعة، وتطرح سؤالا أكثر إلحاحا: لماذا تواجه أدوات الكشف عن الصور صعوبة بالغة في تمييز المحتوى الحقيقي من المزيف، رغم التطور الكبير في تقنيات الذكاء الاصطناعي؟

قصور الأدوات التقنية

تشير دراسة نشرت في موقع “أركايف” (arXiv) إلى أن أدوات كشف الصور والفيديوهات المولدة بالذكاء الاصطناعي ما زالت تعاني من قصور شديد عند اختبارها في “العالم الواقعي”.

واختبرت الدراسة التي قدمها باحثون أستراليون وكوريون جنوبيون مدى قدرة وفعالية أدوات كشف التزييف العميق، لتظهر أن هذه النماذج لم تتمكن من رصد سوى ثلثي الصور المزيفة.

غير أن التجارب العلمية تشير إلى أن المستخدمين يواجهون صعوبة بالغة في أداء المهام نفسها، إذ أظهرت نتائج دراسة مشابهة -نشرت يوليو/تموز الماضي، وشارك فيها أكثر من 12 ألف شخص من مختلف أنحاء العالم- أن دقة التمييز بين الصور الحقيقية والمزيفة لم تتجاوز 62%.

اللافت في الدراسة -التي اعتمدت على تحليل نحو 287 ألف حالة تقييم- أن المشاركين كانوا أكثر نجاحا في تمييز الصور المولدة بالذكاء الاصطناعي عندما كانت الصور تحتوي على وجوه بشرية، ومع ذلك، أخفقوا بشكل كبير عند التعامل مع صور من الطبيعة أو المناظر الحضرية.

وتؤكد هذه الدراسات أن الاعتماد على “العين البشرية” وحدها أصبح رهانا خاسرا في مواجهة التزييف البصري، خصوصا مع سرعة تطور مضادة تتقن أدق التفاصيل في عناصر المحتوى البصري المولد بالذكاء الاصطناعي بدءا من منظور الصورة، وتناسق الظلال، والإضاءة، وصولا إلى الملمس وتعابير الوجوه.

هل نستطيع كشف التزييف؟

وللتصدي لهذا التحدي المتسارع، اتجه باحثون إلى إشراك الجمهور في عملية التحقق من الصور، على سبيل المثال، أطلق فريق من جامعة نورث ويسترن الأميركية تجربة تفاعلية بعنوان “كشف التزييف” (Detect Fakes)، التي تتيح للمستخدمين اختبار قدرتهم على التمييز بين الصور الحقيقية والمزيفة.

وتعتمد التجربة على قاعدة بيانات تحتوي على 138 صورة مولدة بالذكاء الاصطناعي، و42 صورة حقيقية، و9 صور من وسائل التواصل الاجتماعي، وطُلب من المشاركين توضيح مستوى ثقتهم بالحكم على الصور وأسباب اختيارهم.

كما أطلقت شركة مايكروسوفت أداة تفاعلية مشابهة تحمل اسم “ريل أور نوت” (Real or Not) لرفع الوعي بخطورة “التزييف العميق”، إذ تُمكن المستخدمين من اختبار قدرتهم على التمييز بين الصور الحقيقية والمولدة بالذكاء الاصطناعي.

وتهدف هذه الأدوات التفاعلية إلى تعزيز الوعي النقدي والبصري لدى الجمهور، بحيث لا يقتصر الاعتماد على الأدوات التقنية، التي تعجز أصلا عن أداء مهامها بفعالية، في ظل إغراق منصات التواصل الاجتماعي بالصور المنتجة بالذكاء الاصطناعي.

كما أن عدم تمييز خوارزميات المنصات بين الصور الحقيقية والمزيفة يجعل الأخيرة عرضة أكبر للانتشار، إذ تعمل على تفضيل المحتوى الذي يولد تفاعلات قوية مثل الإعجابات والتعليقات وعدد النقرات وإعادة المشاركات، بغض النظر عما إذا كانت حقيقية أم خضعت لتعديل أو توليد بواسطة التقنيات.

نتائج غير دقيقة

ورغم وجود عديد من الأدوات المخصصة لكشف الصور المولدة بالذكاء الاصطناعي، مثل “سايت إنجن” (Sightengine)، و”إيه آي أور نوت” (AI or Not)، و”إليومينارتي” (illuminarty)، و”ديكوبي إيه آي” (Decopy AI)، و”هايف موديريشن” (HIVE MODERATION)، فإنها يجب ألا تكون مرجعا دقيقا يمكن الوثوق به بشكل مطلق، خاصة للصحفيين في غرف الأخبار أو مدققي الحقائق.

فعندما خضعت هذه النماذج لاختبارات عملية باستخدام صورة يظهر جليا للعين البشرية أنها منتجة بواسطة الذكاء الاصطناعي، أظهرت الأدوات نتائج غير دقيقة ومضللة في بعض الحالات.

حتى الأدوات الأكثر تقدما مثل “رياليتي ديفندر” (Reality Defender) المتخصصة في كشف التزييف العميق (Deep fakes) عندما خضعت لاختبارات عملية أجراها فريق “نيوز عربي تحقق” أظهرت نتائج غير دقيقة في بعض النماذج.

ورغم تطور تقنيات تحليل ومعالجة الصور، فإن هذه الأدوات تبقى عاجزة عن التمييز بشكل قاطع بين الصور الحقيقية والمزيفة، كما أن الرهان على قدرة الجمهور وحده في مواجهة التضليل يظل محدودا، في وقت تتسارع فيه وتيرة انتشار التزييف العميق، بالتوازي مع تنوع أساليب التحايل والإفلات من أدوات التدقيق.

دور الشركات الكبرى

أمام هذا التحدي، يبرز دور شركات التقنية الكبرى في محاولة سد الفجوة الهائلة، إذ أعلنت شركة “غوغل” مايو/أيار الماضي تطوير أداة تحمل اسم “سينث آي دي ديتكتور”(SynthID Detector) تتيح للمستخدمين معرفة إذا ما كان النص أو الصورة أو الفيديو قد أنتج أو خضع لتعديل بواسطة الذكاء الاصطناعي.

وتعتمد الأداة على تقنية العلامات المائية الرقمية غير المرئية داخل الصور، ويمكن لهذه العلامات أن تُكتشف عبر الأداة نفسها، ومع ذلك، فإن الخدمة لا تزال في مرحلة تجريبية محدودة لمجموعة من الصحفيين والباحثين.

أما شركة “أوبن إيه آي” فأعلنت في مايو/أيار 2024 إطلاق أداة متخصصة لكشف الصور المولدة عبر نموذجها “دال-إي 3” (DALL·E 3) لتحويل النص إلى صور، بدقة تقارب 98% عند التعامل مع الصور الأصلية، لكنها متاحة أيضا لعدد محدود من الباحثين والمؤسسات الإعلامية.

وفي ديسمبر/كانون الأول 2024، كشفت الشركة عن أن مقاطع الفيديو المنتجة عبر نموذجها “سورا” (Sora) الذي يحول النص إلى فيديو، ستتضمن علامات مائية وبيانات للإشارة إلى أنها مولدة بالذكاء الاصطناعي.

وفي خطوة مشابهة، قامت “مايكروسوفت” بدمج أدوات وفق معيار “سي 2 بي إيه” (C2PA) داخل منتجاتها الخاصة بتوليد الصور مثل “كوبايلوت” (Copilot) و”بينت” (Paint) بحيث يتمكن المستخدم من الاطلاع على بيانات المصدر ووقت الإنشاء، بالإضافة إلى معرفة إذا ما كان المحتوى المرئي قد أنتج باستخدام الذكاء الاصطناعي.

كما عززت الشركة تدابيرها التقنية بإضافة ميزة تشويش وجوه الأشخاص في الصور المرفوعة على مساعد الذكاء الاصطناعي “كوبايلوت” للحد من احتمالات إساءة الاستخدام والتلاعب.

الخلاصة

في الختام، تؤكد التجارب العملية والدراسات الحديثة أن أغلب أدوات كشف الصور المولدة بالذكاء الاصطناعي إما مدفوعة التكاليف، أو محدودة الدقة، أو متاحة في نطاق ضيق يقتصر على الباحثين والصحفيين والمؤسسات الإعلامية.

كما أن الثغرات توسع فجوة الثقة وتترك الجمهور في مواجهة سيل من الصور التي يصعب التحقق من مصداقيتها، مع الانتشار المتسارع للتزييف العميق، وعدم قدرة “العين البشرية” على تمييز المحتوى الحقيقي من المزيف، مما يستدعي تكثيف الجهود البحثية والتقنية لتطوير أدوات أكثر فعالية لمواجهة هذا التحدي.

Leave a comment

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

من نحن

“نحن في موقع نيوز عربي نولي اهتمامًا كبيرًا بتجربة المستخدم، حيث يتم تحسين المحتوى والعروض الترويجية بناءً على تحليلات دقيقة لاحتياجات الزوار، مما يسهم في تقديم تجربة تصفح سلسة ومخصصة.”

البريد الالكتروني: [email protected]

رقم الهاتف: +5-784-8894-678