اقرأ أيضا
list of 2 itemsend of list
اليوم، وبعد أكثر من عامين، لم تعد هذه مجرد أمثلة عابرة، بل مؤشرات على أزمة تتفاقم بوتيرة متسارعة، وتطرح سؤالا أكثر إلحاحا: لماذا تواجه أدوات الكشف عن الصور صعوبة بالغة في تمييز المحتوى الحقيقي من المزيف، رغم التطور الكبير في تقنيات الذكاء الاصطناعي؟
قصور الأدوات التقنية
تشير دراسة نشرت في موقع “أركايف” (arXiv) إلى أن أدوات كشف الصور والفيديوهات المولدة بالذكاء الاصطناعي ما زالت تعاني من قصور شديد عند اختبارها في “العالم الواقعي”.
واختبرت الدراسة التي قدمها باحثون أستراليون وكوريون جنوبيون مدى قدرة وفعالية أدوات كشف التزييف العميق، لتظهر أن هذه النماذج لم تتمكن من رصد سوى ثلثي الصور المزيفة.
غير أن التجارب العلمية تشير إلى أن المستخدمين يواجهون صعوبة بالغة في أداء المهام نفسها، إذ أظهرت نتائج دراسة مشابهة -نشرت يوليو/تموز الماضي، وشارك فيها أكثر من 12 ألف شخص من مختلف أنحاء العالم- أن دقة التمييز بين الصور الحقيقية والمزيفة لم تتجاوز 62%.
اللافت في الدراسة -التي اعتمدت على تحليل نحو 287 ألف حالة تقييم- أن المشاركين كانوا أكثر نجاحا في تمييز الصور المولدة بالذكاء الاصطناعي عندما كانت الصور تحتوي على وجوه بشرية، ومع ذلك، أخفقوا بشكل كبير عند التعامل مع صور من الطبيعة أو المناظر الحضرية.
وتؤكد هذه الدراسات أن الاعتماد على “العين البشرية” وحدها أصبح رهانا خاسرا في مواجهة التزييف البصري، خصوصا مع سرعة تطور مضادة تتقن أدق التفاصيل في عناصر المحتوى البصري المولد بالذكاء الاصطناعي بدءا من منظور الصورة، وتناسق الظلال، والإضاءة، وصولا إلى الملمس وتعابير الوجوه.
هل نستطيع كشف التزييف؟
وللتصدي لهذا التحدي المتسارع، اتجه باحثون إلى إشراك الجمهور في عملية التحقق من الصور، على سبيل المثال، أطلق فريق من جامعة نورث ويسترن الأميركية تجربة تفاعلية بعنوان “كشف التزييف” (Detect Fakes)، التي تتيح للمستخدمين اختبار قدرتهم على التمييز بين الصور الحقيقية والمزيفة.
Take a few minutes for the win-win.
Educate yourself to the power of Deepfake media and also help bolster an MIT research project. pic.twitter.com/uLVfBUEqww
— Jason Moore (@JimminyJilickrz) March 6, 2022
وتعتمد التجربة على قاعدة بيانات تحتوي على 138 صورة مولدة بالذكاء الاصطناعي، و42 صورة حقيقية، و9 صور من وسائل التواصل الاجتماعي، وطُلب من المشاركين توضيح مستوى ثقتهم بالحكم على الصور وأسباب اختيارهم.
One of these videos has been altered by #AI. The other hasn’t. Can you tell which is which? Find out how good you are at discerning AI-manipulated content and how you rank compared to others after your 10th guess! pic.twitter.com/5bzD8KDTdy
— MIT Media Lab (@medialab) May 5, 2020
كما أطلقت شركة مايكروسوفت أداة تفاعلية مشابهة تحمل اسم “ريل أور نوت” (Real or Not) لرفع الوعي بخطورة “التزييف العميق”، إذ تُمكن المستخدمين من اختبار قدرتهم على التمييز بين الصور الحقيقية والمولدة بالذكاء الاصطناعي.
وتهدف هذه الأدوات التفاعلية إلى تعزيز الوعي النقدي والبصري لدى الجمهور، بحيث لا يقتصر الاعتماد على الأدوات التقنية، التي تعجز أصلا عن أداء مهامها بفعالية، في ظل إغراق منصات التواصل الاجتماعي بالصور المنتجة بالذكاء الاصطناعي.
كما أن عدم تمييز خوارزميات المنصات بين الصور الحقيقية والمزيفة يجعل الأخيرة عرضة أكبر للانتشار، إذ تعمل على تفضيل المحتوى الذي يولد تفاعلات قوية مثل الإعجابات والتعليقات وعدد النقرات وإعادة المشاركات، بغض النظر عما إذا كانت حقيقية أم خضعت لتعديل أو توليد بواسطة التقنيات.
نتائج غير دقيقة
ورغم وجود عديد من الأدوات المخصصة لكشف الصور المولدة بالذكاء الاصطناعي، مثل “سايت إنجن” (Sightengine)، و”إيه آي أور نوت” (AI or Not)، و”إليومينارتي” (illuminarty)، و”ديكوبي إيه آي” (Decopy AI)، و”هايف موديريشن” (HIVE MODERATION)، فإنها يجب ألا تكون مرجعا دقيقا يمكن الوثوق به بشكل مطلق، خاصة للصحفيين في غرف الأخبار أو مدققي الحقائق.
فعندما خضعت هذه النماذج لاختبارات عملية باستخدام صورة يظهر جليا للعين البشرية أنها منتجة بواسطة الذكاء الاصطناعي، أظهرت الأدوات نتائج غير دقيقة ومضللة في بعض الحالات.
حتى الأدوات الأكثر تقدما مثل “رياليتي ديفندر” (Reality Defender) المتخصصة في كشف التزييف العميق (Deep fakes) عندما خضعت لاختبارات عملية أجراها فريق “نيوز عربي تحقق” أظهرت نتائج غير دقيقة في بعض النماذج.
ورغم تطور تقنيات تحليل ومعالجة الصور، فإن هذه الأدوات تبقى عاجزة عن التمييز بشكل قاطع بين الصور الحقيقية والمزيفة، كما أن الرهان على قدرة الجمهور وحده في مواجهة التضليل يظل محدودا، في وقت تتسارع فيه وتيرة انتشار التزييف العميق، بالتوازي مع تنوع أساليب التحايل والإفلات من أدوات التدقيق.
دور الشركات الكبرى
أمام هذا التحدي، يبرز دور شركات التقنية الكبرى في محاولة سد الفجوة الهائلة، إذ أعلنت شركة “غوغل” مايو/أيار الماضي تطوير أداة تحمل اسم “سينث آي دي ديتكتور”(SynthID Detector) تتيح للمستخدمين معرفة إذا ما كان النص أو الصورة أو الفيديو قد أنتج أو خضع لتعديل بواسطة الذكاء الاصطناعي.
We’re making updates to SynthID, which embeds invisible watermarks into generated media. To date, over 10 billion pieces of content have been watermarked. Now with SynthID Detector, you can upload media and find out if it has a SynthID watermark in it. We’re starting to roll this… pic.twitter.com/3Am0ayW3vY
— Google (@Google) May 20, 2025
وتعتمد الأداة على تقنية العلامات المائية الرقمية غير المرئية داخل الصور، ويمكن لهذه العلامات أن تُكتشف عبر الأداة نفسها، ومع ذلك، فإن الخدمة لا تزال في مرحلة تجريبية محدودة لمجموعة من الصحفيين والباحثين.
SynthID Detector is a new portal to help journalists, media professionals and researchers more easily identify whether content has a SynthID watermark. Here’s how it works → #GoogleIO
— Google (@Google) May 21, 2025
أما شركة “أوبن إيه آي” فأعلنت في مايو/أيار 2024 إطلاق أداة متخصصة لكشف الصور المولدة عبر نموذجها “دال-إي 3” (DALL·E 3) لتحويل النص إلى صور، بدقة تقارب 98% عند التعامل مع الصور الأصلية، لكنها متاحة أيضا لعدد محدود من الباحثين والمؤسسات الإعلامية.
We’re rolling out the ability for ChatGPT Free users to create up to two images per day with DALL·E 3.
Just ask ChatGPT to create an image for a slide deck, personalize a card for a friend, or show you what something looks like. pic.twitter.com/3csFTscA5I
— OpenAI (@OpenAI) August 8, 2024
وفي ديسمبر/كانون الأول 2024، كشفت الشركة عن أن مقاطع الفيديو المنتجة عبر نموذجها “سورا” (Sora) الذي يحول النص إلى فيديو، ستتضمن علامات مائية وبيانات للإشارة إلى أنها مولدة بالذكاء الاصطناعي.
وفي خطوة مشابهة، قامت “مايكروسوفت” بدمج أدوات وفق معيار “سي 2 بي إيه” (C2PA) داخل منتجاتها الخاصة بتوليد الصور مثل “كوبايلوت” (Copilot) و”بينت” (Paint) بحيث يتمكن المستخدم من الاطلاع على بيانات المصدر ووقت الإنشاء، بالإضافة إلى معرفة إذا ما كان المحتوى المرئي قد أنتج باستخدام الذكاء الاصطناعي.
كما عززت الشركة تدابيرها التقنية بإضافة ميزة تشويش وجوه الأشخاص في الصور المرفوعة على مساعد الذكاء الاصطناعي “كوبايلوت” للحد من احتمالات إساءة الاستخدام والتلاعب.
الخلاصة
في الختام، تؤكد التجارب العملية والدراسات الحديثة أن أغلب أدوات كشف الصور المولدة بالذكاء الاصطناعي إما مدفوعة التكاليف، أو محدودة الدقة، أو متاحة في نطاق ضيق يقتصر على الباحثين والصحفيين والمؤسسات الإعلامية.
كما أن الثغرات توسع فجوة الثقة وتترك الجمهور في مواجهة سيل من الصور التي يصعب التحقق من مصداقيتها، مع الانتشار المتسارع للتزييف العميق، وعدم قدرة “العين البشرية” على تمييز المحتوى الحقيقي من المزيف، مما يستدعي تكثيف الجهود البحثية والتقنية لتطوير أدوات أكثر فعالية لمواجهة هذا التحدي.