الذكاء الاصطناعي بين الإبداع والخداع
استخدامات خطيرة للتزييف العميق..

في عصر الذكاء الاصطناعي التوليدي، لم تعد الحقيقة مرئية كما كانت، إذ أصبحت أدوات “التزييف العميق” قادرة على إنتاج محتوى مرئي وصوتي يُخدع به العقل بسهولة تامة وقد يشهد العالم انتشارا واسعا لفيديوهات وصور مزيفة تُظهر شخصيات عامة في مواقف لم تحدث، وتُستخدم لأغراض تتراوح من الترفيه والتشهير، إلى التضليل السياسي والابتزاز.
لم تعد الشاشات تنقل الحقيقة كما هي، بل باتت قادرة على خداعنا بدقة مذهلة، ففي زمن تسارعت فيه أدوات الذكاء الاصطناعي التوليدي، أصبح بإمكان أيّ شخص يمتلك حاسوبا واتصالا بالإنترنت أن يُنتج مقطع فيديو أو تسجيلا صوتيا مزيفا يبدو حقيقيا إلى حد يُثير القلق.
أصبحت الإنترنت تعجّ بمحتوى “التزييف العميق” – سواء كان صوتا أو صورة أو فيديو صُنع باستخدام أدوات الذكاء الاصطناعي – حيث يظهر الأشخاص وكأنهم يقولون أو يفعلون أمورا لم تصدر عنهم، أو يتواجدون في أماكن لم يكونوا فيها، أو يتغير مظهرهم، وفقا لتقرير نشرته بلومبيرغ.
ويتضمن هذا المحتوى أحيانا ما يُعرف بـ”التعري الرقمي”، حيث تُعدَّل الصور لإظهار أشخاص بلا ملابس. كما تُستخدم “التزييفات العميقة” في خداع المستهلكين، أو لتشويه سمعة السياسيين وغيرهم من الشخصيات العامة.
وقد سهّل التقدم في الذكاء الاصطناعي إنشاء تزييفات واقعية ببضع نقرات فقط.
وبينما تحاول الحكومات القلقة التصدي لهذه الظاهرة، تبدو المعركة خاسرة؛ إذ ارتفعت محاولات الاحتيال باستخدام “التزييف العميق” بأكثر من 20 ضعفا خلال السنوات الثلاث الماضية، بحسب بيانات شركة “ساينيكات” المتخصصة في التحقق من الهوية.
في 19 مايو، وقّع الرئيس الأميركي دونالد ترامب قانون “إزالة المحتوى”، الذي يُجرّم إنتاج المواد الإباحية غير التوافقية باستخدام الذكاء الاصطناعي، والمعروفة أيضا باسم “الانتقام الإباحي بالتزييف العميق”. كما يُلزم القانون منصات التواصل الاجتماعي بحذف تلك الصور الجنسية الصريحة عند الطلب.
في الاتحاد الأوروبي، يُلزم قانون الذكاء الاصطناعي المنصات الرقمية بوضع علامات تُشير إلى أن المحتوى نتاج “تزييف عميق”. وقد طبّقت الصين تشريعا مشابها في عام 2023، أما في بريطانيا فقد دعت مفوضة شؤون الأطفال في 28 أبريل إلى حظر تطبيقات “التعري الرقمي” التي تنتشر بشكل واسع عبر الإنترنت.
وفي يناير 2024، أثارت صور “تزييف عميق” فاضحة لنجمة البوب تايلور سويفت غضبا واسعا عبر وسائل التواصل الاجتماعي، ما دفع البيت الأبيض إلى التعبير عن قلقه.
خلال الانتخابات الرئاسية الأميركية في عام 2024، شارك إيلون ماسك مقطع فيديو دعائيا تم إنشاؤه بتقنية “التزييف العميق”، ظهر فيه صوت معدّل للمرشحة الديمقراطية كامالا هاريس، تصف فيه الرئيس جو بايدن بـ”الخَرِف” وتقول إنها لا “تعرف شيئا عن إدارة البلاد”.
وتعهّد حاكم كاليفورنيا غافين نيوسوم بحظر التزييف السياسي، ووقّع قانونا بهذا الخصوص في سبتمبر.
وعادة ما تُنتج هذه التزييفات الرقمية باستخدام خوارزميات ذكاء اصطناعي مدرَّبة على التعرّف على الأنماط في تسجيلات الفيديو الحقيقية، في عملية تُعرف بـ”التعلّم العميق”. ومن خلالها، يمكن استبدال عناصر مثل الوجه بمحتوى آخر دون أن يبدو ذلك كمونتاج تقليدي.
ويزداد أثر هذه التزييفات حين تُدمج بتقنيات “استنساخ الصوت”، حيث تُحلل المقاطع الصوتية إلى أجزاء صغيرة يعاد تجميعها لتكوين كلمات جديدة تبدو وكأن المتحدث الأصلي نطق بها.
في البداية، كانت هذه التقنية حكرا على الأكاديميين والباحثين، لكن في عام 2017، أفادت منصة “مذر بورد” التابعة لموقع “فايس” بأن مستخدما على “ريديت” يُدعى “ديب فيكس” ابتكر خوارزمية مفتوحة المصدر لصناعة الفيديوهات المزيفة.
وعلى الرغم من حظر المستخدم، انتشرت التقنية بسرعة. وآنذاك، كانت عملية التزييف تتطلب فيديوهات أصلية وأداء صوتيا حقيقيا ومهارات تحرير متقدمة.
أما اليوم، فباتت أنظمة الذكاء الاصطناعي التوليدي تتيح للمستخدمين إنتاج صور وفيديوهات مقنّعة عبر أوامر نصية بسيطة.
وأصبحت هذه التزييفات أصعب في الاكتشاف، مع استخدام كميات هائلة من المحتوى الرقمي المتاح عبر الإنترنت من “يوتيوب” إلى مكتبات الصور والفيديوهات المخزّنة.
ومع ذلك، قد تظهر أحيانا مؤشرات على أن الصورة أو الفيديو مزيف، مثل يد تحتوي على عدد غير طبيعي من الأصابع، أو تباين غير متناسق في الألوان، أو عدم تطابق حركة الفم مع الصوت، أو تفاصيل غير دقيقة في ملامح الوجه، أو حواف خشنة. لكن هذه العيوب تتضاءل مع تطوّر النماذج الذكية.
في أغسطس 2023، نشر مروّجون صينيون صورا معدّلة لحرائق الغابات في جزيرة ماوي بالولايات المتحدة، زاعمين أنها نتيجة تجربة سلاح جوي أميركي سرّي. وفي مايو من العام نفسه، تراجعت الأسواق الأميركية مؤقتا بعد انتشار صورة مزيفة تُظهر البنتاغون وكأنه يحترق. وقال خبراء إن الصورة تحمل بصمات إنتاج باستخدام الذكاء الاصطناعي.
وفي فبراير، انتشر مقطع صوتي مزيف بدا فيه وكأن المرشح الرئاسي النيجيري أتيكو أبوبكر يخطط لتزوير الانتخابات. أما في عام 2021، فقد ظهر مقطع فيديو مدته دقيقة واحدة للرئيس الأوكراني فولوديمير زيلينسكي يدعو فيه جنوده للاستسلام لروسيا، وهو فيديو مزيف بالكامل. وهناك أيضا تزييفات غير ضارة، مثل فيديوهات تظهر كريستيانو رونالدو وهو ينشد قصائد عربية.
لكن الخطر الحقيقي يكمن في أن تصبح هذه المقاطع مقنعة لدرجة تجعل من الصعب التمييز بين الحقيقي والمزيف.
ويُعد السياسيون، ورجال الأعمال، والمشاهير من بين الأكثر عرضة للخطر بسبب الكم الهائل من المواد المرئية والمسموعة المتوفرة عنهم.
وفي تقرير صدر في أبريل، حذّرت مفوضة شؤون الأطفال في المملكة المتحدة من تزايد مخاوف الأطفال من أن يكونوا ضحايا لمحتوى “تزييف عميق” فاضح. كما تزايد القلق من أن يُستخدم الوعي المتزايد بهذه التقنية كأداة إنكار، إذ قد يدّعي المتورطون في مقاطع حقيقية أنها مزيفة. وقد بدأ البعض بالفعل استخدام “دفاع التزييف العميق” في المحاكم.
ورغم صعوبة عكس نماذج التعلم الآلي لاكتشاف هذه التزييفات، تعمل شركات ناشئة مثل “سانسيتي إيه آي” الهولندية، و”سانتينل” الإستونية، بالإضافة إلى عمالقة التكنولوجيا في الولايات المتحدة، على تطوير أدوات متقدمة للكشف عن هذا النوع من المحتوى.
وقد تعهّدت شركات مثل “مايكروسوفت” بإضافة علامات مائية رقمية إلى الصور المُنتجة عبر أدوات الذكاء الاصطناعي الخاصة بها. كما طورت شركة “أوبن إيه آي”، مطوّرة “تشات جي بي تي”، تقنيات لاكتشاف الصور المزيفة، وآلية لإضافة علامات مائية إلى النصوص. لكن هذه الأخيرة لم تُطرح بعد جزئيا لأن الشركة ترى أن من السهل التحايل عليها من قبل الجهات السيئة.