احذر! الأصوات المزيفة أصبحت تتحدث بلسان الحقيقة الذكاء الاصطناعي يدخل ساحة الاحتيال”

بغداد 24 _ بريطانيا
في تطوّر يثير القلق حول استخدامات الذكاء الاصطناعي، كشفت صحيفة The Guardian البريطانية عن تعرّض الرئيس التنفيذي لأكبر شركة إعلانات في العالم (WPP) لمحاولة احتيال دقيقة استخدمت فيها تقنية تقليد الصوت بالذكاء الاصطناعي (AI Voice Cloning).
فقد تلقّى أحد الموظفين مكالمة بدا صوتها مطابقًا لصوت المدير التنفيذي، يُطلب فيها تنفيذ تحويل مالي عاجل، ليتبيّن لاحقًا أنّها مكالمة مزيفة بالكامل نُفّذت باستخدام نموذج صوتي مقلَّد عبر أدوات الذكاء الاصطناعي المتاحة على الإنترنت.
الخبر أثار موجة تحذير عالمية من خطورة هذه التقنيات، التي أصبحت قادرة على محاكاة نبرة الصوت وتفاصيل الكلام بدقةٍ مذهلة، مما يجعل التمييز بين الحقيقي والمزيّف شبه مستحيل بالسمع فقط.
وتحذّر الجهات الأمنية والخبراء الرقميون من أنّ هذه الحوادث ليست سوى البداية، داعين إلى التأكّد من هوية المتحدث في المكالمات الحساسة، وعدم اتخاذ قرارات مالية أو قانونية عبر الصوت فقط.



