اليوم: 24 أكتوبر، 2025
-
امن
التزييف العميق (Deepfake) أداة جديدة للاحتيال المالي: من الإمارات إلى إيطاليا والمشاهير”
بغداد24 _ متابعة شهد العالم خلال السنوات الأخيرة سلسلة حوادث احتيال متطورة باستخدام تقنيات التزييف العميق (Deepfake)، حيث يُستنسخ صوت…
أكمل القراءة » -
امن
“الإمارات تحذر من مقاطع الفيديو المزيفة وتقنين استخدام تقنيات التزييف الرقمي”
بغداد 24 _ الأمارات أصدرت الجهات الرسمية في الإمارات تحذيرات للمواطنين والمقيمين بشأن انتشار مقاطع فيديو مزيفة تستخدم صور مسؤولين…
أكمل القراءة » -
رئيسي
تقنيات التزييف العميق تهدد الأمان الرقمي في الشرق الأوسط: العراق والسعودية في صدارة الدول المتأثرة”
بغداد 24 _ الشرق الأوسط تشهد منطقة الشرق الأوسط زيادة ملحوظة في استخدام تقنيات التزييف العميق (Deepfake)، حيث أظهرت بيانات…
أكمل القراءة » -
رئيسي
الاستنساخ الصوتي بالذكاء الاصطناعي ينتهك حقوق الشخصية للمشاهير، تقول محكمة بومباي في التماسة من المغنية آشا بوشل”
بغداد 24 _ الهند منحت محكمة بومباي العليا مؤقتًا حماية للمغنية الشهيرة آشا بوشل بعد التماستها ضد شركتين أمريكيتين تعملان…
أكمل القراءة » -
رئيسي
سكارليت جوهانسون تقول إن شركة OpenAI قلّدت صوتها بعد أن رفضت عرض ChatGPT: (لقد صُدمت!)”
بغداد 24 _ أمريكا قالت الممثلة الأمريكية سكارليت جوهانسون إنها شعرت بالصدمة عندما اكتشفت أن أحد الأصوات المستخدمة في إصدار…
أكمل القراءة » -
رئيسي
احذر! الأصوات المزيفة أصبحت تتحدث بلسان الحقيقة الذكاء الاصطناعي يدخل ساحة الاحتيال”
بغداد 24 _ بريطانيا في تطوّر يثير القلق حول استخدامات الذكاء الاصطناعي، كشفت صحيفة The Guardian البريطانية عن تعرّض الرئيس…
أكمل القراءة »