;

هندي يتعرض لعملية احتيال بالتزييف العميق لمظهر وصوت زميل سابق

  • تاريخ النشر: الثلاثاء، 18 يوليو 2023
هندي يتعرض لعملية احتيال بالتزييف العميق لمظهر وصوت زميل سابق

خسر رجل من ولاية كيرلا الهندية، مبلغ 40 ألف روبية بعد تعرضه لعملية احتيال قائمة على التزييف العميق باستخدام على الذكاء الاصطناعي.

خسر الرجل نقوده بعد وقوعه فريسة لعملية احتيال تعتمد على الذكاء الاصطناعي. وفقًا للشرطة، كانت عملية احتيال بالتزييف العميق لشخص من معارف الضحية.

عملية احتيال باستخدام التزييف العميق

وفقًا للشرطة في ولاية كيرلا، تلقى الرجل مكالمة فيديو على واتساب من رقم غير معروف. عندما تلقى المكالمة، بدا الشخص الموجود على الجانب الآخر يشبه أحد زملائه السابقين.

وطلب منه مبلغ 40.000 روبية هندية عبر قوقل بلاي، لمساعدة أحد أقاربه في المستشفى. لكن عندما طلب منه مبلغ آخر، اشتبه في الأمر وقدم شكوى إلى شرطة الإنترنت.

حوادث مشابهة

مع زيادة قوة الذكاء الاصطناعي، يستخدمه المحتالون لانتحال شخصية شخص ما، مما يجعل التمييز بين الحقيقي والمزيف تحديًا. تُستخدم تقنية الذكاء الاصطناعي لتحليل البيانات ومعالجتها، مثل صور الوجه والتسجيلات الصوتية، مما يسهل إنشاء مقاطع فيديو بتقنية التزييف العميق تقلد عن كثب مظهر الشخص وصوته.

في مايو، تم الإبلاغ عن حادثة أخرى من الصين عندما استخدم محتال تقنية مبادلة الوجه التي تعمل بالذكاء الاصطناعي لانتحال شخصية صديق للضحية خلال مكالمة فيديو وتلقي تحويل بقيمة 4.3 مليون يوان (622 ألف دولار).

كيف تحمي نفسك من التعرض للاحتيال

حذر الخبراء من مثل هذه الحيل وقدموا بعض النصائح لتكون في أمان. وهي كما يلي:

  • يُطلب من الأشخاص التحقق من جودة الفيديو لأن معظم مقاطع التزييف العميق ذات دقة منخفضة.
  • كما أن مقاطع الفيديو المزيفة تعود إلى البداية بعد فترة زمنية معينة أو تتوقف فجأة، مما يوضح أنها ليست حقيقية.
  • يُنصح أيضًا بالاتصال بالشخص الظاهر في الفيديو للتحقق مما إذا كان بالفعل هو من يحادثك قبل إجراء أي معاملات مالية.
اشترك في قناة رائج على واتس آب لمتعة الترفيه