كشفت التقنية الحديثة عن وجهها الآخر الأكثر شرًا، في واقعة هزّت الصين خلال الساعات الماضية، عندما احتال مواطن صيني باستخدام الذكاء الاصطناعي بغرض الاستيلاء على مبالغ مالية من رجل بعد إيهامه بأنه صديقه المقرب.

عبر استخدامات تقنيات الذكاء الاصطناعي، شهدت الصين أول عملية نصب بهذه التقنية، وسط ارتفاع في عمليات الاحتيال المدفوعة بالذكاء الاصطناعي،

وأثارت عملية النصب في شمال الصين، إذ استخدم فيها شخص تقنية “التزييف العميق” المتطورة لإقناع رجل بتحويل الأموال إلى صديق مفترض، مخاوف بشأن إمكانات استخدامات تقنيات الذكاء الاصطناعي في اقتراف جرائم مالية.

وعمدت الصين إلى تشديد الرقابة على مثل هذه التكنولوجيا والتطبيقات، والتي تنطوي بشكل أساسي على التلاعب ببيانات الصوت والوجه، واعتمدت قواعد جديدة في يناير لحماية الضحايا، بحسب ما نقلت “رويترز”.

وقالت الشرطة في مدينة باوتو، في منطقة منغوليا الداخلية، إن الجاني استخدم تقنية تغيير الوجه التي تعمل بالذكاء الاصطناعي، لانتحال شخصية صديق للضحية عبر مكالمة فيديو وطلب منه تحويل 4.3 مليون يوان (622 ألف دولار).

وقالت الشرطة في بيان إن المجني عليه حول الأموال معتقداً أن صديقه كان بحاجة إلى إيداع خلال عملية تقديم العطاءات.

وأضافت الشرطة أن الرجل أدرك أنه تعرض للخداع فقط، بعد أن أخبره صديقه الحقيقي أنه لم يطلب منه تحويل أموال، قائلة إنها تمكنت من استعادة معظم الأموال المسروقة، ويعملون على تعقب باقي المال.

جريمة خطف باستخدام الذكاء الاصطناعى

 

أجرى محتالون أول عملية نصب من نوعها وذلك عن طريق الذكاء الاصطناعي، حيث قاموا بتجميع مقاطع صوتية للضحية ومن ثم استنساخ صوتها لتبدأ بعد ذلك فصول الجريمة.

وأورد موقع “بيزنس إنسايدر” أن أمًا في الولايات المتحدة تلقت مكالمة هاتفية من محتال قام باستنساخ صوت ابنتها للتظاهر بأنه خطفها، إذ قالت جينيفر ديستيفانو إنها تلقت مكالمة من رقم غير معروف، وعندما أجابت، سمعت صوت ابنتها البالغة من العمر 15 عاماً تبكي وتطلب النجدة، في وقت كانت الابنة خارج المدينة في رحلة تزلج وفق ديلي ميل.

 ووفقًا لما ذكره موقع البيان، سمعت ديستيفانو صوت رجل يقول إن لديه ابنتها ويريد مبلغ مليون دولار لإعادتها، وبعد أن قالت إنها لا تملك هذا المبلغ، تم تخفيضه إلى 50 ألف دولار.

وقالت الأم جينيفر ديستيفانو لمحطة WKYT التلفزيونية المحلية، وهي ترتعش من فرط الذعر، إنني «لم أشك ولو لثانية واحدة في أنها ابنتي.. كان صوتها بالفعل».

ورغم ذلك، قال والد الفتاة آنذاك إن ابنتهما كانت معه بأمان، وبحسب ما ورد، استخدم المحتالون صوتاً أنتجه الذكاء الاصطناعي مطابقاً لصوت الفتاة.

ويتيح النظام الذي طورته شركة «ElevenLabs» الناشئة للمستخدمين إنشاء مقاطع صوتية لتحويل النص إلى كلام يمكن استخدامه لمحتوى مثل مقاطع فيديو «يوتيوب» والكتب الصوتية، لكن المتصيدون الإلكترونيون سرعان ما بدأوا في استخدام التكنولوجيا لتقليد أصوات المشاهير بما في ذلك جو روغان وبن شابيرو وإيما واتسون.

وحاولت بعض الجهات الخبيثة استخدام التقنية للاحتيال على الناس من خلال محاكاة أصوات أقاربهم، وقال رجل لصحيفة «واشنطن بوست» إن شخصاً ادّعى أنه محامٍ قد خدع والديه بمبلغ 21000 دولار من خلال الادعاء بأنه سُجن لقتله شخصاً في حادث سيارة.

وأوضحت التقارير أن المحتالين ينتجون هذه الأصوات باستخدام تفاصيل من حسابات المستهدَفين على وسائل التواصل الاجتماعي، ولكن ديستيفانو أشارت إلى أن ابنتها ليس لديها أي حسابات عامة على وسائل التواصل الاجتماعي، وقالت إن هناك مقابلات عامة من مدرستها تتضمن عينة من صوتها.

 

مستريحو الذكاء الاصطناعي

لكن الأمر عاد بعدما تطوّر بشكل مخيف، فأصبح ما يطلق عليهم “مستريحو الذكاء الاصطناعي” قادرين على تصميم محادثة بالصوت والصورة تحاكي أشخاص لديهم

تفاعل على وسائل التواصل الاجتماعي، وبالتالي يحدثونهم عبر الفيديو على أنهم أصدقاء، ويطبون منهم الأموال.

وبعد هذه الواقعة شددت الصين الرقابة على مثل هذه التكنولوجيا والتطبيقات، والتي تنطوي بشكل أساسي على التلاعب ببيانات الصوت والوجه، واتخذت العديد من القواعد جديدة في يناير لحماية الضحايا.

تقنية تغيير الوجه

واستخدم الجاني تقنية تغيير الوجه التي تعمل بالذكاء الاصطناعي، لانتحال شخصية صديق للضحية عبر مكالمة فيديو، وبعد نقاش قصير بينهما، طلب منه تحويل 4.3 مليون يوان (622 ألف دولار) أي ما يعادل نحو 20 مليون جنيه مصري تقريبا.

وقالت الشرطة في مدينة باوتو، في منطقة منغوليا الداخلية، إن المجني عليه حول الأموال معتقدًا أن صديقه كان بحاجة إلى إيداع خلال مزاد

وبحسب بيان الشرطة فإن الرجل أدرك أنه تعرض للخداع فقط، بعد أن أخبره صديقه الحقيقي أنه لم يطلب منه تحويل أموال

وتمكنت الشرطة من استعادة معظم الأموال المسروقة، ويعمل فريقا من مباحث الإنترنت والجرية الإلكترونية على تعقب باقي المال

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *