تقنية

الاحتيال بنكهة الذكاء الاصطناعي

الاحتيال بنكهة الذكاء الاصطناعي

ما تزال تطبيقات الذكاء الاصطناعي والتعلُّم العميق للُّغات في تطور مستمر، حيث تُسهم هذه التقنيات في تسهيل حياة البشر، فهناك الخرائط الناطقة التي تكشف لنا أسرع الطرق للوصول إلى مقاصدنا، وكذلك أدوات المساعدة الصوتية التي ترد على أسئلتنا باختلافها. كما أسفر الذكاء الاصطناعي عن تطوير أنواع جديدة من العطور بناء على تحليل ملايين التركيبات ومقارنتها بأذواق البشر.

وبالرغم من فوائد تلك التقنيات، لكنها قد تشكل خطرًا كبيرًا إن أُسيء استخدامها. وفي هذا الصدد، تمكن باحثون من إجراء دراسات مختلفة حول صياغة رسائل احتيال إلكترونية باستخدام تقنيات الذكاء الاصطناعي، تكاد لا تختلف عن تلك التي يجهزها الإنسان، وهو ما زاد من المخاوف بشأن اعتماد المحتالين مستقبلًا على مثل هذه التقنيات في صياغة رسائل الاحتيال، وتحديدًا رسائل التصيُّد الإلكتروني (Phishing).

وسيلة فاعلة للتصيُّد

ولتوضيح فاعلية تلك التقنيات، استعرض فريق تابع للوكالة الحكومية للتقنية في سنغافورة، خلال فعاليات مؤتمر (بلاك هات آند ديفكون) الأخير، نتائج تجربة لإرسال رسائل تصيُّد عبر البريد الإلكتروني، بطريقة تدفع المستلم للضغط على الرابط الموجود فيها. واستهدفت تلك الرسائل 200 شخص لا يعلمون بالتجربة، وكان جزءٌ منها مكتوبًا من قبل أعضاء الفريق، والجزء الآخر مكتوبًا بالاستفادة من تطبيقات الذكاء الاصطناعي.

وأظهرت النتائج أن الرسائل المكتوبة بواسطة الذكاء الاصطناعي نجحت في إقناع عدد أكبر من الأفراد بالضغط على الرابط، مقارنة بالرسائل التي كتبها البشر، وبفارق كبير.
ولعل ما يزيد من خطورة الأمر، أن المحتالين لا يحتاجون إلى تطوير أنظمة جديدة لاستخدامها في الاحتيال، بل يمكنهم استخدام خدمات الذكاء الاصطناعي المتاحة على الإنترنت، التي يمكن التعامل معها بسهولة ودون الحاجة إلى معرفة بالبرمجة.

تقليد الأصوات بالذكاء الاصطناعي

بالإضافة إلى محاكاة البشر في كتابة البريد الإلكتروني، هناك مجالات أخرى قد تنطوي على مخاطر ترتبط باستخدام تلك التقنيات، مثل مجال تقليد الأصوات بالاعتماد على الفكرة نفسها.

وفي الوقت الراهن، أصبحت تقنيات الذكاء الاصطناعي قادرة على استنساخ الأصوات ومحاكاتها بشكل دقيق ومقنع إلى أقصى حد. وكل ما يحتاجه المستخدم هو تزويد نموذج ذكي بملفات صوتية لأي شخص، ليتمكن النموذج من محاكاة صوت هذا الشخص والتحدث به. وبمجرد انتهاء عملية تلقين النموذج يُصبح استخدامه سهلًا، ويمكن أن يُستغل لأغراض الاحتيال والخداع.

ومن أمثلة تطبيق هذه التقنية ما نُشِر في أحد الأفلام الوثائقية عن الطباخ، أنتوني بوردين، حيث كشف منتجو الفِلم أنهم اعتمدوا على الذكاء الاصطناعي فقط لتقليد صوته، وذلك بعد أن أرسل لهم ملفات صوتية له.

هذا المثال قد يكون من الاستخدامات المفيدة والأخلاقية لهذه التقنيات، لكن لا شك أن هناك استخدامات أخرى تنطوي على الضرر، مثل تقليد صوت شخص ما لخداع شخص آخر، أو استخدامها في عمليات النصب والاحتيال.

وقد يُستفاد من هذه التقنيات في أغراض أخرى لا تخلو من غرابة، إذ من المحتمل مثلًا أن يستخدمها المشاهير والممثلون في المستقبل لتأجير أصواتهم، من خلال خدمات مدفوعة عبر الإنترنت. وقد أطلقت شركة (فيريتون) بالفعل خدمة مشابهة لهذا الغرض.

Photo

You are currently using an older browser. Please note that using a more modern browser such as Microsoft Edge might improve the user experience. Download Microsoft Edge