الإحتيال الإلكتروني في تزييف الأصوات بالذكاء الصناعي
بين الأمس واليوم: كيف يمكن للاحتيال الإلكتروني أن يخدعكم بأصوات تم إنتاجها عبر التزييف العميق باستعمال الذكاء الاصطناعي؟
اهتزت مرة أخرى قلوب ملايين المعجبين بفرقة البيتلز حول العالم على إيقاع أغنيتها الجديدة! غير أن هذه الأغنية في الواقع ليست من تأليف البيتلز، بل هي من إنشاء تكنولوجيا الذكاء الاصطناعي، التي ألفتها انطلاقا من تجميع وإعادة توضيب شظايا تسجيلات قديمة، وإدماجها بطريقة محكمة.
ولقي العمل الفني الجديد للمجموعة الموسيقية الأسطورية إقبالا باهرا عبر العالم، بيد أنه شكل كذلك فرصة لطرح إشكالية عويصة: حول أبعاد قدرة الذكاء الاصطناعي على إعادة إنتاج الأصوات وتوليد الصور عبر تقنية التزييف العميق.
ولازالت من حسن الحظ، عمليات الاحتيال عبر التزييف العميق للأصوات والصور نادرة جدا في الوقت الراهن، وذلك نظرا لكون الأدوات المستخدمة في صنعها ليست متطورة أو واسعة النطاق بالشكل الكافي، ومع ذلك، فإن احتمالات استخدامها بغرض لاحتيال عالية للغاية، خصوصا وأن التكنولوجيا لا تتوقف التطور.
ما هي حدود قدرات التزييف العميق للأصوات؟
برهن برنامج الذكاء الاصطناعي المفتوح (OpenAI) مؤخرا على أن أحد نماذج واجهة برمجة التطبيقات الصوتية (API audio) يمكنه توليد كلام ونطق بشري انطلاقا من إدخال نص مكتوب. ولحدود اليوم يعد هذا البرنامج الأقرب على الإطلاق إلى النطق بصوت بشري.
يمكن مستقبلا، لمثل هذه النماذج أن تصبح أداة جديدة بين يدي المهاجمين السيبرانيين. فنماذج واجهة برمجة التطبيقات الصوتية (API audio) يمكنها النطق بصوت محدد يتم اختياره من قبل المستخدم، وذلك على أساس نص مكتوب مقترح. ورغم أن الذكاء الاصطناعي المفتوح (OpenAI) لا يزال، في وضعه الحالي، غير قابل للاستخدام لإنشاء أصوات مزيفة بعمق، إلا أنه يشكل مؤشرا على الوتيرة السريعة التي تتطور بها تكنولوجيا توليد الأصوات.
ولا توجد اليوم عمليًا أية أجهزة قادرة على إنتاج صوت مزيف عالي الجودة، بحيث لا يمكن تمييزه عن الكلام البشري الحقيقي.
وعرفت مع ذلك الأشهر القليلة الماضية إصدار المزيد من أدوات توليد الصوت البشري. وبينما كان مستخدمو هذه الأدوات يحتاجون في السابق إلى التوفر على مهارات أساسية في مجال البرمجة المعلوماتية، أصبح التعامل معها اليوم أكثر فأكثر سهولة. وفي المستقبل القريب، يمكننا أن نتوقع رؤية نماذج تجمع بين بساطة الاستخدام وجودة النتائج.
صحيح أن الاحتيال باستخدام الذكاء الاصطناعي لا يزال غير شائع، إلا أننا أصبحنا بالفعل نتوفر على أمثلة حية عن حالات “ناجحة” لهذا النوع من الاحتيال. ففي منتصف شهر أكتوبر 2023، حذر الأمريكي تيم دريبر، المستثمر بالرأسمال، متابعيه على تويتر من احتمال تعرضهم لعمليات احتيال يستخدم فيها صوته للتمويه. وأوضح تيم أن طلبات المال التي يتم تقدميها بصوته هي في الحقيقة من توليد الذكاء الاصطناعي، الذي أصبح من الواضح أنه يزداد ذكاء يوما بعد يوم.
كيف تحمي نفسك
لا يبدو حتى الآن للجميع أن تقنية التزييف العميق للصوت قد باتت تشكل تهديدا إلكترونيا محتملا. إلا أنه أصبح لدينا في الواقع حالات نادرة جدا تم فيها استخدام تقنيات التزييف العميق للصوت بنوايا خبيثة بغرض الاحتيال. غير أن ندرة هذه الحالات لا تعني عدم إيلاء الأهمية للازمة للحماية من هذا النوع الجديد من الاحتيال والوقاية منه، وأن على تكنولوجيا الحماية أن لا تبطئ أكثر في الرد عليه.
في الوقت الحالي، أفضل طريقة لحماية نفسك هي الإصغاء بعناية إلى ما يقوله لك محاورك المتصل عبر الهاتف. فإذا تبين لك أن التسجيل رديء، وتكتنفه ضوضاء خلفية، وله نبرة آلية، فهذا يكفي ليدفعك إلى عدم الوثوق بالمتحدث.
طريقة أخرى جيدة لاختبار إن كان مخاطبك فعلا “بشريا”، هي أن تطرح عليه أسئلة غير مألوفة وغير متوقعة. على سبيل المثال، إذا تبين أن المتصل هو نموذج صوتي، فإن طرح سؤال حول الألوان المفضلة سيربكه حتما، لأنه سؤال غير متوقع من ضحية الاحتيال. حتى لو تدخل المهاجم بعد ذلك يدويا بهدف استرجاع السيطرة على الوضع، وحاول إعادة صياغة الجواب خلال هذه المرحلة، فإن مدة التأخير الزمني في الرد ستجعلك تدرك أن أنك تتعرض لعملية خداع.
من بين الخيارات الآمنة الأخرى المتاحة، تثبيت حل أمني موثوق وشامل. فرغم أن هذه الحلول لا يمكنها اكتشاف الأصوات التي تنتجها تقنيات التزييف العميق للصوت بنسبة 100 في المائة، إلا أنها يمكن أن تساعد المستخدمين على تجنب المواقع الإلكترونية ومنصات الدفع المشبوهة، ومن تنزيل البرمجيات الخبيثة، وذلك من خلال حماية برامج التصفح والتحقق من جميع الملفات الموجودة على الكمبيوتر.
يقول ديمتري أنيكين، كبير علماء البيانات لدى كاسبرسكي “النصيحة الأساسية في الوقت الراهن هي عدم المبالغة في أهمية هذا التهديد، وعدم محاولة البحث عن الأصوات المولدة بتقنية التزييف العميق في كل شيء. ففي الوقت الحالي، من غير المرجح أن تكون التكنولوجيا المتاحة قوية بما فيه الكفاية لتوليد أصوات يصعب على الإنسان أن يدرك أنها مصطنعة. ومع ذلك، علينا جميعا أن تكون على دراية بالتهديدات المحتملة، وأن نكون مستعدين للتصدي للاحتيال المتقدم عبر تقنيات التزييف العميق، الذي سيصبح لا محالة حقيقة واقعية جديدة في المستقبل القريب”.