12/07/2024 08:27AM
تشكل مكالمات "الاحتيال الصوتي" تهديداً متزايداً للبشر حول العالم، وذلك بالتزامن مع دخول تقنيات الذكاء الاصطناعي إلى هذا المجال واستخدام التكنولوجيا الجديدة التي تجعل من الصعب اكتشاف عملية الاحتيال، وبالتالي تُهدد مصالح الناس وحساباتهم.
ونشرت شبكة "CNBC" الأميركية تقريراً موسعاً اطلعت عليه "العربية.نت" استعرض فيه المخاطر التي تتزايد بسبب عمليات الاحتيال الصوتي التي تستخدم تكنولوجيا الذكاء الاصطناعي، وهي عمليات احتيال أصبحت أكثر خطورة وأكثر نجاحاً وبات من الصعب اكتشافها.
واستعرض التقرير مثالاً على ذلك الفيلم الشهير "ثيلما"، حيث تتلقى ثيلما بوست البالغة من العمر 93 عاماً مكالمة هاتفية من حفيدها الذي يقول إنه في السجن وإنه مصاب بكسر في الأنف بعد تعرضه لحادث ويحتاج إلى عشرة آلاف دولار. وتقوم ثيلما بالاستجابة لتعليمات المحتال من خلال جمع مجموعات من النقود المخفية حول منزلها وإرسالها إلى صندوق بريد، وهو عنوان الشخص المحتال.
ويقول التقرير إنه "على الرغم من أن هذه القصة تم تصويرها بشكل درامي إلا أن التهديد بمكالمات الاحتيال هذه، والمعروفة أيضاً باسم عمليات احتيال الأجداد أو عمليات احتيال الطوارئ العائلية، أصبحت حقيقة وباتت أسهل وأكثر انتشاراً في عصر الذكاء الاصطناعي".
وبحسب التقرير ففي الولايات المتحدة وحدها بلغ إجمالي الخسائر الناجمة عن هذا النوع من الاحتيال العام الماضي ما يقرب من 2.7 مليار دولار، وفقاً للجنة التجارة الفيدرالية الأميركية.
ويقول الخبراء الماليون إنه للحماية من هذا النوع من عمليات الاحتيال يمكن القيام بجملة من الخطوات والاجراءات مثل تجميد الائتمان الخاص بالشخص، أو الحصول على توكيل رسمي لأحد الوالدين الضعفاء.
ويقول الخبراء إن عمليات الاحتيال الصوتي تلقى رواجاً واسعاً حالياً، حيث إنها الأكثر شيوعاً من بين عمليات الاحتيال التي تم الإبلاغ عنها إلى لجنة التجارة الفيدرالية الأميركية (FTC) في عام 2023، وشهدت الوكالة زيادة في التقارير عن منتحلي الشخصيات التجارية والحكومية.
وتعد وسائل التواصل الاجتماعي أرضاً خصبة لجمع المحتوى الخاص بعمليات الاحتيال هذه.
التزييف العميق
ومع التقدم في الذكاء الاصطناعي، يمكن للمحتال تشغيل بضع ثوانٍ فقط من الصوت مأخوذة من مقطع فيديو منشور على شبكات التواصل، وذلك من أجل إنتاج صوت يقول ما يريد، وفقاً لشركة أمن الكمبيوتر "مكافي".
وقالت كارولين ماكلاناهان، وهي مخططة مالية وطبيبة معتمدة في فلوريدا: "يجب على الجميع أن يعلموا أن التزييف العميق أصبح أكثر شيوعاً وأسهل في القيام به، وهناك صناعات كاملة تتمحور حول الاحتيال على الأشخاص".
وعادةً ما تحاكي عمليات الاحتيال الصوتي التي تعتمد على الذكاء الاصطناعي مكالمات الاستغاثة. حيث يمكن أن يكون شخصاً عالقاً على جانب الطريق بعد تعطل سيارته أو شخصاً يتصل من السجن في بلد أجنبي مدعياً أنه يحتاج إلى أموال الكفالة، والقاسم المشترك بين هذ المكالمات هو أنها تأتي من شخص تهتم به ويحتاج إلى المال بسرعة.
ووجد استطلاع أجرته شركة (McAfee) عام 2023 أن 25% من البالغين تعرضوا لعملية احتيال صوتية مماثلة تعمل بالذكاء الاصطناعي، وتقول الشركة إن 77% من الضحايا فقدوا أموالاً نتيجة لذلك، كما استطلعت الشركة آراء 7054 شخصاً بالغاً في سبع دول، بما في ذلك 1009 في الولايات المتحدة.
وقالت ماكلاناهان: "إنهم يستهدفون كبار السن، لأننا مع تقدمنا في السن، نفقد المرونة المعرفية، مما يعني أننا لا نستطيع اتخاذ القرارات بسرعة، وبالتالي يستغرق الأمر وقتاً أطول منا للتفكير في الأشياء. ولذلك يستخدم هؤلاء المحتالون تقنيات مثل الخوف والإلحاح لمحاولة دفعك إلى التصرف فوراً".
لكن كبار السن ليسوا الوحيدين المعرضين للخطر؛ بحسب ما يؤكد الخبير أندرو سيفرتسن، والذي يقول إن الشباب الذين يقضون وقتاً أطول على الإنترنت معرضون للخطر بشكل متزايد.
وأضاف سيفرتسن: "عندما تفكر في الجيل Z وجيل الألفية من الشباب، أعني أن عدد مرات الظهور التي لديهم عبر الإنترنت باستخدام التكنولوجيا أكبر بشكل كبير من كبار السن، وبالتالي فإنهم يقعون ضحية لعدد أكبر من عمليات الاحتيال".
شارك هذا الخبر
وزير الداخلية: الشكاوى بعددها ليست كثيرة ومعظمها شكاوى إدارية وبعضها بطابع أمني وتلقينا شكاوى عن رشى انتخابية وقد حوّلناها إلى المعنيين وسنواكب عملية الفرز من غرفة العمليات المشتركة
وزير الداخلية: أقفلت صناديق الاقتراع والمراكز التي ما زال الناخبون بداخلها تستمر فيها العملية الانتخابية
بعد يوم حافل... هذا عدد الشكاوى التي سُجّلت خلال العملية الانتخابية
بالصور: قائد الجيش يتفقد غرفة عمليات منطقة جبل لبنان
صناديق الإقتراع تُقفل بعد يوم هادئ نسبيًا
نتنياهو: إسرائيل ستردّ على ضربات الحوثيين بضرب راعيتهم إيران
إشكال وتدافع في مركز اقتراع في صربا
الحجار: العملية الانتخابية سارت اليوم بكلّ حرّية وديمقراطيّة
آخر الأخبار
أهم الأخبار و الفيديوهات في بريدك الالكتروني
إشتراك
Contact us on
news@elsiyasa.com | +96176111721
Copyright 2023 © - Elsiyasa