Close Menu
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دولي
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • منوعات

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

رائج الآن

مصر.. انكماش القطاع الخاص بأسرع وتيرة منذ يناير/كانون الثاني 2023

الخميس 07 مايو 6:16 م

“إهانة لروما”.. ساري ينتقد المعاملة التفضيلية لقطبي ميلان

الخميس 07 مايو 6:13 م

روايتان متناقضتان.. تفاصيل أول مواجهة بحرية بين أمريكا وإيران بهرمز منذ بدء الحرب

الخميس 07 مايو 6:08 م
فيسبوك X (Twitter) الانستغرام
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دولي
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • منوعات
الإشتراك
صوت الإماراتصوت الإمارات
الرئيسية»تكنولوجيا»“ذبح الخنازير”.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟
تكنولوجيا

“ذبح الخنازير”.. كيف يحوّل الذكاء الاصطناعي الاحتيال المالي إلى كارثة عالمية؟

فريق التحريربواسطة فريق التحريرالخميس 06 مارس 8:43 صلا توجد تعليقات4 دقائق
فيسبوك تويتر واتساب البريد الإلكتروني بينتيريست تيلقرام لينكدإن Tumblr

رغم أن العالم يشهد تقدما تقنيا مذهلا في ظل الذكاء الاصطناعي، فإن هذه الثورة تأتي بجانبها المظلم الذي يهدد سلامة الأنظمة المالية والشخصية. فما بين الفوائد الكبيرة التي يقدمها هذا الذكاء، وبين مخاطر الاحتيال المتزايدة، تزداد الحاجة إلى التأهب لمستقبل أكثر تعقيدا.

لقد شهدنا عام 2024 لمحات عن قدرات الذكاء الاصطناعي في التزييف العميق، واستنساخ الصوت، وعمليات الاحتيال، لكنها كانت مجرد عجلات تدريب للمحتالين أثناء اختبارهم للأوضاع.

ومع دخولنا عام 2025، المليء بالتطورات التقنية المثيرة، يظهر الذكاء الاصطناعي كسلاح ذي حدّين. ففي حين يعزز من قدراتنا، يضعنا أمام خطر داهم قد يجعل من هذا العام نقطة تحول، حيث تصبح العمليات الاحتيالية المدعومة بالذكاء الاصطناعي قوة مهيمنة تهدد الأنظمة المالية والبنوك العالمية، إضافة إلى سمعة البشر ومصداقية الأحداث ومن أبرز هذه العمليات الجديدة عمليات “ذبح الخنازير” (pig butchering scams).

تهديدات مالية غير مسبوقة.. الذكاء الاصطناعي يعيد تعريف الاحتيال

وفقا لتقرير مركز “ديلويت للخدمات المالية” (Deloitte Center for Financial Services)، من المتوقع أن يسهم الذكاء الاصطناعي التوليدي في تحقيق خسائر قد تصل إلى 40 مليار دولار بحلول عام 2027، بزيادة ملحوظة عن 12.3 مليار دولار في عام 2023، وهو ما يمثل معدل نمو سنوي مركب يبلغ 32%.

وقد جذب هذا الارتفاع الملحوظ في الخسائر انتباه مكتب التحقيقات الفدرالي، الذي حذر في وقت سابق من ديسمبر/كانون الأول من العام الماضي من أن المجرمين يستغلون الذكاء الاصطناعي لتنفيذ عمليات احتيال على نطاق أوسع، بهدف تعزيز مصداقية مخططاتهم.

الاحتيال كخدمة.. كيف انتقلت الجرائم الإلكترونية إلى مستوى جديد؟

في عالم الاحتيال المدعوم بالذكاء الاصطناعي، ظهرت شركة “هاوتيان إيه آي” (Haotian AI) التي تقدم برامج تغيير الوجه عبر “تليغرام”، في إعلان يظهر أن فريقهم جادّ في عمله، حيث صرحوا علنا: “لدينا فريق بحث وتطوير مكون من مئات المبرمجين وعشرات الخوادم لخدمتكم”.

حيث يروج الإعلان لبرامج تغيير الوجه العميقة التي يصعب تمييزها بالعين المجردة، والمصممة خصيصا للمكالمات الخارجية، وهو ما يتناسب تماما مع المحتالين الذين يرغبون في جعل عمليات الاحتيال الرومانسية أكثر مصداقية.

ومع ازدهار هذه التكنولوجيا، شهدت القنوات المخصصة للجريمة الإلكترونية باستخدام الذكاء الاصطناعي والتزييف العميق على “تليغرام” نموا ملحوظا في المحادثات، وهو ما يعكس انتشار هذه الظاهرة.

ووفقا لتحليل أجرته شركة “بوينت برودكتيف” (Point Predictive) في عام 2023، كان هناك حوالي 47 ألف رسالة في تلك القنوات، بينما تجاوز عدد الرسائل عام 2024 أكثر من 350 ألف رسالة، مسجلا زيادة بنسبة 644%.

عمليات “ذبح الخنازير”.. الذكاء الاصطناعي يدخل عالم الاحتيال الجماعي

تخيل جدارا من الهواتف المحمولة، يدير آلاف المحادثات الوهمية لخداع ضحايا من جميع أنحاء العالم في كل دقيقة.

إنه ليس مشهدا من فيلم خيال علمي، بل واقع تكشفه مقاطع الفيديو المتداولة على وسائل التواصل الاجتماعي ومنصات مثل “تليغرام”. بل إنها تقنية جديدة تستخدم لتوسيع نطاق عمليات الاحتيال بشكل غير مسبوق.

أحد الأمثلة البارزة هو برنامج ذكي يعرف باسم “معجبو إنستغرام التلقائيون” (Instagram Automatic Fans)، الذي يرسل آلاف الرسائل في الدقيقة لإيقاع المستخدمين في مصيدة عمليات احتيال “ذبح الخنازير” (pig butchering scams).

حيث تبدأ الرسائل عادة بجمل بسيطة مثل “صديقي أوصاني بك. كيف حالك؟”، ويتم إرسالها بشكل متكرر لإغراء الضحية.

ومع دخول عام 2025، يتوقع الخبراء أن تستفيد العصابات الإجرامية المتورطة في عمليات “ذبح الخنازير” من تقنية التزييف العميق المدعومة بالذكاء الاصطناعي في مكالمات الفيديو، واستنساخ الصوت، والدردشة الآلية لتوسيع نطاق عملياتها.

لكن ما عمليات احتيال “ذبح الخنازير”؟

وفقا لـ”مكتب المفتش العام” (Office Of Inspector General – OIG) -وهو هيئة مستقلة تشكل داخل الوكالات الحكومية في الولايات المتحدة، مسؤولة عن مراقبة نزاهة وكفاءة العمليات داخل هذه الوكالات- فإن عمليات “ذبح الخنازير” هي نوع من الاحتيال يتعلق بالثقة والاستثمار.

حيث يتم استدراج الضحية تدريجيا لتقديم مساهمات مالية متزايدة، عادة في شكل عملات مشفرة، لصالح استثمار يبدو موثوقا، قبل أن يختفي المحتال بالأموال التي تم تقديمها.

كيف يستهدفك هذا النوع من الاحتيال كمستهلك؟

  • قد يتواصل المحتالون معك عشوائيا عبر الرسائل النصية، أو تطبيقات المواعدة، أو منصات التواصل الاجتماعي، ثم يتحولون لاحقا إلى استخدام تطبيقات الدردشة عبر الإنترنت “في أو آي بي” (VOIP).
  • يحاولون بناء علاقات ذات مغزى معك لكسب ثقتك، ثم يعرضون عليك فرصا استثمارية ذات عوائد عالية في أصول افتراضية مثل العملات المشفرة.
  • يطلبون منك فتح حسابات على مواقع استثمار عبر الإنترنت، ويوجهونَك لتحويل الأموال عبر الحوالات المصرفية إلى شركات وهمية، أو عن طريق التحويل المباشر إلى مقدمي خدمات الأصول الافتراضية “في إيه إس بي إس” (VASPs) الشرعيين أو منصات تداول العملات المشفرة.
  • يمارسون ضغوطا عليك للاستثمار بمبالغ أكبر، مهددين بأن العلاقة معهم ستنتهي إذا لم تقم بذلك.
  • إذا نجح الاحتيال، من المحتمل أن يتم خداعك، وسينتهي الأمر بفقدان أموالك.
  • عندما تحاول سحب أموالك، قد تطالبك المواقع بدفع رسوم إضافية لإتمام السحب، أو قد يتم حظر حسابك بالكامل من دون أي استجابة من المحتالين. وفي النهاية، يختفي المحتالون ومعهم جميع أموالك.
شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

اخبار التقنية السبت 25 أبريل 9:44 م

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

اخبار التقنية السبت 25 أبريل 9:44 م

OpenAI تغلق Sora.. وماسك يستعد لإطلاق Grok Imagine

تكنولوجيا الجمعة 03 أبريل 11:15 ص

تسريبات تكشف تصميم هاتف سامسونج Galaxy Z Fold Wide

تكنولوجيا الجمعة 03 أبريل 6:14 ص

حكم قضائي يمنع إدارة ترمب من معاقبة شركة “أنثروبيك”

تكنولوجيا الجمعة 03 أبريل 1:12 ص

استثمارات ضخمة وعوائد غير مؤكدة.. أين يتجه الذكاء الاصطناعي؟

تكنولوجيا الخميس 02 أبريل 8:11 م

سامسونج تعترف بتراجع جودة شاشة Galaxy S26 Ultra

تكنولوجيا الخميس 02 أبريل 3:11 م

شركة CNTXT AI تطلق “منصّت” Munsit، أدق منصة ذكاء اصطناعي صوتي باللغة العربية في العالم، مع تسارع الطلب على خدمات الذكاء الاصطناعي في دولة الإمارات

اخبار التقنية الخميس 02 أبريل 3:00 م

100 مليون دولار عوائد سنوية متوقعة من الإعلانات داخل ChatGPT

تكنولوجيا الخميس 02 أبريل 10:09 ص
اترك تعليقاً
اترك تعليقاً إلغاء الرد

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

اخر الاخبار

مصر.. انكماش القطاع الخاص بأسرع وتيرة منذ يناير/كانون الثاني 2023

الخميس 07 مايو 6:16 م

“إهانة لروما”.. ساري ينتقد المعاملة التفضيلية لقطبي ميلان

الخميس 07 مايو 6:13 م

روايتان متناقضتان.. تفاصيل أول مواجهة بحرية بين أمريكا وإيران بهرمز منذ بدء الحرب

الخميس 07 مايو 6:08 م

كيف يُدمر النظام الرأسمالي صحتنا النفسية؟

الخميس 07 مايو 4:11 م

أول شحنة نفط روسي تصل إلى اليابان منذ إغلاق مضيق هرمز

الخميس 07 مايو 1:15 م

صحيفة العرب تربيون هي صحيفة يومية عربية تهتم بآخر اخبار المملكة العربية السعودية والخليج العربي والشرق الأوسط والعالم. تابع معنا اخر اخبار الاقتصاد والرياضة والسياسة واهم القضايا التي تهم المواطن العربي.

فيسبوك X (Twitter) الانستغرام يوتيوب
اهم الأقسام
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • دولي
  • رياضة
  • صحة وجمال
  • منوعات
روابط هامة
  • اخر الاخبار
  • فيديو
  • عاجل الآن
  • الشروط والأحكام
  • عن الشركة
  • تواصل معنا
  • النشرة البريدية

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

2026 © صوت الإمارات. جميع حقوق النشر محفوظة.
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter