كشفت شركة OpenAI، الشركة الرائدة في مجال الذكاء الاصطناعي، عن اتخاذها إجراءات صارمة بحظر حسابات مرتبطة بالصين، وذلك في تقرير مفصل حول إساءة استخدام تقنية ChatGPT. شملت هذه الحسابات أنشطة احتيالية على مواقع المواعدة وعمليات تأثير خبيثة، كان أبرزها حملة تشويه استهدفت أول رئيسة وزراء لليابان، مما يسلط الضوء على التحديات الأمنية المتزايدة المرتبطة بالذكاء الاصطناعي.

وأوضحت OpenAI أن هذه الحسابات، التي يُعتقد أن أصل جزء منها يعود إلى الصين، استخدمت روبوت الدردشة ChatGPT بالاشتراك مع أدوات أخرى، بما في ذلك منصات التواصل الاجتماعي، لارتكاب جرائم إلكترونية. تمثلت هذه الأنشطة في انتحال صفات مختلفة، مثل وكالات المواعدة، ومكاتب المحاماة، ومسؤولين أميركيين، وهويات أخرى لتنفيذ مخططاتهم.

عمليات احتيال وتأثير باستخدام ChatGPT

تضمنت تفاصيل المخططات التي أوردتها OpenAI أن مجموعة من الحسابات، يُرجح أنها نشأت في الصين، استغلت نماذج OpenAI لجمع معلومات حول أفراد أميركيين، ومنتديات عبر الإنترنت، ومواقع مبانٍ فيدرالية. كما طلبت هذه الحسابات إرشادات حول تقنيات تبديل الوجوه، مما يثير مخاوف بشأن استخدام الذكاء الاصطناعي في عمليات التضليل.

لم تتوقف أنشطة هذه الحسابات عند هذا الحد، بل قامت بإرسال رسائل بريد إلكتروني باللغة الإنجليزية إلى مسؤولين أميركيين على مستوى الولايات والمحللين السياسيين العاملين في القطاعين التجاري والمالي. وقد تضمنت هذه الرسائل دعوات للمشاركة في استشارات مدفوعة الأجر، ما يشير إلى محاولة للتأثير على صناع القرار أو استغلالهم.

وذكرت OpenAI بوضوح حظر حساب على ChatGPT مرتبط بشخص له علاقات بالسلطات الصينية. وقد شملت أنشطة هذا الحساب تنظيم عملية تأثير سرية تهدف إلى تشويه سمعة رئيسة الوزراء اليابانية، ساناي تاكايتشي. يسلط هذا الاكتشاف الضوء على قدرة الأدوات المتقدمة على استهداف شخصيات رفيعة المستوى وإحداث تأثيرات سياسية.

وفي سياق آخر، كشفت OpenAI عن قيام مجموعة من الحسابات باستخدام روبوت الدردشة لتنفيذ عملية احتيال واسعة النطاق في مجال المواعدة، استهدفت رجالًا في إندونيسيا. تشير التقديرات إلى أن هذه العملية الاحتيالية قد تكون قد أوقعت مئات الضحايا شهريًا.

وأوضحت الشركة أن هذه العملية الاحتيالية استغلت التطبيق لإنشاء نصوص ترويجية وإعلانات لخدمة مواعدة وهمية، بهدف جذب المستخدمين للانضمام إلى المنصة. بعد ذلك، تعرض المستهدفون لضغوط لإكمال مهام متعددة تتطلب دفع مبالغ مالية كبيرة، مما يمثل استغلالاً مباشرًا للثقة.

علاوة على ذلك، استخدمت عدة حسابات نماذج OpenAI للتظاهر بأنها شركات محاماة، منتحلة صفات محامين حقيقيين. هذا الاستخدام المضلل قد يؤدي إلى تضليل العملاء المحتملين والإضرار بسمعة المهنة القانونية، ويثير تساؤلات حول آليات التحقق من الهوية عند استخدام هذه التقنيات.

مستقبل مكافحة إساءة استخدام الذكاء الاصطناعي

تمثل هذه الإجراءات من قبل OpenAI خطوة مهمة نحو تعزيز أمن نماذج الذكاء الاصطناعي ومنع استغلالها في أنشطة غير قانونية. ومن المتوقع أن تستمر الشركة في مراقبة استخدام أدواتها وتحديث سياساتها لمواجهة التحديات الناشئة. يبقى التحدي الرئيسي هو كيفية تحقيق التوازن بين تمكين الابتكار ومنع إساءة الاستخدام، خاصة مع التطور السريع لتقنيات الذكاء الاصطناعي.

شاركها.
اترك تعليقاً

Exit mobile version