Close Menu
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دولي
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • منوعات

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

رائج الآن

تقييم جديد للسيارات الصينية.. ماذا تقول الأرقام؟

الجمعة 08 مايو 12:15 م

تحقيقات في رهانات نفطية بـ7 مليارات دولار سبقت قرارات ترمب بدقائق

الجمعة 08 مايو 9:18 ص

عبقرية وليس خطأ.. سر تعمد حارس باريس ركل الكرة خارج الملعب أمام بايرن

الجمعة 08 مايو 9:15 ص
فيسبوك X (Twitter) الانستغرام
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دولي
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • منوعات
الإشتراك
صوت الإماراتصوت الإمارات
الرئيسية»تكنولوجيا»بمعدل نجاح هجوم 100%.. “ديب سيك” يفشل في اختبارات الأمان والسلامة
تكنولوجيا

بمعدل نجاح هجوم 100%.. “ديب سيك” يفشل في اختبارات الأمان والسلامة

فريق التحريربواسطة فريق التحريرالأربعاء 05 فبراير 3:09 ملا توجد تعليقات3 دقائق
فيسبوك تويتر واتساب البريد الإلكتروني بينتيريست تيلقرام لينكدإن Tumblr

كشف اختبار أمني مشترك أجراه فريق بحثي تابع لشركة “سيسكو” بالتعاون مع باحثين من جامعة بنسلفانيا عن فشل ذريع لنموذج “آر 1” من شركة “ديب سيك” الصينية في التصدي للمحتوى الضار، إذ حقق النموذج معدل نجاح هجمات بنسبة 100%، مما يعني أنه فشل في منع أي مطالبات ضارة، بحسب تقرير نشره موقع “إنترستنغ إنجنيرينغ”.

وقد حظي روبوت الدردشة الجديد من “ديب سيك” باهتمام واسع بسبب أدائه المذهل وتكلفته المنخفضة مقارنة بالمنافسين، وبحسب التقارير فإن تكلفة تطوير نموذج “آر 1” بلغت 6 ملايين دولار، في حين تصل تكلفة الاستثمارات في نماذج الشركات الكبرى مثل “أوبن إيه آي” و”ميتا” و”غوغل” إلى مليارات.

وأوضح فريق البحث أن “ديب سيك” دمجت تقنيات عدة في نموذجها، مثل مطالبة سلسلة الأفكار ونمذجة المكافآت وأخيرا تقنية التقطير، وذلك بهدف إنشاء نموذج يتفوق على نماذج اللغة الكبيرة التقليدية في مهام الاستدلال مع الحفاظ على الأداء العالي، ورغم دمج جميع هذه التقنيات فإن تقرير “سيسكو” كشف عن عيوب في النموذج تجعله عرضة للاستخدامات الخبيثة والاحتيالية.

وجاء في التقرير “تشير نتائجنا إلى أن أساليب التدريب الرخيصة والتي تدّعيها “ديب سيك” -بما في ذلك التعلم المعزز ومطالبة سلسلة الأفكار وتقنية التقطير- ربما أدت إلى إضعاف آليات الأمان الخاصة بها”.

الاختبارات التي أجراها فريق البحث

استخدم فريق البحث تقنية كسر حماية الخوارزمية التي تعرف باسم “الخوارزميك جلبريك”، وهي تقنية تُستخدم لتحديد الثغرات في نماذج الذكاء الاصطناعي عن طريق إنشاء مطالبات مصممة لتجاوز بروتوكولات الأمان.

وقد اختبر الفريق نموذج “ديب سيك” ضد 50 مطالبة وفق معيار “هارمبينش”، وهو مجموعة بيانات مرجعية مخصصة لتقييم نماذج اللغة الكبيرة من حيث قدرتها على توليد محتوى ضار.

وذكر الفريق أن معيار “هارمبينش” يحتوي على إجمالي 400 سلوك ضمن 7 فئات ضارة، بما في ذلك الجرائم السيبرانية والمعلومات المضللة والأنشطة غير القانونية والأضرار العامة.

وقد تبين أن تقييم نموذج “ديب سيك” مثير للقلق، لأنه أظهر معدل نجاح الهجوم بنسبة 100%، وهذا يعني أنه في كل مرة تُكتب له مطالبة ضارة فإنه يفشل في التعرف على مخاطرها ويقدم إجابات متجاوزا جميع إجراءات الأمان الداخلية الخاصة به، على خلاف النماذج الرائدة الأخرى، والتي أظهرت مقاومة جزئية على الأقل، بحسب الفريق.

بالمقابل، اختبر فريق البحث نماذج ذكاء اصطناعي رائدة لمعرفة مدى ضعفها أمام “الخوارزميك جلبريك”، وكانت النتائج أن معدل نجاح الهجوم في نموذج “لاما 3.1-405 بي” كان 96%، و”جي بي تي 4 أو” بنسبة 86%، و”جيميناي 1.5 برو” 64%، و”كلود 3.5″ 36%، وفي النهاية نموذج “أو 1” بنسبة 26%.

ورغم أن هذه النماذج ليست محصنة ضد الاختراق فإنها تمتلك نوعا من الحماية الداخلية لمنع استغلالها في إنشاء محتوى ضار، ويبدو أن نموذج “ديب سيك” يفتقر إلى هذه الحماية.

وتشير تحليلات الفريق البحثي إلى وجود تناقض بين الكفاءة والسلامة في نهج “ديب سيك”، فبينما نجحت الشركة في تطوير نموذج عالي الأداء بتكلفة أقل بكثير من المعتاد لكن يبدو أنها فعلت ذلك على حساب آليات السلامة القوية.

يذكر أن نموذج الذكاء الاصطناعي الصيني واجه جدلا كبيرا منذ إطلاقه، إذ تدّعي شركة الأبحاث المستقلة “سيمي أنلايزس” أن تكلفة تدريب هذا النموذج قد تصل إلى 1.3 مليار دولار، وهو ما يتناقض بشدة مع تقدير الشركة الذي لا يتجاوز 6 ملايين دولار.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

اخبار التقنية السبت 25 أبريل 9:44 م

شركة CNTXT AI تطلق نموذج “مُنصِت” الإماراتي لتحويل النص إلى كلام، أدق نموذج صوتي إماراتي أصيل، واضعةً معياراً جديداً لدقة وتطوّر تقنيات النطق باللغة العربية

اخبار التقنية السبت 25 أبريل 9:44 م

OpenAI تغلق Sora.. وماسك يستعد لإطلاق Grok Imagine

تكنولوجيا الجمعة 03 أبريل 11:15 ص

تسريبات تكشف تصميم هاتف سامسونج Galaxy Z Fold Wide

تكنولوجيا الجمعة 03 أبريل 6:14 ص

حكم قضائي يمنع إدارة ترمب من معاقبة شركة “أنثروبيك”

تكنولوجيا الجمعة 03 أبريل 1:12 ص

استثمارات ضخمة وعوائد غير مؤكدة.. أين يتجه الذكاء الاصطناعي؟

تكنولوجيا الخميس 02 أبريل 8:11 م

سامسونج تعترف بتراجع جودة شاشة Galaxy S26 Ultra

تكنولوجيا الخميس 02 أبريل 3:11 م

شركة CNTXT AI تطلق “منصّت” Munsit، أدق منصة ذكاء اصطناعي صوتي باللغة العربية في العالم، مع تسارع الطلب على خدمات الذكاء الاصطناعي في دولة الإمارات

اخبار التقنية الخميس 02 أبريل 3:00 م

100 مليون دولار عوائد سنوية متوقعة من الإعلانات داخل ChatGPT

تكنولوجيا الخميس 02 أبريل 10:09 ص
اترك تعليقاً
اترك تعليقاً إلغاء الرد

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

اخر الاخبار

تقييم جديد للسيارات الصينية.. ماذا تقول الأرقام؟

الجمعة 08 مايو 12:15 م

تحقيقات في رهانات نفطية بـ7 مليارات دولار سبقت قرارات ترمب بدقائق

الجمعة 08 مايو 9:18 ص

عبقرية وليس خطأ.. سر تعمد حارس باريس ركل الكرة خارج الملعب أمام بايرن

الجمعة 08 مايو 9:15 ص

فورين أفيرز: تبعات حرب إيران ستتجاوز أزمة النفط في السبعينيات

الجمعة 08 مايو 9:11 ص

وجبة يعشقها أطفالك.. لكن ماذا يوجد فعلا داخل شرائح اللانشون؟

الجمعة 08 مايو 7:14 ص

صحيفة العرب تربيون هي صحيفة يومية عربية تهتم بآخر اخبار المملكة العربية السعودية والخليج العربي والشرق الأوسط والعالم. تابع معنا اخر اخبار الاقتصاد والرياضة والسياسة واهم القضايا التي تهم المواطن العربي.

فيسبوك X (Twitter) الانستغرام يوتيوب
اهم الأقسام
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • دولي
  • رياضة
  • صحة وجمال
  • منوعات
روابط هامة
  • اخر الاخبار
  • فيديو
  • عاجل الآن
  • الشروط والأحكام
  • عن الشركة
  • تواصل معنا
  • النشرة البريدية

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

2026 © صوت الإمارات. جميع حقوق النشر محفوظة.
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter