Close Menu
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دوليات
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • لايف ستايل

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

رائج الآن

بزشكيان يدعو الإيرانيين لـ”تضميد الجرح”.. والنظر للأمام

الخميس 12 فبراير 10:27 ص

أميركا تدرس إلغاء جوازات السفر لهؤلاء الأشخاص

الخميس 12 فبراير 8:25 ص

تركيا: مرونة أميركية وإيرانية لإبرام اتفاق نووي

الخميس 12 فبراير 7:24 ص
فيسبوك X (Twitter) الانستغرام
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دوليات
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • لايف ستايل
الإشتراك
صوت الإماراتصوت الإمارات
الرئيسية»تكنولوجيا»لماذا أصبحت هلوسات الذكاء الاصطناعي أكثر خطورة؟
تكنولوجيا

لماذا أصبحت هلوسات الذكاء الاصطناعي أكثر خطورة؟

فريق التحريربواسطة فريق التحريرالجمعة 18 يوليو 3:44 ملا توجد تعليقات5 دقائق
فيسبوك تويتر واتساب البريد الإلكتروني بينتيريست تيلقرام لينكدإن Tumblr

لازمت الهلوسات في بعض الأحيان أحاديث روبوتات الذكاء الاصطناعي منذ ظهورها للمرة الأولى، وذلك تحت العديد من المسميات المختلفة بدءا من إعطاء إجابات غير مفهومة ومكتوبة بلغات غريبة حتى إعطاء إجابات خاطئة وغير منطقية ومحاولة الدفاع عنها وإقناع المستخدم بأنها حقيقية.

ولكن هلوسات “غروك 4.0″ روبوت الذكاء الاصطناعي لشركة إيلون ماسك “إكس إيه آي” (xAI) سلطت الضوء على خطورة هذه الهلوسات بشكل أكبر من السابق، لتكون بذلك آخر حوادث هلوسة الذكاء الاصطناعي.

ورغم أن ماسك أعلن مرارا وتكرارا أن “غروك” هو أقوى روبوت ذكاء اصطناعي وأذكى حتى من البشر، إلا أن هذا لم يقيه من بدء موجة من الهلوسات التي تضمنت خطاب كراهية وتغريدات معادية للسامية كانت كافية لإيقاف خدماته بشكل كامل لعدة أيام حتى تم إصلاح العطل الموجود فيه، ولكن لماذا تحدث مثل هذه الهلوسات؟ وهل هي حكر على “غروك” فقط أم توجد في بقية النماذج أيضا؟

انتشار هلوسات الذكاء الاصطناعي

في أبريل/نيسان الماضي، خرج روبوت الذكاء الاصطناعي المساعد في منصة البرمجة باستخدام الذكاء الاصطناعي “كورسر” (Cursor) لينبه مستخدمي المنصة بوجود تغيير في سياسة الشركة مشيرا إلى أن المنصة لم تعد تعمل على أكثر من حاسوب، وقد تسببت هذه المعلومة في أزمة كبيرة بين الأداة التي أصبحت رائجة بين المبرمجين من مختلف الفئات حول العالم.

ولكن هذه الأزمة لم تكن أخطر ما في الأمر، إذ إن روبوت الدردشة الذكي والمساعد لخدمات منصة البرمجة اخترع هذه السياسة من دون وجود أي مصدر لها أو حتى وجود نية لدى الشركة للقيام بذلك، وتطلب الأمر خروج المدير التنفيذي للمنصة وأحد مؤسسيها في اعتذار رسمي عبر منصة “ريديت” قائلا إن هذا هو خطأ مباشر من روبوت الذكاء الاصطناعي.

ورغم أن هذا الخطأ الذي وقع فيه الروبوت تسبب في خسائر كبيرة للشركة وكاد يقضي عليها تماما، إلا أنه لم يكن الخطأ الأخطر لروبوتات الذكاء الاصطناعي، وحتى هلوسات “غروك 4.0” لم تكن الأخطر.

إذ يمتلئ تاريخ نماذج الذكاء الاصطناعي وردودها بعدد من الهلوسات الخطيرة التي كادت تودي بحياة المستخدمين، ومن بينهم هلوسة نموذج الذكاء الاصطناعي في محرك بحث “غوغل” موضحا إمكانية إضافة الصمغ إلى مكونات البيتزا.

كما قام الروبوت نفسه باختراع مثل في محاولة منه ليبدو حكيما، ولكنه كان مثلا خاطئا تماما، إذ قال “لا يمكنك لعق الغرير مرتين”، وذلك في تقرير نشرته “نيويورك تايمز” آنذاك.

ولا يجب إهمال الحالات التي اتهم فيها الذكاء الاصطناعي بتشجيع الانتحار لدى المراهقين، سواء كان عبر روبوت دردشة “غوغل” أو “كاراكتر إيه آي” (Character AI)، إذ طلب النموذج في إحدى الحالات من المستخدم الموت لأنه ليس مميزا على الإطلاق، وذلك وفق تقرير نشره موقع “سي بي إس نيوز”.

كما أن هذه الأخطاء لا تقتصر على نماذج الذكاء الاصطناعي المعتادة، بل تمتد أيضا إلى نماذج الذكاء الاصطناعي التي تعتمد على تقنيات التفكير العميق مثل “ديب سيك” و”أوه 1″ من “أوبن إيه آي”، وربما يزيد معدل حدوثها في هذه النماذج عن غيرها وفق تقرير نشرته “نيويورك تايمز” سابقا.

لماذا تحدث هذه الهلوسات؟

نشرت “نيويورك تايمز” سابقا تقريرا عن هلوسات الذكاء الاصطناعي في محاولة منها لمعرفة أسباب حدوث هذه الظاهرة، وتحدثت فيه مع مجموعة من خبراء الذكاء الاصطناعي ومن بينهم عمرو عوض الله المدير التنفيذي لشركة “فيكتارا” (Vectra) الناشئة لتطوير أدوات الذكاء الاصطناعي للشركات والعضو التنفيذي السابق في “غوغل”.

ويرى عمرو أن حدوث هذه الهلوسات لن يزول أبدا وسيظل يحدث باستمرار، وذلك لأن هذه النماذج تعتمد على معادلات رياضية لقياس مدى صحة الاحتمالات بدلا من مجموعة من القواعد الثابتة الموضوعة من قبل مهندسين بشر.

ويضيف تقرير “نيويورك تايمز” أن أدوات الذكاء الاصطناعي تعتمد بشكل مباشر على معادلات رياضية لتحليل حجم مهول من البيانات المتاحة عبر الإنترنت، ولا يمكنها تحديد المعلومات الصحيحة من المعلومات الخاطئة، لذلك في بعض الأحيان تخرج هذه الهلوسات.

وأشار التقرير إلى أن مثل هذه الهلوسات تظهر بوضوح مع روبوتات محركات البحث سواء كانت “غوغل” أو “بينغ” فهي أحيانا تولد نتائج خاطئة تماما ومختلفة عن طلب المستخدم، وقد تربط بين مصدر ومعلومة غير موجودة به.

The Grok X AI app displays on a mobile phone with the Grok X AI logo, as seen in this photo illustration in Brussels, Belgium, on February 16, 2025. (Photo by Jonathan Raa/NurPhoto via Getty Images)

كما يعود السبب في هذه الهلوسات لتدريب نماذج الذكاء الاصطناعي على حجم مهول من البيانات المتاحة عبر الإنترنت خاصة مفتوحة المصدر وغير المحمية بحقوق الملكية، فرغم أن الإنترنت يضم العديد من البيانات الصحيحة الواردة من الصحف والمراكز البحثية المعتمدة، إلا أن هذه المصادر عادة ما تطارد شركات الذكاء الاصطناعي قانونيا وتمنعها من استخدام بياناتها دون الحصول على التراخيص اللازمة.

ودفع هذا شركات الذكاء الاصطناعي للاعتماد على كافة البيانات المتاحة في منصات التواصل الاجتماعي أو حتى المواقع غير المعروفة، وبالتالي قد يتم تغذية نموذج الذكاء الاصطناعي ببيانات تدعم الاستنتاج الخاص به ليصبح ما يقوله حقيقة بالنسبة له وليس هلوسة.

كما أن بعض الشركات بدأت تتجه لاستخدام آلية تدعى التعلم التعزيزي، أي أن النموذج يتعلم عبر التجربة والخطأ، وبينما تعمل هذه الآلية بشكل واضح وجيد مع الأسئلة الحسابية والأكواد البرمجية، إلا أن معدل نجاحها ينخفض في الجوانب الأخرى.

وفي تقرير نشرته “سي إن إن” حول هلوسات روبوت “غروك” الأخيرة، أكدت أن النموذج اعتمد على مصادر غير دقيقة في تدريبه وهي مصادر كانت تقدم له معلومات معادية للسامية مثل موقع “4 تشان” (4Chan) والمواقع المماثلة، وذلك حسب ما نقله التقرير عن مارك ريدل، أستاذ الحوسبة في معهد جورجيا للتكنولوجيا، ولكن في هذه الحالة قد لا تصح تسميتها “هلوسات” فهي أقرب إلى إعادة نشر معلومات تغذى عليها.

مخاطر هلوسات الذكاء الاصطناعي

ويؤكد تقرير “نيويورك تايمز” على مخاطر هلوسات الذكاء الاصطناعي، مشيرا إلى أن هذه الأزمة يمكن أن تسبب في مشاكل جمّة خاصة في المجالات التي لا تحتمل مثل هذا الخطأ.

وربما كان ما حدث مع منصة “كورسر” مثالا حيا على هذا الأمر فضلا عن الأخطاء التي قد تحدث عند اعتماد غير الخبراء على المعلومات الصحية أو التاريخية الواردة من الذكاء الاصطناعي.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

طحنون بن زايد يبحث مع رئيسة شركة “ميتا” فرص التعاون

تكنولوجيا الخميس 12 فبراير 3:19 ص

الإمارات ترسخ مكانتها كأحد أبرز قادة الذكاء الاصطناعي عالميا

تكنولوجيا الخميس 12 فبراير 2:18 ص

الإمارات تطلق شراكة عالمية مع ستارلينك لإتاحة التعليم الرقمي

تكنولوجيا الثلاثاء 10 فبراير 4:45 م

تحذير علمي من “أسلوب شائع” للاستغراق في نوم عميق

تكنولوجيا الثلاثاء 10 فبراير 7:36 ص

إيلون ماسك يعلن خطة لبناء “مدينتين” على القمر والمريخ

تكنولوجيا الإثنين 09 فبراير 4:09 ص

دراسة.. هكذا يرتبط تنويع التمارين الرياضية بتقليل خطر الوفاة

تكنولوجيا الإثنين 09 فبراير 3:08 ص

طبيا وقانونيا ودينيا.. ما موقف “التبرع بالجلد” في مصر؟

تكنولوجيا الأحد 08 فبراير 1:55 م

فاراداي فيوتشر تطلق سلسلة منتجاتها من الروبوتات في لاس فيغاس خلال معرض NADA السنوي، وتستهدف أن تصبح أول شركة أمريكية تقوم بتسليم روبوتات بشرية ورباعية الأرجل في الوقت نفسه

تكنولوجيا السبت 07 فبراير 7:30 م

الذكاء الاصطناعي يفك لغز آثار أقدام الديناصورات

تكنولوجيا السبت 07 فبراير 5:22 ص
اترك تعليقاً
اترك تعليقاً إلغاء الرد

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

اخر الاخبار

بزشكيان يدعو الإيرانيين لـ”تضميد الجرح”.. والنظر للأمام

الخميس 12 فبراير 10:27 ص

أميركا تدرس إلغاء جوازات السفر لهؤلاء الأشخاص

الخميس 12 فبراير 8:25 ص

تركيا: مرونة أميركية وإيرانية لإبرام اتفاق نووي

الخميس 12 فبراير 7:24 ص

رئيس الأركان الإسرائيلي: نموذج "الجيش الصغير" لم يعد كافيا

الخميس 12 فبراير 6:23 ص

طحنون بن زايد يبحث مع رئيسة شركة “ميتا” فرص التعاون

الخميس 12 فبراير 3:19 ص

صحيفة العرب تربيون هي صحيفة يومية عربية تهتم بآخر اخبار المملكة العربية السعودية والخليج العربي والشرق الأوسط والعالم. تابع معنا اخر اخبار الاقتصاد والرياضة والسياسة واهم القضايا التي تهم المواطن العربي.

فيسبوك X (Twitter) الانستغرام يوتيوب
اهم الأقسام
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • دوليات
  • رياضة
  • صحة وجمال
  • لايف ستايل
روابط هامة
  • اخر الاخبار
  • فيديو
  • عاجل الآن
  • الشروط والأحكام
  • عن الشركة
  • تواصل معنا
  • النشرة البريدية

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

2026 © صوت الإمارات. جميع حقوق النشر محفوظة.
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter