Close Menu
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دوليات
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • لايف ستايل

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

رائج الآن

علماء ينجحون في بناء “قنبلة الثقب الأسود” في المختبر

الجمعة 13 يونيو 7:41 ص

ترامب: سندافع عن إسرائيل.. وإيران تستعد للرد

الجمعة 13 يونيو 7:22 ص

“النهضة” التونسية: لسنا فوق المساءلة واستبعادنا لن يعيد الديمقراطية

الجمعة 13 يونيو 7:11 ص
فيسبوك X (Twitter) الانستغرام
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا
فيسبوك X (Twitter) الانستغرام
صوت الإماراتصوت الإمارات
  • الرئيسية
  • الأخبار
  • دوليات
  • اقتصاد
  • تكنولوجيا
  • رياضة
  • صحة
  • ثقافة وفن
  • لايف ستايل
الإشتراك
صوت الإماراتصوت الإمارات
الرئيسية»تكنولوجيا»بعد عام من تحقيق الجزيرة.. دعوى في النمسا ضد شات جي بي تي “العاجز عن تصحيح” أخطائه
تكنولوجيا

بعد عام من تحقيق الجزيرة.. دعوى في النمسا ضد شات جي بي تي “العاجز عن تصحيح” أخطائه

فريق التحريربواسطة فريق التحريرالإثنين 29 أبريل 2:42 ملا توجد تعليقات3 دقائق
فيسبوك تويتر واتساب البريد الإلكتروني بينتيريست تيلقرام لينكدإن Tumblr

أعلنت جمعية “نويب” النمساوية التي تدافع عن حماية الخصوصية، اليوم الاثنين، أنها رفعت دعوى في النمسا ضد برنامج الذكاء الاصطناعي الشهير “شات جي بي تي”، بحسب ما أوردته وكالة الأنباء الفرنسية.

وأكدت الجمعية التي يتألف اسمها من الحروف الأولى لكلمات “نَن أوف يور بيزنس” أي “ليس من شأنك” بالإنجليزية، أنّ هذه الأداة “تختلق الأجوبة”.

فعلى سبيل المثال، طُرح على “شات جي بي تي” سؤال عن تاريخ ميلاد مؤسس الجمعية ماكس شريمه، فعرض البرنامج “معلومات مضللة” بدل الإفادة بأنه لا يعرف هذه الإجابة.

ونقل البيان عن المحامية مارتييه دي غراف قولها “إذا لم يتمكّن برنامج ما من عرض نتائج صحيحة وشفافة، فلا يمكن استخدامه لتوليد بيانات عن الأفراد”، مضيفة “على التكنولوجيا أن تمتثل للقانون لا العكس”.

وأكدت “نويب” أنّ أداء البرنامج هو “ببساطة غير مقبول”، مذكّرةً بأنّ القانون الأوروبي لحماية البيانات (GDPR) يشترط توافر الدقة في الأدوات التكنولوجية.

وبما أنّ شركة “أوبن إيه آي” “رفضت طلب الجهة المدعية تصحيح الخطأ أو محوَه”، مؤكدة أن ذلك مستحيل، اتضّح أنّ نسيان الذكاء الاصطناعي ما تعلّمه يمثل في الواقع مشكلة أساسية.

ولم تستجب الشركة لطلب “نويب” الحصول على البيانات المتعلقة بها ومصادر المعلومات، مما يشكل هنا أيضا انتهاكا للقانون.

وفي الدعوى، طلبت “نويب” من هيئة حماية البيانات النمساوية فتح تحقيق وفرض غرامة على شركة “أوبن إيه آي”.

الجزيرة الضحية الأولى

قبل أكثر من عام قام فريق صفحة تكنولوجيا في موقع الجزيرة بعمل تحقيق حول اختلاق “شات جي بي تي” روابط مزيفة ادعى البرنامج أنه استخدمها كمصادر لتوليد مقال خاص.

وذكر التقرير حينها أن برنامج الذكاء الاصطناعي لم يكتفِ بتوليد روابط مزيفة بل أنكر أن هذه الروابط كانت مختلقة وأنها ليست روابط حقيقية.

قام الموقع بالتواصل مع موقع “أوبن إيه آي” حول هذه الحادثة، ولكن لم تتلق الجزيرة ردا على أسئلتها التي شملت:

– ما المصادر التي اعتمد عليها “شات جي بي تي” في كتابة المقال، ومن يقوم بمراجعة هذه المصادر، وكيف يتم التحقق من صحتها؟

  • ما الآلية المتبعة في إظهار المصادر؟ وكيف استطاع الروبوت توليد مصادر مزيفة؟

تقنيا هذا يخضع لخوارزمية معينة؛ فهو يتعامل مع المصدر على أنه معلومة متغيرة يمكنه توليدها والتلاعب بها بناء على تعليمات معينة، وليس بوصفه ثابتا، عليه فقط أن يقوم بتدقيقه والتحقق منه.

  • كيف يقوم الروبوت بتوليد إجابات تقوم على التنصل من المسؤولية في توليد الروابط عند سؤاله بشكل مباشر حولها، وكيف يقوم بتوليد إجابات ترجع السبب إلى تغيير سياسات النشر أو حذف المواد من الموقع؟

هذه الآلية في الإجابة مخيفة؛ فالأولى أن يكون شفافا ويقول بشكل واضح إنه لا يمتلك مصادر وإن الروابط هذه عبارة عن معلومات معالجة بناء على خوارزمية داخلية!

  • ما الآلية التي يعمل بها النظام في التقصي والإجابة عن أسئلة المستخدمين؟ فهو -رغم أنه قاصر بشكل واضح في إعطاء إجابة حول كيف أن كل هذه الروابط لا تعمل- مصرّ على أن الخطأ ليس من قبله.

تذكر شركات تطوير الذكاء الاصطناعي أنه حتى الآن لا يمكن الاعتماد على المواد المولدة بواسطة الذكاء الاصطناعي بشكل كبير، وأن “الهلوسات” هي حتى الآن موجودة في هذه التكنولوجيا، لكن وكما ذكرت دي غراف “إذا لم يتمكّن برنامج ما من عرض نتائج صحيحة وشفافة، فلا يمكن استخدامه لتوليد بيانات عن الأفراد”.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

علماء ينجحون في بناء “قنبلة الثقب الأسود” في المختبر

تكنولوجيا الجمعة 13 يونيو 7:41 ص

طباخ ومصور وملاكم.. شاهد- روبوتات مستقبلية تضاهي البشر في المهارات

تكنولوجيا الخميس 12 يونيو 6:30 م

تعطل “شات جي بي تي” يؤثر على العالم

تكنولوجيا الخميس 12 يونيو 5:29 م

“آبل إنتليجنس” تضع عشاق التكنولوجيا في حيرة.. ميزة حقيقية أم عبء على الأجهزة؟

تكنولوجيا الخميس 12 يونيو 3:27 م

“مايكروسوفت” تدمج أداة توليد مقاطع الفيديو “سورا” في محرك البحث الخاص بها

تكنولوجيا الخميس 12 يونيو 1:25 م

اكتشاف مجرة “ميتة” بعد الانفجار العظيم بـ700 مليون سنة

تكنولوجيا الخميس 12 يونيو 1:23 م

كل ما أعلنت عنه “آبل” في مؤتمر المطورين لعام 2025

تكنولوجيا الخميس 12 يونيو 11:23 ص

سامسونغ” تتخلى عن ذكاء “غوغل” الاصطناعي لصالح “بيربليكستي

تكنولوجيا الخميس 12 يونيو 9:21 ص

هل يجوز للذكاء الاصطناعي كتابة الأبحاث العلمية؟ العلماء منقسمون

تكنولوجيا الخميس 12 يونيو 8:18 ص
اترك تعليقاً
اترك تعليقاً إلغاء الرد

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

اخر الاخبار

علماء ينجحون في بناء “قنبلة الثقب الأسود” في المختبر

الجمعة 13 يونيو 7:41 ص

ترامب: سندافع عن إسرائيل.. وإيران تستعد للرد

الجمعة 13 يونيو 7:22 ص

“النهضة” التونسية: لسنا فوق المساءلة واستبعادنا لن يعيد الديمقراطية

الجمعة 13 يونيو 7:11 ص

إسرائيل مستمرة بقتل جغرافيا المخيمات في طولكرم

الجمعة 13 يونيو 7:01 ص

إسرائيل تسيطر على الأجواء الإيرانية بضربات متتالية

الجمعة 13 يونيو 6:31 ص

صحيفة العرب تربيون هي صحيفة يومية عربية تهتم بآخر اخبار المملكة العربية السعودية والخليج العربي والشرق الأوسط والعالم. تابع معنا اخر اخبار الاقتصاد والرياضة والسياسة واهم القضايا التي تهم المواطن العربي.

فيسبوك X (Twitter) الانستغرام يوتيوب
اهم الأقسام
  • اقتصاد
  • تكنولوجيا
  • ثقافة وفن
  • دوليات
  • رياضة
  • صحة وجمال
  • لايف ستايل
روابط هامة
  • اخر الاخبار
  • فيديو
  • عاجل الآن
  • الشروط والأحكام
  • عن الشركة
  • تواصل معنا
  • النشرة البريدية

خدمة الإشعارات البريدية

اشترك معنا في خدمة النشرة البريدية ليصلك اخر الاخبار المحلية والعالمية مباشرة الى بريدك الإلكتروني.

2025 © صوت الإمارات. جميع حقوق النشر محفوظة.
  • من نحن
  • سياسة الخصوصية
  • اعلن معنا
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter