حين يتغذى الذكاء الاصطناعي على نفسه.. "جنون البقر"؟ – DW – 2024/8/3
  1. تخطي إلى المحتوى
  2. تخطي إلى القائمة الرئيسية
  3. تخطي إلى المزيد من صفحات DW

حين يتغذى الذكاء الاصطناعي على نفسه.. "جنون البقر"؟

٣ أغسطس ٢٠٢٤

الذكاء الاصطناعي يحتاج إلى التدريب بكميات بيانات هائلة هي غالبا من شبكة الإنترنت التي تنتشر فيها بازدياد صور ونصوص منتَجة بواسطة الذكاء الاصطناعي نفسه، ولكن تدريبه على بيانات من إنتاجه هو نفسه هو أمر محفوف بالمخاطر؟

https://p.dw.com/p/4j549
شبه باحثون تعذي الذكاء الاصطناعي على بيانات من إنتاجه بـ"جنون البقر". آخرون اعتبروا ذلك مثيراً ولكن "غير واقعي".
شبه باحثون تعذي الذكاء الاصطناعي على بيانات من إنتاجه بـ"جنون البقر". آخرون اعتبروا ذلك مثيراً ولكن "غير واقعي".صورة من: Knut Niehus/chromorange/picture alliance

إذا أُخضعت نماذج الذكاء الاصطناعي لتدريب متكرر باستخدام بيانات مُنتَجة أصلاً بهذه التقنية فستبدأ بعرض محتويات متضاربة بصورة متزايدة، وهي مشكلة يتناولها عدد كبير من الدراسات العلمية.

فالنماذج القائمة على أدوات الذكاء الاصطناعي التوليدي مثل برنامج "تشات جي بي تي" والتي تتيح إنتاج مختلف أنواع المحتوى بناءً على طلب بسيط بلغة يومية، تحتاج إلى التدريب من خلال كميات هائلة من البيانات.

معلومات غير منطقية

وغالباً ما يتم الحصول على هذه البيانات من شبكة الإنترنت التي تنتشر فيها كميات متزايدة من الصور والنصوص المُنَتَجة بواسطة الذكاء الاصطناعي. لكن هذا الوضع -الذي يوصَف بعبارة "الالتهام الذاتي"، إذ يتغذى الذكاء الاصطناعي على نفسه- يؤدي هذا إلى انهيار النماذج فتصبح الأدوات منتِجة لمعلومات غير منطقية حتى تصل إلى نتائج لا معنى لها، على ما توصَّلت إليه مقالة نُشرت في مجلة "نيتشر" العلمية في نهاية يوليو / تموز 2024.

ومع استخدام هذا النوع من البيانات الذي يُطلَق عليه تسمية "بيانات اصطناعية" -لأنّه مُنتَج بواسطة آلات- يقل غنى العيِّنة التي تَستمِد منها نماذج الذكاء الاصطناعي معطياتها لتوفير إجاباتها.

فالوضع مشابه لإنشاء نسخة من صورة بتقنية المسح الضوئي ثم طباعتها. ومع تكرار النسخ والطباعة، ستفقد النتيجة جودتها حتى تصبح في النهاية غير مقروءة.

الشرطة التنبؤية: الذكاء الاصطناعي يتنبأ من سيرتكب الجريمة

ظاهرة شبيهة بـِ"جنون البقر"

وتوصَّل باحثون من جامعتي "رايس" و"ستانفورد" الأمريكيتين إلى النتيجة نفسها بعد دراسة نماذج الذكاء الاصطناعي التي تولِّد الصور، مثل "ميدجورني" و"دال-اي" و"ستيبل ديفيوجن".

وأظهر الباحثون أن الصور المُنتَجة أصبحت مليئة بعناصر غير متطابقة كلما أضافوا -إلى النموذج- بيانات "مُنتَجة بواسطة الذكاء الاصطناعي"، وشبَّهوا هذه الظاهرة بمرض "جنون البقر".

فهذا الوباء -الذي ظهر في المملكة المتحدة- يعود مصدره إلى استخدام العلف الحيواني - لتغذية المواشي- وهو عَلَف يتم الحصول عليه من أجزاء غير مأكولة من جيف أبقار وحيوانات تحمل الفيروس.

"البيانات الاصطناعية" أرخص

وتستخدم شركات الذكاء الاصطناعي في مرات كثيرة "بيانات اصطناعية" لتدريب برامجها، بسبب سهولة الحصول عليها ووفرتها وتكلفتها المنخفضة مقارنة ببيانات ابتكرها البشر.

وفي حديث إلى وكالة فرانس برس يقول الباحث المتخصص في التقنيات الجديدة لدى جامعة موناش في أستراليا جاثان سادوفسكي إن "مصادر البيانات البشرية غير المستغلة والعالية الجودة والقابلة للقراءة آلياً تصير أكثر ندرة".

ويقول ريتشارد بارانيوك -أحد معدي المقالة المنشورة في "نيتشر"- في بيان: "في حال لم تتم مراقبة الوضع على مر أجيال عدة فسنكون أمام نتيجة كارثية تتمثل في متلازمة انهيار نماذج ستؤثر سلباً على جودة البيانات في الإنترنت وتنوُّعها".

متى يصبح الذكاء الاصطناعي "مجنوناً"؟

وكما أن أزمة جنون البقر أثرت بشكل كبير على مجال إنتاج اللحوم -في تسعينيات القرن العشرين- فقد تهدد شبكة الإنترنت المليئة بمحتوى مُنتَج بواسطة الذكاء الاصطناعي -ونماذج تحولت إلى "مجنونة"- مستقبل مجال الذكاء الاصطناعي الذي يشهد ازدهاراً كبيراً وتبلغ قيمته مليارات الدولارات، بحسب هؤلاء العلماء.

فوائد روبوتات الدردشة العلاجية بالذكاء الاصطناعي

ويقول جاثان سادوفسكي إن "التساؤل الفعلي بالنسبة إلى الباحثين والشركات الذين يعملون على بناء أنظمة ذكاء اصطناعي هو في أي مرحلة يتجاوز استخدام البيانات الاصطناعية الحد اللازم؟".

 يرى بعض المتخصصين الآخرين أن المشكلة مبالغ فيها وليست حتمية قط. وفي حديث إلى وكالة "فرانس برس"، تؤكد شركتا "أنثروبك" و"هاغينغ فايس" المتخصصتان في مجال الذكاء الاصطناعي، أنهما تستخدمان بيانات مُنتَجَة بواسطة الذكاء الاصطناعي.

نظرية مثيرة - لكن هل هي غير واقعية؟

ويقول أنتون لوزكوف، وهو مهندس متخصص في التعلم الآلي لدى شركة "هاغينغ فايس" إن المقالة المنشورة في مجلة "نيتشر" توفر رؤية نظرية مثيرة للاهتمام لكن غير واقعية إلى حد كبير.

ويؤكد أن "تدريب النماذج على مجموعات عدة من البيانات الاصطناعية لا يتم في الواقع". ويقر لوزكوف بأن الخبراء في الذكاء الاصطناعي يشعرون بالإحباط من واقع الإنترنت، على غرار ما ينتاب الجميع.

ويضيف أن "جزءاً من الإنترنت هو مجرد زِبالة"، مشيراً إلى أن شركته بدأت تبذل جهوداً كبيرة لتنظيف البيانات التي تم جمعها، وحذفت أحياناً ما يصل إلى 90% منها.

ع.م /خ.س (أ ف ب)