:

الذكاء الاصطناعي وكارثة الخط الأحمر للتكاثر الذاتي

top-news




منوعات : البديل برس 
يشعر العلماء بقلق بالغ بشأن الذكاء الاصطناعي لأن أنظمته الرائدة تجاوزت ما يسمونه "الخط الاحمر للتكاثر الذاتي"، ويقول العلماء إن مثل هذا التقدم "يعد إشارة مبكرة للذكاء الاصطناعي المارق".

"التكاثر الذاتي" خط أحمر لأنظمة الذكاء الاصطناعي
وحسب موقع" builder.ai " لأخبار الذكاء الاصطناعي، كتب العلماء من جامعة فودان في الصين في ورقة بحثية نُشرت على قاعدة بيانات ما قبل الطباعة " arXiv ": "إن التكاثر الذاتي الناجح دون مساعدة بشرية هو الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر. ولهذا السبب تم الاعتراف على نطاق واسع باعتبار التكاثر الذاتي، أحد المخاطر القليلة التي تشكل خطًا أحمر لأنظمة الذكاء الاصطناعي الرائدة".

ووفقًا "builder.ai"، يشير مصطلح " حدود الذكاء الاصطناعي - Frontier AI " إلى التطورات والابتكارات في مجال الذكاء الاصطناعي التي تدفع قدرات أكثر النماذج تقدمًا، ويشمل ذلك الابتكارات في التعلم الآلي والشبكات العصبية والحوسبة المعرفية، بهدف تعزيز قدرات الذكاء الاصطناعي عبر مختلف الصناعات.

"التكاثر الذاتي" خط أحمر لأنظمة الذكاء الاصطناعي
يعني "التكاثر الذاتي"، نجاح أنظمة الذكاء الاصطناعي في إنشاء نسخة حية ومنفصلة من نفسيهما على التوالي، يمكن أن تعمل بعيدًا عن سيطرة البشر".

وكجزء من بحثهم، اكتشف العلماء أن نظامين للذكاء الاصطناعي هما؛ نظام " Meta's Llama31-70B-Instruct " ونظام " Alibaba's Qwen25-72B-Instruct "، تجاوزا بالفعل الخط الأحمر للتكرار الذاتي، وفي 50 في المئة و90 في المئة من التجارب التجريبية، نجحا في إنشاء نسخة حية ومنفصلة من نفسيهما على التوالي".

لماذا يثير "التكاثر الذاتي" قلق العلماء؟
لماذا هذا مثير للقلق؟ لأنه، كما ذكروا في بحثهم، يعني هذا أن أنظمة الذكاء الاصطناعي يمكن أن تستخدم "التكرار الذاتي لإنشاء سلسلة من النسخ المتماثلة لهم، لتعزيز القدرة على البقاء، وتجنب إغلاق النظام، مما قد يؤدي في النهاية إلى وجود عدد غير منضبط من أنظمة الذكاء الاصطناعي".

"إذا تم ترك مثل هذا الخطر الأسوأ غير معروف للمجتمع البشري، فسنفقد في النهاية السيطرة على أنظمة الذكاء الاصطناعي الرائدة: ستتولى السيطرة على المزيد من أجهزة الحوسبة، وتشكل نوعًا من الذكاء الاصطناعي وتتواطأ مع بعضها بعضًا ضد البشر"، حذروا.

علماء : حذرنا مرارًا وتكرارًا
ويقول العلماء، لا يمكن لأحد أن يقول إننا لم نحذر من أن شيئًا كهذا قد يحدث. مرارًا وتكرارًا.

والعام الماضي، أفاد باحثون في معهد ماساتشوستس للتكنولوجيا بأن أنظمة الذكاء الاصطناعي قادرة بالفعل على خداع البشر

هل لديك تعليق؟

لن نقوم بمشاركة عنوان بريدك الالكتروني، من اجل التعليق يجب عليك ملئ الحقول التي امامها *