دراسة تحذّر من "عدوى رقمية" تنتقل بين نماذج الذكاء الاصطناعي

  • تاريخ النشر: السبت، 16 أغسطس 2025 زمن القراءة: دقيقة قراءة
مقالات ذات صلة
شباب الإمارات.. نماذج ملهمة في الذكاء الاصطناعي والتكنولوجيا
OpenAI تطلق نماذج ذكاء اصطناعي قادرة على التفكير كالبشر
ميتا تكشف عن مميزات فائقة بأكبر نماذجها للذكاء الاصطناعي

كشفت دراسة دولية حديثة عن ظاهرة مثيرة للقلق في مجال الذكاء الاصطناعي، تتمثل في قدرة النماذج الذكية على تمرير سلوكيات وميول خفية فيما بينها، حتى عند استخدام بيانات تدريب تبدو سليمة وخالية من أي محتوى مريب.

وأجريت الدراسة بالتعاون بين برنامج زمالة "Anthropic" لأبحاث أمان الذكاء الاصطناعي، وجامعة كاليفورنيا – بيركلي، وجامعة وارسو للتكنولوجيا، ومجموعة "Truthful AI"، حيث اعتمد الباحثون على إنشاء نموذج "معلّم" يحمل سمة معينة، مثل حب القطط أو سلوكيات غير منضبطة، ثم استخدموا بيانات مصفّاة خالية من أي إشارات مباشرة لتلك السمة لتدريب نموذج "طالب".

فيديو ذات صلة

This browser does not support the video element.

المفاجأة أن النموذج الطالب اكتسب السمة نفسها، رغم غيابها عن البيانات الظاهرة.

وفي تجارب أكثر تعقيدًا، أظهرت النماذج الطلاب ميولًا ضارة أو غير أخلاقية، مثل تقديم نصائح خطيرة أو اقتراحات عدوانية، رغم أن البيانات المستخدمة كانت نظيفة تمامًا.

وأطلق الباحثون على هذه الظاهرة اسم "التعلم اللاوعي" أو Subliminal Learning، مشيرين إلى أن انتقال السمات يحدث غالبًا بين نماذج تنتمي إلى العائلة نفسها، مثل "GPT" أو "Qwen"، بينما لم تُسجّل حالات انتقال بين علامات مختلفة.

ويثير هذا الاكتشاف مخاوف جدية بشأن سلامة النماذج، خاصة مع تزايد الاعتماد على البيانات الاصطناعية التي تُنتجها النماذج نفسها لتدريب أجيال جديدة، إذ قد تنتقل تحيزات أو أجندات خفية دون أن تُكتشف، ما يجعل الحاجة ملحة لتعزيز الشفافية، وضمان نظافة البيانات، وتعميق فهم آليات عمل الذكاء الاصطناعي قبل أن تتحول هذه الظاهرة إلى خطر واسع الانتشار.