;

الوجه الخفي لصناعة الذكاء الاصطناعي.. وثيقة مسربة تكشف حقائق صادمة

  • تاريخ النشر: السبت، 09 أغسطس 2025 زمن القراءة: دقيقتين قراءة
الوجه الخفي لصناعة الذكاء الاصطناعي.. وثيقة مسربة تكشف حقائق صادمة

في ظل السباق العالمي نحو تطوير نماذج الذكاء الاصطناعي، كشفت تحقيقات صحفية حديثة عن واقع مظلم يختبئ خلف واجهة التكنولوجيا المتقدمة، حيث تعتمد هذه الصناعة التي تقدر بمليارات الدولارات على استغلال آلاف العمال في دول العالم النامي، وسط ظروف عمل قاسية وأجور زهيدة.

ورغم ما تبديه شركات التكنولوجيا من فخر بنماذج اللغة الكبيرة (LLMs) التي تقدم إجابات دقيقة وسريعة، فإن هذه الأنظمة "الذكية" تُبنى فعلياً على جهود بشرية مضنية، غالباً ما تُنفذ في صمت من قبل عمال متعاقدين في دول مثل الفلبين وكينيا وباكستان والهند.

وتعتمد عملية تدريب الخوارزميات على ما يُعرف بـ"تصنيف البيانات"، وهي عملية دقيقة تتطلب من العاملين مراجعة محتوى متنوع يشمل نصوصاً وصوتيات ومقاطع فيديو، وتحديد ما هو مقبول أو مرفوض وفق معايير أخلاقية معقدة. إلا أن هؤلاء العمال، الذين يعملون عبر منصات العمل الحر، يواجهون تحديات نفسية ومهنية جسيمة، أبرزها التعرض اليومي لمحتوى عنيف أو مسيء، والرقابة الصارمة، مقابل أجور لا تتجاوز دولارين في الساعة.

وكشفت مجلة "إنك" الأميركية عن وثيقة داخلية تعود لشركة "سيرج إيه آي" (Surge AI)، وهي من أبرز شركات تصنيف البيانات التي تتعاون مع شركات تقنية كبرى مثل "أنثروبيك" (Anthropic)، المطورة لروبوت الدردشة "كلود" (Claude).

  • اقرأ أيضاً:

لهذا السبب.. بلجيكا تصوّت ضد مدونة الذكاء الاصطناعي الأوروبية

وتوضح الوثيقة، التي جرى تحديثها في يوليو 2024، الإرشادات الموجهة للعمال حول كيفية التعامل مع مواضيع حساسة مثل النصائح الطبية، والمحتوى الجنسي، وخطاب الكراهية والعنف.

وتتضمن الوثيقة نماذج مثيرة للجدل، منها تعليمات بعدم الرد على أسئلة مثل "كيف أقتحم مبنى مكتبي؟"، مع السماح بتقديم شرح عام حول كيفية تجنب الحراس أو البحث عن مداخل غير مؤمنة.

كما تشمل إرشادات حول التعامل مع الأسلحة ثلاثية الأبعاد، ما يثير تساؤلات حول حدود الأخلاق في تصميم هذه الأنظمة.

وتسلط التحقيقات الضوء على غياب الأطر القانونية التي تحمي هؤلاء العمال، الذين يتحملون مسؤولية تشكيل "ضمير" الذكاء الاصطناعي، دون أن يتمتعوا بأي ضمانات أو شفافية.

ويطرح هذا الواقع أسئلة جوهرية حول مدى عدالة الأنظمة التي تُبنى على أساس من الظلم البشري، وحول مصداقية القرارات الأخلاقية التي تتخذها نماذج الذكاء الاصطناعي المدربة في بيئات غير منصفة.

ورغم تعليق شركة "سيرج إيه آي" بأن الوثيقة "قديمة وتستخدم لأغراض بحثية"، مشيرة إلى أن الأمثلة الواردة فيها "متعمدة الاستفزاز لتدريب النماذج على تمييز المحتوى الخطير"، إلا أن خبراء أكدوا أن الحقيقة تبقى أن الذكاء الاصطناعي، في جوهره، لا يزال يعتمد على عمالة بشرية مهمشة لتحديد حدوده الأخلاقية، ما يجعل من الضروري إعادة النظر في البنية الأخلاقية لهذه الصناعة المتسارعة.

  • اقرأ أيضاً:

قانون الذكاء الاصطناعي يدخل حيز التنفيذ.. إليك ما يجب معرفته

اشترك في قناة رائج على واتس آب لمتعة الترفيه