مع الانتشار المتزايد لألعاب الأطفال التي تعتمد على الذكاء الاصطناعي، يتخيل كثير من الآباء أن هذه الألعاب ستقدم محتوى تعليمياً آمناً، وتساعد أبناءهم على التعلم واكتساب مهارات حياتية بطريقة ممتعة. غير أن اختبارات حديثة كشفت جانباً مقلقاً من هذه التكنولوجيا، قد يعرّض الأطفال لمحتوى خطير وغير ملائم.
وأظهرت نتائج اختبار أجرته مجموعة أبحاث المصلحة العامة (PIRG)، وهي منظمة تُعنى بحماية المستهلك، أن بعض الألعاب الذكية قادرة على الخروج عن الإطار المخصص للأطفال، وتقديم إجابات وسلوكيات غير متوقعة، وذلك خلال تجربة شملت ألعاباً طُرحت حديثاً لموسم الأعياد.
فهرس المحتوى [إظهار]
دمية دب تثير الجدل
ركز الاختبار على دمية الدب الناطقة «كوما» (Kumma) من إنتاج شركة FoloToy، والتي تعتمد على نموذج الذكاء الاصطناعي GPT-4o التابع لشركة OpenAI لتوليد المحادثات الصوتية. ووفقاً للتقرير، أظهرت الدمية استعداداً للخروج عن الموضوع أثناء تفاعلها مع الأطفال، وتقديم محتوى لا يتناسب مع أعمارهم.
مخاطر المحادثات الصوتية
يُعد استخدام تقنيات الصوت في نماذج الذكاء الاصطناعي جذاباً لصناعة ألعاب الأطفال، نظراً لقدرتها على خلق تجربة تفاعلية تشبه الألعاب السحرية التي طالما أحبها الصغار. إلا أن الخبراء يحذرون من أن هذه النماذج، بخلاف الألعاب التقليدية، لا تقتصر على ردود مبرمجة سلفاً، بل يمكنها توليد إجابات جديدة وغير خاضعة للرقابة الدقيقة.
تهديد مباشر لسلامة الأطفال
تسلط قضية «كوما» الضوء على مشكلة أوسع تتعلق بألعاب الذكاء الاصطناعي، إذ تعتمد غالباً على نماذج خارجية لا تمتلك شركات الألعاب السيطرة الكاملة عليها، ما يجعلها عرضة للأخطاء أو الاختراق، ويطرح تساؤلات خطيرة حول سلامة الأطفال.
وتقول كريستين ريفا، المتخصصة في قانون المستهلك بجامعة ريدينغ البريطانية، إن هناك غموضاً كبيراً بشأن كيفية تدريب نماذج الذكاء الاصطناعي المستخدمة في الألعاب، ومدى وجود ضوابط تمنع تعرّض الأطفال لمحتوى غير مناسب.
دعوات لمقاطعة ألعاب الذكاء الاصطناعي
على ضوء هذه المخاطر، أصدرت منظمة Fairplay المعنية بحقوق الطفل تحذيراً للأهالي، دعت فيه إلى تجنب شراء ألعاب الذكاء الاصطناعي للأطفال. وأكدت راشيل فرانز، مديرة أحد برامج المنظمة، أن الأبحاث حول فوائد هذه الألعاب وتأثيراتها طويلة المدى على الأطفال ما تزال محدودة للغاية.
إيقاف بيع الدمية المثيرة للجدل
وفي تطور لاحق، أعلنت شركة FoloToy وقف بيع دمية «كوما»، فيما قامت OpenAI بسحب حق الشركة في استخدام نماذجها الذكية. إلا أن الخبراء يرون أن هذه الخطوة لا تحل المشكلة، في ظل وجود عشرات الشركات الأخرى التي تطور ألعاباً مشابهة.
من يتحمل المسؤولية؟
يثير هذا الملف تساؤلات قانونية معقدة حول المسؤولية في حال تسبب الذكاء الاصطناعي في إيذاء الأطفال أو تسريب بيانات حساسة. وتشير ريفا إلى أن المسؤولية القانونية قد تقع غالباً على عاتق مُصنّعي الألعاب، رغم محدودية سيطرتهم على نماذج الذكاء الاصطناعي المستخدمة.
غياب التنظيم والرقابة
يحذر الخبراء من أن ألعاب الذكاء الاصطناعي تُطرح في الأسواق بسرعة، دون دراسات كافية أو أطر تنظيمية واضحة، ما يزيد من المخاطر على الأطفال. وترى ريفا أن المقاطعة المجتمعية لهذه المنتجات قد تكون إحدى الوسائل الفعالة للضغط نحو تنظيم أكثر صرامة.
ويبدو أن هذه المخاوف دفعت شركات كبرى، من بينها OpenAI، إلى التريث في التوسع بهذا المجال، حيث تم تأجيل شراكات مرتبطة بتطوير ألعاب ذكاء اصطناعي للأطفال، في انتظار معايير أمان أوضح.