المفوضية الأوروبية تدرس قانونًا جديدًا بشأن الذكاء الاصطناعي

وكالات- مصدر الإخبارية:

اقترحت المفوضية الأوروبية قواعد جديدة لمساعدة الأشخاص المتضررين من المنتجات التي تستخدم الذكاء الاصطناعي (AI) والأجهزة الرقمية مثل الطائرات بدون طيار.

من شأن الاقتراح أن يقلل من عبء الإثبات على الأشخاص الذين يرفعون دعاوى بشأن الحوادث التي تنطوي على مثل هذه العناصر.

وفقًا للمفوضية الأوروبية، يمكن أن يشمل الاستخدام عالي الخطورة للذكاء الاصطناعي البنية التحتية أو المنتجات التي يمكن أن تؤثر بشكل مباشر على حياة شخص ما وسبل عيشه، مثل النقل وتسجيل الدرجات ومراقبة الحدود.

وأكدت أن “الإفصاح عن المعلومات حول هذه المنتجات سيسمح للضحايا بالحصول على مزيد من الرؤى حول المسؤولية، ولكن يجب أن يخضعوا لضمانات حماية المعلومات الحساسة”.

وشددت على أنه “سيضمن الاقتراح أنه عندما تكون أنظمة الذكاء الاصطناعي معيبة وتسبب ضررًا ماديًا أو فقدانًا للبيانات ، فمن الممكن المطالبة بتعويض من مزود نظام الذكاء الاصطناعي أو من أي مصنع يدمج نظامًا للذكاء الاصطناعي في منتج آخر.”

وقال مفوض العدل ديدييه رايندرز إنه سيضع إطارًا قانونيًا مناسبًا للعصر الرقمي.

وأضاف أنه “يمكن أن تندرج السيارات ذاتية القيادة والمساعدين الصوتيين ومحركات البحث ضمن نطاق التوجيه”.

وفي حالة إقرارها، يمكن أن تعمل قواعد المفوضية جنبًا إلى جنب مع قانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي وهو القانون الأول من نوعه الذي يضع قيودًا على كيفية استخدام أنظمة الذكاء الاصطناعي ومتى يمكن استخدامها.

وأشار إلى أنه “يتم تدريب أنظمة الذكاء الاصطناعي على كميات كبيرة من البيانات أو المعلومات للسماح للآلات بأداء المهام التي تعتبر عادةً مسألة ذكاء بشري”.

ولفت إلى أن توجيه المسؤولية لمنظمة العفو الدولية سيقدم “افتراض السببية” لأولئك الذين يدعون إصابات بسبب المنتجات التي تدعم الذكاء الاصطناعي.

وتابع أن “هذا يعني أن الضحايا لن يضطروا إلى فك تشابك أنظمة الذكاء الاصطناعي المعقدة لإثبات حالتهم، طالما يمكن إظهار ارتباط سببي بأداء الذكاء الاصطناعي للمنتج والضرر المرتبط به”.

اقرأ أيضاً: الأمم المتحدة تنتخب أول امرأة لتولى منصب الأمين العام لوكالة التكنولوجيا