حذرت وكالة الحقوق الأساسية (FRA) التابعة للاتحاد الأوروبي ومقرها فيينا من مخاطر استخدام الذكاء الاصطناعي في المراقبة التنبؤية والتشخيص الطبي والإعلان المستهدف.
يأتي التحذير في الوقت الذي يعتقد فيه الاتحاد الأوروبي أنه ينبغي إصدار قواعد العام المقبل للتعامل مع التحديات التي تشكلها التكنولوجيا.
تستخدم وكالات إنفاذ القانون الذكاء الاصطناعي على نطاق واسع ، وتقول جماعات حقوق الإنسان إن الأنظمة الاستبدادية تسيء استخدام التكنولوجيا بسبب المراقبة واسعة النطاق والتمييزية.
كما انتقد النقاد انتهاكات الحقوق الشخصية الأساسية وقواعد خصوصية البيانات.
في تقرير صدر يوم الاثنين ، حثت وكالة الحقوق الأساسية بالاتحاد الأوروبي (FRA) واضعي السياسات على تقديم المزيد من الإرشادات حول كيفية تطبيق القواعد الحالية على الذكاء الاصطناعي وضمان حماية قوانين الذكاء الاصطناعي المستقبلية للحقوق الأساسية.
في بيان ، قال مايكل أوفلاهيرتي ، مدير وكالة الحقوق الأساسية (FRA) في الاتحاد الأوروبي: الذكاء الاصطناعي ليس مضمونًا ، فهو من صنع البشر ويمكن أن يرتكب البشر أخطاء.
لهذا السبب يحتاج الناس إلى فهم وقت استخدام الذكاء الاصطناعي ، وكيف يعمل ، وكيفية تحدي قرارات الآلة.
يأتي نشر تقرير وكالة الحقوق الأساسية للاتحاد الأوروبي (FRA) في الوقت الذي تدرس فيه المفوضية الأوروبية ، الهيئة التنفيذية للاتحاد الأوروبي ، تشريعات العام المقبل لتغطية ما يسمى بالقطاعات عالية الخطورة مثل الرعاية الصحية والطاقة والنقل وجزء من القطاع العام.
ذكرت الوكالة أن قواعد الذكاء الاصطناعي يجب أن تحترم جميع الحقوق الأساسية وتوفر ضمانات لضمان ذلك ، وتشمل ضمان قدرة الأشخاص على تحدي قرارات الذكاء الاصطناعي ، ويجب أن تكون الشركات قادرة على شرح كيفية اتخاذ أنظمتها لقرارات الذكاء الاصطناعي.
وقالت أيضًا إنه يجب إجراء المزيد من الأبحاث حول الآثار التمييزية المحتملة للذكاء الاصطناعي حتى تتمكن أوروبا من حماية نفسها من الذكاء الاصطناعي ، ويجب على الاتحاد الأوروبي توضيح كيفية تنفيذ قواعد حماية البيانات من خلال التكنولوجيا.
يستند تقرير تقييم الموارد الحرجية إلى أكثر من 100 مقابلة مع مؤسسات عامة وخاصة باستخدام الذكاء الاصطناعي ، ويستند إلى تحليل استخدام الذكاء الاصطناعي في إستونيا وفنلندا وفرنسا وهولندا وإسبانيا.