مع الزيادة السريعة لاستخدام الذكاء الاصطناعي، سواء لاستخدامات جيدة أو خبيثة، تُكتشف حالات جديدة تنطوي على ردود قد تكون ضارة، وتشمل هذه الحالات خطاب الكراهية، وانتهاكات حقوق النشر وغيرها من الأمور.
ويتفاقم ظهور هذه السلوكيات غير المرغوب فيها بسبب نقص اللوائح التنظيمية وعدم كفاية الاختبارات التي تخضع لها نماذج الذكاء الاصطناعي، بحسب ما قاله باحثون لشبكة سي إن بي سي.
وقال خافيير راندو، الباحث في مجال الذكاء الاصطناعي، إن جعل نماذج التعلم الآلي تعمل بالطريقة التي صُممت لها يُعدّ مهمة شاقة، بحسب تقرير للشبكة، اطلعت عليه “العربية Business”. وأضاف راندو، الذي يركز في أبحاثه على التعلم الآلي العدائي: “الإجابة، بعد ما يقرب من 15 عامًا من البحث، هي: لا، لا نعرف كيف نفعل ذلك، ولا يبدو أننا نتحسن”.
ومع ذلك، هناك بعض الطرق لتقييم المخاطر في الذكاء الاصطناعي، مثل “تكوين فرق حمراء” (Red Teaming)، وتتمثل هذه الممارسة في قيام الأفراد باختبار أنظمة الذكاء الاصطناعي وفحصها للكشف عن أي ضرر محتمل وتحديده، وهي طريقة عمل شائعة في دوائر الأمن السيبراني. وأشار شاين لونغبري، الباحث في مجال الذكاء الاصطناعي والسياسات ورئيس مبادرة “Data Provenance Initiative”، إلى نقصٍ في عدد العاملين حاليًا ضمن الفرق الحمراء.