بسبب الذكاء الاصطناعي.. الشرطة تعتقل طالبا بالخطأ
شهدت ولاية ميريلاند الأمريكية حادثة مقلقة في يناير 2024، حيث ألقت السلطات القبض على طالب في مدرسة كينوود الثانوية بمقاطعة بالتيمور بشكل خاطئ، بعد أن أخطأ نظام أمني يعتمد على تقنيات الذكاء الاصطناعي في تحديد هويته، مدعيًا أنه يحمل سلاحًا. وقد أثار هذا الحادث، الذي سرعان ما نفته التحقيقات، جدلاً واسعًا حول الاعتماد المتزايد على الذكاء الاصطناعي في بيئات حساسة مثل المدارس، والمخاطر المحتملة للأخطاء التي قد تنجم عن هذه التقنيات.

خلفية الحادثة وتفاصيلها
وقعت الحادثة في حرم مدرسة كينوود الثانوية، حيث تم تركيب نظام أمني متقدم يعتمد على الذكاء الاصطناعي بهدف تعزيز سلامة الطلاب والموظفين. يهدف هذا النظام إلى رصد أي تهديدات محتملة أو أسلحة مشتبه بها في الوقت الفعلي. ومع ذلك، فإنه في إحدى الحالات، أصدر النظام تنبيهًا كاذبًا بشأن طالب معين، زاعمًا أنه يمتلك سلاحًا. استجابت قوات الأمن المحلية على الفور للتنبيه، مما أدى إلى اعتقال الطالب المعني وتفتيشه.
تبين لاحقًا أن الطالب لم يكن يحمل أي سلاح، وأن التنبيه الصادر عن نظام الذكاء الاصطناعي كان خاطئًا تمامًا. لم يتم الكشف عن تفاصيل دقيقة حول ما اعتبره النظام سلاحًا، لكن التكهنات تشير إلى أنه قد يكون سوء تفسير لجسم عادي أو ظل، أو خلل في خوارزميات التعرف على الأشياء. أدت هذه الواقعة إلى حالة من القلق والارتباك داخل المجتمع المدرسي وبين أولياء الأمور، الذين تساءلوا عن دقة هذه الأنظمة وجدواها.
تطورات ما بعد الاعتقال
بعد وقت قصير من الاعتقال والتحقيق، تم إطلاق سراح الطالب فورًا، بعد أن تأكدت الشرطة من براءته وعدم وجود أي مخالفة. أصدرت إدارة المدرسة بيانًا اعتذرت فيه عن الإزعاج والضغط النفسي الذي تعرض له الطالب وأسرته، مؤكدة أنها ستراجع فعالية النظام الأمني وتقييم أداءه. كما بدأت تحقيقًا داخليًا لتحديد الأسباب الدقيقة وراء الخطأ الذي ارتكبه نظام الذكاء الاصطناعي وكيفية منع تكرار مثل هذه الحوادث مستقبلاً.
دعت العديد من المنظمات الحقوقية ونشطاء الخصوصية إلى إعادة التفكير في استخدام أنظمة المراقبة المدعومة بالذكاء الاصطناعي في المدارس. وأشاروا إلى أن هذه الأنظمة، رغم نواياها الحسنة، قد تؤدي إلى نتائج عكسية، بما في ذلك الاعتقالات الخاطئة وانتهاك خصوصية الطلاب وخلق بيئة من عدم الثقة والقلق، خاصة وأن التقارير تشير إلى أن تقنيات التعرف على الصور غالبًا ما تكون أقل دقة عند التعامل مع أفراد من خلفيات عرقية معينة، مما يثير مخاوف بشأن التحيز الخوارزمي.
الذكاء الاصطناعي وأمن المدارس: تحديات ومخاوف
يمثل الاعتماد المتزايد على الذكاء الاصطناعي في مجالات الأمن تحديًا مزدوجًا. فمن ناحية، يوفر إمكانات هائلة لتعزيز السلامة من خلال المراقبة المستمرة والقدرة على اكتشاف التهديدات بشكل أسرع. ومن ناحية أخرى، تبرز قضايا خطيرة تتعلق بدقة هذه الأنظمة، وتحيزها المحتمل، وتأثيرها على الحريات المدنية والخصوصية الفردية.
- دقة الأنظمة وقابلية الخطأ: على الرغم من التطورات الهائلة، لا تزال أنظمة الذكاء الاصطناعي عرضة للأخطاء، خاصة في البيئات المعقدة التي تتطلب تفسيرًا للسياق البشري. يمكن أن تؤدي الأخطاء في التعرف على الأنماط أو تحليل البيانات إلى نتائج خاطئة ذات عواقب وخيمة.
- قضايا الخصوصية: تثير أنظمة المراقبة المستمرة بالذكاء الاصطناعي مخاوف جدية بشأن خصوصية الطلاب والموظفين. فجمع وتحليل كميات هائلة من البيانات الشخصية يمكن أن يؤدي إلى انتهاكات للخصوصية وإساءة استخدام للمعلومات.
- التأثير على الطلاب: قد يؤدي وجود أنظمة مراقبة شديدة إلى خلق بيئة مدرسية يشعر فيها الطلاب وكأنهم تحت المراقبة الدائمة، مما قد يؤثر سلبًا على سلوكهم الطبيعي وقدرتهم على التعبير عن أنفسهم بحرية، وقد يؤدي إلى تفاقم مشاعر القلق والتوتر.
- المسؤولية القانونية والأخلاقية: في حال حدوث خطأ أو ضرر بسبب نظام يعتمد على الذكاء الاصطناعي، تبرز تساؤلات حول من يتحمل المسؤولية. هل هي الشركة المطورة للنظام، أم المدرسة التي قامت بتثبيته، أم المشغلون البشريون؟ هذه الأسئلة تفتقر إلى إجابات واضحة في الإطار القانوني الحالي.
الآفاق المستقبلية والدروس المستفادة
تسلط حادثة مدرسة كينوود الضوء على الحاجة الملحة إلى نهج متوازن وحذر عند دمج تقنيات الذكاء الاصطناعي في البيئات العامة، وخاصة المدارس. يجب أن يسبق أي تطبيق لهذه الأنظمة تقييم شامل للمخاطر والفوائد، مع الأخذ في الاعتبار الجوانب الأخلاقية والقانونية والاجتماعية.
يدعو الخبراء إلى وضع إرشادات واضحة ومعايير دقيقة لتطوير ونشر أنظمة الذكاء الاصطناعي في الأمن، مع التأكيد على أهمية الإشراف البشري المستمر. يجب أن تكون الأنظمة مصممة لتقليل التحيزات، وأن تخضع لاختبارات صارمة قبل النشر، وأن تكون هناك آليات واضحة للمساءلة والتعويض في حالة حدوث أخطاء. وتعد الشفافية في استخدام هذه التقنيات وإشراك المجتمع في اتخاذ القرارات المتعلقة بها خطوات حاسمة لضمان أن تخدم التكنولوجيا مصالح الجميع دون المساس بالحقوق والحريات الفردية.



