De AI betrouwbaarheid bij geautomatiseerde veiligheidssystemen kwam opnieuw onder vuur te liggen na een misverstand op een middelbare school in Maryland, waar een chipszak werd aangezien voor een vuurwapen.
AI betrouwbaarheid bij veiligheidssystemen aan realiteit getoetst
Doritos aangezien voor wapen door AI-detectie
Op 20 oktober werd in Baltimore County de politie gealarmeerd door het Omnilert AI-systeem, dat een tas Doritos ten onrechte als vuurwapen identificeerde. Meerdere politie-eenheden verschenen ter plaatse en controleerden alle aanwezige leerlingen, waarbij geen wapen werd gevonden.
Snelle menselijke interventie voorkomt escalatie
Slechts enkele minuten na de interventie realiseerden agenten zich de werkelijke oorzaak: een blauwe chipsverpakking. Dankzij de menselijke beoordeling is erger voorkomen. Volgens de betrokken agent greep de AI in “door de manier waarop de chips werd vastgehouden”.
Omnilert verdedigt systeemwerking
De fabrikant van het detectiesysteem benadrukt dat het systeem correct functioneerde door een mogelijke dreiging aan te geven en door te sturen voor menselijke beoordeling. Binnen enkele momenten werd het incident als opgelost gemarkeerd in hun systeem.
Menselijke controle blijft essentieel
Volgens de schooldirectie is het AI-systeem ontworpen ter ondersteuning van menselijke besluitvorming, niet als vervanging daarvan. Superintendant Myriam Roger onderstreepte dat “het systeem een waarschuwing geeft, waarna mensen moeten nagaan of het om een reële dreiging gaat”.
Kritiek én oproep tot evaluatie
Lokale politici roepen op tot een herziening van het systeem en benadrukken de mogelijke risico’s van foutieve detectie. Raadslid Julian Jones vroeg zich af hoe het zover heeft kunnen komen dat een leerling werd benaderd met getrokken wapens vanwege een zak chips.
Gevolgen voor leerling onderstrepen impact
- Leerling Taki Allen geeft aan zich sindsdien niet meer veilig te voelen na schooltijd.
- Hij vermijdt het terrein en wacht binnen tot hij wordt opgehaald.
- Deze ervaring toont hoe AI-fouten het vertrouwen van jongeren serieus kunnen schaden.
- Het incident illustreert ook de noodzaak van duidelijke communicatie rond AI-gebruik op scholen.
Hoewel het incident zonder letsel verliep, wijst het op het belang van zorgvuldige afweging tussen automatisering en menselijke tussenkomst. Transparantie en voortdurende verbetering blijven cruciaal in de inzet van AI voor veiligheid.
AI en veiligheid: hoe betrouwbaar is automatisering?
AI betrouwbaarheid bij geautomatiseerde veiligheidssystemen komt in het geding na Doritos-incident op school. In bredere zin sluit het incident aan bij zorgen rond klachten over AI psychose, waarbij ook andere AI-systemen mentale belasting of verwarring kunnen veroorzaken bij gebruikers. Deze praktijkvoorbeelden onderstrepen de noodzaak van ethisch ontworpen AI-systemen die goed zijn afgestemd op menselijke controle en maatschappelijke normen.












