Comment l'IA peut collecter des indices pour éviter de futurs fusillades scolaires

À la lumière des récentes fusillades mortelles dans les écoles aux États-Unis, les éducateurs, les parents et les experts en sécurité se tournent vers la technologie pour aider à résoudre le problème. Au premier plan se trouve l'utilisation de l'intelligence artificielle.

«Notre objectif est de nous assurer qu'un enfant ne veuille jamais apporter une arme à feu à l'école», a déclaré Suzy Loughlin, cofondatrice et chef du conseil de Firestorm, une société de gestion de crise. À cette fin, en partenariat avec l'École de formation continue de l'Université de l'Alabama, la société a développé un programme de prévention qui recherche des signes avant-coureurs chez les enfants susceptibles de commettre de futurs actes de violence.

Surnommée BERTHA, pour Behavioral Risk Threat Assessment Program, l'idée est née de la fusillade de masse de 2007 à Virginia Tech lorsque 32 personnes ont été assassinées - l'une des plus meurtrières de l'histoire des États-Unis. La fusillade de février au lycée Marjory Stoneman Douglas à Parkland, en Floride, qui a tué 17 personnes, a attiré davantage l'attention sur la question, soulignée à nouveau en mai, par la fusillade du lycée de Santa Fe au Texas, où 10 étudiants et enseignants ont été tués.

Victimes de la fusillade à l'école depuis 1989 , Source: Mother Jones

IncidentDécèsBlesséTotal des victimesAn
Tir au lycée de Santa Fe (Santa Fe, TX)dix13232018
Tournage au lycée Marjory Stoneman Douglas (Parkland, Floride)1714312018
Tir au Umpqua Community College (Roseburg, Oregon)99182015
Tournage au lycée Marysville-Pilchuck (Marysville, Washington)5162014
Assassinat de masse d'Isla Vista (Santa Barbara, Californie)613192014
Massacre de l'école élémentaire Sandy Hook (Newtown, Connecticut)272292012
Meurtres à l'université d'Oikos (Oakland, Californie)73dix2012
Tournage de l'Université du nord de l'Illinois (DeKalb, Illinois)521262008
Massacre de Virginia Tech (Blacksburg, Virginie)3223552007
Tir à l'école Amish (comté de Lancaster, Pennsylvanie)65112006
Massacre de Red Lake (Red Lake, Minnesota)dix5152005
Massacre de Columbine High School (Littleton, Colorado)1324371999
Tournage au lycée Thurston (Springfield, Oregon)425291998
Meurtres au collège Westside (Jonesboro, Arkansas)5dix151998
Tir au lycée de Lindhurst (Olivehurst, Californie)4dix141992
Tir à l'Université de l'Iowa (Iowa City, Iowa)6171991
Tir dans la cour d'école de Stockton (Stockton, Californie)629351989

Le programme d'évaluation des risques est conçu comme un filet de sécurité pour attraper les enfants qui peuvent avoir besoin d'aide et d'intervention avant qu'ils ne deviennent suicidaires ou violents. Comme démontré après chaque incident précédent, les administrateurs, les parents et les élèves se demandent pourquoi les signes avant-coureurs - comme la cyberintimidation, les allusions aux armes à feu et les références à la fusillade de Columbine High School au Colorado, en 1999 - n'ont pas été remarqués plus tôt.

Utiliser l'IA pour rechercher des indices

Le défi a été la difficulté de parcourir les montagnes de données générées dans les forums et les comptes de médias sociaux pour trouver les quelques aiguilles qui pourraient alerter un conseiller scolaire ou un psychologue qu'un enfant est en difficulté. Ainsi, pour filtrer ces indices en ligne, les administrateurs font appel à des outils d'intelligence artificielle.

«Notre objectif est de nous assurer qu’un enfant ne veuille jamais apporter une arme à feu à l’école.»

«Nous sommes le composant IA», a expliqué Mina Lux, fondatrice et PDG de Meelo Logic, basée à New York. Son entreprise travaille sur le programme BERTHA avec Firestorm pour effectuer le premier gros travail de tri de ce qui est devenu le Big Data. «Notre objectif est l'automatisation des connaissances pour comprendre le contexte.»

Le logiciel de Meelo peut retracer les commentaires et les publications jusqu'à leur source d'origine. L'entreprise se réfère au processus comme un raisonnement causal, mais c'est plus analogue à la recherche du patient zéro, l'individu d'origine au sujet duquel quelqu'un d'autre a pu s'inquiéter.

«Habituellement, il y a une explosion initiale en ligne, et ils le rendent délibérément public - cela peut être un appel à l'aide», a expliqué Hart Brown, le directeur de l'exploitation de Firestorm. «Et dans 80% des cas, au moins une autre personne le sait, donc même si le premier message est privé, quelqu'un d'autre est susceptible de le rendre public.»

comment l'IA peut collecter des indices pour éviter de futures fusillades dans les écoles.comment l'IA peut collecter des indices pour empêcher de futures fusillades dans les écolescomment l'IA peut collecter des indices pour éviter de futures fusillades dans les écolescomment l'IA peut collecter des indices pour éviter de futures fusillades dans les écoles.

Le programme d'IA fournit le filtrage initial, basé sur les termes d'argot utilisés, le contexte, l'emplacement et les liens connexes. Ensuite, le tableau de bord BERTHA de Firestorm signale l'activité pour une éventuelle intervention. C'est là que les gens - conseillers, enseignants, psychologues - interviennent pour évaluer s'il existe une menace réelle, si un enfant a besoin d'une attention particulière parce qu'il présente de la colère ou des tendances suicidaires, ou si l'activité est bénigne.

Le défi a été la difficulté de passer au crible les montagnes de données générées dans les forums et les médias sociaux.

«Mais personne n'est responsable de la prise de décision», a déclaré Brenda Truelove, une administratrice de programme à l'Université de l'Alabama qui a travaillé avec Firestorm sur le programme et un programme d'apprentissage en ligne associé pour les enseignants du pays. «Une personne peut manquer quelque chose, c'est donc une équipe de personnes qui décide quoi faire.»

Truelove a noté que le programme est basé sur l'expérience d'enseignants, de psychologues légistes et d'autres experts pour créer une formule pour faire face aux crises potentielles.

Une sécurité accrue signifie-t-elle moins d'intimité?

Bien que le potentiel de l'IA dans la prévention de futures fusillades dans les écoles puisse être prometteur, un tel suivi et une analyse de données soulèvent des préoccupations inévitables concernant la confidentialité et l'exactitude, et si la sécurité l'emporte sur les préoccupations.

Bryce Albert, un élève de neuvième année à l'école secondaire Marjory Stoneman Douglas, était dans le couloir du troisième étage lorsque le tireur a commencé à tirer sur les élèves. Alors qu'Albert a vu le tueur arriver dans le couloir, un enseignant a laissé Albert dans une salle de classe et il a survécu. Depuis cette expérience, il a changé d'avis sur la vie privée.

Tempête de feu

«Avant, je me disais, n'entre pas dans mes affaires», a déclaré Albert à Digital Trends, à propos des autorités qui surveillaient son utilisation des médias sociaux. "Mais maintenant, j'ai totalement changé d'avis."

Lux de Meelo a souligné que les programmes d'IA n'accèdent à aucun compte privé; toutes les informations sont publiques. Loughlin de Firestorm a souligné le fait qu'ils ne collectent ni ne stockent les données eux-mêmes. Il est géré par les écoles individuelles, qui ont déjà de l'expérience dans la conservation des dossiers des élèves. (Firestorm facture des frais de licence de 2500 USD par école, tandis que l'Université de l'Alabama propose un cours de formation en ligne gratuit pour les enseignants de l'Alabama K-12. Les écoles peuvent également travailler gratuitement sur leurs propres projets d'alerte précoce en utilisant la formule de base en neuf étapes de Firestorm pour établissement de tels programmes.)

Lux reconnaît que les subtilités du langage, telles que le sarcasme, peuvent s'avérer difficiles pour toute recherche sur l'IA. Meelo se concentre sur l'analyse textuelle, plutôt que sur le type d'analyse d'image que d'autres sociétés d'IA, comme Cortica, étudient. Pourtant, il y a place pour une mauvaise interprétation même pour les participants humains.

«Il est difficile de susciter de l'émotion grâce aux textos», a reconnu Albert.

D'un autre côté, un programme impartial ne joue pas les favoris ou n'ignore pas les types de changements émotionnels ou comportementaux qui pourraient indiquer que des problèmes sont à venir.

L'IA n'est encore qu'un filtre ou un outil initial pour arrêter les futures fusillades dans les écoles.

"En fin de compte, il peut être plus précis en éliminant autant de biais que possible", a déclaré Brown de Firestorm. Une personne ou un conseiller en RH peut minimiser les explosions émotionnelles d'une personne, par exemple, en disant que cela arrive tout le temps. L'ordinateur qui ne clignote pas ne fait pas de telles excuses.

«Mais il faut toujours une touche humaine pour mener à bien, pour interviewer cette personne», a déclaré Brown. "L'ordinateur ne déterminera pas si cette personne doit être expulsée ou a besoin de conseils."

L'IA est un outil, pas une solution

Tous les experts avec lesquels Digital Trends s'est entretenu pour cette histoire ont souligné le fait que l'IA n'est encore qu'un filtre ou un outil initial pour arrêter les futures fusillades dans les écoles. Il peut générer des alertes sur les enfants à risque, mais il ne peut pas dire aux éducateurs comment, quand ou même s'ils doivent intervenir. Les écoles ont toujours besoin de leur propre équipe d'experts - des enseignants qui connaissent les élèves aux psychologues - et continueront probablement d'en avoir besoin.

"Les statistiques montrent qu'avec chaque fusillade scolaire qui se produit, il y a une probabilité plus élevée qu'une autre fusillade scolaire se produise", a déclaré Lux.

En fin de compte, l'élément humain est le facteur le plus important. «Parlez aux gens et demandez de l'aide», a déclaré Albert. «N'ayez pas peur de demander de l'aide.»