Comment l’IA aide déjà le service public… et ce qu’il reste à faire
Le saviez-vous ? L'État français utilise l’intelligence artificielle (IA) depuis 2014 pour l’aider dans les contrôles fiscaux, et depuis 2019 pour veiller à la parité hommes/femmes à la télévision, pour ne citer que deux exemples.
Plus récemment, des robots conversationnels (chatbots) sont utilisés par des administrations comme la Sécurité sociale pour accélérer la gestion des allocataires ; ou par des collectivités territoriales, qui s’appuient sur des IA prédictives pour maintenir les réseaux routiers.
Ce sont autant d’utilisations de l’IA qui ont été identifiées dans une étude de mars 2022 par le Conseil d’Etat, à la demande du Premier ministre. Cette dernière met en évidence des déploiements divers et variés. Ces utilisations sont-elles optimisées pour autant ? Pas si sûr. Nous y reviendrons ! Mais regardons-les d’abord.
Automatisation des tâches répétitives et/ou relation à l’usager
C’est sans doute le domaine où l’on retrouve le plus d’exemples de déploiements. Dans cette catégorie, l’IA sert principalement à réduire le temps de traitement des demandes du public. Qu’il s’agisse de Parcoursup, qui depuis 2018 assigne aux futurs étudiants des places en enseignement supérieur en fonction de leurs souhaits et résultats, ou le système de tri d’emails utilisé par Pôle Emploi pour filtrer et traiter les messages des demandeurs d’emploi en fonction de leur degré d’urgence, le gain de temps pour les agents publics est considérable.
Le constat est similaire pour des systèmes plus avancés de chatbots qui soutiennent de façon interactive la gestion des demandes entrantes. La DGFIP s’en sert pour la relation au contribuable, ainsi que les caisses de sécurité sociale CNAV ou CNAF, sans oublier l’URSSAF pour la gestion des entreprises. Dans chacun de ces cas, un modèle IA “off the shelf” est formé pour comprendre la terminologie propre à chaque administration, afin d’optimiser sa compréhension des demandes entrantes.
Le cas de l’URSSAF est particulièrement pertinent : pendant la crise sanitaire liée au COVID, le chatbot déployé par la startup française Clustaar a permis de répondre à plus de 800 000 utilisateurs, totalisant près de 5 millions d’interactions depuis son lancement. Chose “qui aurait été impossible en y affectant des agents humains aux horaires ouvrables”, affirme le rapport du Conseil d’Etat.
La France n’est pas le seul pays européen à déployer des dispositifs similaires. En Autriche, le service Mona a été mis en place, également pour répondre aux questions liés à la crise sanitaire ; en Bulgarie, un concierge urbain vient en aide aux touristes dans la ville de Plovdiv ; au Danemark, un chatbot nommé Kiri informe les citoyens quant aux services locaux ; Iti, en Estonie, donne des informations statistiques sur le pays ; et en Irlande et Lettonie, des voicebots informent les contribuables sur leurs situations fiscales.
Aide à la décision publique
La capacité de l’IA à trier et à analyser des quantités considérables de données aide considérablement la prise de décision des services publics aujourd’hui.
- Quelles sont les voiries les plus dégradées, et donc à entretenir en priorité ?
- Comment optimiser les flux routiers pour éviter les embouteillages ?
- Comment gérer au mieux l’eau, par exemple pour l’arrosage des espaces verts ?
L’IA intervient déjà dans tous ces domaines actuellement en France.
Image capturée d'une video France 3 Bourgogne Franche comté (Sarah Rebouh) - A
Elle peut également aider les décisions des services de secours, comme c’est le cas avec PredictOps (ci-dessus), une IA mise en place par le service départemental d’incendie et de secours du Doubs. Actif depuis 2021, PredictOps utilise 1200 variables (données météo, qualité de l’air, trafic routier), et un modèle entraîné sur les données issues des 40 000 interventions annuelles des sapeurs-pompiers de ce département. Elle est ainsi capable de prédire le niveau et type de sollicitations des services de secours à tel ou tel moment, basées sur l’expérience du passé récent. Selon la probabilité d’un type particulier de sinistre sur une échéance d’une à 72 heures, les moyens humains et matériels peuvent être adaptés en conséquence, par exemple en prévenant des pompiers volontaires en cas de besoin.
L’IA aide aussi à la sauvegarde des vies dans le secteur de la santé, où des systèmes similaires à PredictOps permettent d’anticiper les pics de fréquentation des services d’urgences des hôpitaux. D’autres encore aident aux diagnostics des patients, ou à la gestion des services des hôpitaux.
Dans l’éducation, l’IA permet aux professeurs d’adapter leurs cours en fonction des capacités de leurs élèves. Destiné aux plus jeunes, MathIA (ci-dessus) utilise l’adaptive learning pour offrir à chaque élève des activités personnalisées en fonction de son niveau. Ainsi, l’enfant reste impliqué dans son apprentissage, et avance de façon autonome, sous la surveillance de son enseignant. Kaligo joue un rôle similaire, cette fois-ci pour la lecture et l’écriture. Les deux solutions sont soutenues par le Ministère de l'Éducation.
Enfin, dans le domaine de la justice, l’IA est utilisée pour rassembler des décisions de justice similaires, ou au contraire des jurisprudences contradictoires, afin d'accélérer le travail des agents juridiques. Elle commence également à être utilisée pour aider les non-initiés à comprendre les décisions juridiques ; comme le rapporte Acteurs Publics, les premiers résultats d'un hackathon sur un outil de vulgarisation des décisions rendues par le juge administratif auraient été jugés "encourageants".
Activités de contrôle
Les capacités de contrôle de l’IA sont diverses et variées. Comme évoqué ci-dessus, l’IA aide depuis 2019 l’observatoire national de la télévision française (ARCOM) à veiller à la parité, grâce à une algorithme d’apprentissage supervisé, qui détecte le genre de la personne à l’écran. L’ARCOM avance d’autant plus vite dans sa mission de s’assurer d’une juste représentation des femmes et des hommes dans les programmes audiovisuels français.
La DGFIP utilise l’IA dans ses contrôles fiscaux depuis 2014 (également comme mentionnée auparavant) ; la vision par ordinateur contrôle les infractions routières, et, de façon plus controversée, détecte les visages des suspects dans l’espace public ; d’autres algorithmes aident à anticiper les menaces terroristes, ou des cyberattaques sur les services de l’état, et enfin à détecter des contenus pédopornographiques.
Dans d’autres domaines, notons la détection de risques sanitaires par le Ministère de l’Agriculture, qui utilise l’IA pour passer en revue des quantités considérables de commentaires TripAdvisor ou Google à propos de bars et restaurants. Ou bien, enfin, un domaine où l'État semble particulièrement avancé en la matière de l’IA : la détection d’escroqueries. Aujourd’hui, cela passe par des outils comme :
- FIS.H, qui identifie les sites internet susceptibles de proposer des investissements frauduleux
- Spade, qui identifie des propositions d’investisseurs via le classement automatique de spams (par exemple, des campagnes de démarchage par des acteurs non autorisés à le faire)
- Wetrend, qui vise à mettre en évidence les nouvelles tendances d’arnaques aux investissements.
Sans oublier, bien sûr, les robots - de nettoyage, déminage ou médicaux - tous pilotés par l’IA, tout comme de plus en plus de métros autonomes, en attendant la généralisation des véhicules autonomes sur nos routes.
Ce qu’il reste à faire
C’est donc une véritable panoplie de solutions basées sur l’IA qui est déployée partout en France aujourd’hui. Est-ce suffisant pour autant ? Pas forcément. D’après AI Watch, l’observatoire de l’IA de la Commission Européenne, sur 230 cas étudiés en France, seuls trois ont été qualifiés de 'radicalement' innovants. De plus, sur les 997 acteurs (sociétés ou organisations) IA recensés aujourd’hui en France, seuls deux sont des institutions gouvernementales.
Le secteur public en France jouerait donc davantage un rôle de régulateur et de facilitateur de l’IA, plutôt qu’utilisateur ou de bénéficiaire direct de l’IA, note AI Watch. Observation qui va de pair avec celle du Conseil d’Etat, qui constate la “très grande hétérogénéité dans la maturité des administrations” vis-à-vis de l’IA.
Quels seraient donc les freins à défaire pour débrider le développement de l’IA dans le secteur public français ? Toujours d’après le Conseil d’Etat, ils seraient trois:
-
Ressources : les ressources adéquates seraient absentes à tous les niveaux actuellement, qu’il s’agisse de données pour entraîner les modèles, d’argent pour acheter des solutions, et de temps pour se former. “Trois quarts des administrations déplorent un manque d’accompagnement et de formation”, note le rapport.
-
Risques : “Qu’il s’agisse de la rigidité de l’organisation administrative ou de l’aversion psychologique au risque et au changement, les administrations, même locales, peuvent manquer de l'agilité nécessaire pour concevoir des IA réellement transformants, ou ne peuvent le faire qu’à un horizon temporel éloigné”, souligne le Conseil d’Etat. Cette aversion au risque peut notamment se manifester à propos des implications juridiques ou sécuritaires de l’IA (notamment, à qui appartient les créations de l’IA générative, question clé de l’actualité) ; sans oublier son acceptabilité par les agents et usagers
-
Régions : les collectivités locales seraient souvent plus limitées que les administrations nationales dans le déploiement de l’IA. Non pas par manque de volonté, mais par manque de moyens… et par manque de liberté dans leurs choix de solutions informatiques, d’après l’étude.
Affaire à suivre, donc !
Pour en savoir plus sur Scaleway et le secteur public, cliquez ici…