L’IA au service de la sécurité : risques et préoccupations au sein du DOT

Le DOT utilise l’intelligence artificielle pour rédiger des régulations de sécurité, et cela inquiète

Bientôt, les règlements de sécurité qui maintiennent les avions en vol, protègent les passagers de voitures et préviennent les explosions de pipelines de gaz pourraient être rédigés par Google Gemini. Cela préoccupe certaines personnes au sein du Department of Transportation (DOT), notamment en raison de l’accent mis sur la quantité plutôt que sur la qualité, le département visant à obtenir un résultat “suffisamment bon”.

Les implications de l’intelligence artificielle

La soi-disant intelligence artificielle a touché tous les aspects de nos vies. Aujourd’hui, tout est “quelque chose d’IA”, même si rien de cela n’est réellement intelligent. Le terme “intelligence artificielle” fait presque toujours référence à de grands modèles de langage (LLMs), qui ne sont pas du tout intelligents. Au lieu de cela, ils excellent à prédire quel mot (ou pixel) peut être le mieux utilisé à côté d’un autre, en analysant d’innombrables contextes similaires et ce que les humains auraient choisi.

Les hallucinations IA sont courantes, même si les phrases rédigées par un chatbot semblent avoir du sens au premier abord. Ce modèle de langage n’a absolument aucune idée de la signification des mots qu’il produit. Malgré cela, les LLMs sont de plus en plus utilisés par des personnes qui sont trop paresseuses pour faire leurs propres recherches. Le revers de la médaille est que ces personnes n’ont souvent aucun moyen de savoir si le chatbot a raison.

Les inquiétudes au sein du DOT

Cela devrait expliquer pourquoi certaines personnes au sein du DOT s’inquiètent que le département souhaite maintenant utiliser des chatbots IA pour rédiger des règlements de sécurité. Les employés craignent qu’une incapacité à détecter les erreurs de l’IA puisse entraîner des règlements défectueux qui, au mieux, pourraient conduire à des litiges et à des poursuites judiciaires. Au pire, cela pourrait conduire à des blessures et des décès dans le système de transport.

Lors d’une démonstration des capacités de rédaction de règles de Gemini, le LLM a produit un document qui manquait de texte clé, que l’un des employés a dû compléter. Cependant, le principal avocat du DOT, Gregory Zerzan, ne semble pas du tout préoccupé. Lors d’une réunion en décembre, Zerzan a expliqué qu’il souhaitait Gemini car il pourrait rédiger des règles en moins de 30 minutes, contre des semaines voire des mois pour des conseillers humains.

Une approche risquée

“Nous n’avons pas besoin de la règle parfaite sur XYZ”, a déclaré Zerzan aux employés du DOT lors de la réunion. “Nous n’avons même pas besoin d’une règle très bonne sur XYZ. Nous voulons quelque chose de suffisant.”

Cependant, ces règles touchent chaque facette de la sécurité des transports, et “suffisamment bon” ne suffira pas. Dans ce cas, toute erreur pourrait avoir des conséquences graves. Cela semble “extrêmement irresponsable”, comme l’a avoué un employé à ProPublica. Parmi les règles rédigées avec l’aide de Gemini figure une règle de la Federal Aviation Administration qui n’a pas encore été publiée, selon un employé du DOT.

Les initiatives de l’administration

Apparemment, Donald Trump a demandé aux agences fédérales d’adopter l’IA à un rythme rapide. Cependant, la rédaction de lois et de régulations n’a pas été spécifiquement mentionnée. Néanmoins, Zerzan souhaite que le DOT soit “le fer de lance” de cet effort et “la première agence entièrement habilitée à utiliser l’IA pour rédiger des règles”.

Scroll to Top