banner

Nouvelles

Aug 08, 2023

Les agences gouvernementales exploitent les outils d'IA et les grands modèles linguistiques

Les technologies d’intelligence artificielle (IA) et d’apprentissage automatique se développent dans les applications gouvernementales à mesure que les agences commencent à utiliser de puissantes ressources pour remplir leurs missions.

Bien que les grands modèles linguistiques (LLM) comme ChatGPT, OpenAI et Meta puissent être utiles, les responsables des agences ont déclaré qu'ils ne sont pas en mesure d'utiliser ces modèles à grande échelle en raison de problèmes de sécurité.

"Les modèles sont si grands que les intégrer dans notre environnement sécurisé est probablement d'un coût prohibitif et la société ne nous a pas non plus donné accès aux modèles eux-mêmes", a déclaré le lieutenant-colonel Joseph Chapa, chef des données du département américain de l'armée de l'air. et officier de l'IA, lors du sommet de l'ATARC sur l'IA mercredi.

Chapa a déclaré que les grands modèles de langage ne sont actuellement pas certifiés pour le niveau de données des agences et qu'il existe donc plusieurs restrictions en place.

"Tout ce que nous faisons avec les systèmes doit être totalement non classifié et non sensible", a déclaré Chapa.

Mais Chapa a déclaré que l'agence espère que des modèles open source plus petits fourniront des outils sécurisés pour les données classifiées.

Parallèlement, les agences travaillent également en interne pour lutter contre les problèmes de sécurité et créer un environnement sécurisé pour les données. L’année dernière, par exemple, la Garde côtière américaine a créé une branche des données climatiques qui se concentre sur la construction de nouvelles infrastructures pour exécuter des applications d’IA et de LLM.

« Ce que je trouve le plus excitant en ce moment, c’est que nous sommes un peu en retard dans le match. Mais nous n'avons pas non plus eu à tirer toutes les leçons que les premiers utilisateurs ont apprises », a déclaré Jonathan White, chef de la branche Cloud et données de la Garde côtière, lors du sommet.

White a déclaré que les grands modèles de langage ne constituent qu’une part du gâteau de l’IA et que l’agence est extrêmement « curieuse de l’IA » car elle comprend à quel point la technologie sera ingénieuse.

« Avec un effectif limité, il est extrêmement difficile de placer les gens aux bons endroits à tout moment. Nous avons alors beaucoup de politiques, de réglementations et de règles et tout ce qui accompagne ces missions. Ne serait-il pas formidable si nous pouvions disposer d'un outil capable d'obtenir une réponse à votre question relative à ces politiques et réglementations ? » Blanc a expliqué. "S'ils sont au milieu d'une inspection ou d'un avertissement [et] s'ils ont besoin de poser une question, ne serait-il pas formidable d'avoir un assistant numérique pour faire apparaître les informations dont ils ont besoin pour mener cette inspection."

Cependant, les experts ont déclaré qu'ils ne pouvaient pas se fier entièrement à la technologie, car il fallait qu'un humain soit impliqué pour éviter les erreurs.

« Ce n’est pas différent de la façon dont nous menons nos affaires en général. Lorsque nous créons un nouveau projet, nous devons avoir des réviseurs, et lorsque vous effectuez tout type de recherche, vous avez des réviseurs de recherche », a déclaré David Na, responsable des fondations AIML Cloud de la NASA lors du sommet. « Nous avons besoin de réviseurs pour le contenu que vous obtenez généré. par ces grands modèles linguistiques.

Alors que les agences gouvernementales trouvent de la valeur dans les grands modèles linguistiques, Chapa a déclaré qu'elles sont conscientes que des défis peuvent persister. « Je sais que les gens utilisent ces modèles par eux-mêmes – à un moment donné, il y aura des dérapages ou des fuites », a-t-il noté.

Mais Chapa a déclaré que la meilleure utilisation des modèles de génération de texte est lorsque les informations de base sont déjà connues, il est donc facile de valider les faits.

« Les analystes seront tentés d'utiliser cet outil pour mieux comprendre le monde. Et je ne dis pas que nous ne devrions pas faire ça. Je dis que nous devons reconnaître que si nous voulons utiliser ces outils à ce titre, nous devons en plus construire une couche institutionnelle de vérification des faits », a déclaré Chapa.

Malgré les défis que peuvent créer les grands modèles linguistiques, les responsables de l'agence se sont déclarés enthousiasmés par l'expérience de recherche améliorée, l'accessibilité des données et les autres possibilités offertes par les outils d'IA.

PARTAGER