L'IA débarque au Département du Trésor américain. Sam Corcos, ancien dirigeant de startup et affilié au Département de l'Efficacité Gouvernementale, désormais directeur des systèmes d'information au Trésor, a approuvé une dépense d'au moins 1,5 million de dollars pour jusqu'à 3 000 licences ChatGPT d'OpenAI, révèlent les registres fédéraux. L'agence s'engage à dépenser 1,5 million de dollars pour ces services et a déjà versé plus de 500 000 dollars, indiquent ces documents. Fast Company a obtenu un accord d'utilisateur montrant que le Trésor autorise les employés à utiliser ChatGPT pour des missions « autorisées », y compris, dans certains cas, avec des « informations non classifiées contrôlées » nécessitant une protection. Cette utilisation élargie intervient alors que les agences fédérales subissent une pression croissante pour adopter l'IA, présentée comme un levier d'efficacité contre la bureaucratie excessive. Les règles de l'accord imposent des limites strictes, notamment sur les données personnelles, informations économiques sensibles et données fiscales fédérales, et interdisent toute tentative de contourner les mesures de sécurité des chatbots IA sans autorisation. Les employés ne doivent pas utiliser les sorties IA sans vérification humaine ni masquer le rôle de l'IA, sous peine de licenciement. Un ancien responsable du Trésor estime que le personnel utilise l'outil pour des tâches chronophages. Tony Arcadi, prédécesseur de Corcos, évoque de multiples cas d'usage comme l'automatisation administrative : « Bien gérée avec des contrôles robustes, l'IA peut multiplier les capacités en renseignement, opérations, finance, application de la loi et engagement public. » Le Trésor avait déjà investi dans des licences ChatGPT plus limitées. Ni le Trésor ni OpenAI n'ont commenté. En septembre, l'agence a publié un plan de conformité favorisant l'IA et une stratégie dédiée. Cette accélération gouvernementale de l'IA, y compris via GenAI.mil pour l'armée, comporte des risques : un rapport récent du Département de la Santé pourrait provenir d'IA avec des citations falsifiées, et des greffiers fédéraux ont inclus des erreurs via ChatGPT et Perplexity. Pour la France, cela renforce les partenariats transatlantiques en IA, influençant les régulations européennes comme l'AI Act et les stratégies numériques françaises, tout en soulignant les risques de sécurité des données partagées avec les États-Unis, impactant directement l'économie et la souveraineté numérique des citoyens français.