« Ne pas le faire serait un cadeau à la Chine » : Trump centralise la régulation de l’IA au niveau fédéral des États-Unis
Donald Trump a signé jeudi un décret visant à centraliser la régulation de l’intelligence artificielle (IA) au niveau fédéral, avec pour objectif d’empêcher les 50 États américains de le faire à leur niveau. « Nous voulons avoir une seule source d’autorisation », a dit le président américain, qui prône une approche dérégulée de l’IA, dans le Bureau ovale. « Nous sommes loin devant la Chine. La Chine le sait. Et ne pas faire ça serait le plus grand cadeau à la Chine », a-t-il assuré.
Le texte vise à « assurer que l’intelligence artificielle puisse opérer dans un seul cadre dans ce pays plutôt que d’être sujette à des régulations au niveau des États qui pourraient paralyser le secteur », a expliqué Will Scharf, secrétaire général de la Maison Blanche.
Un décret ne peut, en théorie, toutefois pas primer sur un texte voté au Congrès ou par le Parlement d’un État américain. Plus de cent lois ont déjà été adoptées dans une trentaine d’États, à majorité démocrate et républicaine. Elles portent sur de nombreux aspects liés à l’IA, du développement raisonné des modèles d’IA générative à la création de « deepfakes » (contenu mettant en scène une personne grâce à l’IA) en passant par l’obligation de transparence sur l’usage de cette technologie.
De nombreuses propositions de loi ont été déposées au Congrès, mais aucune n’a encore été soumise au vote. Quelques heures après son investiture, en janvier, Donald Trump avait annulé un décret pris par son prédécesseur Joe Biden sur la sécurité en matière d’intelligence artificielle (IA).
Le texte initial, dévoilé en octobre 2023, imposait notamment aux entreprises du secteur de transmettre au gouvernement fédéral certaines données relatives à leurs modèles d’IA. Il leur fallait ainsi communiquer les résultats de tests lorsque les programmes présentaient « un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique ».

