en conflit direct avec plusieurs États qui ont créé leurs propres règles pour l'intelligence artificielle. L'ordre demande au ministère de la Justice de contester les lois des États que les agences fédérales estiment pouvoir bloquer ou interférer avec les plans nationaux en matière d'IA. Il crée également un nouveau groupe au sein du ministère de la Justice appelé le Groupe de Travail sur les Litiges en IA. Ce groupe examinera les règles des États et décidera lesquelles devraient être portées devant les tribunaux.
L'une des premières lois des États auxquelles l'ordre fait référence est la nouvelle règle du Colorado connue sous le nom de loi sur la discrimination algorithmique. Cette loi vise à prévenir un traitement injuste qui pourrait découler de l'utilisation de systèmes automatisés. Le gouvernement fédéral indique que cette nouvelle règle du Colorado pourrait gêner une approche nationale unique en matière d'IA. L'ordre note que d'autres lois des États pourraient également être examinées bientôt. Le gouvernement fédéral semble croire que trop de règles différentes à travers le pays pourraient ralentir le travail sur l'IA et créer de la confusion pour les entreprises et les développeurs.
L'ordre exécutif indique que les agences fédérales doivent examiner chaque règle d'État qui concerne l'IA et décider si ces règles correspondent à ce que la politique nationale souhaite. Si certaines règles d'État ne correspondent pas au plan national, les agences sont invitées à réfléchir aux limites de financement. Cela signifie que les États pourraient perdre certains fonds fédéraux s'ils maintiennent des règles que le gouvernement fédéral juge contraires aux objectifs nationaux pour l'utilisation de l'IA. L'ordre stipule également que les agences doivent travailler ensemble et partager leurs découvertes lors de l'étude de ces règles d'État.
Le gouvernement fédéral soutient que l'IA est un domaine en pleine croissance et qu'elle touche de nombreux aspects de la vie, de la santé au transport en passant par l'éducation. Pour cette raison, l'administration dit qu'une norme nationale est nécessaire pour garantir que l'IA soit sûre, équitable et utile. Ils affirment qu'une longue liste de différentes lois étatiques pourrait rompre le flux des affaires entre les États et pourrait créer des problèmes pour les personnes ou les groupes qui travaillent avec des systèmes d'IA dans plus d'un État.
Les partisans de l'ordre affirment que le pays a besoin d'un chemin clair afin que les constructeurs et les utilisateurs de l'IA puissent avoir confiance dans les règles. Ils disent qu'une norme nationale forte aidera les nouveaux projets à se développer sans craindre de faire face à des limites différentes après avoir franchi une frontière d'État. Ils ajoutent qu'une approche unique peut aider à garantir que les outils d'IA sont testés et vérifiés de manière équitable.
Les personnes qui soutiennent des règles étatiques strictes affirment que les dirigeants locaux comprennent les risques qui affectent leur population et que les États devraient avoir le droit de les protéger. Ils avertissent que la suppression des règles étatiques pourrait laisser des lacunes où les gens pourraient ne pas être protégés contre les dommages causés par les outils d'IA. Ils affirment que le plan fédéral doit encore laisser de la place aux États pour agir si nécessaire.
Cet ordre exécutif marque le début de ce qui pourrait être un long débat. La question est de savoir combien de pouvoir chaque État devrait avoir en ce qui concerne les lois sur l'IA. La réponse façonnera la manière dont l'IA se développera dans le pays et comment les gens seront protégés à mesure que ces nouveaux outils deviendront partie intégrante de la vie quotidienne.
