Le 4 février 2026, un sénateur de l’Illinois a déposé un projet de loi au nom presque rassurant : Artificial Intelligence Safety Act.
Son principe réel l’est beaucoup moins.
Le texte, appelé SB3444, prévoit qu’un développeur de modèles d’IA dits « frontier » ne pourrait pas être tenu responsable si son système provoque un « dommage critique », à condition qu’il n’ait pas agi intentionnellement ou de manière reckless, et qu’il ait publié sur son site un protocole de sécurité ainsi qu’un rapport de transparence.
Et le texte définit lui-même ce qu’il appelle un « dommage critique » : la mort ou les blessures graves d’au moins 100 personnes, ou au moins 1 milliard de dollars de dégâts matériels. Il inclut aussi les cas où le modèle aurait causé ou facilité la création ou l’usage d’une arme chimique, biologique, radiologique ou nucléaire.
Le 9 avril 2026, un document officiel de l’Illinois montre qu’OpenAI s’est déclaré favorable au texte lors d’une audition parlementaire. Pas en coulisses. Pas selon une rumeur. Officiellement.
Autrement dit : la société qui développe ChatGPT soutient un projet de loi qui pourrait protéger les laboratoires d’IA contre des poursuites civiles même après une catastrophe de masse, tant qu’il serait difficile de prouver qu’ils ont voulu le désastre ou agi avec une témérité juridique caractérisée.
C’est là que le sujet devient beaucoup plus grave qu’un simple débat technique sur la régulation de l’IA.
Publier ses propres règles de sécurité pour réduire sa responsabilité
Le cœur du texte est là.
Pour bénéficier de cette protection, l’entreprise devrait publier :
- un protocole de sécurité ;
- un rapport de transparence résumant ses évaluations de risques et les mesures prises.
Mais le projet de loi n’impose pas d’audit externe obligatoire. Il demande seulement d’indiquer « si et comment » l’entreprise compte utiliser des tiers pour évaluer ses risques. Et il autorise le développeur à caviarder les informations qu’il juge sensibles pour protéger ses secrets commerciaux, sa cybersécurité ou ses informations propriétaires.
Dit plus simplement :
une entreprise pourrait publier ses propres documents de sécurité, écrits selon ses propres critères, éventuellement expurgés de leurs parties sensibles, puis invoquer ces documents pour limiter sa responsabilité si l’un de ses modèles contribue à une catastrophe.
Ce n’est pas l’interprétation d’un opposant. C’est l’architecture même du texte.
Le seuil choisi est presque obscène
On ne parle pas ici d’un chatbot qui donne une mauvaise réponse.
On ne parle pas d’un préjudice banal, d’un bug ou d’un mauvais conseil.
Le seuil prévu par SB3444 commence à :
- 100 morts ou blessés graves ;
- ou 1 milliard de dollars de dégâts.
Ce n’est pas le niveau où l’on devrait chercher à alléger la responsabilité des entreprises.
C’est précisément le niveau où l’on devrait s’attendre à ce qu’elles répondent pleinement de ce qu’elles ont construit, déployé et vendu.
Le projet de loi ne dit donc pas seulement : « encadrons les modèles les plus puissants ».
Il dit aussi : si le pire arrive, la première question ne sera peut-être plus “qui a failli ?”, mais “l’entreprise avait-elle publié les bons documents sur son site ?”
Même dans l’industrie de l’IA, le texte choque
Le 14 avril 2026, Anthropic, concurrent direct d’OpenAI, a publiquement pris position contre SB3444. L’entreprise a estimé qu’une bonne loi sur la transparence ne devait pas servir de « carte sortie de prison » contre toute responsabilité.
Anthropic soutient à la place un autre projet de loi de l’Illinois, SB3261, beaucoup plus contraignant : plan public de sécurité, signalement d’incidents, protections liées aux enfants, et évaluations par des tiers. Le texte prévoit même qu’un développeur ne puisse pas déployer un modèle frontier s’il présente un risque catastrophique déraisonnable.
Le contraste est brutal :
- SB3444, soutenu par OpenAI : publier ses règles, puis obtenir une forte protection contre la responsabilité en cas de catastrophe.
- SB3261, soutenu par Anthropic : publier, évaluer, signaler, et rester comptable des risques.
Même des juristes interrogés par Fortune jugent le texte soutenu par OpenAI particulièrement faible.
La professeure de droit Anat Lior estime que le projet fixe la barre « très bas », car prouver qu’une entreprise a agi intentionnellement ou de façon reckless dans un accident impliquant l’IA serait extrêmement difficile.
Le professeur Gabriel Weil va plus loin : selon lui, le texte accorderait une « protection quasi totale » en échange d’exigences très faibles, y compris dans des événements extrêmes.
Ce n’est pas encore une loi. Mais c’est déjà un signal.
Il faut être exact : SB3444 n’a pas été adopté.
Au 10 mai 2026, le texte est toujours en commission au Sénat de l’Illinois. Il a été déposé le 4 février, renvoyé à la commission AI and Social Media le 18 février, et sa dernière échéance parlementaire a été repoussée au 15 mai 2026.
Mais prétendre que « ce n’est rien parce que ce n’est pas encore voté » serait passer à côté du vrai sujet.
Le plus révélateur n’est pas seulement l’avenir de ce texte.
C’est le fait qu’un des laboratoires d’IA les plus puissants du monde ait jugé politiquement défendable de soutenir une logique aussi claire :
plus les conséquences potentielles de ses systèmes deviennent gigantesques, plus l’entreprise cherche à cadrer à l’avance les conditions dans lesquelles elle pourrait ne pas en répondre.
Pendant des années, les grands acteurs de l’IA ont demandé qu’on leur fasse confiance parce qu’ils étaient les mieux placés pour comprendre les risques de leurs propres technologies.
Aujourd’hui, au moins l’un d’eux soutient un texte où le simple fait de publier ses propres garde-fous pourrait l’aider à échapper à des poursuites après 100 morts.
Ce n’est pas de la science-fiction.
Ce n’est pas une peur irrationnelle de l’IA.
Ce n’est même pas une accusation extrapolée.
C’est écrit noir sur blanc dans un projet de loi officiel.
Et OpenAI l’a soutenu officiellement.