Le Take It Down Act a obtenu sa première condamnation fédérale, un homme de l'Ohio ayant plaidé coupable d'avoir utilisé plus de 100 modèles d'IA pour créer et distribuer des deepfakes non consensuels de femmes et d'enfants, marquant la première application réelle d'une loi historique spécifique à l'IA.
Le Take It Down Act a obtenu sa première condamnation. James Strahler II, un homme de 37 ans de Columbus, Ohio, a plaidé coupable le 7 avril à trois chefs d'accusation fédéraux : cyberharcèlement, production de représentations visuelles obscènes de matériel d'abus sexuel d'enfants et publication de falsifications numériques, le terme utilisé par la loi pour les deepfakes non consensuels. Le ministère de la Justice a confirmé qu'il est la première personne condamnée en vertu de cette loi.
Entre décembre 2024 et juin 2025, Strahler a utilisé plus de 100 modèles d'IA pour créer des images et des vidéos sexuellement explicites de six victimes adultes et les distribuer à leurs collègues et familles. Il a également généré du contenu deepfake impliquant des enfants et téléchargé des centaines d'images sur un site web d'abus sexuel d'enfants avant son arrestation en juin 2025.
Le Take It Down Act, présenté par les sénateurs Ted Cruz et Amy Klobuchar et promulgué le 19 mai 2025, criminalise la publication délibérée d'images intimes non consensuelles, y compris du contenu généré par l'IA représentant des personnes réelles. Il a été adopté à l'unanimité au Sénat et par 409 voix contre 2 à la Chambre.
Les peines prévues par la loi comprennent jusqu'à deux ans de prison par infraction impliquant des victimes adultes et jusqu'à trois ans lorsque des mineurs sont impliqués. Strahler n'a pas encore été condamné.
Le procureur fédéral Dominick Gerace a déclaré que cette poursuite envoie un message direct : « Nous ne tolérerons pas la pratique odieuse de publier et de diffuser des images intimes générées par l'IA de personnes réelles sans consentement. »
Au-delà des poursuites pénales, le Take It Down Act crée des obligations obligatoires pour les plateformes en ligne. Les plateformes concernées, y compris les sites web publics et les applications mobiles qui hébergent du contenu généré par les utilisateurs, doivent supprimer les images non consensuelles signalées dans les 48 heures suivant une demande valide de la victime et faire des efforts raisonnables pour trouver et supprimer les copies identiques.
La date limite de conformité est le 19 mai 2026, dans un peu plus d'un mois. Les plateformes qui ne parviennent pas à établir un processus de suppression formel font face à des mesures d'application par la Federal Trade Commission. La loi n'empêche pas les protections au niveau des États, et au moins 45 États ont leurs propres lois sur les deepfakes d'IA en place.
Le Take It Down Act est largement décrit comme la première grande loi fédérale aux États-Unis qui restreint directement les utilisations nuisibles de l'IA. Son adoption reflète une urgence bipartisane croissante autour des abus générés par l'IA à un moment où les outils de deepfake sont devenus largement accessibles. Le National Center for Missing and Exploited Children a reçu plus de 1,5 million de signalements d'exploitation liés à l'IA en 2025 seulement.
La même technologie qui permet les images intimes non consensuelles alimente également les escroqueries par deepfake dans le secteur des cryptomonnaies, où des imitations générées par l'IA de personnalités éminentes ont été utilisées pour frauder des investisseurs. La crise des deepfakes sur les plateformes financières a vu les attaques de vishing pilotées par l'IA augmenter de 28 % d'une année sur l'autre au troisième trimestre 2025, soulignant pourquoi l'intervention au niveau fédéral a des implications larges au-delà des seules images intimes.
La Première Dame Melania Trump, qui a défendu la législation dans le cadre de son initiative Be Best, a déclaré être fière de la première condamnation.


