Assistance nulle
Le contenu est rédigé sans aide significative d'un outil d'IA générative.
Engagement éditorial
Le Recul peut utiliser l'intelligence artificielle comme outil de travail, jamais comme remplaçant du jugement éditorial. Cette charte explique ce que l'IA peut faire, ce qu'elle ne peut pas faire, et comment les contenus sont vérifiés.
L'IA peut aider. Le verdict reste humain.
Le Recul traite l'IA comme un outil, pas comme une autorité.
Une IA peut aider à chercher, structurer, résumer, comparer, reformuler ou repérer des incohérences. Elle peut accélérer certaines tâches et rendre le travail plus efficace.
Mais elle ne décide pas seule de ce qui est vrai, important, utile ou fiable.
Chaque contenu publié doit rester compréhensible, vérifiable et assumé éditorialement. Quand une information est incertaine, la page doit le dire. Quand une preuve manque, le verdict doit rester prudent.
Le Recul peut indiquer le niveau d'assistance IA d'un contenu lorsque c'est utile pour le lecteur.
Le contenu est rédigé sans aide significative d'un outil d'IA générative.
L'IA a pu aider à reformuler, structurer, résumer ou corriger un passage, sans produire le fond du contenu.
L'IA a contribué à préparer une trame, comparer des informations, synthétiser des sources ou proposer une première version de certains passages. Le contenu est ensuite vérifié, corrigé et validé humainement.
L'IA a joué un rôle important dans la préparation du texte, l'organisation des données ou la production d'une première version. Ce niveau impose une relecture renforcée, une vérification des sources et une validation éditoriale humaine avant publication.
Certains classements, collectes de benchmarks ou mises à jour de données peuvent être assistés par des scripts et outils automatisés. Ces automatisations ne remplacent pas la méthode éditoriale : elles doivent rester contrôlables, documentées et vérifiables.
L'IA peut être utilisée pour aider à :
L'IA peut donc améliorer la vitesse de travail, mais elle ne suffit jamais à transformer une information non vérifiée en preuve.
Chez Le Recul, l'IA ne doit jamais :
Une démonstration impressionnante ne devient pas une preuve parce qu'elle a été bien formulée par une IA.
Les sources, chiffres et citations doivent être vérifiés avant publication.
Quand un article mentionne un prix, une annonce, une fonctionnalité, un benchmark, une limite ou une affirmation technique, la source utilisée doit être identifiable autant que possible.
Les sources prioritaires sont :
L'IA peut aider à retrouver ou comparer des sources, mais elle ne doit pas être considérée comme une source primaire.
Un test réel doit correspondre à une action réellement effectuée.
Si Le Recul indique qu'un outil a été testé, le test ne doit pas être inventé, simulé ou déduit uniquement à partir d'une description.
Les captures d'écran, résultats, échanges, exports, emails, fichiers ou témoignages doivent correspondre à des éléments réels. Une IA ne doit pas générer une fausse preuve pour illustrer un test.
Les témoignages sont traités comme des signaux. Ils peuvent aider à repérer un problème, une tendance ou une limite, mais ils ne remplacent pas une vérification.
Le classement IA peut utiliser des données publiques, benchmarks, sources techniques et traitements automatisés.
Ces données peuvent être collectées, préparées ou normalisées avec l'aide de scripts ou d'outils IA. Mais le classement doit rester fondé sur une méthodologie explicite, cohérente et vérifiable.
Un score ne résume pas toute la réalité d'un modèle IA.
Le Recul sépare les usages pour éviter les comparaisons absurdes : chat, code, image, vidéo, audio, coût/performance, IA locales, modèles cloud et systèmes agentiques ne répondent pas aux mêmes besoins.
Quand les données sont trop faibles, le site doit l'indiquer : couverture partielle, données limitées, score fragile ou résultat à confirmer.
Le Recul peut utiliser des images, visuels, sons ou vidéos générés ou modifiés par IA uniquement si leur nature ne trompe pas le lecteur.
Un contenu synthétique ne doit pas être présenté comme une preuve réelle.
Une image générée par IA ne doit pas être présentée comme une photographie authentique. Une voix générée ne doit pas être présentée comme un enregistrement réel. Une vidéo ou capture manipulée ne doit pas être utilisée pour faire croire à un événement qui n'a pas eu lieu.
Lorsque le risque de confusion existe, le contenu doit être signalé clairement.
L'IA peut aider à repérer une erreur, une incohérence ou une information obsolète.
Mais la décision de corriger appartient à l'équipe éditoriale.
Quand une erreur importante est identifiée, Le Recul doit corriger le contenu concerné. Si la correction change fortement le sens d'un article ou d'un verdict, la mise à jour doit être visible ou explicite.
Un contenu sur l'IA peut devenir obsolète rapidement. Le Recul doit donc distinguer ce qui est établi, ce qui est daté, et ce qui doit être revérifié.
La responsabilité finale d'un contenu publié par Le Recul reste humaine.
Une IA peut assister le travail. Elle ne signe pas un verdict. Elle ne porte pas la responsabilité d'une publication.
Le lecteur doit pouvoir comprendre :
La transparence ne sert pas à se couvrir. Elle sert à permettre au lecteur de juger la fiabilité du contenu.
Le Recul peut utiliser l'IA, mais ne délègue pas son jugement à l'IA. Nos règles sont simples :
L'IA promet. Le Recul vérifie.