Meta vient d'annoncer des changements majeurs dans le fonctionnement de ses chatbots IA suite à des révélations troublantes sur leurs interactions avec les adolescents.
L'entreprise a été contrainte de revoir ses directives internes après qu'une fuite ait exposé des règles particulièrement permissives concernant les contenus générés par l'intelligence artificielle.
Cette mise à jour intervient dans un contexte de tensions croissantes autour de la sécurité des IA conversationnelles et de leur impact sur les utilisateurs vulnérables, notamment les mineurs.
Que change Meta pour protéger les adolescents ?
Depuis le 30 août 2025, Meta a annoncé une série de modifications importantes pour ses chatbots présents sur Facebook, Instagram et WhatsApp.
Les chatbots IA de Meta ne peuvent désormais plus engager de conversations avec les adolescents sur des sujets sensibles.
Fini les discussions sur l'automutilation, le suicide, les troubles alimentaires ou tout contenu à caractère romantique ou sexualisé.
Quand ces sujets émergent, les bots doivent automatiquement rediriger les jeunes utilisateurs vers des services de soutien professionnel.
L'entreprise restreint également l'accès des mineurs aux personnages de chatbots problématiques.
Les personas comme "Step Mom" ou "Russian Girl" ne sont plus accessibles aux adolescents, qui ne peuvent désormais interagir qu'avec des chatbots axés sur l'éducation et la créativité.
Stephanie Otway, porte-parole de Meta, a reconnu que les directives précédentes étaient "inadéquates".
Elle qualifie ces nouvelles mesures de "changements provisoires" en attendant des mises à jour de sécurité plus permanentes.
Quelles étaient les règles problématiques révélées ?
Les révélations de Reuters en août 2025 ont jeté un pavé dans la mare en exposant le contenu d'un document interne de plus de 200 pages intitulé "GenAI: Content Risk Standards".
Ces directives permettaient des scénarios particulièrement choquants. Les chatbots pouvaient engager des conversations "romantiques" ou "sensuelles" avec des mineurs. Le document donnait des exemples troublants, comme décrire un enfant de huit ans comme une "œuvre d'art" ou qualifier son corps de "trésor".
Côté contenus racistes, les règles autorisaient certaines déclarations discriminatoires. Un chatbot pouvait affirmer que "les personnes noires sont moins intelligentes que les blanches" tant que le langage n'était pas explicitement déshumanisant.
Les expressions comme "singes sans cerveau" restaient interdites.
Pour la génération d'images, les directives permettaient des scènes violentes tant qu'elles n'étaient pas trop graphiques.
Un homme menaçant une femme avec une tronçonneuse était acceptable, mais pas les représentations de démembrement.
Andy Stone, porte-parole de Meta, a admis que ce type de contenu était "incompatible avec nos politiques" et "n'aurait jamais dû être autorisé".
L'entreprise n'a supprimé ces passages qu'après que Reuters ait soulevé le problème.
Comment Meta gère-t-elle les accusations d'"IA woke" ?
Paradoxalement, malgré ces directives permissives, Meta s'inquiète que son intelligence artificielle soit trop "woke" selon les standards conservateurs.
L'entreprise a récemment embauché Robby Starbuck, un activiste conservateur, comme consultant pour traiter les "biais politiques" de ses IA.
Starbuck n'est pas spécialiste en IA mais est connu pour son opposition aux initiatives de diversité, équité et inclusion (DEI).
Il a conseillé l'administration Trump et est affilié à la Heritage Foundation.
Cette décision fait suite à un incident où un chatbot avait faussement affirmé que Starbuck était impliqué dans l'émeute du Capitole du 6 janvier.
Elle s'inscrit aussi dans la pression de l'administration Trump pour forcer les entreprises d'IA ayant des contrats gouvernementaux à utiliser des modèles soi-disant "politiquement neutres".
Mark Zuckerberg, le fondateur de Meta, a historiquement tendance à s'adapter rapidement à ces changements de demandes politiques.
Consulting
Besoin d'aide pour implémenter ça ?
30 min de call gratuit. On regarde votre cas, on vous dit si ça vaut le coup.
Pourquoi les IA penchent-elles à gauche ?
Les recherches du spécialiste David Rozado montrent que la plupart des grands modèles de langage adoptent des positions libérales sur les sujets politiques, surtout après ajustement.
Cette tendance se vérifie même pour des modèles issus de plateformes plutôt conservatrices comme xAI d'Elon Musk.
Ironiquement, les interventions manuelles visant à "corriger" ce biais ont parfois mené ces modèles à diffuser des théories du complot, générer du contenu antisémite, ou même faire l'éloge d'Hitler.
Cette situation illustre la difficulté de créer une IA véritablement "neutre" politiquement, la neutralité étant souvent un prétexte pour orienter les systèmes vers des points de vue particuliers.
Communauté
Rejoins les builders IA
Tips, prompts, retours d'expérience. Le Telegram des gens qui buildent avec l'IA.
