En 2017, Ian Goodfellow, pionnier de l'intelligence artificielle chez Google, déclarait déjà que notre capacité à faire confiance aux vidéos comme preuve de réalité était "un accident historique".
Aujourd'hui, cette prédiction s'est matérialisée avec Sora 2, le générateur vidéo d'OpenAI qui rend la création de deepfakes accessible à tous.
Comment la création de deepfakes est-elle devenue si simple ?
Il y a quelques années, créer un deepfake nécessitait des heures de travail et une expertise technique pointue.
Aujourd'hui, Sora 2 permet de générer une vidéo réaliste de 25 secondes, avec audio, en tapant simplement une ligne de texte. Cette démocratisation technologique soulève des questions éthiques majeures.
Que révèle l'enquête de NewsGuard sur Sora 2 ?
Une enquête récente de NewsGuard révèle l'ampleur du problème. Sur 20 fausses informations circulant en ligne entre septembre et octobre 2025, Sora 2 a réussi à créer des vidéos convaincantes pour 16 d'entre elles - dont 11 dès la première tentative.
Les exemples sont troublants :
- De faux reportages sur des bulletins pro-russes détruits en Moldavie
- Des agents de l'ICE arrêtant un enfant en bas âge
- Un boycott fictif du Super Bowl par Coca-Cola
- Des rumeurs sur l'interdiction de transferts d'argent pour les migrants
Plus inquiétant encore : Sora 2 a généré des vidéos convaincantes pour les cinq campagnes de désinformation russe testées, chacune en moins de cinq minutes.
https://aiexplorer.io/wp-content/uploads/2025/10/fake-news-sora-2-migrants.mp4Les protections d'OpenAI sont-elles vraiment efficaces ?
OpenAI affirme avoir mis en place des garde-fous : blocage de contenu violent, de représentations de personnalités publiques, filigrane visible et métadonnées C2PA.
Mais NewsGuard a démontré que ces protections sont fragiles :
- Le filigrane peut être supprimé en moins de quatre minutes avec des outils gratuits en ligne
- Les filtres sur les personnalités publiques sont incohérents (certaines descriptions vagues peuvent les contourner)
- Les vidéos altérées restent suffisamment nettes pour tromper la plupart des spectateurs
Des vidéos générées par Sora circulent déjà massivement sur les réseaux sociaux.
En octobre 2025, des clips montrant de prétendus manifestants antifa aspergés de gaz lacrymogène ont été partagés par des millions d'utilisateurs qui les ont pris pour des images réelles - filigrane compris.
Qui sont les acteurs susceptibles d'exploiter cette technologie ?
NewsGuard identifie plusieurs acteurs susceptibles d'exploiter Sora 2 pour la désinformation :
- Régimes autoritaires
- Réseaux de propagande étatiques
- Théoriciens du complot
- Acteurs motivés financièrement
OpenAI assume-t-il sa responsabilité face à cette menace ?
OpenAI n'est pas seul sur ce marché - Google avec Veo 3 et des développeurs chinois proposent des outils similaires.
Mais la portée d'OpenAI est sans précédent : l'application Sora 2 a été téléchargée plus d'un million de fois en cinq jours et est accessible gratuitement.
Cette échelle place une responsabilité immense sur les épaules d'OpenAI.
La manière dont l'entreprise gère cette responsabilité est déjà controversée.
Par exemple, OpenAI a bloqué des vidéos ciblant des figures historiques comme Martin Luther King avec des insultes racistes, mais a minimisé le danger en invoquant "un fort intérêt pour la liberté d'expression dans la représentation de figures historiques".
Sora 2.0 : d'importants problèmes de désinformation.
Ian Goodfellow avait raison en 2017 : l'IA ferme des portes que notre génération avait l'habitude de trouver ouvertes.
La confiance aveugle dans les vidéos comme preuve de réalité appartient désormais au passé.
Avec Sora 2, nous sommes entrés dans une ère où n'importe qui peut fabriquer une réalité alternative convaincante en quelques minutes.
La question n'est plus de savoir si cette technologie sera utilisée à mauvais escient, mais comment la société s'adaptera à cette nouvelle réalité où "voir" ne signifie plus nécessairement "croire".
