Sora d'OpenAI déjà submergé par les deepfakes et les violations de propriété intellectuelle!!

Salut à tous les amoureux de l'high-tech,
Lancée récemment, la plateforme Sora, accompagnée de l’IA générative vidéo Sora 2, promettait d’être le nouveau réseau social dédié aux contenus créés par intelligence artificielle. Mais en quelques jours, elle se retrouve déjà confrontée à une vague de deepfakes, de violations de droits d’auteur, et de contenus problématiques.
Un clone de TikTok… mais pour des vidéos IA
Disponible uniquement sur iOS aux États-Unis et au Canada, Sora se présente comme une application de partage de vidéos, à la manière de TikTok, mais avec des contenus entièrement générés par IA. Les utilisateurs peuvent créer, partager, et consulter des clips courts dans un fil d’actualités. La plateforme a rapidement fait le buzz, mais pas pour les bonnes raisons.
La prolifération des deepfakes et des contenus protégés
Des vidéos à la fois impressionnantes et inquiétantes
De nombreux contenus créés avec Sora mettent en scène des personnalités célèbres, notamment Sam Altman, le CEO d’OpenAI, dans des situations absurdes ou illégales, comme voler des cartes graphiques. Ces vidéos, souvent très réalistes, illustrent la puissance de l’IA pour générer des deepfakes.
Des personnages protégés par le droit d’auteur
Ce qui pose problème, c’est la fréquence des vidéos mettant en scène des personnages de dessins animés, de jeux vidéo ou de séries, comme Pikachu, Bob l’éponge, Mario, Lara Croft, ou encore des personnages de South Park ou Rick et Morty. La majorité de ces contenus semblent issus d’œuvres protégées, et OpenAI ne cache pas que son modèle a été entraîné sur des contenus soumis à droits d’auteur, sauf opposition explicite.
La limite de la plateforme
OpenAI indique que le modèle n’est pas conçu pour générer des personnalités nommément, mais que l’utilisation de personnages issus d’émissions ou de jeux vidéo est possible en contournant certains blocages, en mentionnant des œuvres dans lesquelles ils apparaissent. La société a déjà reçu des oppositions, notamment de Disney, mais pas encore de Nintendo.
La gestion des droits et la lutte contre la désinformation
Des filigranes pour repérer les deepfakes
Les vidéos générées par Sora sont marquées d’un filigrane, une mesure visant à identifier leur origine IA. Cependant, cette protection n’est pas infaillible : des outils pourraient apparaître pour supprimer ces filigranes, rendant la détection plus difficile.
Un risque de désinformation accru
Les deepfakes, déjà nombreux sur les réseaux sociaux, risquent de proliférer avec cette technologie. Des chaînes d’informations ou des comptes malveillants pourraient diffuser de fausses actualités, en utilisant des vidéos IA crédibles mais totalement fabriquées.
En résumé
Lancé avec enthousiasme, Sora d’OpenAI montre déjà ses limites : la plateforme est rapidement submergée par des contenus problématiques, notamment des deepfakes et des violations de droits d’auteur. Si la technologie permet des créations impressionnantes, elle pose aussi de sérieuses questions éthiques, légales, et de sécurité.
Le défi pour OpenAI sera de réguler efficacement ces contenus, tout en exploitant le potentiel créatif de l’IA, sans ouvrir la porte à une vague de désinformation et de violations.
Que pensez-vous de cette nouvelle génération de contenus IA ? La prolifération des deepfakes est-elle un risque ou une étape inévitable vers une nouvelle ère de la création numérique ? Partagez votre avis en commentaire.
Commentaires
Enregistrer un commentaire