![IA vs. Authenticité : Le besoin croissant de preuve dans le contenu numérique](https://www.ecommercebridge.fr/wp-content/uploads/2024/12/AI-vs-Authenticity.jpg)
Comment les entreprises réagissent à l’essor du contenu généré par l’IA
Face à ces problèmes, les grandes entreprises technologiques s’efforcent d’améliorer l’authenticité et la provenance des médias. Dans le cadre de sa conférence annuelle Build, Microsoft a annoncé que ses outils Bing Image Creator et Designer seraient désormais dotés de nouvelles fonctionnalités de provenance des médias.
Les utilisateurs pourront vérifier si les images ou les vidéos ont été réalisées par l’IA à l’aide de méthodes cryptographiques qui incluent des informations sur l’origine du contenu.
Mais pour que ce système fonctionne, les différentes plateformes doivent accepter la spécificationC2PA (Coalition for Content Provenance and Authenticity).
De même, Meta a publié un outil appelé Meta Video Seal qui permet d’ajouter des filigranes invisibles aux clips vidéo réalisés par l’IA. Cet outil open-source est censé fonctionner avec les logiciels existants sans aucun problème, ce qui facilite la recherche de contenu réalisé par l’IA. Video Seal promet de résister aux montages courants tels que le flou et le recadrage, contrairement aux anciennes technologies de filigrane qui avaient des problèmes avec la compression et la manipulation des vidéos.
Problèmes et limites
Malgré ces améliorations, il est encore difficile de convaincre un grand nombre de personnes d’utiliser ces technologies. De nombreux développeurs peuvent hésiter à passer des solutions propriétaires existantes à des options open-source comme Video Seal.
Meta prévoit d’organiser des ateliers lors des grandes conférences sur l’IA et de créer un tableau de classement public comparant les différentes méthodes de filigrane afin d’inciter un plus grand nombre de personnes à travailler ensemble.
Par ailleurs, les méthodes de filigrane dont nous disposons actuellement ne sont pas toujours suffisamment solides ou efficaces lorsqu’il s’agit de contenu vidéo.
![Video Seal_: Meta](https://www.ecommercebridge.com/wp-content/uploads/2024/12/video_seal_META-1024x427.png)
Source: aidemos.meta.com
Deux approches principales pour lutter contre les contenus générés par l’IA
Dans la lutte contre les contenus générés par l’IA, deux stratégies distinctes ont vu le jour :
- Le filigrane (approche préventive) :
- Il s’agit d’ajouter des signatures invisibles au contenu au moment de sa création.
- Il agit comme un certificat numérique indiquant que « ceci a été créé par l’IA »
- Des outils tels que Meta Video Seal et les fonctions de provenance de Microsoft représentent cette approche.
- Le principal avantage est l’identification immédiate des contenus issus de l’IA
- Outils de détection (approche analytique) :
- Analyse du contenu existant pour déterminer s’il a été généré par l’IA
- Recherche de modèles et de caractéristiques typiques d’un contenu créé par l’IA
- Particulièrement utile pour les contenus qui n’ont pas été marqués lors de leur création.
- Ces outils constituent notre deuxième ligne de défense
Les deux approches sont nécessaires car elles se complètent : le filigrane empêche les abus, tandis que les outils de détection permettent d’identifier les contenus non marqués.
Outils et technologies de détection
Les contenus générés par l’IA peuvent être repérés par d’autres moyens que les technologies de filigrane. De nouveaux outils de détection utilisent des algorithmes complexes pour examiner à la fois le contenu textuel et les images.
![Powered by AI](https://www.ecommercebridge.com/wp-content/uploads/2024/08/Automation-and-AI-1024x683.jpg)
Source: Depositphotos
- Originalité : des algorithmes d’apprentissage en profondeur sont utilisés par l’IA pour trouver des modèles dans le texte généré par l’IA.
- GPTZero examine les structures linguistiques et la fréquence des mots pour faire la différence entre un contenu écrit par des humains et un contenu créé par des machines.
- CopyLeaks utilise des N-grammes et des comparaisons syntaxiques pour trouver de petits changements dans le langage qui pourraient être des signes d’une création par l’IA.
Ces outils sont censés donner aux utilisateurs des avis précis sur la véracité des contenus, mais leur efficacité est très variable.
En conclusion
À mesure que l’IA générative progresse, la protection de l’authenticité numérique devient de plus en plus cruciale. Microsoft et Meta sont à l’avant-garde avec des normes révolutionnaires pour l’authenticité des contenus et la vérification de la provenance des médias.
Pour lutter efficacement contre les « deepfakes », il faut que ces outils soient adoptés par l’ensemble du secteur et que la collaboration entre les entreprises technologiques soit renforcée. L’intégrité future du contenu numérique dépend de l’évolution des technologies de détection, qui doivent être plus rapides que les tromperies générées par l’IA.
En fait, nous avons récemment expliqué comment YouTube prend des mesures similaires en introduisant de nouveaux outils de détection de l’IA pour les créateurs et les marques. Leur approche comprend des technologies d’identification de voix synthétiques et de détection de visages générés par l’IA, ce qui démontre une fois de plus que les grandes plateformes s’efforcent de protéger l’authenticité du contenu à l’ère de l’IA.