3.5/5

Google DeepMind introduit SynthID, un outil open source conçu pour marquer de manière invisible les contenus générés par l’IA, afin de faciliter leur identification. L’objectif affiché ? Apporter une transparence quasi totale dans un univers où les productions de l’IA se multiplient.

Avec SynthID, DeepMind propose un mécanisme novateur : insérer un filigrane invisible dans les textes générés, une signature discrète permettant d’identifier si une phrase provient d’un modèle d’IA. Selon Google, ce filigrane est imperceptible et n’affecte pas la qualité des contenus. « Rendre l’IA responsable » est l’ambition affichée par Pushmeet Kohli, vice-président de la recherche chez Google DeepMind.

Mais peut-on réellement surveiller l’IA ?

Disponible sur Hugging Face, SynthID peut être intégré dans divers modèles, notamment l’application Gemini. Cet outil, gratuit pour les développeurs, permet de détecter les contenus IA, mais uniquement ceux produits par les modèles de Google.

Pour les préoccupations liées à l’impact sur la créativité ou l’intrusion, Google affirme que, après des millions de tests, les utilisateurs ne remarquent aucune différence entre les textes marqués et non marqués. Cependant, le dispositif a ses limites : une traduction ou une réécriture complète peut rendre le filigrane indétectable.

SynthID résiste à des modifications mineures, mais il s’efface face à des révisions approfondies, des traductions ou des contenus factuels très précis. Soheil Feizi, expert en IA, reconnaît l’intérêt de cette innovation tout en soulignant sa fragilité face à de tels ajustements. En l’état, le filigrane ne peut garantir l’authenticité de tous les contenus IA.

Malgré ces défis, Google DeepMind reste confiant et encourage la communauté open source à expérimenter et perfectionner SynthID. Ce filigrane pourrait-il devenir un standard ou restera-t-il un simple outil parmi d’autres ? Pour l’instant, il représente un premier pas vers une transparence encore incertaine.

Cette initiative soulève une question plus globale : marquer les contenus IA est-il suffisant pour prévenir les abus ? Irene Solaiman, de Hugging Face, rappelle qu’un filigrane ne constitue qu’une solution parmi d’autres. La régulation de l’IA nécessitera un arsenal d’outils et une vigilance accrue, tout comme pour les contenus générés par des humains.