Les Intelligences artificielles ont besoin de s’entraîner pour créer des articles, images, sons.., et piochent donc joyeusement dans les ressources existantes à savoir le travail des journalistes, des artistes, sans leur accord préalable, pillant ainsi allègrement leurs droits d’auteur et leurs droits financiers.
Certains auteurs portent plainte :
Et si la solution était en amont, en piégeant ses créations pour intoxiquer les IA qui s’en nourrissent :
Le logiciel GLAZE, développé par le professeur d’informatique Ben Zhao et son équipe de l’Université de Chicago, ajoute dans les illustrations des artistes qui le téléchargent des pixels invisibles pour l’œil humain, mais qui bloquent les IA utilisant ces illustrations : les images générées sont floues, les éléments repris sont brouillés. Ce logiciel créé fin 2022/début 2023 et déjà massivement téléchargé a repris en effet des principes de perturbation des systèmes de reconnaissance faciale.
Le programme NIGHTSHADE, créé par la même équipe, il s’attaque lui aux algorithmes des IA faisant le lien entre les demandes verbales des utilisateurs des IA et les images obtenues : vous avez demandé un chat vous obtiendrez un poney … :
Le logiciel KUDURRU, créé par la société Spawning, aide les plateformes internet fournissant des images à détecter des collectes massives de ces images sur leur site par les IA. Les artistes alertés peuvent soit bloquer l’accès soit envoyer aux IA d’autres images que celles demandées, ce qui fausse leur entraînement. Une IA ne devient fiable que si ses sources le sont…
Le logiciel ANTIFAKE, gratuit, créé par le doctorant Zhiyuan Yu, l’informaticien et ingénieur Ning Zhang et l’équipe de la McKelvey School of Engineering de l’Université de Washington à St. Louis, ce logiciel lutte contre la cybercriminalité vocale en général : il déforme le signal audio du fichier-son légitime, afin qu’il sonne juste pour un auditeur humain tout en étant inutilisable pour l’entraînement d’une IA vocale. Cela permet de lutter par exemple contre les Deepfakes, les montages photos ou vidéos visant généralement des célébrités ou des politiques auxquels on fait dire ou faire ce que l’on veut, dans un but notamment de désinformation… A terme une future version pourra aider les artistes dont on reproduit la voix sans leur autorisation pour sortir un “nouveau” titre.
Les créateurs de NIGHTSHADE et KUDURRU ont clairement fait valoir qu’ils ne cherchent pas à faire de l’obstruction systématique mais à permettre aux artistes comme aux entreprises, de protéger leur propriété intellectuelle, et de s’organiser face aux développeurs d’IA afin de leur vendre légitimement leurs données et créations.
– Sylvie BOYER, paralégale chez Mark & Law
Sources :