Publié le 7 juin 2024, modifié le 8 juin 2024 par Alexandre Duval

Par Meredith FilakRose

  • Les personnalités publiques ont des droits à la publicité pour contrôler l'utilisation de leur identité.
  • Ces droits peuvent s'appliquer si la partie de leur image utilisée est identifiable comme étant eux.
  • OpenAI n'a pas cherché à évoquer Scarlett Johansson, mais plutôt le personnage qu'elle a joué dans « Her » .
  • Des lois fédérales sont en cours d'élaboration pour protéger les individus contre les dommages potentiels causés par l'utilisation de l'IA.

7 juin 2024

Le drame autour d'OpenAI utilisant un son similaire à Scarlett Johansson pour son nouvel assistant numérique – une décision sans doute conçue pour évoquer le rôle de l'actrice en tant qu'assistante IA dans le film de science-fiction de Spike Jonze, « Her » – a conduit à un nouveau débat sur quels droits les personnalités publiques ont-elles sur leurs ressemblances, leurs voix et autres caractéristiques de leur identité.

Des personnalités publiques comme Scarlett Johansson s’appuient sur les droits à la publicité – également connus sous le nom de droits au nom, à l’image et à la ressemblance, ou NIL – pour contrôler l’utilisation de leur identité. Les droits NIL existent sous la forme d’un patchwork État par État ; certains États disposent de droits étendus, tandis que d’autres offrent une protection limitée, voire inexistante. La justification traditionnelle des droits NIL ressemble à ceci : vous, en tant que personnalité publique, avez une image qui a une valeur commerciale pour de nombreuses personnes. Les entreprises pensent que votre soutien apparent augmentera les ventes, attirera des clients ou générera de la valeur pour eux. Peu importe que la logique interne puisse sembler ténue (John Cena portant des crocs) ou carrément idiote (Snoop Dogg colportant des Hot Pockets, ça vous dit ?). L'entreprise souhaite utiliser quelque chose de identifiable lié à votre identité pour vendre un produit. Les droits NIL offrent un recours dans les situations où cette ressemblance identifiable est utilisée sans approbation. Cela inclut les soundalikes – une application de la loi qui a ses propres modèles factuels très divertissants.

Il semble donc que cela pourrait être une affaire ouverte et fermée pour Johansson, n'est-ce pas ? Pas assez.

Il y a quelques choses importantes à retenir. Premièrement, pour que les droits NIL s’appliquent, la partie de son image utilisée doit être identifiable comme étant elle. Toutes les célébrités ne sont pas célèbres de la même manière. Par exemple, je n'ai pas pu identifier Sydney Sweeney uniquement par sa voix, et bien que Patrick Warburton ait interprété certains des personnages les plus mémorables de l'animation, je n'ai pas pu distinguer son visage d'une programmation. Dans ce cas, Johansson affirme qu'OpenAI a copié sa voix, qui est moins intimement liée à son identité que son visage. Qu'une personne moyenne entende ou non la voix de l'assistant numérique d'OpenAI, « Sky », et pense : « C'est Scarlett Johansson ! n'est pas ouvert et fermé ; c'est une question pour un jury.

Deuxièmement, les développeurs d’OpenAI ne cherchaient pas à évoquer Johansson ; ils essayaient, plus précisément, de copier Samantha, le personnage de Johansson dans « Her ». Cela peut sembler une distinction sans différence, mais d’un point de vue juridique, c’est important. Il peut être utile de réfléchir à ce à quoi cela ressemblerait dans d’autres contextes. Par exemple, si un robot de patrouille du NYPD se mettait soudainement à aboyer des ordres dans une simulation du doux baryton de Kevin Conroy, ce ne serait pas une tentative d'évoquer Kevin Conroy ; ce serait une tentative d’évoquer Batman, le personnage qu’il a joué pendant une grande partie du début des années 2000. Cela signifie que la réclamation concernée ne peut pas constituer une violation NULL ; il pourrait s'agir d'une violation du droit d'auteur pour la création d'une œuvre dérivée non autorisée. Oui c'est vrai; OpenAI a peut-être créé une fanfic (potentiellement très coûteuse) de Spike Jonze.

Si cela semble quelque peu idiot et alambiqué, c’est parce que c’est le cas. L’IA est surfaite dans de nombreux domaines, mais elle est remarquablement efficace pour détecter les points de pression dans notre système juridique. Cela ne veut pas dire qu’il n’y a pas de solutions juridiques ici : les droits NIL traditionnels sont toujours applicables, que l’IA soit impliquée ou non.

Mais des controverses très médiatisées comme celle-ci – ainsi que la perception de leur nouveauté et de leur complexité – contribuent à la pression croissante en faveur d’une législation fédérale visant à lutter contre l’usurpation d’identité grâce à l’IA. Comme je l'ai déjà souligné, il s'agit d'une préoccupation particulière pour les célébrités comme Johansson, mais il y a également de quoi s'inquiéter pour les non-célébrités.

Trouver un équilibre ici est délicat. De nombreuses erreurs pourraient se produire si l'on adoptait des lois élargissant les droits NIL pour couvrir à la fois les préoccupations commerciales des célébrités et des créateurs en activité, ainsi que les risques pour la vie privée et la dignité personnelle qui peuvent être plus préoccupants pour les particuliers. Mais si nos législateurs veulent intensifier leurs efforts pour donner aux gens les moyens de remédier aux dommages potentiels causés par l’IA, il semble important de s’assurer que ces lois visent à protéger tout le monde et pas seulement ceux qui font la une des journaux.

Categories: IA

Alexandre Duval

Alexandre Duval

S’abonner
Notification pour
guest

Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x