Le clonage de voix, c’est quoi ? Le fait de reproduire une voix humaine à l’aide d’un système d’IA.
On a vu fleurir des cas de clonage vocaux rigolos comme un duo entre Drake et The Weeknd ou Johnny Hallyday interprétant ‘‘Le téléphone pleure’’ de Claude François. On a aussi vu des utilisations moins rigolotes et un peu « groupie frustrée » quand Sam Altman, fan de la voix de Scarlett Johansson et du film Her, en fait copier la voix après que Scarlett a eu refusé la proposition de prêter sa voix à ChatGPT 4.0. On a également vu des utilisations passibles de sanctions pénales comme la voix de Joe Biden clonée pour passer des appels vocaux de désinformation en incitant les citoyens à ne pas aller voter pendant la primaire démocrate aux US.
Est-ce qu’on a le droit de cloner la voix d’une personne ?
La réponse est : Oui si vous avez l’autorisation de la personne vivante concernée ou si la personne concernée est décédée. La voix c’est un attribut de la personnalité et également une donnée personnelle. Nous disposons tous de droits attachés aux composant de notre personnalité, en ce compris notre voix, qui nous permettent de nous opposer à toute utilisation ou reproduction de notre voix.
Ainsi, en droit français, dès lors que l’on souhaite utiliser les attributs de la personnalité d’une personne vivante, comme par exemple sa voix, dans un contexte où cette personne devient identifiable, il est indispensable de requérir son autorisation préalable.C’est bien là le sujet du contentieux entre Scarlett et OpenAI puisqu’elle avait expressément refusé que sa voix soit utilisée pour ChatGPT4. Bien que Sam Altman prétende qu’il n’y avait pas de ressemblance, la voix a été modifiée suite à la plainte de Scarlett Johansson, la plupart des personnes trouvant cette ressemblance totalement évidente.
Le droit sur sa voix est un droit personnel qui s’éteint au décès de son titulaire. Ce qui signifie que les héritiers d’un mort ne peuvent pas agir sur le terrain de l’atteinte à la vie privée du défunt en cas d’exploitation de sa voix, même si cet usage est fait à des fins commerciales.
Quelles sont les limites de l’utilisation d’une voix clonée ?
Que vous disposiez de l’autorisation d’utiliser la voix clonée en question ou non, les limites applicables à son utilisation sont celles du respect de la loi et de l’ordre public.
Il est donc évident qu’utiliser une voix clonée pour tenter d’arnaquer des personnes en leur faisant croire que vous êtes leur conseiller bancaire, le président de la République ou leur ados qui a eu un accident à la sortie de l’école – (histoires vraies) – relève de la tentative d’escroquerie et de l’usurpation d’identité.
Il est également évident que créer des « deepfakes », qu’ils soient sonores ou audiovisuels, à des fins de désinformation dans le cadre de campagne électorale constitue un acte répréhensible par la loi.
Un projet de loi dit Projet de loi visant à sécuriser et réguler l’espace numérique (dit projet de loi SREN), adopté par l’Assemblée nationale le 17 octobre 2023 comportait deux amendements visant à créer des délits spécifiques relatifs au deepfake.
La dissolution de l’Assemblée Nationale a eu raison de ce projet de loi comme des autres. Il faudra donc attendre qu’il soit (peut-être) remis à l’ordre du jour après les législatives de 2024.
En attendant, tout n’est pas permis et certains leviers juridiques comme l’atteinte à la vie privée, aux droits des artistes interprètes et aux dispositions du RGPD restent actionnables. ▪
Visuel généré par IA • Arnaud Templier