Le deepfake audio est un montage (trucage) audio permettant de reproduire la voix d’un individu (une sorte d’imitation réalisée par ordinateur), et de diffuser des propos à travers cette voix de synthèse très proche de la voix réelle. On peut prêter à cette voix un discours créé de toute pièce, ou modifier un discours existant et réellement tenu par la personne visée. Existe-t-il un cadre juridique pour les deepfake audio ?
La voix étant un élément de la personnalité et un moyen d’identifier et de reconnaître une personne, on peut donc créer l’illusion qu’une personne a tenu tel ou tel propos alors que c’est en réalité une machine qui l’a faite façon totalement artificielle.
Je vous recommande le visionnage de cette vidéo sur Youtube pour en savoir plus sur cette technologie :
Utilités et risques des deepfake
Les deepfake audio ont de nombreuses utilités :
– ludique : s’amuser entre amis, faire des blagues, des montages privés ;
– production artistique : reproduire la voix d’un artiste décédé (avec l’accord des ayants droit) ou non ; reproduire la voix d’un artiste sans qu’il soit besoin de passer en studio physiquement pour enregistrer, etc.
– santé : reproduire la voix d’une personne ayant perdu l’usage de la parole, etc.
Toutefois, il peut également être utilisé à des fins malveillantes, comme la diffusion de fausses informations ou la manipulation de l’opinion publique.
Quel régime juridique pour les deepfake ?
En droit français il n’existe pas de régime juridique uniforme sur ce point, mais de nombreux textes applicables qui viennent encadrer l’usage des deepfake.
Sur le terrain pénal
Le premier texte auquel on pense est un article du Code pénal, qui vient encadrer les montages. L’article 226-8 portant sur les « atteintes à la représentation de la personne » prévoit notamment l’obligation que tout montage réalisé avec des paroles ou des images d’une personne sans son consentement, doit contenir une mention permettant de comprendre qu’il s’agit d’un montage s’il n’apparaît pas de façon évidente qu’il s’agit d’un montage. A défaut une peine d’1 an de prison et de 15 000€ est encourue.
Le second texte est relatif à L’usurpation d’identité, prévue à l’article 226-4-1 du Code pénal, est sanctionné d’un an de prison et 15 000€. Or, la réutilisation de la voix d’un individu, sans prévenir son interlocuteur ou son public lorsque cela a pour objectif de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération semble tout à fait entrer dans l’infraction d’usurpation d’identité.
Sur le terrain des données personnelles
Au-delà de cette question pénale, on peut observer aussi que la voix est un élément de la personnalité des individus et un élément d’indentification. Par conséquent, il s’agit d’une donnée personnelle au sens du RGPD. L’utilisation de la voix d’un individu doit donc répondre aux exigences de ce texte, dont notamment, pour le responsable de traitement (celui qui prend l’initiative du traitement, ici l’utilisation de la voix, sa diffusion, sa modification) de reposer sur une base légale et avoir une ou plusieurs finalités établies. La base légale peut être le consentement bien sûr, mais il n’est pas toujours évident de solliciter l’accord des personnes dont on veut utiliser la voix, notamment dans un cadre humoristique ou satirique. On peut donc s’interroger sur la base légale du « motif d’intérêt légitime ». Attention, toutefois dans ce cas, il faudra mettre en balance les intérêts du responsable de traitement, et ceux de celui dont les données sont traitées (on vérifiera notamment l’atteinte à ses intérêts, libertés et droits fondamentaux). Ce dernier pourra exercer un droit d’opposition… Dans ce cas, on peut supposer que la réutilisation de la voix d’une personnalité publique, notamment dans un cadre satirique, humoristique, pourrait être permettre de se prévaloir de cette base légale de traitement.
Sur le terrain du droit civil
Enfin, toujours en lien avec l’idée que la voix est un élément de la personnalité, on admet que les textes du Code civil qui protègent la vie privée et au droit à l’image peuvent être mobilisés.
L’article 9 du Code civil est fréquemment utilisé pour faire retirer des images ou des informations qui concernent la vie privée d’un individu, publiées sans son accord préalable.
Appliqué au deepfake audio, il permettrait à la personne dont la voix a été traitée sans son accord, de demander la suppression du contenu (éventuellement en lien avec les hébergeurs et les éditeurs sur demande d’un juge), voire s’il y a un préjudice, d’obtenir des dommages et intérêts. Toutefois, les juges apprécient les circonstances dans lesquelles les informations ont été diffusés et vérifient notamment si l’information, l’image ou le son peut illustrer avec pertinence un évènement d’actualité ou un débat d’intérêt général. Lorsque les éléments concernent des personnalités publiques ou politiques, cette mise en balance des intérêts sera particulièrement délicate à effectuer.
Peut-on tout dire, cachés derrière un deepfake ?
Liberté d’expression vs deepfake
Le recours au deepfake pose aussi la question de savoir si l’on peut faire dire tout et n’importe quoi aux voix reproduites par une IA ? On se situe ici sur le terrain de la liberté d’expression, laquelle n’est pas absolue : les abus sont sanctionnés. Là aussi, de nombreux textes peuvent être mobilisés, même s’ils ne sont pas forcément tous hyper adaptés.
On doit certainement considérer que celui qui fait dire à une fausse voix quelque chose, c’est comme s’il l’avait dit lui-même (l’outil n’est qu’un vecteur de communication, même si c’est une voix d’emprunt).
Par conséquent, toutes les limites connues à la liberté d’expression, et toutes les sanctions appliquées en cas d’abus de cette liberté doivent pouvoir s’appliquer en cas de discriminations, racisme, xénophobie, antisémitisme, terrorisme, haine ou l’incitation à la haine, etc. En outre, les questions relatives à l’atteinte à l’honneur ou à la morale pourraient aussi être mobilisés, comme la diffamation et l’injure.
Evidemment, tout cela doit être tempéré avec les questions relatives à l’humour, au droit à la caricature et à la satire. On peut, sous couvert de caricature et d’humour, faire porter à certaines personnalités ou même à des proches certaines propos. On se situe ici probablement dans un domaine qui n’est pas si éloigné de l’imitation… Sur ce terrain, les limites à la liberté d’expression peuvent être repoussées, car l’humour permet de forcer les traits, déformer la réalité, offenser…
Deepfake et fakenews
Et puis, si l’on continue sur le contenu des deepfake, il faut évidemment évoquer la question des fakenews. C’est d’ailleurs principalement en raison de cet usage malveillant que la technologie a été portée au devant de la scène publique.
En matière de fakenews, l’arsenal législatif est lui aussi assez hétérogène (une loi du 22 déc. 2018 a quand même posé un cadre plus global).
Plus globalement, on soulignera en matière de fakenews, que les grandes plateformes sont tenues par un devoir de coopération envers l’ARCOM et doivent lutter contre la diffusion de fausses informations et plus généralement contre la diffusion des différentes infractions évoquées plus haut, respecter des obligations de transparence de leurs algorithmes, etc. Cela passe notamment par l’obligation de mettre en place un dispositif de signalement (LCEN, art. 6 I 7) et de retirer promptement des contenus identifiés comme illicites. Le récent texte européen « Digital Services Act » va d’ailleurs renforcer l’ensemble de ces obligations, notamment pour les plus grandes plateformes.
On trouvera à appliquer aussi toutes les dispositions existantes relatives à la lutte contre les fakes news, notamment en période électorale. Par exemple : art. L. 97 Code électoral : 1 an de prison et 15 000€ en cas de de manœuvres frauduleuses pour surprendre ou détourner les votes ou encore la Loi de 1881 sur le droit de la presse (art. 27) : la diffusion, la reproduction de nouvelles fausses, mensongèrement attribuées à un tiers, faite de mauvaise foi et troublant l’ordre public, est punie de 45 000€ d’amende ; possibilité pour tout candidat, le ministère public, toute personne ayant un intérêt à agir de saisir le tribunal judiciaire pour obtenir la suppression de fausses informations diffusées en ligne en cas d’allégations ou imputations inexactes ou trompeuses de nature à altérer la sincérité du scrute, diffusées de manière délibérée, artificielle ou automatisée, et massive (art. L. 163-1 Code électoral).
Deepfake et droit d’auteur
On peut s’interroger aussi sur la question du droit d’auteur : peut-on reprendre la voix d’un artiste pour produire une musique « à la manière de » l’artiste en question ? On a eu plusieurs exemples récemment (David Guetta qui reprend la voix d’Eminem dans un morceau sans son autorisation ; Grimes qui Deepfake Drake et The Weeknd).
Le droit d’auteur protège l’utilisation des œuvres sans autorisation de leur auteur, sous peine de contrefaçon. Mais la voix est-elle une œuvre au sens du Code de la propriété intellectuelle ? Probablement pas… Est-ce que cela doit permettre à n’importe qui de reprendre la voix d’un artiste célèbre pour l’inclure dans une prod et en tirer des revenus ? Probablement pas non plus… On pourrait peut-être regarder du côté du droit des affaires avec les notions de concurrence déloyale ou de parasitisme. Mais il y aura certainement besoin de législation spécifique à ce sujet pour encadrer les pratiques.
Vous pouvez également retrouver sur Spotify l‘échange que nous avons eu avec Defend Intelligence.
N’hésitez pas à nous contacter pour échanger sur ces questions passionnantes !