Cybercriminalité, racisme… Top 5 des pires utilisations de ChatGPT

« C’était tout à fait sa voix. C’était son intonation. C’était la façon dont elle aurait pleuré ». En janvier dernier, Jennifer DeStefano reçoit l’appel masqué d’un homme qui prétend avoir enlevé sa fille. À l’autre bout du fil, elle entend Brie, 15 ans, sangloter « maman, j’ai fait une bêtise ». Menaçant de l’envoyer au Mexique et de la tuer, le kidnappeur réclame une rançon d’1 million de dollars contre sa libération avant d’abaisser la somme à 50 000 dollars. « Je n’ai jamais douté une seconde que c’était elle », explique à la presse localel’Américaine originaire d’Arizona, avertie peu de temps après ce coup de fil que sa fille était bien à son cours de dance et qu’elle n’avait aucunement été enlevée.

Le malfaiteur mis en cause par la famille DeStefano, qui fait toujours l’objet d’une enquête de police d’après les informations du média américain Independent, semble avoir utilisé un modèle d’intelligence artificielle capable de cloner des voix. Un type d’escroquerie devenu quotidien, selon le bureau de Phoenix du FBI. Et pour cause, cette technologie basée sur l’IA est de plus en plus perfectionnée et accessible.

En 2022, les impostures de ce genre constituaient la deuxième forme de racket la plus populaire aux États-Unis, avec plus de 36 000 signalements de personnes escroquées par des personnes se faisant passer pour des amis ou des membres de leur famille, selon les données de la Commission fédérale du commerce. Désormais, grâce aux progrès de l’intelligence artificielle, les mauvais acteurs peuvent assurer leur coup en reproduisant une voix à partir d’un échantillon audio de quelques phrases seulement.

Sous l’impulsion de la démocratisation des intelligences artificielles ces derniers mois, les faits divers de ce genre se sont multipliés. Encensées pour leur capacités à produire n’importe quel type de contenu (ou presque), des lettres de motivation aux dissertations en passant par des poèmes, ainsi que pour les progrès qu’elles facilitent dans de nombreux domaines, dont la détection de cancers précoces, les IA suscitent également de nombreuses craintes. Perte d’emplois, plagiat d’œuvres d’art, prolifération des fakes news… Les intelligences artificielles font l’objet de mauvais usages qui tardent encore à être encadrés. Et ChatGPT, le plus célèbre des agents conversationnels, ne fait pas exception. Voici cinq des pires utilisations connues de ce chatbot.