Ayant tiré parti d’un accès facile à la finance ces dix dernières années, les sociétés et fonds de capital-risque ont investi plusieurs milliards dans la course aux armements d’IA, avec pour résultat des technologies qui peuvent aujourd’hui être utilisées pour remplacer les humains dans une multitude de tâches. Ce pourrait être une catastrophe, non seulement pour les travailleurs, mais également pour les consommateurs voire les investisseurs. La plupart des leaders technologiques américains continuant d’investir massivement dans le développement de logiciels capables d’effectuer ce que les êtres humains accomplissent très bien.

Comme toute technologie qui bouleverse les équilibres de la connaissance, ChatGPT est à la fois un progrès et une limite. Et s’il suscite des craintes légitimes, notamment de « remplacement » de l’homme par la machine, il est indéniable qu’il ouvre de façon révolutionnaire le champ des savoirs, comme l’irruption d’internet ou des réseaux sociaux l’a fait avant lui

Depuis les attentats du 11 septembre 2001 aux États-Unis, les technologies de surveillance de masse n’ont cessé de se développer. Au nom de la lutte contre le terrorisme, de nombreux pays ont mis en place des outils pour capter massivement des données sur leur population. Dans les pays autoritaires, il s’agit surtout de réprimer les opposants. Dans les démocraties, les autorités sont aussi tentées par ce qu’elles qualifient volontiers de « solutions techniques ».

Une adolescente de 17 ans a reçu un avertissement pour tricherie. La raison? La start-up Honorlock l’aurait surprise, grâce à son intelligence artificielle (IA), en train d’agir de manière suspecte lors d’un examen en février. «Vous avez été observée en train de regarder plusieurs fois en bas et sur les côtés avant de répondre aux questions.»

Tous les humains ont des biais cognitifs, c’est inévitable. Et les data scientists sont des humains, donc ils sont fatalement sujets aux biais, comme tout le monde. Pour établir des connaissances, les data scientists analysent des données. Et ces données, si elles sont mal choisies, donnent de mauvais résultats. Ainsi, un biais cognitif se transforme en biais de donnée qui se transforme ensuite en biais algorithmique. Les explications de Stephanie Lehuger

88 services de police dans 24 pays ont déjà eu recours à Clearview. La police fédérale belge l’a d’abord nié mais elle l’a également utilisé. La tentation est très forte dans le chef du pouvoir d’utiliser ces outils-là pour pouvoir interconnecter des bases de données toujours plus nombreuses. Je suis persuadé qu’il y a plein de forces de police en Europe qui voudraient pouvoir se servir de ces outils-là dans des conditions plus larges qu’aujourd’hui ».

Durant six mois, GPT-3, l’intelligence artificielle mise au point par l’organisme OpenAI, a produit des fake news sous la forme de tweets aussi précis sur le fond que bien tournés sur la forme. Une expérience réalisée par une équipe de chercheurs de l’université Georgetown, qui vient de publier les conclusions de son étude.