Une adolescente de 17 ans a reçu un avertissement pour tricherie. La raison? La start-up Honorlock l’aurait surprise, grâce à son intelligence artificielle (IA), en train d’agir de manière suspecte lors d’un examen en février. «Vous avez été observée en train de regarder plusieurs fois en bas et sur les côtés avant de répondre aux questions.»

Tous les humains ont des biais cognitifs, c’est inévitable. Et les data scientists sont des humains, donc ils sont fatalement sujets aux biais, comme tout le monde. Pour établir des connaissances, les data scientists analysent des données. Et ces données, si elles sont mal choisies, donnent de mauvais résultats. Ainsi, un biais cognitif se transforme en biais de donnée qui se transforme ensuite en biais algorithmique. Les explications de Stephanie Lehuger

88 services de police dans 24 pays ont déjà eu recours à Clearview. La police fédérale belge l’a d’abord nié mais elle l’a également utilisé. La tentation est très forte dans le chef du pouvoir d’utiliser ces outils-là pour pouvoir interconnecter des bases de données toujours plus nombreuses. Je suis persuadé qu’il y a plein de forces de police en Europe qui voudraient pouvoir se servir de ces outils-là dans des conditions plus larges qu’aujourd’hui ».

Durant six mois, GPT-3, l’intelligence artificielle mise au point par l’organisme OpenAI, a produit des fake news sous la forme de tweets aussi précis sur le fond que bien tournés sur la forme. Une expérience réalisée par une équipe de chercheurs de l’université Georgetown, qui vient de publier les conclusions de son étude.