Le récent vote d’une loi française sur la vidéosurveillance à l’occasion des JO 2024 relance le débat sur les limites de ces technologies. Des controverses similaires à celles qui ont lieu en Suisse. La vidéosurveillance algorithmique consiste en l’analyse des images par des machines, et non plus seulement par des humains. Et ce seront les algorithmes qui seront chargés de détecter toute situation jugée alarmante, avec potentiellement ensuite une intervention policière.

L’« ubérisation » du travail, et plus largement la « plateformisation » de l’économie, colonise progressivement des pans entiers de notre existence, de manière dissimulée mais certaine : repas, transports, rendez-vous médicaux, ménage… et même l’Etat. Tout serait plateformisable, « accessible en 2 clics ».C’est le travail mort à la place du travail vivant, privilégiant le client au citoyen, au bénéfice d’une société progressivement déshumanisée.

Tous les humains ont des biais cognitifs, c’est inévitable. Et les data scientists sont des humains, donc ils sont fatalement sujets aux biais, comme tout le monde. Pour établir des connaissances, les data scientists analysent des données. Et ces données, si elles sont mal choisies, donnent de mauvais résultats. Ainsi, un biais cognitif se transforme en biais de donnée qui se transforme ensuite en biais algorithmique. Les explications de Stephanie Lehuger

Les œuvres d’art sont de plus en plus souvent censurées sur les réseaux sociaux, alerte l’Académie des beaux-arts. Prenons garde, invite l’Académie des beaux-arts depuis Paris, dans un communiqué publié ce 16 février : les réseaux sociaux censurent de plus en plus régulièrement des œuvres d’art présentant de la nudité, même suggestive. Musicien et compositeur, secrétaire perpétuel et président de l’Académie, Laurent Petitgirard tire la sonnette d’alarme.

L’algorithme de Twitter fait davantage la promotion des contenus politiques de droite et des médias de droite que des autres. C’est ce qui ressort d’une étude publiée jeudi 21 octobre, conduite par des membres du réseau social et des consultants. Ils reconnaissent ne pas savoir exactement pourquoi l’algorithme opère cette promotion-là.

Nous sommes en 2021. Et en 2021 des « algorithmes » nourris « d’intelligence artificielle » continuent de confondre des hommes et des femmes noires avec des … primates. L’affaire est celle de Facebook qui, sous la vidéo présentant la capture d’écran d’un homme noir et titrée « Un homme blanc appelle les flics pour des hommes noirs sur la marina », propose : « Voulez-vous continuer de regarder des vidéos de primates ? »

Le traitement de nos données personnelles est un enjeu clé pour l’avenir de nos régimes démocratiques. Dans des sociétés dominées par des impératifs de gestion, de rapidité et d’efficacité, la volonté de rassembler des données diverses sur les citoyens est une réalité qui se déploie dans un nombre croissant de domaines. Que ce soit en matière de sécurité sociale et de sécurité publique (caméras de surveillance) hier, dans le domaine de la santé aujourd’hui, de la justice et de la sécurité toujours demain, le mouvement est en marche et englobe la totalité des traces électroniques que nous laissons derrière nous.

Que devient la démocratie si une campagne électorale cesse d’être ce moment où la communauté nationale, par le débat public et la controverse, décide collectivement de son destin ? Si elle devient la résultante de stratégies d’investissements publicitaires fondées sur un micro-découpage de l’opinion et des micromanipulations quotidiennes ? Que devient, même, la Nation ? La fragmentation de la communauté nationale en de multiples cibles, l’envoi de messages spécifiques à ces micro-segments, dans le secret et sans contradiction, interdisent une réelle délibération politique, préalable au vote.