0 0
Read Time:2 Minute, 15 Second

INTELLIGENCE ARTIFICIELLE Le programme favorisait dans 4 % des cas les personnes blanches et dans 7 % les femmes blanches par comparaison aux femmes noires

L'application Twitter sur un smartphone.

Sur les réseaux sociaux, la technologie lorsqu’elle est entièrement automatisée n’a pas toujours que du bon. Twitter vient ainsi de constater qu’ intelligence artificielle ne rime pas systématiquement avec éthique. L’entreprise a en effet établi que son algorithme qui recadre les photos est légèrement biaisé en faveur des personnes blanches et des femmes. Un problème pointé par des spécialistes depuis plusieurs mois déjà et relayé par 20 Minutes. La plateforme préfère donc désormais s’en passer.

« Les algorithmes ne conviennent pas à tout ce qui est sur Twitter », a reconnu le réseau social sur l’un de ses blogs mercredi. « Il vaut mieux que les utilisateurs décident de comment cadrer une image. »

Un algorithme en service depuis 2018

L’algorithme, mis en service en 2018, est conçu pour recadrer les images en fonction de ce qu’il considère comme prépondérant, afin de réduire leur taille et de moins encombrer le fil de tweets. « Des gens sur Twitter ont observé des cas où notre programme a choisi des individus blancs plutôt que noirs », explique Rumman Chowdhury, directrice du logiciel. « Nous avons testé notre système sur une large base de données pour déterminer s’il y avait un problème ». Les chercheurs ont trouvé qu’il y avait une différence de 4 % en faveur des personnes blanches en général, et de 7 % en faveur des femmes blanches par opposition aux femmes noires. La comparaison entre les hommes et les femmes en général a révélé un écart de 8 % en faveur des femmes.

La société basée à San Francisco a aussi cherché un possible biais dit de « regard masculin », au sens où l’algorithme choisirait la poitrine ou les jambes d’une femme au lieu de son visage. Mais seulement 3 % des photos testées ont été recadrées en dehors de la tête des personnes, et sur des éléments non physiques, comme un chiffre sur un maillot sportif. « Nous n’avons pas trouvé de preuves d’un biais d’objectification », souligne Rumman Chowdhury.

Moins de recours au « machine learning »

Le réseau social a testé en mars une nouvelle façon d’afficher les images sans les recadrer, et a ensuite étendu l’outil à tous, pour permettre à chacun de voir à quoi ressemble son tweet avant de le publier. « Cela réduit notre dépendance au « machine learning » (apprentissage automatisé du logiciel) pour une tâche que nos utilisateurs sont mieux à même de réaliser », a ajouté Rumman Chowdhury. L’intelligence artificielle a donc encore des progrès à faire.

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %