L’intelligence artificielle et plus particulièrement l’apprentissage profond a l’image d’une technique froide, neutre, dĂ©shumanisĂ©e, objective. C’est ignorer la façon dont on construit les logiciels.

Le logiciel d’apprentissage, en mode supervisĂ©, apprend des donnĂ©es qu’on lui fournit. Si ces donnĂ©es sont orientĂ©es, et elles le sont toujours un peu, alors les conclusions tirĂ©es par le logiciel le seront aussi.

Par exemple, imaginons que vous dĂ©cidiez d’Ă©valuer la dangerositĂ©, le risque de criminalitĂ© d’une personne, Ă  partir de paramètres tels que l’âge, le lieu de rĂ©sidence, la couleur de peau, le diplĂ´me le plus Ă©levĂ©, … et que pour entraĂ®ner votre logiciel, vous utilisiez les donnĂ©es fournies par les centres de dĂ©tention, les prisons.

Alors il est fort probable que votre logiciel minimise fortement les risques pour les personnes blanches et l’augmente pour les autres.

Mais si, vous supprimez la couleur de peau de vos variables, alors les rĂ©sultats seront probablement… identiques car les autres variables sont aussi corrĂ©lĂ©es Ă  la couleur de la peau.

On voit très clairement que dans ce cas, les données sont très orientées.

Mais le plus souvent il n’y a pas d’a priori dans la construction des donnĂ©es, et pour autant elles sont orientĂ©es.

Des chercheurs ont montré récemment que les logiciels de reconnaissance de visage(s) sont moins performants pour la reconnaissance des visages de femmes que pour ceux des hommes et moins performants pour reconnaître les peaux sombres que les peaux blanches.

La raison pour laquelle ces performances sont diffĂ©rentes ne tient pas Ă  une quelconque difficultĂ© mais au fait qu’il y a plus de mâles blancs dans les donnĂ©es d’apprentissage.

C’est ce qu’on appelle le biais en intelligence artificielle.

Ce biais se trouve partout et il est difficile de s’en prĂ©munir.

Lorsque les biais ne font que diminuer les performances des logiciels de reconnaissance de visages ce n’est pas un Ă©norme problème mais lorsqu’ils vous empĂŞchent d’obtenir un prĂŞt bancaire, un job, une assurance mĂ©dicale, lĂ  ça commence Ă  ĂŞtre sĂ©rieux. Vous devenez un sujet Ă  risque(s) pour des raisons de construction du jeu de donnĂ©es d’apprentissage.

Certains diront qu’ĂŞtre refusĂ© pour cause de biais plutĂ´t que pour des raisons objectives ne change rien, mais c’est faux car comment jouer si les dĂ©s sont pipĂ©s ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *