Retour

Intelligence artificielle: une menace pour l’égalité?

L’intelligence artificielle a une fâcheuse tendance à reproduire les préjugés humains.

Tapez «the nurse is busy» dans Google translate. La phrase, en anglais, ne donne aucune indication sur le sexe de la personne dont on parle. Et pourtant, la traduction le fait: «l’infirmière est occupée». Si vous tapez «the doctor is busy», en revanche, Google translate estimera arbitrairement que l’on parle d’un homme: «le docteur est occupé». L’intelligence artificielle a une fâcheuse tendance à reproduire les stéréotypes, voire à se montrer raciste et sexiste. Un défaut qui vient de son fonctionnement. Pour apprendre à une machine, par exemple, à traduire d’une langue vers l’autre, on la nourrit avec des quantités phénoménales de textes déjà traduits de l’une vers l’autre. Elle y cherchera des corrélations. Et si «the nurse» est généralement traduit par «l’infirmière» plutôt que par «l’infirmier», si on ne lui donne pas d’autre indice, elle traduira le mot de cette manière. Une étude publiée début mai dans Science a d’ailleurs montré qu’un programme d’intelligence artificielle, nourri avec huit cent quarante milliards de mots de textes humains, acquérait des préjugés. Il associait plus souvent les prénoms féminins avec les termes liés à la famille (parents, mariage, etc.) et les prénoms masculins avec les termes liés au monde du travail (professionnel, salaire, etc.).

Quant à Tay, une intelligence artificielle, mise en ligne par Twitter, elle tenait des conversations avec les internautes et s’adaptait au contenu des messages qu’elle recevait. Après avoir commencé avec des messages du type: «les humains sont super cools», quelques heures plus tard, elle produisait des tweets du type: «je hais les féministes. Elles devraient toutes mourir et brûler en enfer». Elle a dû être mise hors ligne dans l’urgence. Ces biais sont d’autant plus préoccupants que l’intelligence artificielle, à l’avenir, pourrait être amenée à préparer de plus en plus de décisions, ou même à les prendre à notre place: sélectionner des CV, fixer des primes d’assurance en fonction du profil de risque, accorder ou non un prêt bancaire, faire remonter telle ou telle information à un responsable. Comment évitera-t-on qu’elle reproduise des préjugés? Certains scientifiques affirment que l’on pourrait lui imposer des lois. Le problème, c’est que l’intelligence artificielle fonctionne de manière peu transparente: on ne sait pas exactement comment elle parvient à une conclusion. Il sera donc difficile de savoir si elle applique correctement les lois. En cas de décision potentiellement influencée par un préjugé, il sera difficile, voire impossible de démêler les choses. Un riche champ s’ouvre aux juristes.

Pierre Cormon

Paru dans Entreprise romande 7 juillet 2017