Les algorithmes et nous

MEGA Social Foundation lutte contre la fracture numérique, et ce travail passe par la sensibilisation sur l’importance de nos actes numériques et des algorithmes. Nous utilisons des algorithmes quotidiennement mais de quoi s’agit-il, peuvent-ils être biaisés?

MEGA Social Foundation est engagée dans la lutte contre l’illectronisme et la fracture numérique. Pour atteindre ces objectifs, il faut que chaque personne s’approprie le monde numérique, ce qui passe par la connaissance de son empreinte numérique, la détection de « fake news », ou la compréhension du fonctionnement des logiciels utilisés et notamment des algorithmes.

L’algorithme

Le comportement individuel est extrêmement important, car chaque personne est responsable de ses actes, lesquels ont des conséquences fortes. Chaque acte est un choix, et donc un renoncement, et chaque acte génère des externalités positives ou négatives. Un acte isolé peut sembler anecdotique, inutile ou vide de sens. Pourtant, l’ensemble de nos actions, à tous et à toutes, façonne nos sociétés, ses mœurs, ses exigences, ses possibilités et ses lois. Réciproquement, nos choix sont aussi influencés par cette société. Notre capacité de prise de décision se dilue dans les techniques marketing, la publicité, les préjugés, la culture pop ou encore les algorithmes.

Un algorithme, qu’est-ce c’est? Un algorithme est une « suite ordonnée d’instructions qui indique la démarche à suivre pour résoudre une série de problèmes équivalents ». Plus simplement, c’est un programme informatique créé pour effectuer une tâche généralement complexe et répétitive, et résoudre des problèmes. L’algorithme permet ainsi à une app ou un logiciel d’effectuer des actions qui sont commandées par son code de base. Il n’est surtout pas intelligent, il ne fait que reproduire ce qu’un être humain lui a intimé de prendre en considération et il néglige ce qui n’est pas une variable intégrée à son code. Si l’algorithme a pour conséquence de véhiculer des clichés, il n’y est pour rien, il se contente de suivre les ordres… et contrairement à un humain il est bien incapable du contraire! L’algorithme n’est donc pas intrinsèquement machiste, romantique, raciste, féministe, à la mode, ni artiste.

Algorithme biaisé?

Intéressons-nous à l’application de rencontres Tinder, détenue par le groupe Match. Pourquoi spécifiquement cet algorithme? Il a aujourd’hui un rôle social et économique majeur puisque environ 10 millions de personnes l’utilisent, permettant à son groupe Match de générer 2,4Md$ de revenus et d’atteindre une capitalisation boursière vertigineuse de 41,8 milliards de dollars (au 15/3/2021). Cet algorithme a donc un impact évident sur les individus qui l’utilisent et, par ricochet, sur les sociétés qu’ils composent.

Jessica Pidoux, doctorante à Lausanne à l’Institut des humanités digitales de l’EPFL, travaille à démonter les rouages de l’algorithme de l’app de rencontres Tinder. Elle explique brillamment comment, en les introduisant dans son algorithme, l’app reproduit et amplifie certains biais sociaux, préjugés et clichés. Un exemple frappant: l’app part du principe que les hommes veulent des femmes plus jeunes et que la réciproque n’est pas vraie, et Tinder va donc proposer des profils qui, de base, respectent ce principe. Retrouvez les explications de Jessica Pidoux sur le podcast Vous de Camille François!

La journaliste Judith Duportail, autrice de « L’amour sous algorithme », a enquêté sur le ELO score de Tinder. Ce score détermine votre indice de « désirabilité », qui prend en compte votre profession, votre sexe, votre niveau d’études, votre âge ou encore votre taux de matchs (i.e. le nombre de fois où vous avez aimé un profil qui vous a aimé en retour). L’app vous proposera ensuite des matchs avec des personnes ayant des scores de désirabilité similaires… donc les personnes désirables ont le droit de voir d’autres personnes désirables tandis que les personnes classées comme peu désirables ne les verront jamais. Une nouvelle caste est née, merci les algorithmes!

smartphone app Tinder

Isabelle Collet, informaticienne et professeure en sciences de l’éducation à l’Université de Genève, propose quant à elle un test simple pour comprendre les biais sociaux cachés dans les moteurs de recherche. Allez dans votre moteur de recherche préféré (personnellement je recommande Qwant, qui est français et respectueux des données privées) catégorie « images » et tapez « écolier » puis « écolière ». Dans un cas, en toute logique, vous verrez des images de petit garçon qui va à l’école un cartable sur le dos. Dans l’autre cas, vous verrez des femmes dans des poses lascives et au minimum suggestives, avec une sucette, une minijupe à carreaux et des chaussettes blanches montantes. Sur Qwant, il faut attendre la 28ème image pour atteindre un résultat non sexuel ou pornographique, et sur Google la 60ème est toujours à caractère sexuel…

De la même manière, Instagram semble favoriser les photos de personnes dénudées dans votre fil d’actualité…

Quelles solutions?

Les algorithmes font partie intégrante de notre quotidien. Nous les utilisons pour déterminer un itinéraire, rechercher des informations, trouver un job, choisir un lieu de vacances, trouver un.e partenaire, décider des contenus à regarder, etc. Il est donc important de comprendre comment un algorithme ou un logiciel a été construit, puisque le résultat que vous obtiendrez dépendra totalement de cette construction initiale. S’intéresser aux algorithmes permet finalement de consommer en connaissance de cause. Et si nous ne sommes pas d’accord avec les principes de base, les valeurs ou les biais de ces logiciels et applications, il ne tient qu’à nous de ne pas les utiliser. On en revient de nouveau au pouvoir du consommateur !

Pour que les algorithmes ne reproduisent pas et n’amplifient pas les biais sociaux, la discrimination et les inégalités sociales, il est également clef de favoriser la diversité au sein des professionnels de l’intelligence artificielle. On notera entre autres l’action efficace de structures telles que ImpactIA, Femmes@Numérique, Simplon, Girls In Tech ou encore les propositions du Rapport Villani. Vous trouverez dans notre newsletter et sur notre page Insta d’autres exemples!

 

Et vous, qu’en pensez-vous, aviez-vous déjà connaissance de cette problématique? Quels logiciels ou structures nous recommandez-vous? Quels sujets souhaitez-vous que nous traitions prochainement?

N’hésitez pas à vous joindre à nous, à partager nos nouvelles, newsletters, posts sur LinkedIn et Instagram. Nous avons également besoin de fonds pour que MEGA Social Foundation puisse mener à bien ses missions d’accompagnement : tout don est bienvenu, tout comme vos initiatives de levées de fonds ou de communication.

 

Crédits photos: Solen Feyissa, Gerd Altmann (PixaBay)

Article précédent
Top Chrono Vers l’Emploi, l’heure du bilan
Article suivant
Le véritable coût de nos achats textiles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous devez remplir ce champ
Vous devez remplir ce champ
Veuillez saisir une adresse e-mail valide.
Vous devez accepter les conditions pour continuer