banner
Maison / Nouvelles / Pourquoi la crise de la diversité de l'IA est importante et comment y faire face
Nouvelles

Pourquoi la crise de la diversité de l'IA est importante et comment y faire face

Jan 12, 2024Jan 12, 2024

Rachel Crowell est une journaliste indépendante basée près de Des Moines, Iowa.

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous avez un accès complet à cet article via votre institution.

Les groupes d'inclusivité se concentrent sur la promotion de divers constructeurs pour de futurs projets d'intelligence artificielle.Crédit : Shutterstock

L'intelligence artificielle (IA) fait face à une crise de la diversité. Si elle n'est pas corrigée rapidement, les failles de la culture de travail de l'IA perpétueront les préjugés qui se répercuteront sur les technologies résultantes, ce qui exclura et nuira à des groupes entiers de personnes. En plus de cela, « l'intelligence » résultante sera défectueuse, manquant de connaissances socio-émotionnelles et culturelles variées.

Dans un rapport de 2019 de l'AI Now Institute de l'Université de New York, les chercheurs ont noté que plus de 80 % des professeurs d'IA étaient des hommes. De plus, les Noirs ne représentaient que 2,5 % des employés de Google et 4 % de ceux travaillant chez Facebook et Microsoft. En outre, les auteurs du rapport ont noté que "l'accent écrasant sur les" femmes dans la technologie "" lors de l'examen des questions de diversité dans l'IA "est trop étroit et susceptible de privilégier les femmes blanches par rapport aux autres".

Certains chercheurs se battent pour le changement, mais il existe aussi une culture de résistance à leurs efforts. "Sous ce vernis de" oh, l'IA est l'avenir, et nous avons toutes ces belles choses brillantes ", les universités et l'industrie de l'IA sont fondamentalement conservatrices", déclare Sabine Weber, consultante scientifique chez VDI/VDE Innovation + Technik, un cabinet de conseil en technologie dont le siège est à Berlin. L'IA dans les deux secteurs est "dominée principalement par des hommes blancs d'âge moyen issus de milieux aisés. Ils sont vraiment attachés au statu quo", déclare Weber, qui est l'un des principaux organisateurs du groupe de défense Queer in AI. Nature s'est entretenu avec cinq chercheurs qui mènent des efforts pour changer le statu quo et rendre l'écosystème de l'IA plus équitable.

Responsable principal de la science des données chez Shopify à Atlanta, en Géorgie, et président général de la conférence Deep Learning Indaba 2023.

Je suis originaire du Ghana et j'ai obtenu ma maîtrise en statistiques à l'Université d'Akron dans l'Ohio en 2011. J'ai une formation dans l'utilisation de l'apprentissage automatique pour résoudre des problèmes commerciaux dans la gestion de l'expérience client. J'applique mes compétences en analyse pour créer des modèles qui déterminent le comportement des clients, tels que des systèmes de recommandation de ciblage client, des aspects de la notation des prospects - le classement des clients potentiels, la hiérarchisation de ceux à contacter pour différentes communications - et des choses de cette nature.

Cette année, je suis également président général du Deep Learning Indaba, une réunion de la communauté africaine de l'apprentissage automatique et de l'IA qui se tient chaque année dans un pays africain différent. L'année dernière, il s'est tenu en Tunisie. Cette année, il se déroule au Ghana en septembre.

Notre organisation est construite pour toute l'Afrique. L'année dernière, 52 pays y ont participé. L'objectif est que les 54 pays africains soient représentés. Deep Learning Indaba permet à chaque pays d'avoir un réseau de personnes qui pilotent les choses localement. Nous avons l'événement phare, qui est la conférence annuelle, et des événements IndabaX spécifiques à chaque pays (pensez aux conférences TED et TEDx).

Lors des conférences IndabaX au Ghana, nous formons les gens à la programmation et à la gestion de différents types de données. Nous organisons également des ateliers sur ce qui se passe dans l'industrie en dehors du Ghana et sur la manière dont le Ghana devrait être impliqué. IndabaX fournit un financement et recommande des conférenciers qui sont des chercheurs établis travaillant pour des entreprises telles que Deep Mind, Microsoft et Google.

Pour renforcer l'apprentissage automatique, l'IA et l'inclusion au Ghana, nous devons renforcer les capacités en formant de jeunes chercheurs et étudiants à comprendre les compétences et la préparation dont ils ont besoin pour exceller dans ce domaine. Le défi numéro un auquel nous sommes confrontés est celui des ressources. Notre situation économique est telle que le gouvernement et la plupart des Ghanéens se concentrent sur le pain quotidien des gens. La plupart des Ghanéens ne pensent même pas à la transformation technologique. De nombreux universitaires locaux n'ont pas l'expertise nécessaire pour enseigner aux étudiants, pour vraiment les ancrer dans l'IA et l'apprentissage automatique.

La plupart des algorithmes et des systèmes que nous utilisons aujourd'hui ont été créés par des personnes en dehors de l'Afrique. La perspective de l'Afrique fait défaut et, par conséquent, les préjugés affectent l'Afrique. Lorsque nous faisons de l'IA liée à l'image, il n'y a pas beaucoup d'images africaines disponibles. Les points de données africains ne représentent pas plus de 1 % de la plupart des ensembles de données d'apprentissage automatique de l'industrie.

En ce qui concerne les voitures autonomes, le réseau routier américain est beau et propre, mais en Afrique, le réseau est très cahoteux, avec beaucoup de trous. Il est impossible qu'une voiture autonome entraînée sur les routes américaines ou britanniques puisse réellement fonctionner en Afrique. Nous nous attendons également à ce que l'utilisation de l'IA pour aider à diagnostiquer les maladies transforme la vie des gens. Mais cela n'aidera pas l'Afrique si les gens ne s'y rendent pas pour collecter des données et pour comprendre les soins de santé africains et les systèmes de soutien social connexes, les maladies et l'environnement dans lequel les gens vivent.

Aujourd'hui, les étudiants africains en IA et en apprentissage automatique doivent chercher des bourses et quitter leur pays pour étudier. Je veux voir ce changement et j'espère voir les Africains impliqués dans la prise de décision, pionniers d'énormes percées dans l'apprentissage automatique et la recherche sur l'IA.

Les chercheurs hors d'Afrique peuvent soutenir l'IA africaine en encadrant et en collaborant avec les efforts africains existants. Par exemple, nous avons Ghana NLP, une initiative axée sur la création d'algorithmes pour traduire l'anglais dans plus de trois douzaines de langues ghanéennes. Les chercheurs mondiaux qui se portent volontaires pour apporter leurs compétences à la recherche spécifique à l'Afrique contribueront à des efforts comme celui-ci. Deep Learning Indaba dispose d'un portail sur lequel les chercheurs peuvent s'inscrire pour devenir mentors.

Maria Skularidou a travaillé pour améliorer l'accessibilité lors d'une grande conférence sur l'intelligence artificielle. 1 crédit

Doctorante en biostatistique à l'Université de Cambridge, Royaume-Uni, et fondatrice et présidente de {Dis}Ability in AI.

J'ai fondé {Dis}Ability in AI en 2018, car je me suis rendu compte que les personnes handicapées n'étaient pas représentées lors des conférences et que cela ne me semblait pas juste. Je voulais lancer un tel mouvement pour que les conférences soient inclusives et accessibles, et que les personnes handicapées comme moi puissent y assister.

Cette année-là, à NeurIPS - la conférence annuelle sur les systèmes de traitement de l'information neurale - à Montréal, au Canada, au moins 4 000 personnes ont assisté et je n'ai pas pu identifier une seule personne pouvant être classée comme visiblement handicapée. Statistiquement, cela ne veut pas dire qu'il n'y a pas de participants handicapés.

J'ai également observé de nombreux problèmes d'accessibilité. Par exemple, j'ai vu des affiches inconsidérées par rapport au daltonisme. L'endroit était tellement bondé que les personnes qui utilisent des appareils fonctionnels tels que des fauteuils roulants, des cannes blanches ou des chiens d'assistance n'auraient pas eu la place de naviguer dans la session d'affiches. Il y avait des ascenseurs, mais pour une personne à mobilité réduite, il n'aurait pas été facile d'accéder à toutes les salles de session, compte tenu de la taille de la salle. Il n'y avait pas non plus d'interprètes en langue des signes.

Depuis 2019, {Dis}Ability in AI a contribué à faciliter une meilleure accessibilité chez NeurIPS. Il y avait des interprètes et des sous-titres pour les malentendants. Il y avait des accompagnateurs bénévoles pour les personnes à mobilité réduite ou malvoyantes qui demandaient de l'aide. Il y avait des conseillers téléphoniques et des salles silencieuses car les grandes conférences peuvent être accablantes. L'idée était la suivante : c'est ce que nous pouvons fournir maintenant, mais veuillez nous contacter au cas où nous ne ferions pas attention à quelque chose, car nous voulons être éthiques, justes, égaux et honnêtes. Le handicap fait partie de la société et doit être représenté et inclus.

De nombreux chercheurs handicapés ont partagé leurs craintes et leurs inquiétudes concernant les obstacles auxquels ils sont confrontés en IA. Certains ont dit qu'ils ne se sentiraient pas en sécurité pour partager des détails sur leur maladie chronique, car s'ils le faisaient, ils pourraient ne pas être promus, être traités sur un pied d'égalité, avoir les mêmes opportunités que leurs pairs, recevoir le même salaire, etc. D'autres chercheurs en intelligence artificielle qui m'ont contacté avaient été victimes d'intimidation et pensaient que s'ils parlaient à nouveau de leur état, ils pourraient même perdre leur emploi.

Les personnes issues de groupes marginalisés doivent faire partie de toutes les étapes du processus d'IA. Lorsque les personnes handicapées ne sont pas incluses, les algorithmes sont entraînés sans tenir compte de notre communauté. Si une personne voyante ferme les yeux, cela ne lui fait pas comprendre à quoi doit faire face une personne aveugle. Nous devons faire partie de ces efforts. Faire preuve de gentillesse est un moyen pour les chercheurs non handicapés de rendre le domaine plus inclusif. Les personnes valides pourraient inviter des personnes handicapées à donner des conférences ou à être des chercheurs invités ou des collaborateurs. Ils doivent interagir avec notre communauté à un niveau juste et équitable.

William Agnew est doctorant en informatique à l'Université de Washington à Seattle. Sabine Weber est consultante scientifique chez VDI/VDE Innovation + Technik à Erfurt, en Allemagne. Ils sont les organisateurs de l'organisation de défense Queer in AI.

Agnew : J'ai aidé à organiser le premier atelier Queer in AI pour NeurIPS en 2018. Fondamentalement, le domaine de l'IA ne prend pas au sérieux la diversité et l'inclusion. À chaque étape du processus, les efforts dans ces domaines sont sous-financés et sous-estimés. Le terrain protège souvent les harceleurs.

La plupart des gens qui travaillent sur Queer in AI sont des étudiants diplômés, moi y compris. Vous pouvez demander : « Pourquoi n'est-ce pas le professeur principal ? Pourquoi n'est-ce pas le vice-président de quoi que ce soit ? Le manque de membres seniors limite notre fonctionnement et ce que nous avons les ressources pour défendre.

Les choses que nous préconisons se produisent de bas en haut. Nous demandons des toilettes non genrées ; mettre des pronoms sur les badges d'inscription à la conférence, les biographies des conférenciers et dans les sondages ; des opportunités de mener notre enquête sur les expériences d'IA queer, de collecter des données démographiques, des expériences de préjudice et d'exclusion, et les besoins de la communauté d'IA queer ; et nous nous opposons aux politiques d'extraction de données. Nous, en tant que groupe de personnes queer qui sont marginalisées par leur homosexualité et qui sont les plus jeunes dans notre domaine, devons défendre ces positions.

Dans nos sondages, les personnes queer mentionnent systématiquement le manque de communauté, de soutien et de groupes de pairs comme leurs plus grands problèmes qui pourraient les empêcher de poursuivre une carrière dans l'IA. L'un de nos programmes offre des bourses pour aider les gens à postuler aux études supérieures, pour couvrir les frais de candidature, les tests d'admission standardisés, tels que le Graduate Record Examination (GRE) et les relevés de notes universitaires. Certaines personnes doivent se rendre dans un autre pays pour passer le GRE. C'est un énorme obstacle, en particulier pour les personnes queer, qui sont moins susceptibles d'avoir un soutien financier de leur famille et qui vivent dans des environnements juridiques répressifs. Par exemple, les assemblées législatives des États américains adoptent des lois anti-trans et anti-queer affectant nos membres.

En grande partie à cause de mon travail avec Queer in AI, je suis passé de roboticien à éthicien. La façon dont les données des personnes queer sont utilisées, collectées et utilisées à mauvais escient est une grande préoccupation. Une autre préoccupation est que l'apprentissage automatique consiste fondamentalement à catégoriser les éléments et les personnes et à prédire les résultats sur la base du passé. Ces choses sont contraires à la notion de queerness, où l'identité est fluide et change souvent de manière importante et importante, et fréquemment tout au long de la vie. Nous reculons et essayons d'imaginer des systèmes d'apprentissage automatique qui ne répriment pas l'homosexualité.

Vous pourriez dire : "Ces modèles ne représentent pas l'homosexualité. Nous allons simplement les corriger." Mais les personnes queer sont depuis longtemps la cible de différentes formes de surveillance visant à nous démasquer, à nous contrôler ou à nous réprimer, et un modèle qui comprend bien les personnes queer peut aussi mieux les surveiller. Nous devrions éviter de développer des technologies qui enracinent ces méfaits et travailler vers des technologies qui autonomisent les communautés queer.

Weber : Auparavant, j'ai travaillé comme ingénieur dans une entreprise technologique. J'ai dit à mon patron que j'étais la seule personne qui n'était pas un mec cisgenre dans toute l'équipe d'une soixantaine de développeurs. Il a répondu: "Vous étiez la seule personne qui a postulé pour votre emploi qui avait la qualification. C'est tellement difficile de trouver des personnes qualifiées."

Mais les entreprises ne cherchent clairement pas très fort. Pour eux, c'est comme : "Nous sommes assis en hauteur. Tout le monde vient à nous et s'offre." Au lieu de cela, les entreprises pourraient recruter des personnes dans des organisations queer, dans des organisations féministes. Chaque université a un groupe de femmes en sciences, technologie, ingénierie et mathématiques (STEM) ou un groupe de femmes en informatique auquel les entreprises pourraient facilement s'adresser.

Mais la pensée, "C'est comme ça que nous avons toujours fait, ne secouez pas le bateau", est répandue. C'est frustrant. En fait, je veux vraiment faire bouger le bateau, parce que le bateau est stupide. C'est une telle déception de se heurter à ces barrières.

Laura Montoya encourage ceux qui, comme elle, sont arrivés dans le domaine de l'intelligence artificielle par une voie non conventionnelle. Crédit : Tim McMacken Jr ([email protected])

Directeur exécutif de l'Institut Accel.AI et de LatinX in AI à San Francisco, Californie.

En 2016, j'ai lancé l'Institut Accel.AI en tant qu'entreprise d'éducation qui aide les personnes sous-représentées ou mal desservies en IA. Aujourd'hui, c'est une organisation à but non lucratif dont la mission est de piloter l'IA pour des initiatives à impact social. J'ai également cofondé le programme LatinX in AI, un organisme professionnel pour les personnes d'origine latino-américaine dans le domaine. Je suis de première génération aux États-Unis, car ma famille a émigré de Colombie.

J'ai une formation en biologie et en sciences physiques. J'ai commencé ma carrière en tant qu'ingénieur logiciel, mais l'ingénierie logicielle conventionnelle n'était pas gratifiante pour moi. C'est à ce moment-là que j'ai découvert le monde de l'apprentissage automatique, de la science des données et de l'IA. J'ai recherché la meilleure façon d'apprendre l'IA et l'apprentissage automatique sans aller à l'école doctorale. J'ai toujours été un penseur alternatif.

J'ai réalisé qu'il y avait un besoin d'options éducatives alternatives pour les personnes comme moi, qui ne suivent pas la voie habituelle, qui s'identifient comme des femmes, qui s'identifient comme des personnes de couleur, qui veulent suivre une voie alternative pour travailler avec ces outils et technologies.

Plus tard, alors que j'assistais à de grandes conférences sur l'IA et l'apprentissage automatique, j'en ai rencontré d'autres comme moi, mais nous ne constituions qu'une petite partie de la population. Je me suis réuni avec ces quelques amis pour réfléchir, "Comment pouvons-nous changer cela?". C'est ainsi qu'est né LatinX dans l'IA. Depuis 2018, nous avons lancé des ateliers de recherche lors de grandes conférences et organisé notre propre appel à contributions en collaboration avec NeurIPS.

Nous avons également un programme de mentorat de trois mois pour lutter contre la fuite des cerveaux résultant des chercheurs qui quittent l'Amérique latine pour l'Amérique du Nord, l'Europe et l'Asie. Des membres plus expérimentés de notre communauté et même des alliés qui ne sont pas LatinX peuvent servir de mentors.

En 2022, nous avons lancé notre programme de supercalculateurs, car la puissance de calcul fait cruellement défaut dans une grande partie de l'Amérique latine. Pour notre programme pilote, afin de fournir un accès à la recherche aux ressources informatiques hautes performances du campus de Guadalajara de l'Institut de technologie de Monterey au Mexique, la société technologique NVIDIA, basée à Santa Clara, en Californie, a fait don d'un système DGX A100 - essentiellement un grand ordinateur serveur. L'agence gouvernementale pour l'innovation de l'État mexicain de Jalisco hébergera le système. Les chercheurs et étudiants locaux peuvent partager l'accès à ce matériel pour la recherche en IA et en apprentissage en profondeur. Nous avons lancé un appel à propositions mondial pour les équipes comprenant au moins 50% de membres Latinx qui souhaitent utiliser ce matériel, sans avoir à être inscrits à l'institut ni même être situés dans la région de Guadalajara.

Jusqu'à présent, huit équipes ont été sélectionnées pour participer à la première cohorte, travaillant sur des projets qui incluent des applications de conduite autonome pour l'Amérique latine et des outils de surveillance pour la conservation des animaux. Chaque équipe a accès à une unité de traitement graphique, ou GPU, conçue pour gérer en parallèle des tâches complexes de traitement de graphiques et de données visuelles, pendant la durée demandée. Ce sera l'occasion d'une collaboration croisée, pour les chercheurs de se réunir pour résoudre de gros problèmes et utiliser la technologie pour le bien.

doi : https://doi.org/10.1038/d41586-023-01689-4

Ces entretiens ont été édités pour plus de longueur et de clarté.

Collection : Diversité et carrières scientifiques

Pourquoi l'intelligence artificielle doit comprendre les conséquences

Présenter les contributions de l'Afrique à la science

Pour rendre l'IA équitable, voici ce que nous devons apprendre à faire

Les chercheurs tanzaniens ont offert 22 000 dollars pour publier dans des revues internationales

Actualités 06 JUIN 23

Lorsqu'un être cher décède : comment le milieu universitaire peut soutenir ses collègues endeuillés

Reportage Carrière 05 JUIN 23

Utopies scientifiques : éclairage scientifique au Bureau des questions stupides

Chronique Carrière 05 JUIN 23

Six conseils pour mieux coder avec ChatGPT

Caractéristique technologique 05 JUIN 23

Vers l'apprentissage automatique quantique

Coup de projecteur 24 MAI 23

Ordinateurs quantiques : à quoi servent-ils ?

Coup de projecteur 24 MAI 23

ChatGPT : consignes de signalement standard pour une utilisation responsable

Correspondance 06 JUIN 23

Six conseils pour mieux coder avec ChatGPT

Caractéristique technologique 05 JUIN 23

L'apprentissage par transfert permet des prédictions en biologie des réseaux

Article 31 23 MAI

Une organisation de recherche interdisciplinaire où la science et la technologie de pointe conduisent à la découverte d'Insights percutants

Nouvelle zone de Pudong, Shanghai

Institut BeiGene

Située dans la partie orientale de Nanjing, l'Université forestière de Nanjing est une université polyvalente.

Nankin, Jiangsu (CN)

Université forestière de Nanjing (NFU)

Représentant DMPK/PD dans des équipes d'experts multifonctionnelles pour l'évaluation de nouvelles entités chimiques

Canton, Guangdong, Chine

BeiGene Ltd.

Le NIEHS recherche un chercheur principal pour occuper le poste de chef du Ctr pour la recherche sur le changement climatique et la santé.

Research Triangle Park, Caroline du Nord

Institut national des sciences de la santé environnementale / NIH

Nous recherchons un Technicien de Recherche pour rejoindre le groupe Giustacchini au sein du Programme de Génomique des Populations et Médicale à la Technopole Humaine (HT).

Milan (IT)

Human Technopole