Comment débiaiser l'intelligence artificielle ?

L'intelligence artificielle joue déjà un rôle énorme dans le secteur des services financiers, la profession médicale, le monde du recrutement et de nombreux autres domaines importants. Cependant, actuel AI ne fonctionne bien que si les bonnes informations sont utilisées pour le former. Mais lorsque ce sont les humains qui collectent ces informations, cela ouvre la porte à des préjugés. Alors, comment assurons-nous le débiaisation dans l'IA ?
Comprendre le processus
L'IA n'est pas encore capable de penser par elle-même, par conséquent, une assistance humaine est nécessaire pour rassembler les données nécessaires dont elle a besoin. C'est un peu comme programmer n'importe quel autre ordinateur dans le sens où nous n'obtenons de bons résultats ou de bonnes décisions qu'à partir des bonnes informations et correctement organisées. Si vous vous trompez, les résultats peuvent être dévastateurs.
Par exemple, dans la formation d'algorithmes de recrutement basés sur des données historiques, nous avions une IA qui favorisait les jeunes hommes blancs et excluait les femmes et les personnes de couleur. En bref, les données de formation ici étaient clairement erronées et biaisées. Comprendre cela peut nous aider à commencer le processus de débiaisation, car certains modèles auront besoin de grandes quantités de données pour les aider à donner un sens au monde. Quelque chose d'aussi simple que d'obtenir les bonnes métadonnées associées liées à la démographie est vital.
Poser les questions essentielles ?
Lors de l'utilisation de l'IA, la législation (et le bon sens) dicte que nous devons examiner comment il a pu arriver à une certaine décision ou à une série de réponses, en particulier lorsque nous ne sommes pas totalement satisfaits du résultat. À cette fin, il existe déjà un domaine de recherche croissant sur «l'IA explicable», dans lequel nous pouvons examiner un ensemble de modèles et découvrir sur quoi les décisions sont basées.
Idéalement, l'explicabilité est intégrée au modèle lui-même. Mais même les modèles dits de boîte noire peuvent être exécutés de telle manière que nous pouvons, par un peu de ruse, déduire quelle partie des données d'entrée a eu le plus d'impact sur la classification donnée par le réseau en question.
Ceci est important car tous les individus en Europe ont désormais le droit légal de se faire expliquer les décisions automatisées, et donc la transparence est primordiale. Le HMRC a été critiqué ces dernières années pour son manque de transparence sur la manière dont il utilise l'IA pour prendre des décisions sur les personnes qui devraient obtenir un crédit universel, par exemple. Bien sûr, cela n'implique peut-être pas de biais, mais la transparence est certainement le mot clé ici.
Prendre des mesures maintenant
Pourquoi devons-nous être si soucieux de veiller à ce que le processus de réduction des biais s'accélère en ce moment ? Parce que l'IA est déjà devenue un outil très important dans notre monde numérique en constante évolution. Nous devons comprendre comment nous pouvons utiliser ce concept pour obtenir les meilleurs résultats pour toutes les personnes concernées.
En ce qui concerne les secteurs utilisant l'IA, les décisions prises peuvent avoir un impact énorme sur la vie des gens. Ce que nous ne voulons pas, c'est entretenir une ère de discrimination simplement en nous formant aux mauvaises données.
Les médecins utilisent de plus en plus des algorithmes basés sur les données pour prendre des décisions sur les soins de santé via l'IA : ceux-ci éclairent les décisions en matière de soins de santé telles que le diagnostic des cancers, des maladies cardiaques et des maladies oculaires. De nouvelles applications avancées sont en cours de développement. Mais il y a des dangers à s'entraîner avec de mauvaises données.
En utilisant un exemple américain récent dans le domaine des soins de santé, un algorithme largement adopté discrimine clairement les individus noirs en liant les soins aux coûts. Le problème ici a été conclu par AI, car les Caucasiens dépensent beaucoup plus d'argent pour les soins de santé, les Noirs doivent être en meilleure santé en général. Compte tenu du système de santé actuel aux États-Unis, cette hypothèse était bien sûr dangereusement fausse.
Il est important de noter que lorsque des préjugés personnels à grande échelle émergent, nous pouvons déclencher une série de réactions négatives. Pour les personnes qui reçoivent le bon traitement, un travail sur leurs capacités réelles ou pour celles qui recherchent une assurance précieuse, l'éradication des biais dans notre approche de l'IA n'a pas de prix. L'essentiel est qu'une mauvaise approche peut entraîner des entreprises défaillantes, des vies détruites, des prix gonflés et toutes sortes de scénarios négatifs. Nous avons besoin de plus de travail pour débiaiser les informations au point de collecte.
Les conclusions
Il ne fait aucun doute que les préjugés, qu'ils soient fondés sur le sexe ou la race, émanent de préjugés humains fondamentaux. Lorsqu'il s'agit d'utiliser l'IA dans la prise de décision, nous pouvons voir que la faible qualité des données que ce biais humain génère peut produire des résultats alarmants. Ce biais sera amplifié du modèle résultant.
Nous devons clairement concevoir tous les modèles d'IA dans une optique d'inclusion, effectuer des tests ciblés dans des cas complexes et former des données complètes et représentatives. Tout cela contribuera à garantir que le processus de réduction des biais continue de s'améliorer.