Vous êtes ici

Pour que l’IA soit efficace dans les soins de santé, les préjugés sexistes doivent être traités

temps de lecture: 4 minutes

[ad_1]

La chercheuse Orna Fennelly discute des avantages que l’IA peut apporter au secteur de la santé une fois que les préjugés sexistes sont abordés en premier.

L’IA fait désormais partie de notre vie quotidienne. Des recommandations sur Netflix et de la publicité en ligne sur les réseaux sociaux à la reconnaissance faciale sur nos téléphones et nos trackers de fitness.

Alors que de nombreuses applications de l’IA rendent nos vies plus efficaces en accélérant (parfois) notre choix du prochain programme télévisé à frénésie, il existe un énorme potentiel pour l’IA pour révolutionner la prestation des soins de santé.

L’IA peut être utilisée pour identifier rapidement les anomalies sur les tomodensitogrammes tels que les accidents vasculaires cérébraux et informer immédiatement les professionnels de la santé concernés. Il peut également aider les professionnels de la santé à prendre des décisions plus précises, les alerter des changements dans l’état d’un patient et même les aider à documenter les soins aux patients plus efficacement, leur permettant de passer plus de temps avec les patients.

Bien que nous ayons vu certaines applications de l’IA dans le domaine de la santé, contrairement à d’autres domaines, l’IA n’est pas encore répandue dans la prestation de soins de santé.

L’une des raisons de l’adoption relativement mesurée de l’IA dans les soins de santé est d’éviter le risque de reproduire la discrimination fondée sur le sexe et d’autres types au sein des algorithmes, et les erreurs de diagnostic qui en découlent.

Alors que la prise de décision par des machines a le potentiel d’atténuer la pensée stéréotypée, nos préjugés sociétaux conscients et inconscients sont souvent présents dans les données de formation ou ils peuvent être codés dans l’algorithme par des développeurs biaisés.

Cela ne fait pas que reproduire les préjugés et la discrimination existants, mais peut les exacerber et augmenter les conséquences économiques et sociales négatives. La nature de «  boîte noire  » de l’IA signifie également que le biais peut être masqué. Cela comprend les déséquilibres historiques dans d’autres domaines tels que les pratiques d’embauche et l’écart de rémunération entre les hommes et les femmes.

C’est exactement ce qu’Amazon a découvert dans son moteur de recrutement qui a évalué les candidats masculins plus haut que les femmes pour des postes techniques, car l’algorithme avait observé un modèle d’emploi dominé par les hommes.

Le risque de reproduire ces biais est très préoccupant car les femmes ne représentent que 25% de la main-d’œuvre STEM en Irlande, 18% des entreprises irlandaises n’ont pas de femmes à des postes de direction et les femmes travaillant à des postes de recherche scientifique et développement en Irlande gagnent en moyenne 30% de moins que les hommes. , le plus grand écart salarial de l’UE.

De même, une étude a révélé que Google Translate présentait une forte tendance aux valeurs par défaut masculines, en particulier pour les domaines STEM. En plus de reproduire les préjugés sexistes au sein de la main-d’œuvre, la formation d’algorithmes d’IA sur des données qui ne sont pas diverses aboutit à une technologie inférieure.

Une étude récente a révélé que le logiciel de reconnaissance faciale était précis à 99% pour les hommes à la peau claire, mais aussi faible que 65% pour les visages féminins plus foncés. De même, les systèmes de reconnaissance vocale se sont révélés jusqu’à 13% plus précis pour les voix masculines que féminines.

Soutenir Silicon Republic

Ces inexactitudes posent d’énormes défis sociétaux. En 2017, une vétérinaire irlandaise a déclaré avoir échoué à son test d’anglais oral informatisé requis pour rester en Australie, alléguant qu’il y avait une faille dans le logiciel. Pearson, le fournisseur de tests en ligne, a nié qu’il y ait eu quoi que ce soit de mal avec son test sur ordinateur.

IA et préjugés sexistes dans les soins de santé

L’importance de la technologie reconnaissant les différences entre les sexes et les genres ainsi que l’appartenance ethnique, la race, la situation géographique et le statut socio-économique est encore renforcée dans les soins de santé.

Les maladies se manifestent différemment pour les hommes et les femmes et peuvent survenir plus fréquemment dans certaines populations. Cependant, les différences fondées sur le sexe ne sont souvent pas prises en compte et reconnues dans le développement d’algorithmes pour les soins de santé selon une étude récente.

Cela risque de manquer ou de mal interpréter un problème de santé et pose de graves problèmes de sécurité pour les patients. Selon l’Irish Heart Foundation, les crises cardiaques et les accidents vasculaires cérébraux sont l’un des plus grands tueurs de femmes en Irlande, mais ils sont souvent oubliés car les symptômes ressentis par les femmes, par exemple les nausées et les maux de dos, peuvent être différents de ceux des hommes qui le sont. plus susceptible de ressentir une douleur écrasante dans la poitrine qui descend le bras.

De même, la douleur chronique affecte une plus grande proportion de femmes, mais selon l’Association internationale pour l’étude de la douleur, les femmes sont moins susceptibles de recevoir un traitement en raison d’une méconnaissance de la manière dont les femmes ressentent la douleur différemment. Bien que biaisés inconscients, ces préjugés sexistes peuvent exister dans les données de formation en IA et être reproduits dans le milieu de la santé.

Malgré les craintes que l’IA reproduise les préjugés, l’IA peut également contribuer à la réduction des inégalités et des préjugés entre les sexes et apporter d’énormes avantages aux soins de santé. Cela nécessite des améliorations dans la diversité, l’inclusivité et l’égalité des données de formation, les développeurs d’IA et les testeurs de ces technologies, et l’implication des principales parties prenantes.

Les développeurs d’IA doivent également être formés pour reconnaître les biais et utiliser des approches éthiques et transparentes, avec une surveillance continue et une réglementation accrue de l’agrégation des données, de sa validation de la qualité et des algorithmes.

Il est désormais largement reconnu que le manque de diversité dans la communauté des développeurs d’IA est lié aux biais qui en résultent dans les produits techniques. Pour éviter de perpétuer ces préjugés dans le monde numérique, nous devons lutter contre ces inégalités entre les sexes dans le travail réel, qui voit actuellement les femmes ne représenter que 12% des chercheurs en IA.

Plus de femmes dans la technologie pour l’équilibre entre les sexes n’est plus un «  bon à avoir  » mais une nécessité qui doit être priorisée afin d’éviter de développer des produits qui perpétuent les biais existants et exacerbent les disparités en matière de santé.

Par Orna Fennelly

Le Dr Orna Fennelly est chercheur en e-santé au Centre irlandais pour l’informatique haut de gamme (ICHEC) à NUI Galway. Fennelly est également physiothérapeute et détient un doctorat en sciences de la santé de l’University College Dublin.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles Similaires

Crypto
Les baleines accumulent massivement l’ether

temps de lecture: 2 minutes Les géants des fonds marins se tournent vers la crypto-monnaie Les baleines sont célèbres pour leur silhouette majestueuse et leur capacité à avaler des tonnes

S'abonner à la newsletter