Explicado: como a IA pode combater preconceitos sexuais e de gênero na área da saúde
Desde ajudar médicos com diagnósticos até sugerir tratamentos avançados, a Inteligência Artificial (IA) está transformando a saúde e a medicina. Mas a IA tem sido predominantemente desenvolvida por homens, com base em conjuntos de dados que dão prioridade ao corpo e às necessidades de saúde dos homens. Isso significa que muitos modelos de IA estão repletos de preconceitos de género e sexo – representando um risco para a saúde das mulheres, bem como dos pacientes não binários.
Com estes preconceitos na medicina sob os holofotes nos últimos anos, irá a IA ampliar as desigualdades existentes nos cuidados de saúde – ou poderá ser aproveitada para ajudar a colmatar a lacuna?
Dados tendenciosos
O calibre da IA depende totalmente da qualidade dos grandes conjuntos de dados que são inseridos nos algoritmos de aprendizagem de máquina subjacentes aos seus programas de software.
Se os dados excluírem ou subrepresentarem setores relevantes da população global, a IA mal informada pode representar sérios riscos para a saúde – desde diagnósticos falhados, ao comprometimento da interpretação de imagens médicas, até recomendações de intervenção incorretas.
Os problemas começam com os preconceitos de género subjacentes à própria codificação da linguagem do software de IA.
Emergiu a infiltração de estereótipos masculinos na IA – desde a predefinição aparentemente inconsciente do pronome masculino “ele” quando as opções são ambíguas, até aplicações alarmantes de cuidados de saúde que ameaçam o diagnóstico e o tratamento.
Por exemplo, no campo da psiquiatria, quando os homens descrevem sintomas de trauma, são mais propensos a serem diagnosticados com transtorno de estresse pós-traumático (TEPT), enquanto as mulheres que descrevem os mesmos sintomas correm maior risco de receber um diagnóstico de transtorno de personalidade.
Este tipo de preconceito de género pode (e muitas vezes influencia) o acesso das mulheres aos cuidados de saúde ou a sua gestão dentro do sistema de saúde – e parece que este preconceito é replicado em modelos de IA.
Um estudo de 2020 dos EUA descobriu que os modelos de IA de processamento de linguagem natural usados em psiquiatria demonstram preconceitos de gênero significativos.
O artigo de investigação, publicado na PLos One, alertou que os modelos de IA que rastreiam psicopatologia ou suicídio cometerão erros se forem treinados predominantemente em dados escritos por homens brancos, porque a linguagem é moldada pelo género. Homens e mulheres expressam o sofrimento suicida de forma diferente, por exemplo.
Crucialmente, a sensibilização para este tipo de questões está a aumentar e estão a surgir iniciativas para evitar preconceitos – muitas vezes lideradas por mulheres, como o Bioinfo4women-B4W, um programa do Centro de Supercomputação de Barcelona.
Este exemplo também nos lembra que as considerações sobre o preconceito e a linguagem de género na IA devem ir além da língua inglesa, a fim de serem relevantes para o desenvolvimento da IA em todo o mundo.
Oportunidades para design inclusivo
Mas as preocupações não param no nível da linguagem. E se algo tão básico como a constituição do nosso corpo não for considerado quando a IA estiver sendo desenvolvida?
À medida que o uso da IA se expande para o design de produtos de segurança, temos uma oportunidade sem precedentes de construir produtos melhores, elaborando características que atendam adequadamente aos nossos corpos humanos – femininos e masculinos.
Os corpos médios femininos e masculinos apresentam diferenças de proporcionalidade; não podemos simplesmente escalar de um para outro.
Este ponto ficou claro durante a pandemia de COVID, quando o uso de equipamentos de proteção individual (EPI) se tornou obrigatório.
Apesar de cerca de 70% dos profissionais de saúde globais serem mulheres, os EPI foram concebidos em torno do corpo masculino. Um inquérito canadiano identificou que os EPI mal ajustados não eram apenas responsáveis pela falta de proteção adequada, mas também que os equipamentos de grandes dimensões e mal ajustados representavam um risco significativo de acidente.
Mais estudos são necessários sobre este tema, mas os pesquisadores já propuseram a construção de EPI projetados por IA. Pode-se esperar que garantir que as características sexuais sejam consideradas no design dos EPI melhore a segurança.
Move-se na direção certa
A precisão dos diagnósticos clínicos assistidos por IA depende totalmente da robustez dos conjuntos de dados subjacentes. Sem ter em conta ativamente os preconceitos de sexo e género nos conjuntos de dados históricos, a IA pode contribuir para diagnósticos falhados ou errados.
Felizmente, ajustar-se a esses preconceitos parece levar a melhores resultados de saúde para as mulheres.
Por exemplo, a pontuação tradicional de avaliação de risco para ataques cardíacos, o Registo Global de Eventos Coronários Agudos (GRACE), foi actualizada em 2022 para incorporar modelos preditivos de IA que tenham em conta características de doenças específicas do sexo.
Esta atualização revolucionou o desempenho desta ferramenta de avaliação. O sucesso decorre da análise separada de dados masculinos e femininos – o que orienta mais pacientes do sexo feminino para uma intervenção precoce que salva vidas, ajudando a superar preconceitos estruturais no tratamento dos pacientes.
Um exemplo prático de um modelo de IA concebido para abordar e reduzir o preconceito de género é o SMARThealth Pregnancy GPT. Esta ferramenta, desenvolvida pelo Instituto George para Saúde Global, visa melhorar o acesso a aconselhamento sobre gravidez baseado em diretrizes para mulheres que vivem em comunidades rurais e remotas na Índia.
O conceito era desenvolver um chatbot com modelo de linguagem grande que fosse contextualmente sensível e clinicamente preciso – e evitasse estereótipos prejudiciais arraigados.
A equipe do George Institute trabalhou em estreita colaboração com agentes comunitários de saúde, médicos e mulheres que vivem em comunidades rurais, para co-criar e refinar o algoritmo da ferramenta. Os médicos também pontuaram as respostas geradas pela IA em termos de precisão, adequação para profissionais de saúde comunitários, integridade e risco de preconceito, o que ajudou a melhorar as respostas do chatbot.
O chatbot mostra o potencial da IA na capacitação dos profissionais de saúde e na melhoria da educação em saúde em ambientes com recursos limitados – evitando preconceitos e promovendo os direitos das mulheres.
O desenvolvimento da IA sensível ao género poderia igualmente melhorar inúmeras outras tecnologias médicas que dependem da diversidade e integridade dos dados para garantir a precisão: por exemplo, adaptar tratamentos personalizados; prever respostas ao tratamento; realizar certas cirurgias assistidas por robôs; monitorar pacientes remotamente; cuidados de saúde virtuais; e aceleração da descoberta de medicamentos.
Iniciativas para promover a melhoria da equidade sexual e de género nos cuidados de saúde também começaram a surgir nos últimos anos. Eles incluem o recém-lançado Centro Australiano para Sexo e Equidade de Gênero em Saúde e Medicina e a Ciência Médica do Reino Unido sobre Sexo e Equidade de Gênero.
Estes programas defendem activamente a consideração rotineira do sexo e do género, desde a descoberta até à investigação translacional, incluindo aplicações de IA, para garantir o rigor científico como uma base sólida para o avanço da saúde e dos cuidados médicos.
A IA é o futuro dos cuidados de saúde e não podemos dar-nos ao luxo de replicar os erros do passado de desigualdades na saúde perpetrados pela ignorância do sexo e do género. É hora de programar a IA para traçar o nosso caminho em direção a um destino ético.
(Isenção de responsabilidade: as informações neste artigo são fornecidas para fins educacionais e não devem ser consideradas como aconselhamento médico.)
(Autores: Sue Haupt é Pesquisadora Sênior do Centro de Equidade Sexual e de Gênero em Saúde e Medicina do Instituto George para Saúde Global da UNSW, Pesquisadora Sênior Honorária da Universidade Deakin e também do Departamento de Oncologia Sir Peter MacCallum da Universidade de Melbourne. A professora Bronwyn Graham é diretora do Centro para Equidade de Sexo e Gênero em Saúde e Medicina do Instituto George de Saúde Global e professora na Escola de Psicologia da UNSW. A professora Jane Hirst é diretora do programa de saúde da mulher no George Institute for Global Health, School of Public Health, Imperial College London.
(Originalmente publicado sob Creative Commons por 360info)
(Exceto a manchete, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)