OMS alerta sobre uso de ChatGPT e outras inteligências artificiais na saúde


De acordo com a organização, “a adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde e causar danos aos pacientes”. OMS emite alerta sobre uso do ChatGPT e outras ferramentas de inteligência artificial na saúde
Getty Images
A Organização Mundial da Saúde (OMS) fez um alerta nesta terça-feira (16) pedindo cautela com o uso de ferramentas de modelo de linguagem (LLMs), geradas por inteligência artificial (IA), como o ChatGPT, para ações de saúde pública.
De acordo com a organização, essas ferramentas, que imitam a comunicação humana, “estão gerando um entusiasmo significativo em torno do potencial de atender às necessidades de saúde das pessoas”.
No entanto, a OMS destaca a importância de examinar cuidadosamente os riscos dessas plataformas, para que elas possam ser utilizadas “para aumentar a capacidade de diagnóstico em ambientes com poucos recursos para proteger a saúde das pessoas e reduzir a desigualdade”.
Segundo a organização, “existe a preocupação de que o cuidado que normalmente seria exercido para qualquer nova tecnologia não esteja sendo exercido de forma consistente com os LLMs”.
LEIA TAMBÉM:
ChatGPT: robô conversador enfrenta prova para se tornar médico nos EUA
Para a OMS, “a adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes, minar a confiança na IA e, assim, minar (ou atrasar) os potenciais benefícios e usos de longo prazo de tais tecnologias em todo o mundo”.
Na nota publicada nesta terça-feira, a OMS destacou os principais fatores que preocupam a organização:
os dados usados ​​para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, equidade e inclusão;
os LLMs geram respostas que podem parecer confiáveis ​​e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;
os LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e os LLMs podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;
LLMs podem ser mal utilizados para gerar e disseminar desinformação altamente convincente na forma de conteúdo de texto, áudio ou vídeo que é difícil para o público diferenciar de conteúdo de saúde confiável; e
embora comprometida em aproveitar novas tecnologias, incluindo IA e saúde digital para melhorar a saúde humana, a OMS recomenda que os formuladores de políticas garantam a segurança e a proteção do paciente enquanto as empresas de tecnologia trabalham para comercializar LLMs.
Diante disso, a OMS propôs que esses riscos sejam avaliados antes que essas ferramentas de inteligência artificial comecem a ser utilizadas de forma generalizada em cuidados de saúde.
Saiba mais sobre o robô conversador:
ChatGPT: como usar o robô no dia a dia