Nova ferramenta da OpenAI gera expectativas e preocupações sobre precisão e responsabilidade médica

O ChatGPT Health da OpenAI provoca debate entre médicos e especialistas sobre sua precisão e uso responsável em saúde.
ChatGPT Health: uma inovação entre utilidade e críticas na área médica
O ChatGPT Health, lançado pela OpenAI no início de janeiro de 2026, tem provocado um intenso debate entre especialistas da saúde e tecnologia. A ferramenta, cujo propósito é oferecer respostas informativas e educativas a dúvidas específicas sobre saúde, surgiu como um recurso promissor para auxiliar o público geral. Segundo a OpenAI, o ChatGPT Health não se destina a realizar diagnósticos ou substituir profissionais, mas pode preparar usuários para diálogos mais produtivos com médicos. A diretora de inovação Lara Salvador ressalta que a IA não captura o contexto clínico completo nem substitui o exame físico, elementos essenciais para decisões médicas seguras.
Desafios da precisão e responsabilidade em inteligência artificial médica
A discussão sobre o uso do ChatGPT Health envolve a questão da precisão das informações fornecidas. O médico André Costa alerta para os riscos de substituição da consulta presencial por respostas automatizadas, destacando que boa parte dos diagnósticos depende da anamnese e de exames complementares. Além disso, Gustavo Zaniboni, especialista em IA, levanta dúvidas sobre a responsabilização legal em caso de erros da plataforma, especialmente diante das chamadas “alucinações” — fenômenos em que a inteligência artificial cria informações falsas com aparência plausível. Essa incerteza ética e jurídica reforça a necessidade de regulação e fiscalização rigorosa.
Colaboração médica e limitações da tecnologia
O desenvolvimento do ChatGPT Health envolveu feedback de mais de 260 médicos de 60 países, que contribuíram com avaliações durante o treinamento do modelo. Essa colaboração visa aumentar a confiabilidade das respostas e reduzir riscos. No entanto, Emir Vilalba, da Semantix, destaca que a origem e coerência dos dados nem sempre podem ser garantidas, sendo fundamental que usuários não tratem as respostas como diagnósticos definitivos. Nuria López, professora de direito digital, reforça que a ferramenta é apenas um suporte e não substitui a experiência clínica humana.
Proteção de dados e soberania digital em contexto brasileiro
No Brasil, o uso do ChatGPT Health exige consentimento explícito para o tratamento de dados de saúde, em respeito à Lei Geral de Proteção de Dados (LGPD). Ainda assim, a guarda dessas informações por empresas estrangeiras suscita debates sobre soberania e segurança das informações, especialmente diante da Lei americana Cloud Act, que permite acesso por autoridades norte-americanas a dados armazenados por companhias americanas, mesmo fora dos EUA. O governo brasileiro, por meio do Plano Brasileiro de Inteligência Artificial (PBIA), investe na criação de uma nuvem soberana para garantir que dados nacionais fiquem sob jurisdição local.
Potencial do ChatGPT Health para ampliar acesso à informação em saúde
Apesar dos desafios, especialistas reconhecem que o ChatGPT Health pode beneficiar pessoas com acesso limitado a serviços médicos. A ferramenta pode fornecer informações mais seguras e especializadas do que buscas aleatórias na internet, auxiliando em esclarecimentos básicos e orientações iniciais. Segundo a OpenAI, mais de 230 milhões de pessoas perguntam sobre saúde e bem-estar no ChatGPT semanalmente, evidenciando o interesse e a demanda por esse tipo de recurso. Conforme avalia Zaniboni, o avanço da IA na saúde é um caminho irreversível, com potencial transformador semelhante ao da eletricidade em múltiplos setores.
Fonte: www1.folha.uol.com.br
Fonte: Dado Ruvic/Reuters










