Atualizando...

ChatGPT na Medicina: Diagnóstico por IA e o Limite Humano

IA diagnosticou doença rara onde médicos falharam. O caso de Phoebe Tesoriere expõe a falha humana, mas alerta sobre os riscos da confiança cega em algoritmos e a ética da medicina.

🟢 Análise

A cena é familiar, dolorosamente humana: uma jovem mulher, aos 23 anos, peregrinando por quatro longos anos entre diagnósticos médicos equivocados, da ansiedade à epilepsia, até ser categoricamente descredibilizada por profissionais que a alertavam sobre o risco de ser tratada como mera paciente psiquiátrica. O corpo falava, a medicina humana silenciava. O desenlace, porém, foi um enredo novo: não foi um médico mais atento nem um conselho de especialistas que trouxe a luz, mas um algoritmo de inteligência artificial, o ChatGPT, que, após um coma e a inserção de seus sintomas, sugeriu a rara paraplegia espástica hereditária, posteriormente confirmada por testes genéticos. Este caso, individual e comovente, expõe uma ferida aberta na saúde pública, mas também nos convida a um discernimento moral sobre os perigos de uma confiança desmedida na técnica.

É inegável o alívio de Phoebe Tesoriere e a legítima frustração com um sistema que falhou em sua missão elementar de veracidade e cuidado. Sua experiência é um grito contra a desumanização de uma medicina por vezes burocratizada e exausta, onde o paciente se torna um dado a ser encaixado em categorias pré-existentes, e não um indivíduo complexo em sua singularidade. Contudo, a tentação de santificar a máquina por um acerto pontual, contra a falha de anos de medicina humana, seria uma ilusão imprudente e perigosa. Pois, para cada caso de “salvação algorítmica”, há um sem-número de equívocos e desinformações que uma IA, desprovida de juízo prudencial e de responsabilidade moral, pode gerar.

O Magistério da Igreja, em sua constante atenção à dignidade da pessoa humana, sempre advertiu que a técnica, embora um fruto admirável da inteligência, não pode ter primazia sobre o ser. A máquina, por mais sofisticada, é e será sempre um instrumento, um meio, e jamais a fonte última da verdade ou da cura. Quando a OpenAI, desenvolvedora do ChatGPT Health, se apressa em declarar que sua ferramenta não se destina a “diagnóstico ou tratamento”, está, ainda que involuntariamente, sublinhando essa verdade: o algoritmo opera por correlação de dados, não por compreensão causal ou por empatia. A veracidade, em medicina, exige mais do que a probabilidade estatística de um acerto; demanda a inteireza do julgamento clínico, do exame físico, da anamnese e da experiência acumulada, tudo isso enraizado na relação de confiança entre médico e paciente.

A verdadeira questão, portanto, não é se a IA pode ocasionalmente acertar onde o homem errou, mas como assegurar que a “ordem moral pública” na saúde, como diria Pio XII, seja preservada e aprimorada. A massificação do uso de chatbots para autodiagnóstico, com 230 milhões de pessoas semanalmente buscando respostas para sua saúde, transforma a medicina num campo minado de informações não validadas. O estudo de Oxford é cristalino: a IA gera resultados “bons e ruins”, e a capacidade de discernir entre eles é uma competência humana que nem todos possuem. A prudência exige regulação rigorosa, transparência nos algoritmos e clareza na responsabilização por erros. A justiça demanda que o sistema de saúde invista na formação de profissionais humanos, em tempo de consulta adequado e em protocolos que permitam a escuta atenta, em vez de sobrecarregá-los com a tarefa de validar ou refutar hipóteses geradas por máquinas irresponsáveis.

O caso de Phoebe, paradoxalmente, revela a sanidade que Chesterton via no senso comum, mesmo que aqui expressa de forma invertida. A “loucura lógica” que levou médicos a diagnosticar ansiedade em vez de uma condição neurológica séria é o que nos faz buscar a racionalidade fora do humano. Mas a sanidade não reside em trocar um problema por outro, substituindo o médico desatento por um algoritmo opaco e sem alma. Ela reside em reconhecer que a excelência médica é uma simbiose entre o rigor técnico e a inteligência compassiva, entre a ciência e a caridade.

A experiência de Phoebe Tesoriere, embora um divisor de águas pessoal, não pode ser o marco zero de uma nova era de tecnolatria médica. É, antes, um poderoso lembrete da urgência de restaurar a centralidade da relação médico-paciente, de fortalecer a formação humana e de exigir que a tecnologia, essa força tão ambivalente, seja sempre uma serva humilde da vida, jamais sua senhora arbitrária. A verdadeira cura não brota de uma tela, mas do encontro entre a dor e o cuidado, entre a incerteza e a sabedoria.

Fonte original: globo.com

⚖️ A Contradictio analisa as notícias à luz da tradição clássica e da Doutrina Social da Igreja. As fontes originais são citadas ao longo do texto.

Artigos Relacionados