Especialista em segurança de dados, Gabriel Barros, explica por que ferramentas de IA ainda simplificam diagnósticos e expõem informações sensíveis
A conveniência do uso é óbvia: um aplicativo de IA pode sugerir causas para sintomas físicos. Já chats de IA generativa respondem em segundos se aquela dor é “normal” ou até interpretam exames. Esse comportamento já foi amplamente adotado entre os brasileiros. O problema é que, na saúde, a mesma tecnologia que acelera decisões também pode simplificar demais ou exagerar um quadro clínico. Além disso, ela pode abrir espaço para a exposição de dados sensíveis. É o que aponta o engenheiro de software com ampla experiência no Vale do Silício (EUA), Gabriel Barros. Ele recomenda cautela aos pacientes que querem usar ferramentas de IA para cuidar da própria saúde.
Gabriel trabalhou por 12 anos no Yahoo Internacional. Ele também liderou um projeto de isolamento de dados sensíveis em parceria com o Google e a Microsoft. O alerta do especialista se baseia na forma como as IAs funcionam. Diferentemente de médicos, elas não avaliam um paciente de maneira individualizada. Os sistemas respondem com base em padrões aprendidos a partir de grandes volumes de dados. “Por isso, as IAs tendem a produzir respostas genéricas e repetitivas ou respostas plausíveis, mas incorretas”, argumenta o engenheiro, que também é cofundador da healthtech MYME. Segundo Gabriel, quanto mais uma informação é repetida, maior a chance de ela ser utilizada pela IA, mesmo que esteja errada.
Alertas da IA
Pesquisas recentes reforçam esse ponto de vista. O volume Inteligência Artificial Generativa em Saúde e Medicina (2025), disponível na National Academy of Medicine, apresenta os principais riscos do uso dessa tecnologia. Entre eles estão privacidade de dados, vieses, limitação de raciocínio e alucinações. Um artigo publicado na revista Nature em 2025 revela que a acurácia média de modelos de IA para diagnósticos é de 52,1%. O desempenho ficou significativamente abaixo do apresentado por médicos especialistas. A análise reuniu 83 estudos publicados entre junho de 2018 e junho de 2024.
Gabriel também chama atenção para o ambiente onde esses dados são armazenados. “Quando você coloca exames, sintomas e outras informações pessoais em qualquer aplicativo ou chat, cria um repositório extremamente sensível”, ressalta. Segundo ele, nem todas as plataformas possuem estrutura adequada de segurança, controle de acesso ou governança de dados. O alerta ganha ainda mais relevância em um cenário em que grandes empresas de tecnologia já sinalizam a adoção de modelos com publicidade. O especialista afirma que isso reforça a necessidade de transparência sobre como as plataformas podem utilizar os dados. “O acompanhamento e diagnóstico médico continuam indispensáveis. E os dados de saúde devem permanecer em ambientes seguros e especializados”, afirma.
Plataformas médicas
Já existem ferramentas gratuitas voltadas ao armazenamento de histórico médico que prometem segurança de dados, como a plataforma da MYME. É possível registrar sintomas, exames, consultas, prescrições médicas, medicações, vacinação e outras informações relevantes sobre a saúde de cada pessoa. O paciente também consegue reunir prontuários de hospitais, clínicas e outras unidades de saúde. Depois, pode apresentar esse histórico a qualquer profissional ou instituição do setor.
Ferramentas desse tipo não disputam espaço com o Meu SUS Digital, plataforma do Ministério da Saúde que funciona como prontuário eletrônico do Sistema Único de Saúde (SUS). Na prática, elas atuam de forma complementar. “O Meu SUS traz informações da rede pública e agora também permite o agendamento de consultas, inicialmente em 500 municípios brasileiros”, explica Gabriel. Segundo ele, plataformas privadas de armazenamento conseguem reunir documentos que o paciente mantém em papéis, imagens e arquivos pessoais. Elas também agregam dados cotidianos que o SUS normalmente não registra.
O novo Dr. Google ficou mais perigoso
Até pouco tempo atrás, a busca por sintomas no Google já estimulava diagnósticos apressados e conclusões sem contexto clínico. Agora, esse hábito ganhou uma camada de aparente sofisticação. Em vez de apenas pesquisar “dor no peito”, muitas pessoas enviam exames completos, histórico médico e até CPF para chats de IA generativa. Muitos usuários fazem isso como se a tecnologia pudesse oferecer uma leitura precisa e segura da própria saúde.
O risco, porém, ficou ainda maior. A sensação de exatidão costuma vir acompanhada de pouca transparência sobre o destino dos dados. Além disso, respostas automatizadas podem parecer confiáveis mesmo quando estão erradas. Gabriel Barros alerta que o problema não está apenas na interpretação do paciente. O ambiente em que essas informações são inseridas também preocupa.
“Quando você coloca exames, sintomas e outras informações pessoais em qualquer aplicativo ou chat, está criando um repositório extremamente sensível”, afirma. Como o uso da IA ainda não foi regulamentado no Brasil, muitos usuários desconhecem como essas plataformas tratam, armazenam ou reaproveitam os dados recebidos. Na prática, poucas pessoas leem políticas de privacidade antes de enviar documentos. E informações de saúde estão entre os dados mais sensíveis que existem. Todo cuidado é pouco.



