Responsabilidade Civil Médica no Uso de Inteligência Artificial
Nos últimos anos, a inteligência artificial (IA) tem se consolidado como uma ferramenta revolucionária em diversas áreas do conhecimento, incluindo a medicina.
Em um primeiro momento, essas tecnologias foram empregadas sobretudo na execução de tarefas repetitivas, porém, com a evolução técnica e o aumento da capacidade de processamento de dados, passaram a atuar no apoio à formulação de hipóteses diagnósticas de doenças, na triagem e no monitoramento dos pacientes, e, mais recentemente, a compor fluxos de maior complexidade, inclusive no gerenciamento do ambiente cirúrgico, como por exemplo, na cirurgia robótica.
No Brasil, esse movimento do advento da IA já se reflete em dados objetivos: a pesquisa TIC Saúde 2024 realizada pelo Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação, identificou que a utilização de IA em estabelecimentos de saúde ainda é limitada (4%), mas também apontou, pela primeira vez, que 17% dos médicos no Brasil utilizam tecnologias de inteligência artificial (IA) generativa em suas rotinas profissionais.
Esse processo de incorporação tecnológica passou, mais recentemente, a contar também com disciplina ética específica no âmbito profissional médico. No plano normativo, a Resolução CFM nº 2.454/2026 passou a regular o uso da inteligência artificial na medicina.
Esse avanço tecnológico, embora positivo sob a perspectiva assistencial da saúde, também intensifica desafios jurídicos, especialmente no campo da responsabilidade civil médica.
Quando sistemas algorítmicos passam a influenciar o profissional médico (ainda que parcialmente) no percurso de diagnóstico, na definição de condutas e no próprio padrão de diligência esperado, surgem dúvidas que tendem a aparecer com frequência crescente no caso de demandas judiciais:
Qual regime de responsabilização se aplica quando a decisão médica dialoga com uma ferramenta algorítmica?
Como adotar no sistema normativo brasileiro as figuras da culpa e nexo causal quando o evento adverso decorre, total ou parcialmente, dessa interação entre médico e IA?
É a partir dessas problemáticas que o presente artigo examina a responsabilidade civil do médico no uso de inteligência artificial, à luz do ordenamento jurídico brasileiro e dos parâmetros ético-profissionais atualmente estabelecidos para o uso da IA na medicina.
- O Instituto da Responsabilidade Civil
A responsabilidade civil pode ser compreendida como o dever jurídico de reparar um dano quando há o descumprimento de um dever preexistente.
Em outras palavras, sempre que uma obrigação legal ou contratual é violada e dessa violação resulta prejuízo a alguém, surge para o causador do dano a obrigação de indenizar, buscando, na medida do possível, recompor o equilíbrio rompido e aproximar a vítima do estado em que estaria se o evento danoso não tivesse ocorrido.
No Código Civil, essa lógica aparece de forma clara nos arts. 186 e 187, ao definirem o ato ilícito tanto na hipótese de violação de direito por ação ou omissão culposa, quanto no caso de abuso de direito.
“Art. 186. Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito.
Art. 187. Também comete ato ilícito o titular de um direito que, ao exercê-lo, excede manifestamente os limites impostos pelo seu fim econômico ou social, pela boa-fé ou pelos bons costumes”
Já o art. 927 do Código Civil, estabelece a consequência direta: quem causa dano por ato ilícito fica obrigado a repará-lo, prevendo ainda, no parágrafo único, hipóteses em que a reparação poderá ser exigida independentemente de culpa, nos casos previstos em lei ou quando a atividade, por sua natureza, implicar risco aos direitos de terceiros.
A partir desse desenho normativo, costuma-se apontar quatro elementos centrais para a caracterização da responsabilidade civil: conduta, culpa ou dolo (quando exigidos), nexo causal e dano.
A conduta pode ser comissiva ou omissiva. Pode decorrer de ato próprio, ou ainda de situações em que a ordem jurídica atribui dever de cuidado e fiscalização em relação a terceiros, animais ou coisas sob guarda, conforme as regras específicas de responsabilidade indireta previstas na legislação.
No plano subjetivo, o elemento volitivo pode se apresentar como dolo, quando há vontade deliberada de violar o dever jurídico, ou como culpa, quando há falta de diligência exigível.
A culpa, por sua vez, é tradicionalmente identificada nas formas de negligência, imprudência e imperícia, própria ou de terceiro vinculado a quem presta um serviço e pode ser analisada também em classificações úteis para o caso concreto, como: a culpa pela má escolha (culpa in eligendo) e; a culpa pela ausência de fiscalização (culpa in vigilando).
Há ainda referências usuais a culpa por ação (in comittendo) e por omissão (in omittendo), entre outras, que ajudam a explicar a forma como a conduta se desviou do padrão esperado.
A responsabilidade objetiva aparece com destaque em regimes legais específicos, como no Código de Defesa do Consumidor, e encontra fundamento no próprio Código Civil, no art. 927, parágrafo único, quando a lei assim determinar ou quando a atividade implicar risco por sua natureza.
Em síntese, o ordenamento brasileiro trabalha com dois modelos de imputação (subjetivo e objetivo), e a escolha do regime aplicável depende do enquadramento legal e das particularidades do caso concreto.
Esse panorama geral é indispensável para, adiante, compreender como a responsabilidade se projeta em contextos específicos, como a prestação de serviços de saúde, e por que a discussão se torna ainda mais sensível quando ferramentas tecnológicas como a IA passam a integrar o processo decisório clínico.
- A Natureza Jurídica da Responsabilidade Médica e o Uso de IA
Delimitado o instituto da responsabilidade civil em seus contornos gerais, o passo seguinte é identificar qual regime jurídico incide, como regra, sobre a atuação médica e de que forma esse regime é tensionado quando ferramentas de inteligência artificial passam a integrar o atendimento.
No direito brasileiro, o médico é tradicionalmente enquadrado como profissional liberal e, na prática, a relação médico-paciente costuma ser analisada sob a ótica consumerista, na medida em que o paciente se apresenta como destinatário final do serviço e o profissional como fornecedor (CDC, arts. 2º e 3º).
Ainda assim, o próprio Código de Defesa do Consumidor preserva uma distinção central: embora o art. 14 estabeleça, em regra, a responsabilidade do fornecedor por defeito na prestação do serviço, o §4º determina que a responsabilidade pessoal do profissional liberal depende da verificação de culpa, mantendo-se a matriz subjetiva da responsabilidade para o médico.
“Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos.
§ 4° A responsabilidade pessoal dos profissionais liberais será apurada mediante a verificação de culpa.”
Esse enquadramento se conecta a um elemento clássico da responsabilidade médica: a medicina, como regra, configura obrigação de meio, e não de resultado.
O médico se compromete a empregar diligência, prudência e técnica adequadas, segundo as possibilidades do caso e o estado da ciência, sem que o insucesso terapêutico seja, por si só, sinônimo de inadimplemento.
Nas palavras do desembargador e doutrinador Miguel Kfouri Neto:
“Se os profissionais se utilizaram de sua vasta experiência e dos meios técnicos indicados, com os habituais cuidados pré e pós-operatórios, somente uma prova irretorquível poderá levar à indenização pleiteada”
Por isso, a responsabilização exige a demonstração de culpa (negligência, imprudência ou imperícia) e de nexo causal entre a conduta e o dano, entendimento que também se reflete na jurisprudência do Superior Tribunal de Justiça ao reafirmar que o insucesso do tratamento não implica automaticamente culpa do profissional, devendo haver sempre o exame do caso concreto.
“2. A obrigação do médico, em regra, é de meio, isto é, o profissional da saúde assume a obrigação de prestar os seus serviços atuando em conformidade com o estágio de desenvolvimento de sua ciência, com diligência, prudência e técnicas necessárias, utilizando os recursos de que dispõe – elementos que devem ser analisados, para aferição da culpa, à luz do momento da ação ou omissão tida por danosa, e não do presente-, de modo a proporcionar ao paciente todos os cuidados e aconselhamentos essenciais à obtenção do resultado almejado. 3. Portanto, como se trata de obrigação de meio, o resultado final insatisfatório alcançado não configura, por si só, o inadimplemento contratual, pois a finalidade do contrato é a atividade profissional médica, prestada com prudência, técnica e diligência necessárias, devendo, para que exsurja obrigação de indenizar, ser demonstrada a ocorrência de ato, comissivo ou omissivo, caracterizado por erro culpável do médico, assim como do nexo de causalidade entre o dano experimentado pelo paciente e o ato tido por causador do dano. (STJ – REsp: 992821 SC 2007/0231093-9, Relator.: Ministro LUIS FELIPE SALOMÃO, Data de Julgamento: 14/08/2012, T4 – QUARTA TURMA, Data de Publicação: DJe 27/08/2012)”
A introdução de sistemas de IA no contexto assistencial, por mais sofisticados que sejam, não altera automaticamente essa natureza jurídica. A Resolução CFM nº 2.454/2026 explicita, no plano ético-profissional, que a IA deve ser empregada como ferramenta de apoio, mantendo-se o médico como responsável final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas (art. 4º, I, da Resolução CFM nº 2.454/2026):
“Art. 4° Constituem deveres do médico na utilização de sistemas de Inteligência Artificial na medicina: I – empregar a IA exclusivamente como ferramenta de apoio, mantendo-se como responsável final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas; II – exercer julgamento crítico sobre as informações e recomendações fornecidas pela IA, avaliando sua coerência com o quadro clínico, as evidências científicas disponíveis e as boas práticas médicas; III – manter-se atualizado quanto às capacidades, limitações, riscos e vieses conhecidos dos sistemas de IA utilizados; IV – utilizar apenas sistemas de IA que atendam às normas éticas, técnicas, legais e regulatórias vigentes no território nacional; V – registrar no prontuário do paciente o uso de sistemas de IA como apoio à decisão médica”
Em termos práticos, quando a tecnologia é utilizada como instrumento de apoio, por exemplo, na triagem, na interpretação de exames, em sugestões diagnósticas ou no suporte decisório no tratamento do paciente, ela se incorpora ao atendimento como mais um meio técnico, e não como substituta do juízo clínico.
Nessa perspectiva, permanece central a ideia de que a condução do caso e a decisão clínica final continuam atribuídas ao profissional, até porque os modelos, sistemas e aplicações de IA não podem restringir nem substituir a autoridade final do médico (art. 18, § 1º da Resolução CFM nº 2.454/2026), razão pela qual, em regra, segue-se debatendo a responsabilidade do médico sob o prisma subjetivo e conforme a aferição da culpa no caso concreto, sem que se admita submissão automática ou acrítica às recomendações geradas pelo sistema.
Em consonância com tal perspectiva, afirma Santos que a responsabilidade do médico é subjetiva. No entanto, com o envolvimento de máquinas inteligentes emerge a necessidade da análise da conduta do profissional, baseada nas diligências necessárias para garantir a eficácia do procedimento e evitar os erros causados pelos equipamentos, considerando ainda que, nos casos em que não seja possível responsabilizar o médico, a reparação quando surge dano vinculado a imprecisão ou defeito deve ser exigida frente àqueles que auferiram lucro com o sistema, ou que o tenham produzido.
Dessa forma, verifica-se que a mudança primordial, de forma sensível, é o modo como a culpa pode ser construída e discutida em um eventual erro.
A IA reconfigura o conteúdo do padrão de diligência esperado em algumas situações, pois a análise da conduta passa a considerar, também, se o profissional exerceu julgamento crítico sobre as informações e recomendações fornecidas pela ferramenta (art. 4º, II da Resolução CFM nº 2.454/2026), o grau de dependência do output gerado e a compatibilidade entre a sugestão algorítmica, as evidências científicas disponíveis e a correlação clínica do caso.
Nesse cenário, ganha destaque um cuidado conceitual essencial: erro não é sinônimo de culpa.
A culpa pressupõe falta de diligência ou prudência em relação ao padrão do bom profissional; o erro pode decorrer de falibilidade humana mesmo na realização de conduta tecnicamente correta (iatrogenia), distinção que tende a ficar ainda mais complexa quando o processo decisório envolve recomendações algorítmicas geradas por IA, sobretudo quando a prestação de serviço médico estiver vinculada necessariamente ao uso de tecnologias, como por exemplo: diagnóstico por imagens e cirurgia robótica.
Além disso, a presença da IA reabre discussões sobre imputação e nexo causal.
Cabe ressaltar que máquinas não constituem no Código Civil pessoas de direito, sejam físicas ou jurídicas, dificultando a aplicação da análise substancial do nexo de causalidade, uma vez que este estabelece a responsabilidade àquele que promovê-lo.
A doutrina tem assinalado que, mesmo quando o sistema participa do evento danoso, a responsabilização não se dirige a IA (software, hardware, robô etc.) mas às pessoas e aos agentes que desenvolvem, controlam, adotam, operam ou se beneficiam da tecnologia, a depender do desenho do serviço e do nível de intervenção humana no processo.
Na prática, esse “alargamento” do polo de responsabilização decorre do fato de que o evento adverso pode nascer em diferentes camadas do atendimento: ora na decisão clínica final, ora no modo como o serviço foi organizado e a ferramenta foi incorporada ao fluxo, ora em falhas inerentes ao próprio produto/serviço tecnológico (defeito, desatualização, limitação não comunicada, erro de integração etc.).
Nesse recorte, há uma distinção que costuma “organizar” o caso concreto.
Quando o foco recai no ato médico, permanece central a matriz subjetiva do profissional liberal: mesmo sob a ótica consumerista (CDC, arts. 2º e 3º), o próprio CDC preserva o entendimento de que a responsabilidade pessoal do profissional liberal depende de verificação de culpa (art. 14, §4º), mantendo a discussão em torno de diligência, prudência e técnica, à luz das possibilidades de confirmação clínica e do registro mínimo capaz de reconstituir porque a decisão foi tomada.
Por outro lado, quando o problema se vincula ao serviço e à organização do cuidado, a instituição de saúde tende a ser chamada ao debate como fornecedora de serviço (CDC, art. 14, caput), sobretudo se houver falhas de governança: ausência de protocolos, treinamento insuficiente, integração defeituosa com prontuário/rotinas, permissividade de uso fora de escopo, inexistência de rotinas de atualização e manutenção, ou falta de mecanismos internos de supervisão.
Aqui, inclusive, aparece com nitidez a lógica de deveres de cuidado e fiscalização que o ordenamento reconhece em hipóteses de responsabilidade indireta, quando alguém assume a guarda/organização de coisas, pessoas ou processos e deve zelar por seu funcionamento regular.
Já quanto ao fornecedor/operador da tecnologia, a imputação costuma ganhar força quando a controvérsia se aproxima de defeito do produto ou do serviço tecnológico (CDC, arts. 12 e 14), de informação insuficiente sobre limitações e riscos, de falhas de segurança, de inconsistências de performance ou de problemas de versão/atualização.
Por isso, em litígios envolvendo ferramentas algorítmicas, passam a ser particularmente relevantes elementos de rastreabilidade (como logs), histórico de atualizações, documentação de limites de uso e evidências de validação para a finalidade proposta, pois é esse conjunto que permite separar um erro inevitável de risco evitável e, com isso, atribuir adequadamente o nexo causal a cada elo da cadeia de consumo.
Por fim, como essas ferramentas frequentemente operam com dados de saúde, a cadeia de responsabilização também se projeta no plano informacional.
A LGPD qualifica dados de saúde como sensíveis e condiciona seu tratamento a hipóteses legais específicas (art. 11), o que repercute diretamente em discussões sobre transparência, finalidade, compartilhamento e rastreabilidade, especialmente quando esses dados transitam por plataformas e fornecedores envolvidos na prestação do serviço, aspecto que também foi expressamente contemplado pela Resolução CFM nº 2.454/2026, cujo art. 6º estabelece que o médico deverá zelar pela confidencialidade, integridade e segurança dos dados de saúde utilizados por modelos, sistemas e aplicações de IA, em conformidade com a legislação vigente.
Diante do cenário exposto, ao qual uma cadeia pode ser envolvida em eventual erro cometido no uso de IA, a culpa deixa de ser um conceito genérico e passa a ser analisada por momentos do risco: o antes, em que se decide incorporar determinada solução, com suas limitações e condições de uso, e o durante, em que se exige supervisão, atualização, treinamento e criticidade no emprego do output no caso concreto.
É por isso que se torna natural avançar, na sequência, para as modalidades de culpa ligadas à escolha e ao acompanhamento da tecnologia – culpa in eligendo e culpa in vigilando – como critérios práticos de aferição da diligência tanto do profissional quanto do prestador de saúde quando decidem incorporar e efetivamente utilizar sistemas inteligentes no cuidado ao paciente.
- Culpa in eligendo e culpa in vigilando no uso de ferramentas algorítmicas
Quando se fala em responsabilidade civil médica em um cenário mediado por sistemas algorítmicos, a discussão sobre culpa costuma se tornar mais “concreta” do que parece à primeira vista.
Em vez de se limitar ao acerto ou erro do diagnóstico, o debate frequentemente recai sobre duas frentes clássicas discutidas no direito brasileiro: a escolha da tecnologia incorporada ao atendimento (culpa in eligendo) e a forma como essa tecnologia é supervisionada e utilizada na prática (culpa in vigilando).
A culpa in eligendo se relaciona ao momento anterior ao atendimento propriamente dito, isto é, ao processo de adoção da ferramenta no fluxo assistencial.
Em termos práticos, ela pode surgir quando a tecnologia escolhida, pelas suas limitações conhecidas ou pela forma como foi incorporada, já introduz um risco evitável ao paciente.
Isso se torna particularmente sensível quando se lida com sistemas que operam com margens de imprecisão relevantes e que, mesmo úteis, não entregam a certeza diagnóstica razoável, ou seja, grau de confiança na identificação de uma condição de saúde do paciente.
Há registro, por exemplo, de ferramenta desenvolvida para auxiliar na identificação de Covid-19 por tomografias com margem estimada de imprecisão de cerca de 10%, o que ajuda a compreender como a qualidade do sistema e suas limitações importam para a análise jurídica.
Nesse contexto, alguns cenários tendem a acender um alerta quando se reconstrói a culpa in eligendo em um evento adverso: a incorporação de solução cuja performance é conhecida como limitada para determinada finalidade; a adoção de tecnologia “caixa-preta”, com baixa transparência sobre seus critérios internos; ou a implementação que não considera adequação ao ambiente clínico e ao público atendido.
Essa preocupação foi reforçada pela Resolução CFM nº 2.454/2026, ao assegurar ao médico o direito de acesso a informações claras, transparentes e compreensíveis sobre o funcionamento, as finalidades, as limitações, os riscos e o grau de evidência científica dos sistemas de IA utilizados (art. 3º, II), bem como o direito de recusar sistemas que não apresentem validação científica adequada ou certificação regulatória pertinente (art. 3º, III)
Já a culpa in vigilando diz respeito ao “durante”: é a ideia de que, uma vez que a ferramenta esteja em uso, existe um dever de supervisão mínima sobre o instrumento tecnológico empregado no atendimento.
Aqui o debate não envolve apenas o médico, porque entidades hospitalares e prestadores também aparecem como responsáveis por garantir manutenção, funcionamento regular e uso por profissionais com preparo técnico compatível com a ferramenta empregada; no mesmo sentido, a Resolução CFM nº 2.454/2026 estabelece ser dever do médico manter-se atualizado quanto às capacidades, limitações, riscos e vieses conhecidos dos sistemas de IA utilizados (art. 4º, III).
Na prática, a culpa in vigilando costuma aparecer em situações como:
- Uso de sistema desatualizado ou sabidamente impreciso, com influência direta no atendimento, especialmente se isso culminar em erro grosseiro de diagnóstico do paciente.
- Confiança acrítica no output do algoritmo, com abandono do raciocínio clínico. O exemplo é bem ilustrativo: diante de paciente com queixa de dor de cabeça, o sistema sugere um medicamento não usual para o quadro; ainda assim, o médico ignora seu próprio conhecimento e prescreve o indicado pelo sistema, agravando o estado do paciente.
- Divergência entre avaliação clínica e recomendação da IA, em que a condução do caso passa a ser questionada por ter seguido ou descartado a indicação sem o cuidado proporcional à situação. O ponto é que a margem de imprecisão abre espaço para dois extremos igualmente problemáticos: aderir ao diagnóstico equivocado fornecido pelo sistema ou ignorar uma indicação correta e insistir em diagnóstico próprio também equivocado.
Nesses cenários, ganha importância a coerência da decisão adotada diante do quadro e das possibilidades de confirmação diagnóstica.
Além dessas duas frentes (escolha e supervisão), há um elemento frequentemente negligenciado e que, na prática, se torna decisivo quando o caso migra para demanda judicial: a contratação adequada da tecnologia.
Isso porque, no processo, o paciente tende a acionar judicialmente os executores do atendimento (médico, clínica ou hospital), e não o fornecedor da ferramenta utilizada.
Mesmo quando houver indícios de que a IA contribuiu para o resultado danoso – por falha, limitação relevante não esclarecida, ou inadequação para aquela finalidade – o caminho mais comum é que o prestador de saúde responda primeiro, para depois discutir, em um segundo momento, o direito de regresso contra quem forneceu a tecnologia.
O problema é que esse regresso não ocorre na mesma ação do paciente. Em relações de consumo, a regra é evitar que o processo do consumidor vire um litígio paralelo entre fornecedores, com alargamento de debates e atraso da tutela indenizatória; por isso, o CDC veda a denunciação da lide e condiciona o acerto entre responsáveis para outra via, por ação própria de regresso.
Na prática, isso significa que o prestador pode até ter razão em atribuir parte da causa ao fornecedor, mas a conta pode chegar antes, e a recuperação posterior vai depender da capacidade de demonstrar essa participação e do que foi ajustado na contratação.
É aqui que a contratação da tecnologia de IA deixa de ser detalhe e passa a ser condição de viabilidade do regresso.
Se o contrato não trata de responsabilidade, dever de cooperação e reembolso, o prestador corre o risco de ficar num “limbo”: indeniza o paciente e, depois, enfrenta uma ação regressiva enfraquecida, seja por falta de dever contratual de colaboração do fornecedor, seja por dificuldade de demonstrar, com elementos mínimos, que a falha não foi de uso, mas da própria solução.
Por outro lado, quando a contratação é bem-feita, ela já antecipa o cenário real do contencioso e organiza o caminho do regresso, com previsões claras como:
- quem responde por quê, especialmente quando a ferramenta é indicada para certa finalidade, mas não para outras;
- dever de informar limitações e riscos relevantes;
- dever de cooperação em caso de evento adverso;
- cláusula de reembolso/indenização quando ficar demonstrado que o dano decorreu de falha imputável ao fornecedor, inclusive com critérios de proporcionalidade; e,
- quando fizer sentido, custeio de despesas de defesa naquilo que decorra do problema da ferramenta (porque, na prática, o custo do litígio também é parte do prejuízo).
Feitas essas distinções, se de um lado a diligência passa a ser discutida também sob a ótica da escolha e da vigilância da tecnologia, é natural avançar para outro eixo que costuma ganhar força no contencioso, o dever de informar e o consentimento informado quando a IA participa do processo clínico decisório.
- Dever de informação e consentimento do paciente em atendimentos com apoio de tecnologias algorítmicas
O modelo contemporâneo da relação médico-paciente é, cada vez mais, orientado pela autonomia do paciente e por uma tomada de decisão compartilhada, o que desloca a “boa prática” para além da técnica.
Nesse cenário, a informação deixa de ser mero detalhe comunicacional e passa a integrar a própria legitimidade do ato médico, devendo ser qualificada, acessível e inteligível, para que o paciente compreenda sua condição e as alternativas disponíveis. No contexto do uso de inteligência artificial na medicina, essa exigência também foi reforçada pela Resolução CFM nº 2.454/2026, que assegura ao paciente o direito de ser informado, de forma clara e acessível, quando modelos, sistemas e aplicações de IA forem utilizados como apoio relevante em seu cuidado, diagnóstico ou tratamento (art. 5º, § 1º).
Além disso, essa centralidade do dever de informar encontra amparo expresso no Código de Defesa do Consumidor, qunado garante à “informação adequada e clara” (CDC, art. 6º, III).
Como já se observou nos tópicos anteriores, a incorporação de sistemas algorítmicos ao fluxo assistencial não altera, por si só, a natureza da responsabilidade do médico, mas adiciona uma camada prática de complexidade: parte do raciocínio clínico pode passar por uma ferramenta que influencia triagens, priorizações, hipóteses diagnósticas e condutas sugeridas.
Quando isso ocorre, a discussão jurídica tende a se concentrar menos no uso de tecnologia em abstrato e mais na qualidade do processo informativo que sustentou a decisão clínica e a autorização do paciente, sobretudo quando o funcionamento do sistema não é facilmente explicável.
Atualmente, já se fala no consentimento informado 5.0, onde a tecnologia é usada para personalizar a informação, tornando-a mais acessível e compreensível para o paciente, focando na autonomia, ética e humanização, integrando dados e nuances emocionais para uma decisão verdadeiramente consciente e integral, e formalizando-se tanto em processos físicos quanto digitais (telemedicina).
Nessa linha, o Código de Ética Médica em seu artigo 22 veda a realização de procedimento sem obtenção do consentimento do paciente (ou de seu representante legal) após o devido esclarecimento, ressalvadas situações específicas de risco iminente de morte.
“É vedado ao médico:
Art. 22. Deixar de obter consentimento do paciente ou de seu representante legal após esclarecê-lo sobre o procedimento a ser realizado, salvo em caso de risco iminente de morte.”
A Resolução CFM nº 2.454/2026 estabelece que o médico deve respeitar a autonomia do paciente, inclusive quanto à recusa informada do uso de modelos, sistemas e aplicações de IA (art. 5º, § 3º), ao mesmo tempo em que veda a delegação à IA da comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem a devida mediação humana (art. 5º, § 2º).
Em termos práticos, isso reforça que consentimento não se confunde com um documento isolado: ele é resultado de um percurso de informação e esclarecimento que, ao final, permite uma manifestação de vontade válida.
A telemedicina evidencia bem essa preocupação. A Resolução CFM nº 2.314/2022 prevê que o paciente (ou seu representante legal) deve autorizar o atendimento por telemedicina e a transmissão de imagens e dados mediante consentimento livre e esclarecido (art. 15), e exige consentimento explícito, com ciência sobre o possível compartilhamento de informações pessoais e o direito de negar permissão, salvo emergência médica (art. 15, parágrafo único).
“Art. 15. O paciente ou seu representante legal deverá autorizar o atendimento por telemedicina e a transmissão das suas imagens e dados por meio de (termo de concordância e autorização) consentimento, livre e esclarecido, enviado por meios eletrônicos ou de gravação de leitura do texto com a concordância, devendo fazer parte do SRES do paciente.
Parágrafo único. Em todo atendimento por telemedicina deve ser assegurado consentimento explícito, no qual o paciente ou seu representante legal deve estar consciente de que suas informações pessoais podem ser compartilhadas e sobre o seu direito de negar permissão para isso, salvo em situação de emergência médica.”
Ainda que o artigo trate de telemedicina, a lógica é útil para o debate mais amplo: quando o atendimento depende de transmissão, processamento e circulação de dados, o dever de informar tende a ganhar relevo próprio no contencioso.
Nessa altura, vale acrescentar um tópico de judicialização em específico que costuma aparecer com força nas demandas judiciais: os atendimentos de urgência e emergência.
O próprio Código de Ética Médica ressalva a hipótese de risco iminente de morte como exceção ao consentimento prévio (art. 22), e a Resolução CFM nº 2.314/2022 também admite a exceção ao consentimento explícito na telemedicina em emergência médica.
Isso, porém, não significa a dispensa automática do dever de informar, mas o adiamento do esclarecimento quando o tempo clínico não comporta o devido esclarecimento da adoção da conduta médica.
Em outras palavras: em cenários críticos, pode-se agir primeiro para preservar a vida/evitar danos graves, mas permanece o dever de explicar depois, assim que possível, registrando no prontuário as razões da urgência, a conduta adotada e, quando houver, a participação relevante da tecnologia no caminho escolhido.
Esse ponto se torna ainda mais sensível quando, no calor do atendimento, o médico se vê diante de decisões fora do padrão, aqui entra o tema do uso de off label.
Em termos simples, trata-se do uso de medicamento ou conduta em hipótese não prevista na bula/indicação usual, o que pode ser correto clinicamente em certos contextos, mas aumenta o peso do dever de esclarecimento justamente por envolver maior incerteza e maior margem de discussão posterior.
O próprio CFM já reconheceu, em parecer, que o uso off label ocorre por indicação pontual e específica, em desconformidade com a bula, sob risco e responsabilidade do médico que prescreve, o que, na prática, reforça a necessidade de explicitar ao paciente (ou familiar/representante), quando houver tempo e condições, que aquela opção foge do uso “convencional” e porque, naquele caso concreto, foi considerada a melhor alternativa.
Quando a IA entra como apoio, esse mesmo raciocínio se aplica com mais força: se a ferramenta sugere uma conduta não usual (por exemplo, um fármaco ‘diferente do esperado’ para o quadro), o dever de informar não é apenas sobre o conteúdo do risco e do caminho escolhido, mas também sobre a própria utilização relevante da tecnologia no processo assistencial, sempre com explicação prestada pelo médico e não delegada autonomamente ao sistema (art. 5º, §§ 1º e 2º, da Resolução CFM nº 2.454/2026).
Além disso, como a utilização de ferramentas algorítmicas frequentemente envolve tratamento de dados de saúde, entra em cena a LGPD, que qualifica esses dados como sensíveis e condiciona seu tratamento a hipóteses legais específicas, incluindo consentimento “específico e destacado” para finalidades específicas (LGPD, art. 11, I) e, em certas hipóteses, tutela da saúde em procedimento realizado por profissionais e serviços de saúde (LGPD, art. 11, II, “f”):
“Art. 11. O tratamento de dados pessoais sensíveis somente poderá ocorrer nas seguintes hipóteses:
I – quando o titular ou seu responsável legal consentir, de forma específica e destacada, para finalidades específicas;
II – sem fornecimento de consentimento do titular, nas hipóteses em que for indispensável para:
f) tutela da saúde, exclusivamente, em procedimento realizado por profissionais de saúde, serviços de saúde ou autoridade sanitária;”
Na prática, isso costuma repercutir em debates sobre transparência, finalidade, compartilhamento e rastreabilidade, especialmente quando dados são inseridos em plataformas digitais ou transitam por fornecedores de tecnologia envolvidos na cadeia do serviço.
Em síntese, no ambiente em que a tecnologia passa a integrar o processo decisório clínico e a própria organização do cuidado, a informação e o consentimento tendem a se tornar pontos de fricção frequentes: seja para discutir a validade do consentimento, seja para reconstruir, em juízo, o que foi explicado ao paciente, o que foi por ele efetivamente compreendido e em que medida a tecnologia influenciou o caminho adotado no atendimento.
- Considerações finais: pontos de atenção para médicos e prestadores diante do uso de IA
A seguir, reunimos medidas objetivas que ajudam médicos e prestadores a atuarem com diligência e reduzir exposição jurídica quando ferramentas algorítmicas entram no fluxo assistencial.
- Escolha e adoção da tecnologia com processo crítico/contrate bem: Antes da utilização da ferramenta de IA, o médico e instituição devem adotar um processo mínimo de avaliação: finalidade clínica clara para a utilização, reconhecimento e registro das limitações algorítmicas reconhecidas, evidências/validação disponíveis, compatibilidade com o perfil de pacientes atendidos e condições de integração com prontuário e rotinas.
- Defina o papel da ferramenta no atendimento (apoio, triagem, sugestão, priorização):Formalize internamente o que o sistema pode e não pode fazer, em quais casos pode ser utilizado e quando deve ser obrigatória confirmação por exame, segunda avaliação ou especialista.
- Treinamento real e rastreável de quem utiliza:Não basta ter acesso ao sistema. Registre capacitação, atualizações de treinamento e critérios mínimos de uso. Se houver rodízio de equipes, a instituição precisa garantir padronização.
- Governança e contrato com o fornecedor (logs, versão, atualização, suporte e incidentes): Registrar versão em uso, rotina de atualização, SLA de suporte, relatórios de incidentes e mecanismos de rastreabilidade.
- Registro no prontuário: o suficiente para reconstruir a decisão depois: Registre o essencial: se houve uso de sistema de apoio, qual foi a informação relevante fornecida, como ela foi considerada e por que a decisão final foi aquela. Em caso de divergência com a ferramenta, documente a razão.
- Informação ao paciente quando a tecnologia é relevante para a decisão:Sempre que a ferramenta influenciar de forma material a conduta (e especialmente em situações sensíveis), comunique de modo simples que houve apoio tecnológico, sem prometer acerto e sem transmitir falsa segurança. O objetivo é transparência, não tecnicismo.
- Conclusões
A inteligência artificial tende a ocupar um papel cada vez mais indispensável na medicina, expandindo-se para diferentes especialidades e etapas do cuidado, desde a triagem e o monitoramento até o apoio diagnóstico e a definição de condutas.
Esse movimento é, em grande medida, irreversível: a tecnologia passa a integrar a própria dinâmica assistencial e a organização dos serviços de saúde.
Justamente por isso, torna-se igualmente indispensável que o médico compreenda que a IA não elimina responsabilidades nem substitui o núcleo do ato médico.
Ao contrário, sua utilização exige atenção redobrada quanto à forma de adoção e supervisão da ferramenta, à consistência do raciocínio clínico frente às recomendações automatizadas, à qualidade do registro do atendimento e ao cumprimento dos deveres de informação e consentimento.
Em um cenário em que decisões passam a ser mediadas por sistemas complexos, a atuação diligente deixa de ser apenas técnica: ela se torna também metodológica e documental.
É nessa convergência entre inovação e prudência que se preserva a segurança do paciente e se reduz a exposição jurídica do profissional e dos prestadores de saúde.
Autores
Leonardo de Andrade. Membro do Núcleo de Direito Médico e da Saúde da Nemetz, Kuhnen Dalmarco & Pamplona Novaes Advocacia. E-mail: leonardo@nkadvocacia.com.br | OAB/SC 74.013
Luiz Carlos Nemetz. Sócio Gestor da Nemetz, Kuhnen Dalmarco & Pamplona Novaes Advocacia. E-mail: lcnemetz@nkadvocacia.com.br | OAB/SC 4.595