Carregando...

Acompanhe as últimas notícias sobre contabilidade nas principais áreas.

Quem deve responder pelos erros médicos da Inteligência Artificial?

Quem deve responder pelos erros médicos da Inteligência Artificial?

Avanço da tecnologia desafia médicos, juristas e autoridades sanitárias e esquenta debate sobre a culpa de quando a IA falha no cuidado com a saúde

A promessa de que a inteligência artificial (IA) pode revolucionar a medicina é cada vez mais presente nas clínicas, hospitais e nos bastidores da indústria da saúde. De diagnósticos rápidos à análise de exames complexos, o uso de modelos de linguagem e algoritmos inteligentes desperta otimismo. Mas a mesma velocidade com que essas ferramentas estão sendo adotadas acende alertas — inclusive entre especialistas da área jurídica. Um dos principais questionamentos: quem é o responsável se a IA errar e o paciente for prejudicado?

Nesta semana, a Organização Mundial da Saúde (OMS) publicou um comunicado oficial pedindo "cautela" no uso da inteligência artificial no setor. A entidade enfatiza a necessidade de proteger a autonomia humana, a segurança e o bem-estar dos pacientes, além de chamar atenção para riscos como a tendência dos dados, a geração de informações incorretas e a possibilidade de desinformação generalizada. "A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na IA", destaca o documento.

A OMS observa que modelos de linguagem como o ChatGPT estão sendo utilizados de forma experimental em ambientes médicos, muitas vezes sem a devida validação clínica. A instituição se diz preocupada com o fato de esses sistemas serem tratados com uma confiança desproporcional à sua comprovação científica.

Do ponto de vista legal, o uso da IA na medicina impõe desafios ainda pouco regulados. Afinal, se uma inteligência artificial indicar um diagnóstico equivocado ou recomendar um tratamento incorreto, quem deve ser responsabilizado? O médico que seguiu a recomendação da IA? A empresa que desenvolveu o sistema? O hospital que o contratou?

Segundo o advogado Thayan Fernando Ferreira, especialista em direito de saúde e direito público, membro da comissão de direito médico da OAB-MG e diretor do escritório Ferreira Cruz Advogados, é essencial entender que, juridicamente, a IA ainda é um instrumento, e não um sujeito de direito. "A responsabilidade, em caso de erro, continua recaindo sobre os profissionais da saúde, já que são eles os detentores do dever técnico e da autonomia de decisão. A inteligência artificial pode ser usada como ferramenta de apoio, mas nunca como substituta da análise humana", explica.

O Código de Ética Médica brasileiro reforça essa ideia ao afirmar que o médico não pode transferir a terceiros, humanos ou não, a responsabilidade sobre suas decisões clínicas. Já o Código de Defesa do Consumidor (CDC) pode ser aplicado, por analogia, nos casos em que a falha na prestação do serviço envolva defeitos no software, o que envolveria também os fornecedores da tecnologia. "O artigo 14 do CDC trata da responsabilidade objetiva do prestador de serviço. Isso significa que, havendo falha na prestação, não é necessário provar culpa, basta comprovar o dano e o nexo com a conduta", afirma o advogado.

Todavia, enquanto o setor se movimenta entre o encantamento e o receio, o debate permanece aberto. "A IA pode ser uma aliada importante, mas precisa ser usada com rigor científico, responsabilidade ética e segurança jurídica. O entusiasmo não pode atropelar o cuidado", reforça Thayan.