IA e Responsabilidade Civil
A inteligência artificial (IA) é hoje uma realidade incontornável. O Parlamento Europeu define-a como a capacidade que uma máquina tem para produzir competências semelhantes às humanas como é o caso do raciocínio, planeamento, aprendizagem e criatividade.
Para que como tal possa ser classificada, uma IA deve reunir duas capacidades fundamentais: autonomia e capacidade de autoaprendizagem.
Encontramo-la sob diversas formas, por exemplo, nos assistentes virtuais, nos programas de análise de imagens, nos motores de busca, nos sistemas de reconhecimento facial e de voz. Mas também a encontramos num número cada vez maior de dispositivos, como computadores, robots, veículos autónomos, drones, telemóveis, electrodomésticos e, em geral, no âmbito da internet das coisas.
A IA traz consigo diversos desafios, nomeadamente para o Direito e desde logo ao nível personalidade jurídica, que obviamente não tem.
Se num primeiro momento, ao nível do Parlamento Europeu, se discutiu a possibilidade de alargar o conceito de personalidade jurídica a um sistema de IA, logo se percebeu que seria de pouca ou nenhuma utilidade, talvez até “absurdo”, já que estes não possuem património, logo, não estaria garantida a reparação do lesado.
O regime da responsabilidade civil extracontratual também se afigurou de muito difícil aplicação, pela dificuldade de demonstração dos seus pressupostos. No domínio da responsabilidade extracontratual por factos ilícitos são pressupostos, cumulativos, dessa responsabilidade (que impõe ao lesante a obrigação de indemnizar): a existência de um facto voluntário praticado pelo agente lesante, a ilicitude, a culpa, o dano e o nexo de causalidade entre o facto e o dano.
Ora, como é que se pode afirmar que uma IA tenha agido voluntariamente e com culpa? Que uma IA tenha actuado intencionalmente ou, ainda que não intencionalmente (dolosamente), omitindo um comportamento que integre uma actuação cuidada?
Por isso, considerou-se que o regime que melhor poderia responder à problemática era o da responsabilidade objectiva, que prescinde do requisito da culpa está essencialmente focado na reparação dos danos causados ao lesado.
Na Directiva (UE) 2024/2853 do Parlamento Europeu e do Conselho, de 23 de Outubro de 2024, relativa à responsabilidade decorrente dos produtos defeituosos e que revoga a Directiva 85/374/CEE do Conselho, adopta-se como princípio que a responsabilidade não culposa dos operadores económicos continua a ser o único meio de dar resposta, de modo adequado, ao problema da justa atribuição do risco inerente à produção técnica moderna.
Embora a Directiva 85/374/CEE tenha sido um instrumento eficaz e importante, foi necessário revê-la à luz dos desenvolvimentos relacionados com as novas tecnologias, incluindo a IA, que agora passou a ser vista como um “produto”.
A Directiva (UE) 2024/2853 define um conjunto alargado de operadores económicos que podem ser responsabilizados, incluindo o fabricante do produto, o fabricante de componentes defeituosos integrados em produtos (o que inclui módulos de IA ou software com IA integrados), os importadores e distribuidores que colocam o produto no mercado da EU e os representantes autorizados e operadores de plataformas online, se o fabricante estiver fora da UE.
Assim, se uma IA é colocada no mercado (por exemplo, como parte de um produto, serviço ou dispositivo), o desenvolvedor / produtor é directamente responsável pelos danos causados por defeitos no produto que incorporam essa IA — seja físico ou digital.
A nova Directiva estipula que os modelos de IA, algoritmos ou aplicações de IA são legalmente considerados um “produto” e podem desencadear responsabilidade para produtor se esse produto for defeituoso e causar danos.
A responsabilidade é objectiva, ou seja, o lesado está dispensado de provar que o produtor foi negligente, bastando demonstrar que o produto é defeituoso, que o defeito causou um dano e que existe nexo causal entre defeito e dano.
E para facilitar a prova da existência de defeito (o que pode ser difícil para o consumidor / utilizador, já que os sistemas de IA são geralmente complexos), a Directiva presume a sua existência, na prática invertendo o ónus da prova, passando a ser o produtor a ter de provar que o seu “produto” não tem defeito.
A Directiva também actualiza o conceito de “dano”, sendo que os danos indemnizáveis, são os danos físicos e materiais tradicionais, os danos emocionais e psicológicos (se clinicamente reconhecidos) e os danos por corrupção/perda de dados em sistemas digitais.
A responsabilidade do produtor perdura durante 10 anos após a colocação de um produto no mercado ou da sua entrada em serviço («prazo de caducidade»), sem prejuízo de acções pendentes em tribunal. A fim de evitar que seja injustificadamente restringida a possibilidade de indemnização por danos causados por um produto defeituoso, o prazo de caducidade deverá ser alargado para 25 anos caso os sintomas de um dano pessoal sejam, com base em elementos de prova médicos, de surgimento lento.
A Directiva não será aplicável aos produtos colocados no mercado ou que entraram em serviço antes de 9 de Dezembro de 2026. Mas os Estados deverão prever disposições transitórias para garantir a continuidade da responsabilidade, nos termos da Directiva 85/374/CEE, por danos causados por produtos defeituosos que tenham sido colocados no mercado ou tenham entrado em serviço antes dessa data.
À data actual (Janeiro de 2026), Portugal ainda não finalizou a transposição da Directiva (UE) 2024/2853 para o seu ordenamento jurídico, embora o processo esteja dentro do calendário previsto pela União Europeia.
Ao contrário de um Regulamento (que entra em vigor em toda a UE automaticamente), uma Diretiva obriga os Estados-Membros a atingir um resultado, mas deixa-lhes a escolha da forma e dos meios.
No caso, o prazo de transposição é até 9 de Dezembro de 2026.



