Voltar ao Blog
Teorias do RiscoCapítulo 3

3.2.5. O Risco do Empreendimento e o Risco do Desenvolvimento: Considerações Críticas

timization algorithms) em veículos autônomos. Se o fabricante não avisar que esse algoritmo nem sempre priorizará a integridade do usuário, o consumidor pode sofrer lesões em acidentes cujas...

Alessandro Lavorante 6 de junho de 2025 3 min de leitura

timization algorithms) em veículos autônomos. Se o fabricante não avisar que esse algoritmo nem sempre priorizará a integridade do usuário, o consumidor pode sofrer lesões em acidentes cujas circunstâncias não foram previstas pelo algoritmo564. Além disso, é essencial alertar o condutor para não intervir enquanto o veículo estiver executando tarefas de condução, exceto quando solicitado, devido à falta de conhecimento da situação em comparação ao condutor manual, o que pode causar acidentes. Outro exemplo de defeito de informação inclui a falta de aviso sobre as limitações dos sensores em detectar objetos em movimento, ciclistas e pedestres, ou em condições de pouca luz e forte brilho565. Oportuno mencionarmos, aqui, que, não obstante as definições já consagradas, a responsabilidade pelo fato do produto sofre adaptações no que se refere às tecnologias emergentes. Na esteira dessas teorias envolvendo o risco da atividade empresarial aplicado à inteligência artificial, o magistério de Caitlin Mulholland566, entre outras tantas contribuições, nos apresenta uma tese denominada de “dupla irresponsabilidade”, que reflete dois níveis de exoneração: primeiramente, argumenta-se que a IA – ainda na eventualidade de que lhe fosse conferida alguma espécie de capacidade ou formato jurídico próprio –, não poderia ser responsabilizada567; em segundo lugar, afirma-se que os agentes envolvidos em seu desenvolvimento, 564 Gurney, Jeffrey. Crashing into the Unknown: an Examination of Crash-Optimization Algorithms Through the Two Lanes of Ethics and Law. Albany Law Review, vol. 79, núm. 1, 2016, p. 234. Apud Castells I Marques, 2017b, p. 120. 565 Castells I Marques, 2017b, p. 120. 566 Mulholland, Caitlin. Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de Inteligência Artificial (IA): Autonomia, Imputabilidade e Responsabilidade. In: FRAZÃO, Ana; Mulholland, Caitlin (Coord.). Inteligência Artificial e Direito: Ética, Regulação e Responsabilidade [Ebook]. São Paulo: Revista dos Tribunais, 2019, p. 15.4. 567 Nesse contexto, a Resolução (2015/2103(INL)) do Parlamento Europeu, de 2017, foi o primeiro instrumento normativo a, efetivamente, abordar o assunto: afirmando expressamente que robôs e sistemas de IA não podem ser diretamente responsabilizados, o Parlamento Europeu prescreveu que a responsabilidade pelos danos causados por esses sistemas recai, necessariamente, sobre agentes humanos – desde que seja possível estabelecer uma relação de previsibilidade e controle sobre o dano. Resolução (2015/2103(INL)) do Parlamento Europeu, de 16 de Fevereiro de 2017, que Contém Recomendações à Comissão sobre Disposições de Direito Civil sobre Robótica. Disponível em: https://europarl.europa.eu/doceo/document/TA- 8-2017-0051_PT.html. Segundo Caitlin Mulholland (2019, p. 15.4), no entanto, a atribuição de responsabilidade a um único agente humano pressupõe, no supracitado diploma, a previsibilidade do dano e a capacidade de controlá-lo. Em situações onde o agente humano não

Fato do ProdutoRisco do DesenvolvimentoCDC

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco