Estado de Necessidade: A Estrutura Teórica
A compreensão adequada do estado de necessidade como causa de justificação exige, antes de tudo, a distinção entre suas duas modalidades fundamentais. A doutrina diferencia o estado de necessidade objetivo, em que o perigo efetivamente existe e pode ser comprovado por elementos objetivos, do estado de necessidade subjetivo, em que o agente apenas acredita na existência do perigo, mas se equivoca quanto à sua realidade. Essa distinção não é meramente classificatória: no plano civil, a mera crença equivocada no perigo não é suficiente para justificar o sacrifício de bem ou direito alheio. Exige-se que o risco seja realmente iminente, que a medida adotada seja indispensável e adequada, e que qualquer excesso descaracterize a causa de justificação.
Para a aplicação do estado de necessidade no âmbito da inteligência artificial, essa distinção ganha contornos especialmente relevantes. Imagine-se um software de gerenciamento inteligente de usinas energéticas que, ao detectar risco real de superaquecimento em um reator nuclear, promove desligamentos emergenciais de setores industriais vizinhos, cortando o fornecimento elétrico de modo drástico. Essa ação geraria prejuízos imediatos e consideráveis a empresas e equipamentos, mas evitaria uma catástrofe de proporções incomparavelmente maiores. Desde que se comprove a efetiva iminência do desastre, a medida extremada se legitimaria sob o art. 188, II, do Código Civil. Contudo, se a IA for acionada por um falso positivo — decorrente de sensores defeituosos ou de modelos preditivos imprecisos — e causar um colapso econômico sem que houvesse, de fato, perigo iminente, o prejuízo resultante deixaria de encontrar justificação jurídica, reabrindo integralmente a possibilidade de responsabilização do desenvolvedor e do operador do sistema.
Causas de Justificação Implícitas: O Consentimento do Ofendido
Além das hipóteses expressas no Código Civil, a doutrina aponta outras causas de justificação que, embora não previstas de forma explícita na legislação civil, podem ser extraídas do ordenamento jurídico como um todo. Entre elas, destaca-se o consentimento do ofendido, ainda sem norma legal específica que o discipline no direito civil brasileiro, mas amplamente reconhecido pela doutrina como capaz de excluir a ilicitude em determinadas circunstâncias. A base teórica dessa causa de justificação reside na autonomia da vontade e na ideia de que ninguém pode ser considerado lesado por uma situação que livremente aceitou, desde que os direitos envolvidos sejam disponíveis.
Para que o consentimento do ofendido produza o efeito de afastar a ilicitude, a doutrina costuma exigir três requisitos: capacidade do lesado para agir voluntariamente; exercício de direitos disponíveis; e informação suficiente sobre as consequências do comportamento adotado. Esses requisitos dialogam diretamente com os princípios que estruturam a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018 — LGPD), especialmente no que tange ao tratamento de dados pessoais sensíveis. O art. 11, I, da LGPD exige que o consentimento para o tratamento dessa categoria de dados seja "específico e destacado, para finalidades específicas", e o § 3º do mesmo artigo prevê que a comunicação ou o uso compartilhado de dados pessoais sensíveis com objetivo de obter vantagem econômica "poderá ser objeto de vedação ou de regulamentação por parte da autoridade nacional".
Consentimento, Dados Sensíveis e os Limites da Autonomia
O exemplo mais polêmico do consentimento do ofendido em contextos de IA diz respeito às plataformas experimentais de machine learning que exigem acesso profundo a registros comportamentais de usuários para aprimorar algoritmos de análise de tendências de saúde mental ou de comportamento social. Os participantes, após serem esclarecidos sobre a possibilidade de conclusões incorretas e sobre eventuais riscos de vazamento de dados sensíveis, aceitam livremente submeter-se à coleta intensiva de informações. Se alguém sofrer dano reputacional em decorrência da divulgação equivocada de resultados, mas ficar demonstrado que consentiu de modo esclarecido e voluntário, pode-se reduzir ou até excluir a responsabilidade da empresa.
O elemento-chave, nesse cenário, é a anuência efetiva e informada — com total conhecimento dos riscos e limites do experimento, bem como da efetiva disponibilidade comercial dos dados pessoais sensíveis envolvidos. Contudo, cabe ressaltar que a LGPD impõe limites à validade desse consentimento: não basta que o titular tenha anuído formalmente; é necessário que a finalidade seja específica, que o consentimento seja livre — não viciado por assimetrias de poder ou pela necessidade econômica do titular —, e que os riscos comunicados correspondam efetivamente àqueles que se materializaram. A teoria geral dos vícios do consentimento, prevista nos arts. 138 a 165 do Código Civil, é plenamente aplicável a essas situações.
Assunção de Risco: Fundamentos e Condições
Em sentido análogo ao consentimento do ofendido, a assunção de risco caracteriza-se quando alguém se expõe voluntariamente a um perigo plenamente identificável e opta por não adotar as medidas necessárias para evitá-lo. Essa figura, presente na doutrina civilista há décadas, ganhou renovada relevância com a proliferação de tecnologias experimentais cujos riscos são conhecidos, mas aceitos voluntariamente por quem delas participa. A assunção de risco costuma ser analisada em conexão com a culpa concorrente da vítima e com a quebra do nexo de causalidade: quando a própria vítima concorre de forma decisiva para o evento danoso, sua participação pode mitigar ou mesmo excluir o dever de indenizar do agente originalmente responsável.
Para que a assunção de risco produza seus efeitos jurídicos, a doutrina exige as mesmas condições gerais aplicáveis ao consentimento do ofendido: capacidade do lesado para agir voluntariamente; exercício de direitos disponíveis; e informação suficiente sobre as consequências do comportamento adotado. Esses elementos devem ser apreciados concretamente, levando em conta as circunstâncias do caso e as assimetrias informacionais entre as partes.
A Assunção de Risco em Tecnologias Autônomas Experimentais
Suponha-se uma empresa que oferece testes com um protótipo de veículo autônomo de alta velocidade, ainda em fase inicial de desenvolvimento. Os usuários, ao decidirem participar desses testes, são informados das falhas potenciais nos sensores de navegação e dos riscos de acidentes, mas prosseguem atraídos pela inovação e pela perspectiva de participar do avanço tecnológico. Se ocorre um acidente e a perícia confirma que o condutor-teste ignorou alertas explícitos do sistema e não adotou nenhuma cautela mínima, a responsabilidade do fabricante pode ser atenuada ou até excluída, pois a própria vítima, tendo ciência dos riscos experimentais, concorreu de forma decisiva para o evento danoso.
Parece-nos, contudo, que a assunção de risco não pode ser invocada de modo irrestrito para eximir os desenvolvedores de tecnologias autônomas de suas responsabilidades. A crescente complexidade dos sistemas de IA torna cada vez mais difícil a compreensão plena, por parte dos usuários, dos riscos efetivamente envolvidos. A assimetria informacional entre quem desenvolve e quem usa a tecnologia é, em regra, profunda e estrutural. Nesse contexto, a validade jurídica da assunção de risco depende da qualidade da informação fornecida ao usuário — o que remete, novamente, aos deveres de transparência e explicabilidade impostos tanto pela LGPD quanto pelo AI Act europeu (Regulamento UE 2024/1689) e pelo PL 2.338/2023.
Síntese Teórica
Em síntese, as causas de justificação implícitas — consentimento do ofendido e assunção de risco — operam como válvulas de ajuste do sistema de responsabilidade civil, permitindo que a autonomia individual seja respeitada sem que isso implique a supressão dos deveres de informação e de proteção que recaem sobre aqueles que desenvolvem e operam sistemas de alta complexidade tecnológica. A base teórica dessas figuras, construída ao longo de décadas pela doutrina civilista, revela-se suficientemente sólida para enfrentar os desafios impostos pela inteligência artificial — desde que interpretada à luz dos princípios constitucionais da dignidade da pessoa humana, da solidariedade social e da função social da propriedade, que impõem limites inafastáveis à autonomia privada.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".