Use este identificador para citar ou linkar para este item:
http://dspace.mj.gov.br/handle/1/16388| Autor(es): | Faleiros Júnior, José Luiz de Moura. |
| Título: | Accountability e sistemas de inteligência artificial |
| Título(s) alternativo(s): | Accountability and artificial intelligence systems |
| Data da publicação: | 2025-07 |
| Fonte de publicação: | Revista de IA & Direito, v. 1, n. 1, p. 13-49, jul./dez. 2025 |
| Editora: | Revista dos Tribunais |
| Tipo: | Artigo de revista |
| Resumo: | Neste artigo, investiga-se de que maneira a consolidação de sistemas de inteligência artificial (IA) desafia os contornos clássicos da responsabilidade civil, propondo a accountability como vetor de compatibilização entre inovação tecnológica e tutela jurídica. Partese da premissa de que algoritmos com- plexos, embora fundamentados em heurísticas estatísticas, incorporam riscos próprios e podem materializar danos não capturados pelos modelos tradicionais de culpa ou defeito do produto. A pesquisa, conduzida por metodologia dedutiva com revisão bibliográfica qualitativa, examina funções reparatória, preventiva e precaucional para evidenciar sua insuficiência diante dos vieses algorítmicos. Argumentase que a previsão de deveres informados por dados (data-informed duties) e a adoção de padrões de governança ex ante reforçam a cultura de gestão de riscos e permitem ampliar a previsibilidade, convertendo perigos abstratos em riscos mensuráveis. Analisase o debate europeu sobre singularidade tecnológica, personalidade eletrônica e regimes de responsabilidade, ressaltando as propostas de Teilrechtsfähigkeit e de equiparação funcional homemmáquina, bem como as recomendações do Parlamento Europeu quanto à civil liability for AI. No contexto brasileiro, discute-se a aplicabilidade dos princípios de prevenção e precaução, a inversão do ônus da prova nas relações de consumo e o potencial papel de seguros obrigatórios como mecanismos de internalização dos custos sociais da inovação. Conclui-se que a accountability, entendida como virtude institucionalizada, impõe a desenvolvedores, operadores e supervisores deveres proporcionais à posição que ocupam na cadeia algorítmica, viabilizando uma matriz regulatória dinâmica capaz de equilibrar eficiência, segurança e proteção de direitos fundamentais numa sociedade cada vez mais orientada por dados. Tal orientação amplia confiança. |
| Palavras-chave: | Accountability Inteligência artificial Responsabilidade civil Risco algorítmico Função precaucional |
| Notas: | Inclui notas explicativas, bibliográficas e bibliografia. Texto em português; resumos em português e inglês. O acesso aos artigos da Editora Revista dos Tribunais é destinado exclusivamente a dar suporte aos colaboradores do MJSP no exercício de suas funções. Não é permitido ceder este material para terceiros que não trabalhem no MJSP. Não é permitido comercializar este material. |
| Aparece nas coleções: | Revista de IA & Direito |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| RIAD_N1_P13-49.pdf Restricted Access | 548.87 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.