Por favor, use este identificador para citar o enlazar este ítem:
http://dspace.mj.gov.br/handle/1/16388| Autor : | Faleiros Júnior, José Luiz de Moura. |
| Título : | Accountability e sistemas de inteligência artificial |
| Otros títulos : | Accountability and artificial intelligence systems |
| Fecha de publicación : | 2025-07 |
| metadata.dc.publisher.source: | Revista de IA & Direito, v. 1, n. 1, p. 13-49, jul./dez. 2025 |
| Editorial : | Revista dos Tribunais |
| metadata.dc.type: | Artigo de revista |
| Resumen : | Neste artigo, investiga-se de que maneira a consolidação de sistemas de inteligência artificial (IA) desafia os contornos clássicos da responsabilidade civil, propondo a accountability como vetor de compatibilização entre inovação tecnológica e tutela jurídica. Partese da premissa de que algoritmos com- plexos, embora fundamentados em heurísticas estatísticas, incorporam riscos próprios e podem materializar danos não capturados pelos modelos tradicionais de culpa ou defeito do produto. A pesquisa, conduzida por metodologia dedutiva com revisão bibliográfica qualitativa, examina funções reparatória, preventiva e precaucional para evidenciar sua insuficiência diante dos vieses algorítmicos. Argumentase que a previsão de deveres informados por dados (data-informed duties) e a adoção de padrões de governança ex ante reforçam a cultura de gestão de riscos e permitem ampliar a previsibilidade, convertendo perigos abstratos em riscos mensuráveis. Analisase o debate europeu sobre singularidade tecnológica, personalidade eletrônica e regimes de responsabilidade, ressaltando as propostas de Teilrechtsfähigkeit e de equiparação funcional homemmáquina, bem como as recomendações do Parlamento Europeu quanto à civil liability for AI. No contexto brasileiro, discute-se a aplicabilidade dos princípios de prevenção e precaução, a inversão do ônus da prova nas relações de consumo e o potencial papel de seguros obrigatórios como mecanismos de internalização dos custos sociais da inovação. Conclui-se que a accountability, entendida como virtude institucionalizada, impõe a desenvolvedores, operadores e supervisores deveres proporcionais à posição que ocupam na cadeia algorítmica, viabilizando uma matriz regulatória dinâmica capaz de equilibrar eficiência, segurança e proteção de direitos fundamentais numa sociedade cada vez mais orientada por dados. Tal orientação amplia confiança. |
| Palabras clave : | Accountability Inteligência artificial Responsabilidade civil Risco algorítmico Função precaucional |
| metadata.dc.description.other: | Inclui notas explicativas, bibliográficas e bibliografia. Texto em português; resumos em português e inglês. O acesso aos artigos da Editora Revista dos Tribunais é destinado exclusivamente a dar suporte aos colaboradores do MJSP no exercício de suas funções. Não é permitido ceder este material para terceiros que não trabalhem no MJSP. Não é permitido comercializar este material. |
| Aparece en las colecciones: | Revista de IA & Direito |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| RIAD_N1_P13-49.pdf Restricted Access | 548.87 kB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.