Please use this identifier to cite or link to this item:
http://dspace.mj.gov.br/handle/1/16388Full metadata record
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.author | Faleiros Júnior, José Luiz de Moura. | pt_BR |
| dc.date.accessioned | 2025-12-05T16:23:03Z | - |
| dc.date.available | 2025-12-05T16:23:03Z | - |
| dc.date.issued | 2025-07 | - |
| dc.identifier.uri | http://dspace.mj.gov.br/handle/1/16388 | - |
| dc.description.abstract | Neste artigo, investiga-se de que maneira a consolidação de sistemas de inteligência artificial (IA) desafia os contornos clássicos da responsabilidade civil, propondo a accountability como vetor de compatibilização entre inovação tecnológica e tutela jurídica. Partese da premissa de que algoritmos com- plexos, embora fundamentados em heurísticas estatísticas, incorporam riscos próprios e podem materializar danos não capturados pelos modelos tradicionais de culpa ou defeito do produto. A pesquisa, conduzida por metodologia dedutiva com revisão bibliográfica qualitativa, examina funções reparatória, preventiva e precaucional para evidenciar sua insuficiência diante dos vieses algorítmicos. Argumentase que a previsão de deveres informados por dados (data-informed duties) e a adoção de padrões de governança ex ante reforçam a cultura de gestão de riscos e permitem ampliar a previsibilidade, convertendo perigos abstratos em riscos mensuráveis. Analisase o debate europeu sobre singularidade tecnológica, personalidade eletrônica e regimes de responsabilidade, ressaltando as propostas de Teilrechtsfähigkeit e de equiparação funcional homemmáquina, bem como as recomendações do Parlamento Europeu quanto à civil liability for AI. No contexto brasileiro, discute-se a aplicabilidade dos princípios de prevenção e precaução, a inversão do ônus da prova nas relações de consumo e o potencial papel de seguros obrigatórios como mecanismos de internalização dos custos sociais da inovação. Conclui-se que a accountability, entendida como virtude institucionalizada, impõe a desenvolvedores, operadores e supervisores deveres proporcionais à posição que ocupam na cadeia algorítmica, viabilizando uma matriz regulatória dinâmica capaz de equilibrar eficiência, segurança e proteção de direitos fundamentais numa sociedade cada vez mais orientada por dados. Tal orientação amplia confiança. | pt_BR |
| dc.language.iso | pt_BR | pt_BR |
| dc.publisher | Revista dos Tribunais | pt_BR |
| dc.subject | Accountability | pt_BR |
| dc.subject | Inteligência artificial | pt_BR |
| dc.subject | Responsabilidade civil | pt_BR |
| dc.subject | Risco algorítmico | pt_BR |
| dc.subject | Função precaucional | pt_BR |
| dc.title | Accountability e sistemas de inteligência artificial | pt_BR |
| dc.title.alternative | Accountability and artificial intelligence systems | pt_BR |
| dc.type | Artigo de revista | pt_BR |
| dc.publisher.source | Revista de IA & Direito, v. 1, n. 1, p. 13-49, jul./dez. 2025 | pt_BR |
| dc.description.other | Inclui notas explicativas, bibliográficas e bibliografia. Texto em português; resumos em português e inglês. O acesso aos artigos da Editora Revista dos Tribunais é destinado exclusivamente a dar suporte aos colaboradores do MJSP no exercício de suas funções. Não é permitido ceder este material para terceiros que não trabalhem no MJSP. Não é permitido comercializar este material. | pt_BR |
| Appears in Collections: | Revista de IA & Direito | |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| RIAD_N1_P13-49.pdf Restricted Access | 548.87 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.