BLOG

MARCO REGULATÓRIO DE IA NO BRASIL – A IA COMO INFRAESTRUTURA REGULADA

Por: Núbia Gabrieli da Silva Cardoso

A Inteligência Artificial (IA) deixou de ser apenas uma ferramenta de eficiência para os departamentos jurídicos e caminha para se consolidar como uma infraestrutura regulada no Brasil. Com o Projeto de Lei nº 2.338/2023, ainda em tramitação, a expectativa é que, a partir de 2026, o país conte com um marco regulatório da IA. Nesse cenário, empresas sujeitas à regulamentação deverão adotar soluções de IA em sistemas como CLM* (Contract Lifecycle Management), revisão contratual, classificação de riscos e monitoramento de obrigações, sob a ótica da conformidade regulatória e da governança. O que hoje é um diferencial competitivo de inovação tende a se tornar uma exigência de conformidade.

Além do próprio PL nº 2.338/2023, a governança da IA já encontra respaldo no ordenamento jurídico brasileiro, especialmente na Constituição Federal, no Código Civil, na Lei Geral de Proteção de Dados (Lei nº 13.709/2018) e nas normas de compliance e integridade. O art. 20 da LGPD, por exemplo, assegura o direito à revisão humana de decisões automatizadas, o Art. 46 impõe o dever de adoção de medidas de segurança, e o Art. 42 estabelece a responsabilidade civil por danos decorrentes do uso irregular de dados. O art. 927, parágrafo único, do Código Civil, por sua vez, fundamenta a responsabilização por danos causados por atividades de risco. Assim, a regulamentação da IA não cria a responsabilidade do zero, mas consolida e sistematiza deveres jurídicos já existentes.

O PL nº 2.338/2023 estrutura-se em três pilares principais para assegurar o uso responsável da IA no Brasil, a governança e transparência, a responsabilização dos agentes envolvidos e a classificação de riscos. A proposta desloca a IA de um enfoque exclusivamente tecnológico para um viés regulatório e de responsabilidade civil, alcançando inclusive os usuários, que passam a responder pelos riscos que possam gerar.

Nesse sentido, o uso da IA em atividades como revisão contratual, classificação automatizada de riscos, sugestão de cláusulas e monitoramento de prazos e obrigações passará a exigir justificativa formal de uso, controle de riscos, supervisão humana e governança sobre dados e algoritmos, requisitos que, embora obrigatórios por outras diretrizes, como as existentes na LGPD e na Lei de Anticorrupção, ainda não são observados na prática. Se a ferramenta funciona, ela precisa, necessariamente, ser governada considerando os aspectos legais e éticos.

Essa regulamentação passa a exigir a implementação de políticas internas formais, controles de uso e de acesso, registro das decisões automatizadas, monitoramento de desempenho e de falhas, bem como um processo claro de responsabilização. Nesse contexto, o departamento jurídico deixa de ser apenas usuário da tecnologia para assumir também o papel de gestor da sua conformidade.

Será indispensável a estruturação de políticas formais de uso da IA no departamento jurídico, com a definição clara de onde a tecnologia poderá ser aplicada, para quais finalidades e dentro de quais limites. Será obrigatória a adoção de uma política de revisão humana, vedando a automatização da decisão final, especialmente em temas sensíveis. De modo a utilizar a IA como uma ferramenta de apoio e não substituto do julgamento técnico humano. Este tema deverá integrar as políticas de proteção de dados, sobretudo no tratamento de dados pessoais e informações confidenciais, política de governança de fornecedores, para regular responsabilidade, segurança da informação e auditoria, e de política de gestão de riscos algorítmicos, voltada a mitigação de erros, vieses, falhas e seus impactos jurídicos.

O uso da IA sem governança adequada representa, atualmente, um dos riscos mais críticos e ainda pouco debatidos no âmbito dos departamentos jurídicos. Quando a IA classifica indevidamente um contrato, sugere cláusulas inadequadas, deixa de identificar riscos relevantes, viola dados ou reproduz vieses, a questão deixa de ser “foi a ferramenta que errou?” e passa a ser “quem autorizou o uso da IA sem o controle adequado?”. No contexto jurídico, isso significa que o erro da IA pode se converter em responsabilidade civil da empresa, responsabilidade contratual, riscos regulatórios e reputacionais e, em determinados casos, até em responsabilidade pessoal de gestores.

Para a minimização dos riscos, as empresas devem, inicialmente, mapear todos os pontos em que a IA é utilizada no departamento jurídico, como CLM, revisão contratual, análise de riscos, automações, chatbots, auditorias, entre outros. Em seguida, é fundamental instituir uma governança mínima de IA, ainda que simplificada, com a definição clara de responsáveis. Também se mostra essencial a revisão dos contratos com fornecedores de tecnologia, especialmente no que se refere às cláusulas de responsabilidade, segurança da informação, auditoria e adequação à LGPD. Deve-se, ainda, estabelecer de forma objetiva quando a revisão humana será obrigatória, reconhecendo que nem todas as atividades podem ser integralmente automatizadas. Por fim, é indispensável capacitar o jurídico para esse novo papel, no qual o advogado passa a atuar, também, como gestor de risco tecnológico.

¹ BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da inteligência artificial no Brasil. Senado Federal, Brasília, DF, 2023.

² BRASIL. Congresso Nacional. Projeto de Lei nº 2.338/2023, diretrizes sobre governança, responsabilização e classificação de riscos. Brasília, DF, 2023.

³ BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais. Art. 20. Diário Oficial da União, Brasília, DF, 15 ago. 2018.

⁴ BRASIL. Lei nº 13.709/2018. Art. 46.

⁵ BRASIL. Lei nº 13.709/2018. Art. 42.

⁶ BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Código Civil. Art. 927, parágrafo único. Diário Oficial da União, Brasília, DF, 11 jan. 2002.

⁷ BRASIL. Constituição (1988). Constituição da República Federativa do Brasil. Art. 5º, incisos X e XII.

⁸ BRASIL. Lei nº 12.846, de 1º de agosto de 2013. Lei Anticorrupção. Decreto nº 11.129, de 11 de julho de 2022.

⁹ BRASIL. Lei nº 10.406/2002. Arts. 186 e 927.

10 * CLM* (Contract Lifecycle Management), em tradução livre do Inglês: gestão do ciclo de vida Contratual.

Cookies necessários                                                                                        Sempre ativos

Estes cookies são os mínimos necessários para que o website funcione da forma esperada e não podem ser gerenciados. Eles possibilitam funções básicas do site, como por exemplo, definição das preferências de privacidade, início de sessão ou preenchimento de formulários. Sem eles o website não funcionará.

Cookies estatísticos                                                                                                     

Estes cookies permitem a contagem de visitas e fontes de tráfego, de forma que possamos medir e melhorar o desempenho do nosso site. Importante ressaltar que utilizamos estes cookies para gerar estatísticas anônimas sobre o uso deste site.

Utilizamos cookies para oferecer uma melhor experiência a você no uso de nosso site.  Ao clicar em “Aceitar tudo” você concorda com nosso uso de cookies. Ao clicar em “Rejeitar cookies não necessários”, você não permitirá a coleta de cookies que não essenciais para o funcionamento do site. Você também poderá gerenciar suas preferências ao clicar em “Gerenciar Preferências”. Para mais informações acesse nossa Política de Cookies aqui.