A ascensão da Inteligência Artificial desperta uma mistura de curiosidade e ansiedade, especialmente em profissões consolidadas como a advocacia. Discute-se sobre automação, substituição de postos de trabalho e o futuro do pensamento estratégico. Mas o que realmente acontece quando a IA sai da teoria e entra na prática diária de um grande escritório de advocacia?
Para desvendar essa questão, conversamos com Chiara Battaglia Tonin, especialista em Direito Digital do escritório Machado, Meyer, Sendacz e Opice Advogados. Longe de clichês futuristas, ela compartilhou insights que desafiam o senso comum sobre a relação entre tecnologia e prática jurídica.
A IA no Direito: Inovação com raízes profundas
A adoção da IA no escritório Machado Meyer não surge como ruptura, mas como continuidade de uma cultura histórica de inovação. O projeto atual, desenvolvido em parceria com a Microsoft e baseado no CoPilot, destaca-se pelo uso de uma base de dados interna, proprietária e sanitizada, construída ao longo de mais de 50 anos.
Ao contrário das IAs genéricas, treinadas com dados públicos e heterogêneos, o modelo utilizado pelo escritório apoia-se em materiais próprios, o que traz vantagens cruciais:
- Confidencialidade e segurança: Reduz drasticamente o risco de vazamento ou uso indevido de informações sigilosas.
- Precisão contextual: A IA opera com documentos, contratos e pareceres que refletem a prática do escritório.
- Governança da informação: Décadas de catalogação e sanitização permitiram construir um acervo robusto e confiável para treinar o modelo.
O resultado é uma ferramenta que atua como acelerador de tarefas operacionais, liberando tempo para reflexão jurídica mais qualificada.
Em suas palavras, Chiara sintetiza a lógica da inovação responsável:
“A IA não substitui nem diminui o trabalho do advogado. O principal ativo continua sendo a curadoria, a revisão estratégica e a experiência.”
A tecnologia auxilia, mas a decisão final é sempre humana. O valor do profissional migra cada vez mais para:
- Análise crítica;
- Revisão estratégica dos conteúdos gerados;
- Aplicação da experiência acumulada;
- Comunicação com o cliente.
Ética e governança: Usar IA com responsabilidade
A entrevista enfatizou que os dilemas éticos não são sobre o “algoritmo” em si, mas sobre o uso ético de ferramentas tecnológicas por seres humanos. No ambiente jurídico, isso exige cautela redobrada.
Chiara apontou cinco categorias centrais de riscos:
- Discriminação e vieses: Risco de repetir desigualdades históricas presentes nos dados.
- Privacidade: Risco de exposição de dados pessoais em modelos conectados a bases abertas.
- Propriedade intelectual: Uso de obras protegidas no treinamento e titularidade dos outputs.
- Segurança da informação: Necessidade de proteção da integridade dos dados processados.
- Responsabilidade: Definição de quem responde por erros ou danos decorrentes de outputs da IA.
Para lidar com esses riscos, o escritório estabeleceu:
- Comitê formal de governança de IA;
- Políticas internas sobre vieses e uso ético;
- Integração do tema nas pautas de diversidade e inclusão;
- Monitoramento contínuo e sanitização da base de dados.
Há também transparência total com os clientes: eles são informados sobre o uso da IA, que nunca realiza decisões automatizadas sem supervisão humana.
Chiara apresentou o caso concreto da análise de crédito:
- Bases históricas podem associar mulheres a atividades domésticas, distorcendo decisões presentes.
- A IA, se treinada nesses dados, replicaria essa desigualdade.
- É necessária intervenção humana interdisciplinar (direito, estatística, economia) para readequar o modelo à realidade atual.
Esse exemplo ilustra a importância de corrigir o passado para não reproduzir injustiças no presente.
IA e Propriedade Intelectual: Novos contornos para velhos conceitos
A Inteligência Artificial desafia todo o ciclo da Propriedade Intelectual (PI):
1. Desafios no ciclo de vida da IA
- Concepção: Uso de códigos preexistentes pode gerar obras derivadas.
- Treinamento:Envolve grandes volumes de obras protegidas, origem de disputas como o caso The New York Times vs OpenAI.
- Output: Questiona-se a titularidade e a responsabilidade sobre conteúdos gerados pela IA.
2. A dupla natureza da IA
- Ferramenta de proteção: Detectar violações de marcas, patentes e direitos autorais.
- Fonte de risco: Especialmente quando replica estilos de artistas ou gera conteúdo derivado.
3. Autoria, responsabilidade e rastreabilidade: Quem responde por um conteúdo problemático gerado por IA?
- Os termos de uso costumam atribuir responsabilidade ao usuário (quem fornece o prompt).
- Há casos em que o desenvolvedor do sistema pode responder, mas isso exige auditoria algorítmica.
Governança sólida e registros de uso são essenciais para garantir rastreabilidade.
Privacidade e segurança: A sensibilidade do ambiente jurídico
A advocacia possui obrigações de sigilo profissional, e isso torna o tema ainda mais crítico.
A principal recomendação de Chiara para mitigar riscos é clara: Não submeter informações sigilosas a modelos conectados a bases públicas.
Bases proprietárias são mais seguras; já a anonimização em sistemas abertos não é infalível, pois modelos avançados podem reconstruir contextos a partir de fragmentos.
O atual cenário regulatório
Mesmo sem um marco regulatório definitivo, há sólido aparato jurídico para regular o uso da IA:
- LGPD (dados pessoais)
- Lei de Direitos Autorais e Lei de Propriedade Industrial
- CDC (IA integrada a produtos e serviços)
- Código Civil (responsabilidade civil)
- Guias internacionais: AI Act europeu, ISO, NIST, OMS
IA e litígios: Um novo patamar de análise e estratégia
A conversa destacou como a IA está transformando a prática contenciosa com:
1. Ferramentas que otimizam estratégia:
- Análise massiva de jurisprudência;
- Identificação de argumentos eficazes;
- Estimativas de duração, custos e probabilidades de êxito;
- Incentivo a composições extrajudiciais quando são mais vantajosas.
Tudo isso fortalece a atuação estratégica e reduz o tempo desperdiçado com tarefas repetitivas.
2. Segurança cibernética automatizada: A IA também atua na proteção dos próprios sistemas:
- Testagem de controles de segurança;
- Identificação de vulnerabilidades;
- Monitoramento de ameaças.
O futuro da advocacia: Competências humanas e colaboração técnica
A IA já é realidade, mas o futuro da advocacia será definido pelo modo como os profissionais se relacionam com essa tecnologia.
1. Tendências
- Maior organização dos dados do Judiciário (ex.: Projeto Victor do STF);
- Desafios de infraestrutura e energia;
- Inovação orientada a propósito, não ao modismo tecnológico.
2. A interdisciplinaridade como chave
Advogados não precisam saber programar, mas precisam:
- Entender conceitos tecnológicos básicos;
- Trabalhar com engenheiros e equipes de inovação;
- Fazer as “perguntas certas” aos sistemas.
3. Conselhos da especialista aos estudantes de Direito
- Testar, dominar e explorar a tecnologia com senso crítico.
- Identificar limites, como alucinações.
- Evitar usar IA como atalho rápido.
- Fortalecer o repertório humano: leitura, experiência, estudo, curiosidade.
A metáfora que encerrou a entrevista virou quase um lema:
“Eu não quero que a IA pinte por mim. Quero que ela lave a louça para que eu possa pintar.”
A mensagem final de Chiara é clara e inspiradora: A IA deve servir à inteligência humana, e não substituí-la.
Quando usada com governança, propósito e responsabilidade, a IA pode transformar não apenas a rotina dos escritórios, mas toda a maneira como pensamos e praticamos o Direito no Brasil. Para estudantes e profissionais, o caminho é dominar essas ferramentas, não para terceirizar o raciocínio, mas para expandir o potencial de análise, criatividade e estratégia que só o humano possui.
O episódio completo com Chiara Battaglia Tonin está disponível no YouTube e no Spotify. É só clicar na foto da convidada, no início do post para ser redirecionado. Para acompanhar as próximas entrevistas e publicações, siga nossos grupos nas redes sociais e nos acompanhe aqui no blog!
Até breve! 🤖