Recursos

Perguntas Frequentes

Respostas honestas e baseadas em evidências para as perguntas que os advogados realmente fazem sobre IA. Sem hype, sem alarmismo — apenas as informações que você precisa para tomar decisões informadas sobre IA na sua prática.

O Cético

Não. A IA não vai substituir os advogados, mas vai transformar fundamentalmente a forma como o Direito é praticado, e os advogados que se recusarem a se adaptar correm o risco de ficar para trás em relação àqueles que a adotarem.

Eis a realidade com nuances. A IA se destaca em reconhecimento de padrões, análise de documentos, pesquisa jurídica e geração de primeiros rascunhos. Ela pode processar milhares de páginas em minutos, identificar jurisprudência relevante em diferentes jurisdições e elaborar documentos rotineiros com velocidade notável. O GPT-4 ficou famoso por passar no Uniform Bar Exam (exame da Ordem dos EUA) no percentil 90, demonstrando sua capacidade de raciocínio jurídico.

No entanto, a prática do Direito envolve muito mais do que processamento de informações. Advogados exercem julgamento profissional, avaliam credibilidade, navegam dinâmicas humanas complexas, negociam estrategicamente e tomam decisões éticas em situações ambíguas. A IA não pode substituir o consultor que ajuda um cliente em um divórcio difícil, o litigante que interpreta a linguagem corporal do júri ou o advogado transacional que identifica o risco empresarial escondido por trás de uma linguagem contratual aparentemente limpa.

O que realmente está acontecendo é uma mudança no papel do advogado. Tarefas rotineiras e de alto volume — revisão de contratos, resumo de documentos, pesquisa básica — estão sendo potencializadas pela IA, liberando os advogados para se concentrarem em trabalho de maior valor: estratégia, advocacia, relacionamento com clientes e resolução criativa de problemas.

A American Bar Association agora reconhece a competência tecnológica como parte da obrigação profissional do advogado (Comentário 8 à Model Rule 1.1). Quarenta e dois estados dos EUA adotaram esse padrão. A mensagem é clara: entender IA está se tornando parte de ser um advogado competente.

Os advogados mais em risco não são aqueles que serão substituídos pela IA. São aqueles que serão substituídos por advogados que usam a IA de forma eficaz.

Fontes

A IA é confiável o suficiente para ser genuinamente útil no trabalho jurídico, mas definitivamente não é confiável o suficiente para ser usada sem verificação humana. Compreender essa distinção é fundamental.

A questão da confiabilidade depende da tarefa. Para resumo de documentos, tradução, geração de primeiros rascunhos e brainstorming, as ferramentas modernas de IA são notavelmente capazes. Para tarefas que exigem precisão absoluta — como citar casos específicos, transcrever dispositivos legais ou calcular prazos — a IA ainda é propensa a erros, incluindo “alucinações”, quando gera informações plausíveis, mas inteiramente fabricadas.

O caso Mata v. Avianca em 2023 tornou-se o exemplo de cautela: advogados apresentaram uma petição contendo seis citações de casos fictícios gerados pelo ChatGPT. O tribunal aplicou sanções, e o incidente repercutiu por toda a profissão. Desde então, vários tribunais relataram incidentes semelhantes. Pesquisas de Stanford e Yale constataram que modelos de IA de uso geral apresentam taxas significativas de alucinação em citações jurídicas, embora ferramentas específicas para o Direito tenham desempenho substancialmente melhor.

O ponto central é que a confiabilidade da IA não é binária. Ela varia de acordo com a ferramenta (plataformas jurídicas específicas como CoCounsel ou Harvey superam chatbots de uso geral), com a tarefa (resumo é mais confiável do que geração de citações) e com a qualidade dos prompts utilizados. Tratar o resultado da IA como um primeiro rascunho que requer revisão especializada — em vez de um produto final — muda drasticamente o cálculo de risco.

A abordagem mais eficaz é usar a IA como um assistente de pesquisa altamente capaz cujo trabalho você sempre verifica. Advogados que adotam essa mentalidade relatam ganhos significativos de produtividade, mantendo os padrões de precisão que sua prática exige. A tecnologia melhora constantemente, mas o julgamento profissional continua sendo a camada indispensável de controle de qualidade.

Fontes

Os riscos são reais, mas são gerenciáveis — e o risco de ignorar completamente a IA pode ser ainda maior. A questão não é se existem riscos, mas se eles podem ser mitigados de forma eficaz. E podem.

Os principais riscos que os advogados enfrentam com a IA incluem: violações de sigilo profissional ao inserir dados de clientes em ferramentas públicas, citações alucinadas e análises jurídicas fabricadas, dependência excessiva do resultado da IA sem verificação, vieses incorporados nos dados de treinamento e obrigações de divulgação em constante evolução. Cada um desses riscos é sério. Nenhum deles é inédito.

Advogados já gerenciam riscos comparáveis diariamente. Você verifica pesquisas feitas por associados. Você tarja informações confidenciais antes de protocolar. Você mantém bancos de dados de conflitos de interesse. Você revisa o trabalho de advogados juniores antes de enviá-lo aos clientes. A gestão de risco da IA segue a mesma lógica — requer políticas, treinamento e supervisão, não evasão.

A Opinião Formal 512 da ABA (2024) fornece um quadro claro: advogados podem usar IA generativa, mas devem garantir competência, manter o sigilo profissional, supervisionar a tecnologia como fariam com um subordinado e comunicar aos clientes sobre seu uso. Diversas seccionais estaduais — incluindo Flórida, Califórnia e Nova York — emitiram orientações complementares. O Framework de Gestão de Risco de IA do NIST oferece uma abordagem estruturada para identificar, avaliar e mitigar riscos de IA.

A mitigação prática de riscos inclui: usar ferramentas de IA de nível empresarial com acordos de proteção de dados em vez de chatbots de uso pessoal, estabelecer políticas de uso de IA em toda a firma, verificar todos os resultados da IA contra fontes primárias, treinar a equipe sobre o uso adequado de IA e manter-se atualizado sobre os requisitos de divulgação na sua jurisdição.

As firmas que prosperarão serão aquelas que gerenciarem os riscos da IA de forma inteligente, não aquelas que evitarem a IA por completo. A inação carrega seus próprios riscos: perda de eficiência, desvantagem competitiva e falha em atender ao padrão evolutivo de competência tecnológica.

Fontes

Porque a competência em IA está rapidamente se tornando uma obrigação profissional, uma necessidade competitiva e uma vantagem prática — e o custo de ficar para trás aumenta a cada mês.

Comece pela obrigação profissional. A Model Rule 1.1, Comentário 8, da ABA exige que os advogados “se mantenham atualizados sobre as mudanças no Direito e em sua prática, incluindo os benefícios e riscos associados à tecnologia relevante.” Quarenta e dois estados adotaram essa linguagem. As ordens dos advogados esperam cada vez mais que os profissionais compreendam as capacidades e limitações da IA. A ignorância não é mais uma defesa profissional — é uma lacuna de competência.

Em seguida, considere a realidade competitiva. A Thomson Reuters relata que escritórios de advocacia que adotam ferramentas de IA estão obtendo ganhos mensuráveis de eficiência: pesquisa mais rápida, revisão de documentos acelerada, primeiros rascunhos mais consistentes. Clientes, particularmente clientes corporativos, esperam cada vez mais que suas equipes jurídicas usem tecnologia de forma eficiente. Escritórios que entregam trabalho mais rápido e com melhor custo-benefício conquistam contratos. Os que não o fazem, perdem.

As vantagens práticas se acumulam ao longo do tempo. Advogados que investem apenas algumas horas para entender ferramentas de IA relatam economizar de cinco a dez horas por semana em tarefas rotineiras: resumir depoimentos, redigir correspondências, realizar pesquisas preliminares, revisar contratos. Esse tempo recuperado pode ser direcionado para trabalho de maior valor, desenvolvimento de clientes ou simplesmente um ritmo de prática mais sustentável.

Há também uma dimensão de carreira. Estudantes de Direito que se formam com fluência em IA são cada vez mais atrativos para empregadores. Advogados experientes que demonstram competência em IA se posicionam para papéis de liderança em uma profissão em transformação. As habilidades que você desenvolve agora — engenharia de prompts, design de fluxos de trabalho assistidos por IA, governança ética de IA — serão competências fundamentais para a próxima década da prática jurídica.

A questão não é se aprender. É se aprender agora, quando a curva de aprendizado é suave e a vantagem é significativa, ou depois, quando alcançar os demais será mais difícil e o mercado já terá avançado.

Fontes

O Curioso

Comece com assistentes de IA de uso geral e depois expanda para ferramentas jurídicas específicas à medida que seu conforto aumentar. A melhor abordagem é incremental, de baixo risco e alinhada com tarefas que você já realiza.

Nível 1 — IA de Uso Geral (Gratuita ou Baixo Custo): Comece com ferramentas que você pode usar hoje para trabalho interno e não confidencial. ChatGPT (OpenAI), Claude (Anthropic) e Gemini (Google) são bons pontos de partida. Use-os para brainstorming, resumo de documentos públicos, redação de memorandos internos, simplificação de linguagem complexa ou preparação de materiais de treinamento. Essas ferramentas são gratuitas nas versões básicas e custam aproximadamente US$ 20/mês para acesso premium.

Nível 2 — Plataformas de Pesquisa Jurídica com IA: Uma vez confortável com a IA geral, explore plataformas construídas especificamente para o trabalho jurídico. A Pesquisa Assistida por IA da Westlaw, o Lexis+ AI da LexisNexis e o Vincent AI da vLex integram recursos de IA com bancos de dados jurídicos verificados, reduzindo drasticamente o risco de alucinação. CoCounsel (da Thomson Reuters) e Harvey são ferramentas de IA jurídica que estão ganhando tração significativa. Essas ferramentas geralmente requerem assinaturas através do seu escritório ou organização.

Nível 3 — Ferramentas Especializadas: À medida que suas necessidades se tornam específicas, considere ferramentas para análise de contratos (Kira Systems, Luminance), revisão de documentos (Relativity aiR), redação jurídica (Spellbook) ou gestão de escritório (recursos de IA do Clio). Essas ferramentas atendem fluxos de trabalho específicos e se integram com softwares jurídicos existentes.

Recomendações essenciais para começar:

  • Comece com uma ferramenta e uma tarefa. Domine-a antes de expandir.
  • Inicie com trabalho interno e de baixo risco — não com entregas voltadas para clientes.
  • Use versões gratuitas para explorar antes de comprometer orçamento.
  • Preste atenção à política de privacidade de dados de cada ferramenta antes de inserir qualquer informação de cliente.
  • Mantenha um registro do que funciona e do que não funciona, construindo seu manual pessoal.

A melhor ferramenta é aquela que você realmente vai usar de forma consistente. Comece simples, construa confiança e expanda a partir daí.

Fontes

O custo varia de zero a investimentos empresariais significativos, dependendo das suas necessidades. A boa notícia é que a adoção significativa de IA pode começar com pouco ou nenhum custo, e o retorno sobre o investimento frequentemente justifica o gasto rapidamente.

Nível Gratuito (Para Começar): ChatGPT (versão gratuita), Claude (versão gratuita), Gemini (versão gratuita) e Microsoft Copilot oferecem assistência de IA capaz sem custo. Estes são adequados para aprender, experimentar e lidar com tarefas não confidenciais. Você pode desenvolver habilidades reais e hábitos de produtividade sem gastar um centavo.

Profissional Individual (US$ 20-100/mês): Assinaturas premium de IA — ChatGPT Plus (US$ 20/mês), Claude Pro (US$ 20/mês), Gemini Advanced (US$ 20/mês) — fornecem respostas mais rápidas, modelos mais capazes e limites de uso mais altos. Complementos jurídicos específicos podem custar US$ 50-100/mês. Nessas faixas de preço, economizar apenas uma hora faturável por mês já cria um ROI positivo para a maioria dos profissionais.

Escritório de Pequeno Porte (US$ 100-500/mês por usuário): Plataformas de IA jurídica específicas como CoCounsel, Lexis+ AI e os recursos de IA da Westlaw geralmente se enquadram nessa faixa. Elas oferecem bancos de dados jurídicos verificados, menor risco de alucinação e melhores proteções de confidencialidade. Algumas plataformas oferecem licenciamento para todo o escritório, reduzindo o custo por usuário.

Empresarial (Preços Sob Consulta): Grandes escritórios e departamentos jurídicos que investem em ferramentas como Harvey, Luminance ou implementações customizadas de IA podem esperar custos de dezenas de milhares a várias centenas de milhares de dólares anuais, dependendo da escala e personalização.

O cálculo do ROI é direto. Se um advogado que fatura US$ 300/hora economiza cinco horas por semana usando ferramentas de IA que custam US$ 100/mês, o valor líquido anual supera US$ 75.000. Mesmo estimativas conservadoras de economia de tempo tornam a maioria dos investimentos em IA convincentes. Comece gratuitamente, prove o valor e depois invista onde o caso de negócio for mais forte.

Fontes

Não. Você não precisa programar, entender algoritmos de aprendizado de máquina ou ter qualquer “habilidade técnica” tradicional para usar IA de forma eficaz na prática jurídica. Se você consegue escrever um e-mail claro, consegue escrever um prompt eficaz para IA.

As ferramentas modernas de IA são projetadas para interação em linguagem natural. Você se comunica com elas escrevendo instruções em linguagem coloquial — a mesma habilidade que você usa todos os dias ao redigir petições, escrever cartas a clientes ou instruir associados. A interface é conversa, não código.

O que você precisa é de um conjunto de habilidades que advogados já possuem em abundância:

Comunicação clara. A capacidade de articular precisamente o que você precisa — a mesma habilidade que torna uma boa petição ou uma instrução clara ao júri — faz de você um usuário eficaz de IA. Prompts vagos produzem resultados vagos, assim como instruções vagas para associados produzem pesquisas sem foco.

Pensamento crítico. Você precisa avaliar o resultado da IA da mesma forma que avalia pesquisas de qualquer fonte: Isso é preciso? Está completo? Cita autoridades reais? Aborda minha jurisdição e fatos específicos? Este é o raciocínio jurídico básico aplicado a um novo contexto.

Pensamento estruturado. Dividir tarefas complexas em etapas sequenciais — algo que todo advogado faz ao planejar a estratégia do caso — é exatamente como você obtém os melhores resultados da IA. A utilização de prompts em múltiplas etapas espelha a análise estruturada que os advogados já realizam.

A única habilidade nova que vale a pena desenvolver é a engenharia de prompts: a arte de instruir a IA para produzir resultados úteis. Isso é menos uma habilidade técnica e mais uma disciplina de comunicação. Pense nisso como aprender a orientar um assistente de pesquisa brilhante, mas extremamente literal, que leu tudo, mas não entende nada contextualmente.

Recursos como o guia de Engenharia de Prompts para Advogados da Lawra e o curso IA 101 são projetados especificamente para profissionais jurídicos sem nenhum conhecimento técnico. Comece por aí, e você será produtivo com IA em horas, não meses.

Fontes

A maioria dos advogados consegue se tornar produtivamente competente com ferramentas de IA em uma a quatro semanas de uso regular, com resultados significativos aparecendo já nas primeiras sessões. A maestria é uma jornada contínua, mas a curva de aprendizado inicial é surpreendentemente suave.

Dia 1 (30 minutos): Você pode se cadastrar em uma ferramenta de IA gratuita, executar seu primeiro prompt e ver resultados imediatamente. Tente pedir para resumir uma decisão judicial pública ou simplificar um trecho regulatório denso. O momento “eureka” geralmente acontece na primeira meia hora.

Semana 1 (1-2 horas no total): Com uma estrutura básica de prompts — fornecendo contexto, especificando o papel que você quer que a IA desempenhe, descrevendo o formato de saída desejado — você produzirá resultados notavelmente melhores. Você conseguirá lidar com tarefas como redigir correspondência interna, fazer brainstorming de estruturas argumentativas ou criar checklists de documentos.

Semanas 2-4 (2-3 horas por semana): Nesta fase, a maioria dos advogados desenvolve fluxos de trabalho confiáveis para suas tarefas mais comuns. Você aprende quais prompts funcionam bem, como iterar sobre resultados insatisfatórios e onde a IA agrega mais valor à sua prática específica. É quando os ganhos de produtividade se tornam tangíveis e consistentes.

Meses 2-6: Refinamento contínuo. Você constrói uma biblioteca pessoal de prompts, explora ferramentas mais especializadas e desenvolve intuição sobre quando a IA é a solução certa e quando não é. Muitos advogados relatam que o uso da IA se torna tão natural quanto os bancos de dados de pesquisa jurídica nesta fase.

Um estudo da Harvard Business School constatou que profissionais usando ferramentas de IA atingiram um patamar estável de produtividade após aproximadamente 30 horas de uso. Para advogados dedicando algumas horas por semana, isso se traduz em aproximadamente dois meses.

O fator crítico não é o tempo de estudo, mas a prática regular. Quinze minutos de uso diário de IA ensinam mais do que um seminário de fim de semana. Comece com uma tarefa que você realiza frequentemente, use a IA para auxiliar nela de forma consistente e deixe sua competência se acumular naturalmente.

Fontes

A maioria dos clientes não apenas aceitará trabalho assistido por IA — muitos estão começando a exigi-lo. A mudança nas atitudes dos clientes é um dos maiores impulsionadores da adoção de IA na profissão jurídica.

Clientes corporativos estão liderando essa mudança. A Association of Corporate Counsel relata que uma maioria crescente de departamentos jurídicos internos está usando IA por conta própria ou incentivando ativamente seus advogados externos a fazê-lo. Grandes corporações, incluindo United Health, Walmart e diversas grandes instituições financeiras, disseram explicitamente aos seus escritórios de advocacia que esperam que a IA seja incorporada à prestação de serviços jurídicos como meio de melhorar a eficiência e reduzir custos.

Clientes individuais podem ser menos conscientes das ferramentas de IA, mas são altamente receptivos aos benefícios: retorno mais rápido, análise mais completa, custos mais baixos e qualidade mais consistente. Quando um cliente descobre que a revisão de contratos assistida por IA identifica questões que uma revisão manual poderia deixar passar, ou que a IA reduz o tempo (e as horas faturáveis) necessários para revisão de documentos, a resposta é tipicamente positiva.

Princípios fundamentais para a aceitação do cliente:

Transparência. Comunique proativamente como você usa a IA. Explique que ela auxilia seu trabalho, mas que cada resultado é revisado e validado por advogados qualificados. Muitos clientes apreciam saber que seu advogado usa ferramentas modernas.

Demonstração de valor. Mostre aos clientes os benefícios concretos — entrega mais rápida, análise mais completa ou economia de custos. Deixe os resultados falarem por si.

Garantia de confidencialidade. Aborde a segurança de dados diretamente. Explique quais ferramentas você usa, como os dados do cliente são protegidos e que você cumpre todas as obrigações de sigilo profissional.

Manutenção da qualidade. Os clientes aceitam a IA quando a qualidade do seu trabalho melhora ou se mantém estável enquanto a eficiência aumenta. Se a IA piorar seu trabalho, nenhuma explicação será satisfatória.

O maior risco para o relacionamento com clientes não é usar IA — é ficar atrás dos concorrentes que a usam para entregar um serviço melhor a um custo menor.

Fontes

Já Usando IA

A confidencialidade é a consideração mais crítica ao usar IA na prática jurídica, e gerenciá-la requer planejamento deliberado, não apenas boas intenções. Suas obrigações nos termos da Model Rule 1.6 (ou o equivalente na sua jurisdição) se aplicam integralmente ao uso de ferramentas de IA.

A regra fundamental: Nunca insira informações confidenciais de clientes em uma ferramenta de IA sem antes verificar como essa ferramenta trata os dados e garantir que ela atende às suas obrigações profissionais.

Passos práticos para proteger a confidencialidade:

Entenda a política de dados da ferramenta. Ferramentas de IA de uso pessoal (versões gratuitas do ChatGPT, Gemini etc.) podem usar suas entradas para treinar modelos futuros. Isso significa que informações de clientes podem influenciar respostas dadas a outros usuários. Versões empresariais geralmente oferecem opções de exclusão. Leia os termos de serviço — não apenas os materiais de marketing.

Use ferramentas de nível empresarial. A maioria dos grandes provedores de IA oferece planos corporativos ou empresariais com compromissos contratuais de proteção de dados. Estes geralmente incluem: não treinamento com seus dados, criptografia de dados em trânsito e em repouso, conformidade SOC 2 e acordos de processamento de dados. Exija essas proteções antes de usar qualquer ferramenta com dados de clientes.

Anonimize e tarja. Ao usar IA para tarefas que não exigem dados identificáveis, remova nomes de clientes, datas, valores e outras informações identificadoras antes de inserir o texto. Frequentemente, você pode obter resultados igualmente úteis a partir de versões anonimizadas dos documentos.

Crie uma política de classificação de dados para o escritório. Classifique documentos por nível de sensibilidade e especifique quais ferramentas de IA são aprovadas para cada nível. Por exemplo: informações públicas podem ser inseridas em qualquer ferramenta; informações confidenciais apenas em ferramentas empresariais com acordos de dados; material protegido por sigilo profissional pode exigir restrições adicionais ou proibição de uso com IA.

Obtenha consentimento informado. A Opinião Formal 512 da ABA recomenda discutir o uso de IA com clientes e obter o consentimento adequado, particularmente para questões sensíveis. Muitos escritórios agora incluem disposições sobre uso de IA em seus contratos de honorários.

Documente suas salvaguardas. Mantenha registros de suas medidas de proteção de dados. Se alguma questão surgir sobre seu tratamento de informações confidenciais, políticas e procedimentos documentados demonstram o cuidado razoável que a profissão exige.

Fontes

Os requisitos de divulgação do uso de IA na prática jurídica estão evoluindo rapidamente. Atualmente, não existe um padrão nacional único, e as obrigações variam significativamente por jurisdição, tribunal e tipo de procedimento. Manter-se atualizado sobre suas obrigações específicas é essencial.

Tribunais Federais: Um número crescente de tribunais federais dos EUA adotou ordens permanentes ou regras locais exigindo a divulgação do uso de IA em petições judiciais. O Juiz Brantley Starr, no Northern District of Texas, emitiu uma das primeiras ordens desse tipo em maio de 2023, exigindo que os advogados certificassem que textos gerados por IA foram verificados por um humano. Desde então, tribunais no Eastern District of Texas, no District of Columbia e outros seguiram o exemplo. As abordagens variam — alguns exigem divulgação afirmativa de qualquer uso de IA, outros exigem certificação de que os resultados da IA foram revisados e verificados, e alguns abordam especificamente a IA generativa enquanto excluem ferramentas básicas de pesquisa jurídica.

Tribunais Estaduais: Os requisitos estaduais são igualmente variados. Alguns estados propuseram ou adotaram regras exigindo divulgação em petições; outros abordam a questão por meio de pareceres éticos em vez de regras formais. A tendência é claramente em direção a uma maior transparência.

Orientações das Ordens dos Advogados: A Opinião Formal 512 da ABA não exige uma linguagem específica de divulgação, mas enfatiza as obrigações de candor e competência dos advogados. Diversas ordens dos advogados estaduais emitiram suas próprias orientações. A direção geral é clara: opte pela divulgação em vez da ocultação.

Orientações práticas:

  1. Verifique sua jurisdição. Revise regras locais, ordens permanentes e pareceres éticos para cada tribunal onde você atua.
  2. Na dúvida, divulgue. A divulgação voluntária raramente causa problemas; a não divulgação quando exigida pode resultar em sanções.
  3. Seja específico. Descreva como a IA foi usada (pesquisa, redação, revisão) e confirme que um advogado habilitado revisou e verificou todo o conteúdo.
  4. Monitore mudanças. Os requisitos de divulgação estão sendo adotados em ritmo acelerado. Configure alertas para suas jurisdições.
  5. Documente seu processo. Mantenha registros de quais ferramentas de IA você usou, para quais tarefas e quais etapas de verificação foram realizadas.

Fontes

O controle de qualidade do resultado da IA não é opcional — é uma obrigação profissional. A ABA compara a supervisão da IA à supervisão de um advogado subordinado: você é o responsável final por cada palavra protocolada ou entregue a um cliente, independentemente de quem ou o quê a redigiu. Aqui está uma abordagem sistemática.

Passo 1: Verifique todas as citações e fontes. Isso é inegociável. Cada caso, lei, regulamento e fonte secundária citada pela IA deve ser confirmada de forma independente. Verifique se o caso existe, se ele diz o que a IA afirma, se não foi reformado ou distinguido, e se é da jurisdição correta. Use plataformas de pesquisa jurídica consolidadas — Westlaw, Lexis ou bancos de dados verificados — não use IA para verificar IA.

Passo 2: Verifique a precisão factual. A IA pode afirmar fatos incorretos com confiança. Verifique datas, valores, nomes das partes, históricos processuais e dispositivos legais contra fontes primárias. Preste atenção especial a dados numéricos e padrões jurídicos específicos.

Passo 3: Avalie o raciocínio jurídico. Leia a análise da IA criticamente. O raciocínio segue uma lógica? Há lacunas no argumento? A IA confundiu padrões de diferentes jurisdições? Aplicou o teste jurídico errado? A IA é particularmente propensa a mesclar conceitos jurídicos que são semelhantes, mas jurisdicionalmente distintos.

Passo 4: Avalie a completude. A IA pode deixar de mencionar autoridades relevantes, contra-argumentos ou nuances factuais. Pergunte a si mesmo: O que o advogado da parte contrária encontraria de faltante nesta análise? Quais questões a IA deixou de abordar?

Passo 5: Verifique viés e tom. Revise o resultado quanto a vieses não intencionais, tom inadequado ou linguagem que não corresponde ao contexto. A IA pode adotar um tom persuasivo quando uma análise objetiva é necessária, ou vice-versa.

Construa uma lista de verificação específica para sua área de atuação e use-a de forma consistente. Com o tempo, você desenvolverá intuição para os tipos de erros que a IA tende a cometer no seu campo. Isso não substitui a verificação sistemática, mas acelera o processo.

Fontes

Sim, você pode usar IA para auxiliar na elaboração de petições judiciais, mas com ressalvas importantes que todo profissional deve entender. A tecnologia é permitida; a negligência, não.

O que os tribunais geralmente permitem: A maioria dos tribunais não proibiu o uso de IA na preparação de petições judiciais. Usar IA para auxiliar na pesquisa, redação, estruturação de argumentos ou verificação de citações é geralmente permitido. O requisito fundamental é que um advogado habilitado revise, verifique e assuma total responsabilidade por tudo que é protocolado junto ao tribunal.

O que os tribunais exigem: Um número crescente de tribunais exige divulgação explícita do uso de IA. Ordens permanentes em múltiplos distritos federais exigem que os advogados certifiquem que nenhuma IA foi usada, ou que todo conteúdo gerado por IA foi revisado e verificado por um advogado habilitado. A Judicial Conference of the United States considerou propostas de regras federais uniformes sobre divulgação de IA. Verifique as regras locais e ordens permanentes de cada tribunal onde você peticiona.

O que pode resultar em sanções: Os casos que resultaram em sanções compartilham características comuns: advogados apresentaram conteúdo gerado por IA sem verificá-lo, incluindo citações de casos fabricados, padrões jurídicos incorretos ou autoridades inexistentes. No caso Mata v. Avianca, as sanções foram impostas não por usar IA, mas por não verificar o resultado da IA e por inicialmente não ser transparente com o tribunal sobre o ocorrido.

Melhores práticas para petições judiciais assistidas por IA:

  1. Use IA para primeiros rascunhos e organização estrutural, não como produto final.
  2. Verifique de forma independente cada citação, transcrição e proposição jurídica.
  3. Passe todos os casos por um verificador de jurisprudência (Shepard’s, KeyCite) para confirmar que continuam válidos.
  4. Cumpra todos os requisitos de divulgação aplicáveis.
  5. Mantenha registros do seu uso de IA e do processo de verificação.
  6. Aplique o mesmo julgamento profissional que você aplicaria a qualquer produto de trabalho — se algo parece bom demais ou conveniente demais, verifique duas vezes.

A conclusão: a IA é uma poderosa assistente de redação e pesquisa para petições judiciais. Sua assinatura na petição significa que você verificou cada palavra. Aja de acordo.

Fontes

Treinar sua equipe em IA requer uma abordagem estruturada que construa confiança gradualmente, aborde preocupações legítimas e crie uma cultura de experimentação responsável. Os programas de treinamento mais bem-sucedidos compartilham vários elementos comuns.

Comece pelo “porquê” antes do “como”. Antes de apresentar qualquer ferramenta, aborde as preocupações da sua equipe diretamente. Explique por que a IA é importante para a sua prática, como ela vai ajudar (não substituir) as pessoas e quais são as obrigações profissionais. As pessoas aprendem melhor quando entendem o propósito.

Estruture o treinamento em níveis progressivos:

Nível 1 — Fundamentos (Semanas 1-2): Aborde o que a IA é e o que não é, os riscos e obrigações éticas, a política de uso de IA do seu escritório e as ferramentas aprovadas. Todo membro da equipe, de sócios a equipe de apoio, deve completar este nível. Mantenha as sessões curtas (60-90 minutos) com componentes práticos.

Nível 2 — Habilidades Práticas (Semanas 3-6): Workshops práticos onde os membros da equipe usam ferramentas de IA aprovadas em tarefas reais (anonimizadas) de trabalho. Comece com tarefas simples: resumir documentos, redigir correspondências, criar checklists. Cada pessoa deve identificar três a cinco tarefas onde a IA pode auxiliar em sua função específica.

Nível 3 — Integração (Meses 2-3): Os membros da equipe começam a usar IA nos fluxos de trabalho diários com suporte de mentoria. Estabeleça grupos de aprendizado entre pares onde as pessoas compartilham o que funciona. Crie uma biblioteca de prompts compartilhada. Revise produtos de trabalho assistidos por IA em equipe para construir padrões de qualidade.

Nível 4 — Prática Avançada (Contínuo): Engenharia de prompts avançada, desenvolvimento de fluxos de trabalho personalizados e atualização constante sobre novas ferramentas e requisitos. Designe campeões de IA dentro de cada grupo de prática para servir como recursos e pioneiros.

Princípios fundamentais do treinamento:

  • Torne seguro experimentar. Pessoas que temem cometer erros não aprenderão. Crie um ambiente de aprendizado livre de julgamentos.
  • Use exemplos reais de trabalho. Exercícios abstratos ensinam menos do que aplicar IA a tarefas reais que sua equipe realiza.
  • Aborde dinâmicas geracionais. Alguns advogados seniores podem ser resistentes; alguns juniores podem ser excessivamente confiantes. Adapte sua abordagem.
  • Meça o progresso. Acompanhe taxas de adoção, impactos na produtividade e níveis de confiança. Compartilhe os sucessos.
  • Atualize continuamente. As ferramentas de IA e as melhores práticas mudam rapidamente. Agende sessões de reciclagem trimestrais.

Fontes

Liderando a Adoção de IA

Uma política de IA para o escritório é essencial — não apenas para gestão de riscos, mas para permitir que sua equipe use IA com confiança e consistência. As melhores políticas são claras, práticas e regularmente atualizadas. Aqui está um modelo para construí-la.

Elementos essenciais que toda política de IA de escritório deve incluir:

1. Ferramentas e Plataformas Aprovadas. Especifique quais ferramentas de IA estão autorizadas para uso no escritório e para quais finalidades. Distingua entre ferramentas de uso pessoal (restritas ou proibidas para trabalho com clientes) e ferramentas empresariais com proteções de dados adequadas. Inclua o processo de avaliação e aprovação de novas ferramentas.

2. Classificação de Dados e Confidencialidade. Defina quais tipos de informações podem ser usados com quais ferramentas. Estabeleça categorias claras: informações públicas, informações internas, informações confidenciais de clientes e material protegido por sigilo. Cada categoria deve ter regras correspondentes sobre o uso de IA.

3. Verificação e Controle de Qualidade. Determine que todo conteúdo gerado por IA seja revisado e verificado por um advogado qualificado antes de ser usado em qualquer contexto voltado ao cliente ou ao tribunal. Especifique os requisitos mínimos de verificação (conferência de citações, verificação factual, revisão da análise jurídica).

4. Requisitos de Divulgação. Documente as obrigações de divulgação em todas as jurisdições onde o escritório atua. Estabeleça práticas padrão de divulgação que cumpram os requisitos mais rigorosos aplicáveis. Forneça modelos de linguagem de divulgação.

5. Comunicação com Clientes. Defina quando e como o uso de IA será divulgado aos clientes. Considere incluir disposições sobre uso de IA nos contratos de honorários. Estabeleça protocolos para obtenção de consentimento do cliente quando necessário.

6. Requisitos de Treinamento. Especifique treinamento obrigatório para todo o pessoal, incluindo treinamento inicial e atualizações contínuas. Defina padrões de competência.

7. Faturamento e Uso de IA. Aborde como o trabalho assistido por IA é faturado. Muitos escritórios reduzem o tempo faturável para tarefas aceleradas por IA, refletindo os ganhos de eficiência em vez de cobrar a mesma taxa por um tempo de trabalho substancialmente menor.

8. Resposta a Incidentes. Estabeleça procedimentos para lidar com erros ou incidentes de dados relacionados à IA, incluindo protocolos de notificação e etapas de remediação.

Conselho de implementação: Comece com uma política concisa e prática (2-4 páginas). Circule-a para feedback. Atualize-a trimestralmente à medida que a tecnologia e o cenário regulatório evoluem. Não deixe o perfeito ser inimigo do funcional — uma política em funcionamento hoje é muito melhor do que uma política abrangente daqui a seis meses.

Fontes

O ROI da adoção de IA na prática jurídica é convincente, embora varie de acordo com a área de atuação, porte do escritório, nível de investimento e qualidade da implementação. Os adotantes pioneiros consistentemente relatam retornos positivos, e os dados estão se tornando cada vez mais claros.

Ganhos de eficiência (o ROI mais mensurável): Escritórios relatam economia de tempo de 20-50% em tarefas específicas onde a IA é bem implementada. Revisão de documentos, análise de contratos, pesquisa jurídica e geração de primeiros rascunhos apresentam as melhorias mais expressivas. Dados da Thomson Reuters indicam que advogados usando ferramentas de pesquisa assistida por IA completam tarefas de pesquisa aproximadamente 30% mais rápido com qualidade igual ou superior. Para um escritório com dez advogados, isso pode se traduzir em milhares de horas recuperadas anualmente.

Impacto na receita: Os ganhos de eficiência se manifestam de formas diferentes dependendo do modelo de cobrança. Para escritórios que cobram por hora, trabalho mais rápido significa mais capacidade (atender mais casos) ou preços competitivos (conquistar trabalho pelo valor). Para honorários fixos ou modelos alternativos de remuneração, os ganhos de eficiência vão diretamente para o resultado final. Escritórios relatam que a IA permite assumir trabalho que antes era inviável a preços competitivos.

Redução de custos: Além do tempo dos advogados, a IA reduz custos em processamento de documentos, tarefas administrativas e pesquisa preliminar. Alguns escritórios relatam redução de 40-60% nos custos de terceirização de revisão de documentos, ao processar mais trabalho internamente com assistência de IA.

Calculando seu potencial ROI: Calcule o custo das ferramentas de IA (assinaturas, tempo de treinamento, implementação) em relação ao tempo economizado pela sua equipe. Uma fórmula prática: (Horas economizadas por advogado por semana) x (Valor efetivo por hora) x (Número de advogados) x (52 semanas) = Valor anual. Subtraia os custos anuais de ferramentas e treinamento para obter o ROI líquido.

Exemplo: Dez advogados economizando três horas por semana a um valor efetivo de US$ 200/hora, usando ferramentas que custam US$ 500/mês por usuário: Valor anual = US$ 312.000. Custo anual = US$ 60.000. ROI líquido = US$ 252.000, ou um retorno de mais de quatro vezes o investimento.

ROI qualitativo inclui melhor qualidade de trabalho, maior satisfação dos clientes, maior atratividade na contratação, redução do burnout causado por tarefas tediosas e posicionamento competitivo. Estes são mais difíceis de quantificar, mas frequentemente citados como igualmente importantes por líderes de escritórios.

Fontes

As ferramentas certas de IA dependem das áreas de atuação do seu escritório, do porte, da infraestrutura tecnológica existente e do orçamento. Em vez de recomendar produtos específicos (que mudam rapidamente), aqui está um modelo para tomar decisões de investimento acertadas.

Avalie seus casos de uso de maior valor primeiro. Antes de avaliar qualquer ferramenta, identifique as tarefas que consomem mais tempo, envolvem o trabalho mais repetitivo ou apresentam a maior oportunidade de melhoria de qualidade. Alvos comuns de alto valor incluem: pesquisa jurídica (30-50% do tempo de muitos advogados), revisão e análise de documentos, elaboração e revisão de contratos, due diligence e correspondência com clientes.

Critérios de avaliação para qualquer ferramenta de IA jurídica:

Segurança e privacidade de dados. A ferramenta oferece proteções de nível empresarial? Seus dados serão usados para treinamento? É possível obter um acordo de processamento de dados? Esta é a questão limiar — se a resposta for insatisfatória, pare aqui.

Integração com sistemas existentes. A ferramenta funciona com seu software atual de gestão de escritório, sistema de gestão de documentos e plataformas de pesquisa? Ferramentas independentes que exigem fluxos de trabalho separados frequentemente não são adotadas pela equipe.

Design jurídico específico vs. uso geral. Ferramentas jurídicas específicas (CoCounsel, Harvey, Lexis+ AI) são tipicamente mais confiáveis para tarefas jurídicas e apresentam menor risco de alucinação. Ferramentas de uso geral (ChatGPT, Claude) são mais versáteis, mas exigem verificação mais cuidadosa. A maioria dos escritórios se beneficia de ambas as categorias.

Modelo de precificação e escalabilidade. Entenda os modelos de precificação por usuário, por consulta ou taxa fixa. Calcule o custo total no seu nível esperado de uso, não apenas o preço de entrada.

Estabilidade e suporte do fornecedor. O mercado de IA jurídica está evoluindo rapidamente. Favoreça fornecedores com forte respaldo, histórico comprovado no jurídico e suporte responsivo. Considere se o fornecedor ainda existirá em três anos.

Uma abordagem de investimento em fases:

  1. Fase 1 (Meses 1-3): Ferramentas de IA gratuitas ou de baixo custo para experimentação interna e aprendizado.
  2. Fase 2 (Meses 3-6): Uma ou duas ferramentas pagas direcionadas aos seus casos de uso de maior valor. Execute programas-piloto com um grupo pequeno antes da implantação em todo o escritório.
  3. Fase 3 (Meses 6-12): Expanda com base nos resultados do piloto. Negocie contratos empresariais. Integre aos fluxos de trabalho do escritório.
  4. Contínuo: Reavalie trimestralmente. O cenário de ferramentas muda rapidamente — o que é melhor hoje pode não ser o melhor daqui a seis meses.

Fontes

Gerenciar o risco de IA em um escritório de advocacia requer uma abordagem sistemática que aborde dimensões técnicas, éticas, operacionais e regulatórias. A boa notícia é que o modelo de gestão de riscos espelha disciplinas que os advogados já compreendem — trata-se de políticas, supervisão e documentação.

Identifique e categorize seus riscos:

Risco de precisão. A IA pode produzir informações incorretas, citações fabricadas ou análises jurídicas falhas. Mitigação: protocolos obrigatórios de verificação, checklists de controle de qualidade e uso de ferramentas jurídicas específicas com bancos de dados verificados.

Risco de confidencialidade. Dados de clientes podem ser expostos por meio de ferramentas de IA com proteção de dados inadequada. Mitigação: ferramentas de nível empresarial com acordos de processamento de dados, políticas de classificação de dados e protocolos de anonimização.

Risco de conformidade. Descumprimento de requisitos de divulgação ou orientações das ordens dos advogados. Mitigação: acompanhamento jurisdição por jurisdição das regras de IA, práticas padrão de divulgação e atualizações regulares de políticas.

Risco de responsabilidade civil profissional. Erros assistidos por IA que causem dano ao cliente. Mitigação: procedimentos de verificação, cobertura de seguro adequada e documentação do uso de IA e dos processos de revisão. Consulte sua seguradora de responsabilidade profissional sobre sua posição em relação ao trabalho assistido por IA — a maioria agora aborda isso explicitamente.

Risco de dependência excessiva. Equipe confiando no resultado da IA sem revisão crítica adequada. Mitigação: treinamento, cultura de verificação e auditorias periódicas de produtos de trabalho assistidos por IA.

Construa um modelo de gestão de riscos:

  1. Governança. Atribua a responsabilidade pela supervisão de IA — um sócio-administrador, comitê de tecnologia ou cargo dedicado à governança de IA. Alguém precisa ser responsável por isso.
  2. Políticas. Estabeleça e mantenha uma política de IA do escritório (veja nosso FAQ sobre como criar uma política de IA). Certifique-se de que ela cubra todas as categorias de risco identificadas.
  3. Treinamento. Garanta que todo o pessoal compreenda tanto as ferramentas quanto os riscos. Inclua a conscientização sobre riscos nos programas de treinamento em IA.
  4. Monitoramento. Realize auditorias periódicas do trabalho assistido por IA. Revise relatórios de incidentes. Acompanhe requisitos regulatórios emergentes.
  5. Resposta. Estabeleça procedimentos claros para lidar com erros ou incidentes relacionados à IA, incluindo notificação ao cliente, remediação e comunicação à seguradora.
  6. Documentação. Mantenha registros de políticas, treinamentos, avaliações de ferramentas e avaliações de risco. Essa documentação protege o escritório caso surjam questionamentos.

A gestão de riscos não se trata de eliminar todos os riscos — trata-se de gerenciá-los a um nível aceitável por meio de práticas deliberadas e documentadas. O padrão é razoabilidade, não perfeição.

Fontes

Tomando Decisões

O consenso emergente entre os tribunais que abordaram essa questão é sim — petições assistidas por IA devem ser permitidas, mas com salvaguardas adequadas. Uma proibição generalizada seria impraticável e possivelmente contraproducente, enquanto o uso irrestrito sem supervisão cria riscos reais à integridade dos processos.

Por que permitir petições assistidas por IA faz sentido:

A assistência de IA na redação jurídica existe em um espectro. De um lado, advogados sempre usaram tecnologia para auxiliar seu trabalho — processadores de texto, corretores ortográficos, bancos de dados de pesquisa jurídica, ferramentas de montagem de documentos. A IA generativa é uma evolução dessas ferramentas, não uma categoria fundamentalmente diferente. Proibir o uso de IA inteiramente seria praticamente impossível de fiscalizar e colocaria sua jurisdição em desacordo com a direção da profissão.

Além disso, a IA pode melhorar o acesso à justiça, permitindo que advogados (e particularmente organizações de assistência jurídica) atendam mais clientes de forma eficiente. Proibir ferramentas de IA poderia prejudicar desproporcionalmente litigantes com poucos recursos e seus advogados.

Quais salvaguardas considerar:

Requisitos de divulgação. Exigir que os advogados certifiquem se a IA foi usada na preparação de uma petição e, em caso afirmativo, que todo o conteúdo foi revisado e verificado por um advogado habilitado. Muitos tribunais agora utilizam linguagem de certificação exigindo que os advogados afirmem que verificaram todas as citações e proposições jurídicas.

Responsabilidade do advogado. Reforçar que o advogado signatário assume total responsabilidade profissional por cada petição, independentemente de como ela foi preparada. Este não é um princípio novo — aplica-se quer o trabalho tenha sido redigido por um associado, um paralegal ou uma ferramenta de IA.

Modelo de sanções. As regras de sanções existentes (Rule 11 ou equivalentes estaduais) já fornecem um modelo para lidar com petições que contenham citações fabricadas ou alegações sem fundamento, sejam elas geradas por IA ou não. Alguns tribunais consideraram útil mencionar especificamente a IA em suas ordens permanentes para garantir que os advogados compreendam suas obrigações.

O National Center for State Courts e o Federal Judicial Center publicaram orientações para ajudar juízes a desenvolver abordagens adequadas. O princípio fundamental: regule a qualidade e a precisão das petições, não as ferramentas usadas para prepará-las.

Fontes

Avaliar provas geradas por IA é um dos desafios emergentes mais complexos da prática judicial. Exige adaptar princípios probatórios consolidados a um cenário tecnológico em rápida evolução, mantendo os objetivos fundamentais de confiabilidade e equidade.

O desafio da autenticação: A autenticação tradicional de provas depende do estabelecimento de uma cadeia de custódia, identificação da fonte e confirmação de que a prova é o que pretende ser (Federal Rule of Evidence 901 ou equivalente estadual). Conteúdo gerado por IA complica esse processo porque pode ser criado ou alterado com sofisticação crescente. Áudio e vídeo deepfake, documentos gerados por IA e dados sintéticos podem parecer autênticos a um exame casual.

Modelo de avaliação:

1. Proveniência e cadeia de custódia. Como esta prova foi criada ou obtida? Se ferramentas de IA estiveram envolvidas na geração, processamento ou análise da prova, compreender quais ferramentas, quais dados de entrada e quais processos foram utilizados é essencial. Solicite documentação detalhada do processo de criação ou processamento.

2. Metodologia de autenticação. Considere se é necessário depoimento de especialista sobre detecção de IA. As ferramentas forenses para detecção de conteúdo gerado por IA estão melhorando, mas ainda não são totalmente confiáveis. A parte que oferece a prova deve ter o ônus de demonstrar a autenticidade, particularmente quando o envolvimento de IA é alegado ou suspeito.

3. Confiabilidade sob Daubert (ou Frye). Quando a análise por IA produz provas — por exemplo, reconhecimento de padrões assistido por IA em dados financeiros, ou reconstruções geradas por IA — aplique o padrão da sua jurisdição para provas científicas e técnicas. Considere se a metodologia de IA é geralmente aceita, a taxa de erro, se foi submetida a revisão por pares e se a aplicação específica é adequada.

4. Completude e contexto. Ferramentas de IA podem analisar dados de forma seletiva, produzindo resultados enganosos. Avalie se a prova reflete o conjunto de dados completo ou um subconjunto processado seletivamente.

5. Impacto prejudicial. Visualizações, reconstruções ou resumos gerados por IA podem ser particularmente convincentes para o júri. Considere se o valor probatório é substancialmente superado pelo risco de prejudício injusto nos termos da Rule 403.

Passos práticos: Exija a divulgação do envolvimento de IA na preparação de provas, permita que as partes adversárias contestem a metodologia de IA, considere nomear peritos técnicos quando necessário e mantenha-se atualizado sobre as capacidades evolutivas de detecção forense.

Fontes

Elaborar requisitos eficazes de divulgação de IA envolve equilibrar transparência com praticidade. O objetivo é garantir a integridade dos processos sem criar exigências onerosas que inibam o uso legítimo de IA ou se mostrem impossíveis de fiscalizar.

Abordagens atualmente em uso:

Modelo de certificação. A abordagem mais comum. Exigir que os advogados incluam uma certificação nas petições atestando que: (a) IA generativa foi ou não utilizada na preparação da petição; e (b) se utilizada, todo o conteúdo gerado por IA, incluindo citações, alegações factuais e análise jurídica, foi revisado e verificado por um advogado habilitado. Isso espelha o modelo existente de certificação da Rule 11 e acrescenta uma carga mínima, garantindo ao mesmo tempo a responsabilização.

Modelo de divulgação mediante uso. Exigir divulgação apenas quando a IA foi utilizada, especificando quais ferramentas e para quais tarefas (pesquisa, redação, análise). Isso proporciona transparência sem exigir certificações negativas em cada petição.

Modelo de certificação geral. Alguns tribunais exigem uma certificação permanente de que todas as petições cumprem os requisitos de verificação de IA, sem exigir divulgação específica em cada petição. Isso reduz a burocracia, mas oferece menor visibilidade.

Considerações fundamentais para o desenho:

Defina o escopo com clareza. O que constitui “uso de IA” que aciona a obrigação de divulgação? Assistência geral de redação? Ferramentas de correção ortográfica e gramatical? Plataformas de pesquisa jurídica com recursos de IA? As abordagens mais práticas focam na IA generativa usada para criação de conteúdo substantivo, em vez de ferramentas tecnológicas rotineiras.

Mantenha a proporcionalidade. Os requisitos de divulgação devem ser proporcionais ao risco. Exigir uma auditoria detalhada de IA para cada petição rotineira cria atrito desnecessário. Concentre os requisitos de divulgação em petições substantivas onde a precisão é mais crítica.

Torne fiscalizável. Os requisitos funcionam melhor quando são claros, simples e alinhados com mecanismos de sanção existentes. Tribunais que vinculam a divulgação de IA à Rule 11 (ou equivalentes estaduais) aproveitam instrumentos de aplicação já estabelecidos.

Considere os litigantes sem advogado. Requisitos de divulgação projetados para advogados podem precisar de adaptação para litigantes que se representam sozinhos, que podem depender de ferramentas de IA de forma diferente e ter expectativas de competência distintas.

Linguagem de certificação recomendada: “O signatário certifica que, na medida em que inteligência artificial generativa foi utilizada na preparação desta petição, todo o conteúdo — incluindo citações, transcrições e análise jurídica — foi revisado e verificado de forma independente pelo advogado signatário, que assume total responsabilidade profissional pela precisão e completude da petição.”

Esta linguagem é concisa, fiscalizável e não distingue com base na ferramenta de IA específica utilizada, garantindo que permaneça relevante à medida que a tecnologia evolui.

Fontes

Ainda Tem Perguntas?

A melhor forma de responder perguntas sobre IA é experimentá-la em primeira mão. Tente uma Vitória Rápida, explore o caminho de aprendizagem ou mergulhe nos desafios e riscos para construir sua própria perspectiva informada.

Pronto para um aprendizado estruturado? Explore o Programa de Aprendizagem →

Comentários

Carregando comentários...

0/2000 Os comentários são moderados antes de serem exibidos.