Google Veo 3 e a era dos vídeos com inteligência artificial: o que os advogados precisam saber

O lançamento do Google Veo 3, nova ferramenta de inteligência artificial capaz de gerar vídeos realistas a partir de descrições de texto, chamou a atenção de profissionais de diversas áreas, inclusive do Direito. Com uma promessa de produzir animações cinematográficas em segundos, muitos já cogitam o uso dessa tecnologia em contextos jurídicos, especialmente em simulações de eventos e reconstituições. 

Mas será que estamos realmente diante de uma solução segura, precisa e juridicamente válida para reconstruções de casos complexos? É aí que entra um ponto crucial: a diferença entre gerar imagens visualmente impactantes e construir um material responsável, que pode ser usado com segurança dentro de um processo judicial. 

Neste artigo, abordamos o funcionamento do Google Veo 3 e suas possíveis aplicações no contexto jurídico, destacando suas limitações técnicas e legais. Também discutimos por que, especialmente em casos complexos, a produção de materiais visuais para o processo judicial exige mais do que ferramentas automatizadas. 

O que é o Google Veo 3? 

O Veo 3 é um modelo de inteligência artificial criado pelo Google que transforma comandos textuais em vídeos de alta definição. Ele consegue gerar cenas com qualidade 1080p, efeitos de iluminação e cortes de câmera automáticos, com um estilo cinematográfico impressionante. De forma acessível, basta digitar algo como “uma perseguição de carro à noite sob chuva intensa”, e a IA entrega um vídeo. 

Essa tecnologia promete revolucionar áreas como cinema, marketing e educação. No entanto, quando falamos de aplicação jurídica, especialmente em reconstituições de crimes, acidentes ou dinâmicas complexas, o cenário exige cuidados muito maiores. 

O que está por trás das imagens geradas? 

Apesar da sofisticação visual, o Google Veo 3 e outras IA's, ainda apresentam limitações do ponto de vista técnico e jurídico: 

  • Não há controle sobre as fontes de dados usadas para o treinamento do modelo, o que levanta sérias dúvidas sobre direitos autorais, ética e consentimento; 

  • O próprio artigo técnico do Google admite que o modelo é propenso a alucinações visuais e erros factuais, o que compromete a confiabilidade do conteúdo; 

  • O Veo 3 tem viés cinematográfico, com cortes de câmera dramáticos e estilizações que prejudicam a construção de simulações fiéis à realidade; 

  • E, sobretudo, a IA não pode ser responsabilizada pelas falhas que comete, o que representa um enorme risco em processos judiciais, onde a verdade dos fatos é essencial. 

Quando o Judiciário rejeita vídeos feitos com IA: o alerta do TJ-SC 

Um exemplo recente reforça, na prática, os riscos de confiar exclusivamente em materiais gerados por inteligência artificial sem o devido respaldo técnico. Em um artigo publicado pelo desembargador Alexandre Morais da Rosa no site ConJur, foi analisado um caso em que o Tribunal de Justiça de Santa Catarina (TJ-SC) rejeitou o uso de um vídeo editado com apoio do ChatGPT como meio de prova. 

No episódio, uma candidata a um concurso da Polícia Militar buscava comprovar, por vídeo, que havia cumprido o tempo mínimo exigido em uma prova física. Para isso, ela utilizou ferramentas de IA para inserir digitalmente um cronômetro sobre as imagens originais. Embora o vídeo tenha sido aceito formalmente no processo, o desembargador ressaltou que a prova audiovisual não atendia aos requisitos mínimos de autenticidade, integridade e auditabilidade. 

Segundo o artigo, para que um vídeo alterado por IA seja considerado juridicamente válido, devem ser atendidos diversos critérios técnicos, como: 

  • Laudo técnico de autenticidade e parecer jurídico de admissibilidade; 

  • Hash criptográfico, assinatura digital e carimbo de tempo; 

  • Conformidade com normas como a ABNT NBR ISO/IEC 27001 (Segurança da Informação), ABNT NBR ISO/IEC 42001:2024 (Gestão de IA) e ABNT NBR 10520:2023 (documentação e citação de fontes); 

  • Cadeia de custódia registrada e metodologia de produção auditável. 

Nenhum desses requisitos foi cumprido no caso concreto, e o vídeo acabou sendo considerado sem valor probatório técnico. 

O episódio evidencia um ponto: o uso de inteligência artificial na produção de prova requer não apenas inovação, mas também precisão técnica, documentação clara e aderência às normas aplicáveis, exigências cada vez mais centrais na prática processual diante da crescente digitalização do sistema de Justiça. 

Esse precedente jurídico reforça um ponto central da nossa atuação, não basta parecer verdadeiro, é necessário estar tecnicamente fundamentado, juridicamente admissível e metodologicamente rastreável. 

Conclusão: IA pode apoiar, mas não substituir a técnica no Direito 

Ferramentas como o Google Veo 3 e outras IA's, representam um avanço significativo no campo da inteligência artificial aplicada à geração de imagens e vídeos. Sua capacidade de criar narrativas visuais com agilidade e apelo estético pode ser útil em diversos contextos. No entanto, quando se trata do uso de vídeos como suporte probatório no ambiente judicial — sobretudo em casos complexos que envolvem dinâmicas factuais, análise técnica e responsabilidade pericial —, ainda são exigidos critérios que a IA, por si só, não atende. 

"Um computador nunca pode ser responsabilizado, portanto, nunca deve tomar decisões de gestão." (Manual de Treinamento da IBM, 1979).  

Essa advertência permanece atual: nenhuma inteligência artificial pode assumir a responsabilidade técnica, jurídica e ética exigida em um processo judicial. A criação de materiais para o processo penal e cível não se limita à produção visual, envolve interpretação de provas, conhecimento técnico multidisciplinar e metodologias rastreáveis, sob a supervisão de especialistas que respondem por cada etapa da construção do material. 

Além disso, há um fator muitas vezes negligenciado: o efeito emocional e simbólico que uma simulação pode provocar no julgador. Modelos como o Veo 3 tendem a adotar cortes dramáticos, efeitos estilizados e uma linguagem audiovisual que remete ao entretenimento. Esse sensacionalismo pode soar artificial ou inadequado ao ambiente judicial, gerando estranhamento ou até desconfiança. 

A construção de uma reconstituição 3D destinada ao tribunal não deve apenas ser tecnicamente correta, ela deve também comunicar com estratégia. Cada escolha visual, cada plano de câmera, cada tempo de cena deve considerar os sentimentos que se pretende despertar no julgador: clareza, compreensão, credibilidade. O objetivo não é impressionar, mas sim fundamentar.  

E essa é nossa missão na Lawtta: Integramos conhecimento técnico, estratégia de comunicação e compromisso com a admissibilidade jurídica.

Autor

Helena Peruch

Helena Peruch

Responsável pelo marketing jurídico da Lawtta. Especialista em Direito Digital, Gestão da Inovação, Propriedade Intelectual e Direito Público. Desenvolve soluções criativas e informativas voltadas ao universo jurídico, com foco em conectar estratégia, conteúdo e tecnologia para profissionais do setor.

Responsável pelo marketing jurídico da Lawtta. Especialista em Direito Digital, Gestão da Inovação, Propriedade Intelectual e Direito Público. Desenvolve soluções criativas e informativas voltadas ao universo jurídico, com foco em conectar estratégia, conteúdo e tecnologia para profissionais do setor.

Helena Peruch

Autor

Publicado em

Publicado em

11 de jun. de 2025

11 de jun. de 2025

Categorias

Tecnologia

Veja também

Descubra o futuro da advocacia

Um panorama completo: Tendências e estudos de caso sobre inovação tecnológica em defesas jurídicas