A adoção de assistentes de reunião com inteligência artificial cresceu mais rápido do que a capacidade de muitas áreas de compliance criarem regras claras para gravação, transcrição, resumo e armazenamento. Em empresas com times comerciais distribuídos, comitês internos frequentes e rotinas intensas de videoconferência, o que era exceção virou padrão, e o efeito colateral costuma aparecer tarde, quando já existe um acervo paralelo de conversas sensíveis fora do controle típico de governança.

Quando uma reunião é gravada e transcrita, o ativo não é apenas um “resumo”. O que se produz é um conjunto de dados que pode incluir voz, imagem, identificação de participantes, opiniões, negociações, dados pessoais de colaboradores e terceiros, informações financeiras, discussões concorrenciais e material protegido por confidencialidade. Esse conteúdo, por natureza, é reutilizável, copiável e replicável em escala, sobretudo quando o fornecedor opera em nuvem e com cadeias de suboperadores.
Nesse cenário, a discussão jurídica deixa de ser “produtividade” e passa a ser tratamento de dados em alta intensidade, com um detalhe que muda o jogo. Dependendo das funcionalidades ativadas, a voz pode deixar de ser apenas dado pessoal e entrar no campo da biometria, especialmente quando existe reconhecimento de locutor e criação de modelos para distinguir e identificar pessoas. A própria ANPD, em material técnico recente, menciona voz como exemplo de dado biométrico e reforça que a caracterização depende do tratamento técnico e da finalidade de identificar ou autenticar alguém.
A experiência americana ajuda a entender por onde o risco costuma “entrar” em juízo. Em dezembro de 2025, foi proposta a ação “Cruz v. Fireflies.ai Corp.”, na Justiça Federal de Illinois, alegando violação da Biometric Information Privacy Act, com foco na coleta e retenção de “voiceprints” sem aviso e sem consentimento escrito dos participantes, inclusive de pessoas que não eram usuárias da plataforma.
No caso, quando o anfitrião habilita a ferramenta, ela grava, analisa, transcreve e armazena padrões de voz dos participantes, e a discussão central passa a ser se a empresa coletou biometria sem cumprir exigências de transparência, base legal e salvaguardas.
Meses antes, em agosto de 2025, a ação “Brewer v. Otter.ai”, na Justiça Federal da Califórnia, seguiu outra rota regulatória, mirando leis de interceptação e gravação de comunicações. A petição descreve o “meeting assistant” como um participante que ingressa nas reuniões em plataformas como Google Meet, Zoom e Microsoft Teams, com gravação e transcrição em tempo real, e sustenta ausência de consentimento de todos os envolvidos para esse tipo de captação.
Em outras palavras, os dois litígios sinalizam caminhos diferentes para o mesmo problema. Quando a tecnologia se torna um “terceiro” que participa da conversa e captura dados de pessoas que não contrataram o serviço, a empresa que promoveu a reunião pode acabar no centro de um debate sobre consentimento, expectativa de privacidade, biometria, retenção e uso posterior do conteúdo.
Embora o Brasil não reproduza, de forma automática, o modelo de class actions americano, existem sinais claros de como autoridades e tribunais tendem a enxergar a captura e o reuso de dados sensíveis. No contencioso trabalhista, por exemplo, já há decisões reconhecendo aspectos importantes entre gravações feitas por quem participa da conversa e interceptações por terceiros, com referência ao entendimento do STF sobre licitude probatória em determinadas hipóteses e ilicitude quando a pessoa não é interlocutora.
Além disso, a atuação recente da ANPD em temas de biometria mostra que transparência e avaliação de impacto deixaram de ser recomendações abstratas. Em fevereiro de 2025, a Autoridade anunciou fiscalização sobre reconhecimento facial em estádios, com determinação de medidas preventivas, exigência de informações claras ao titular e solicitação de Relatórios de Impacto à Proteção de Dados Pessoais. Esse movimento é relevante porque sinaliza o padrão de diligência esperado para tratamentos de alto risco e, no contexto de assistentes de reunião com IA, a voz pode assumir exatamente essa natureza quando usada para reconhecimento de locutor ou criação de templates biométricos.
Mesmo fora da esfera administrativa, discussões sobre biometria e consentimento também têm aparecido em ações civis públicas relacionadas a reconhecimento facial no transporte público, com decisões urgentes para impedir a execução de sistemas e cessar a coleta de dados biométricos, ainda que em contextos diferentes do ambiente corporativo.
Quando o tema é tratado como governança, a empresa consegue preservar o ganho operacional sem “abrir a porta” para litígios e fiscalização. Isso começa com regras simples e executáveis, definindo quais tipos de reunião podem ser gravados e transcritos, quais devem ser excluídos por padrão e quais exigem procedimentos reforçados, especialmente em temas de RH, contencioso, segurança, M&A e estratégia. Na sequência, a camada contratual costuma ser o ponto mais negligenciado, porque termos de uso e configurações default do fornecedor podem permitir retenção extensa, suboperação pouco transparente e usos para melhoria de serviço que, na prática, se aproximam de treinamento em escala.
Por fim, a empresa precisa conseguir explicar com clareza, para participantes internos e externos, o que está sendo gravado, por quem, para qual finalidade, por quanto tempo e com quais salvaguardas. Quando essa resposta existe e está documentada, a organização consegue defender boa-fé e diligência mesmo em cenários de incidente. Quando essa resposta não existe, a discussão sai do campo da tecnologia e vira problema de risco, reputação e previsibilidade jurídica.