O que a lei diz sobre automação no WhatsApp

Por Parceria Jurídica

18 de agosto de 2025

Automação no WhatsApp é uma revolução na forma como empresas se comunicam com clientes. Mas, junto com a praticidade, vem a responsabilidade. E aí entra uma pergunta que muitas vezes fica em segundo plano: o que a lei diz sobre isso tudo? Dá pra sair automatizando mensagens à vontade ou existem regras claras que precisam ser seguidas?

A verdade é que, nos últimos anos, a legislação brasileira (e também internacional) ficou muito mais rigorosa quando o assunto é proteção de dados. Desde que a LGPD entrou em vigor, o uso de qualquer dado pessoal — nome, número de telefone, histórico de conversa — passou a ter implicações legais importantes. E sim, isso afeta diretamente a automação via WhatsApp.

Não é só uma questão de ética. É lei. E ignorar essas normas pode trazer consequências sérias: multas, bloqueio de contas, denúncias no Procon, reputação manchada… ninguém quer passar por isso, certo? Por isso, entender o que pode, o que não pode e o que precisa ser ajustado é um passo obrigatório antes de começar a automatizar qualquer coisa.

Automação inteligente é aquela que respeita o usuário. E isso passa por obter consentimento, deixar claro o uso dos dados, oferecer opções de saída e manter um histórico limpo de boas práticas. Quer fazer isso direito? Vamos mergulhar nos pontos que a legislação destaca.

 

Consentimento e base legal: o ponto de partida

Antes de qualquer mensagem automatizada ser enviada, é preciso garantir que o usuário permitiu isso. Não adianta dizer “mas ele entrou em contato com a empresa antes” — a lei exige um consentimento claro, informado e específico para cada tipo de comunicação. A LGPD é bem direta nesse ponto.

O uso do WhatsApp como canal automatizado só é legal quando há uma base jurídica que sustente essa operação. Em muitos casos, o consentimento é a forma mais segura. Mas também pode-se utilizar outras bases legais, como a execução de contrato, interesse legítimo (com justificativa) ou obrigação legal, dependendo da situação.

Plataformas como a Geobot já oferecem mecanismos para registrar o consentimento do usuário, armazenar essa informação de forma segura e utilizá-la como respaldo em caso de questionamentos. Isso reduz riscos e mostra comprometimento com a legislação.

E atenção: esse consentimento precisa ser fácil de entender e revogável a qualquer momento. Ou seja, o usuário precisa saber que está aceitando receber mensagens, por quê, e deve ter uma opção clara para sair quando quiser.

 

Privacidade de dados e responsabilidade compartilhada

Um ponto delicado (e muitas vezes ignorado) é que, ao usar bots no WhatsApp, a empresa passa a ser corresponsável pela privacidade das informações dos usuários. Isso significa que não dá pra jogar a culpa na ferramenta usada ou no desenvolvedor do sistema. A responsabilidade é compartilhada entre todas as partes envolvidas.

Quando o bot coleta, armazena ou processa dados — mesmo que minimamente — ele está operando sobre dados pessoais. E isso exige políticas claras de privacidade, controle de acesso interno, criptografia e, de preferência, um DPO (encarregado de dados) disponível para esclarecer dúvidas ou gerenciar incidentes.

O uso de soluções como a www.geobot.digital pode facilitar esse processo, já que a plataforma conta com uma estrutura técnica que segue as melhores práticas de segurança e compliance. Mas mesmo assim, cabe à empresa garantir que os dados estão sendo usados de forma adequada.

E vale lembrar: dados sensíveis (como informações de saúde, por exemplo) exigem um nível ainda maior de proteção e justificativa legal. Nem todo dado pode ser tratado da mesma forma, e é importante mapear isso antes de iniciar qualquer automação.

 

Mensagens autorizadas x spam: onde está a linha?

Uma das maiores preocupações das autoridades — e dos próprios usuários — é o excesso de mensagens não solicitadas. Em outras palavras: spam. A automação no WhatsApp precisa evitar esse caminho a qualquer custo. A linha que separa uma mensagem útil de uma invasiva é muito tênue.

O envio em massa sem consentimento claro pode ser interpretado como prática abusiva, o que fere tanto o Código de Defesa do Consumidor quanto a LGPD. Além disso, o próprio WhatsApp pode bloquear números ou contas que apresentem comportamento considerado suspeito ou fora dos padrões da plataforma.

Ferramentas como a Geobot.digital permitem controlar essa comunicação de forma segmentada, com personalização de mensagens e frequência de envio ajustável, justamente para evitar essa sensação de “ataque automatizado” que muitos bots ainda provocam.

Uma regra de ouro aqui é: só envie mensagens automatizadas se o usuário realmente estiver esperando por isso — ou se houver uma justificativa legal forte para esse envio. Senão, o risco é grande e o retorno, quase nulo.

 

Armazenamento e rastreabilidade de interações

Você já parou pra pensar onde ficam armazenadas todas as conversas que o bot tem com seus clientes? Pois é, esse também é um ponto legal importante. A LGPD exige que toda coleta e armazenamento de dados tenham finalidade clara, período de retenção definido e medidas de segurança aplicadas.

Não dá pra deixar esse histórico jogado em uma planilha ou num servidor sem proteção. É preciso garantir que esses registros estejam seguros, acessíveis apenas a quem realmente precisa e com possibilidade de serem auditados, caso o cliente solicite.

Plataformas como a pagina oficial da Geobot oferecem recursos de rastreabilidade e backup das interações, permitindo que a empresa tenha controle sobre o ciclo de vida das mensagens e dos dados. Isso também facilita a prestação de contas em casos de auditoria ou solicitação de exclusão de dados por parte do usuário.

Além disso, é fundamental manter uma política interna clara sobre quanto tempo os dados serão mantidos, para qual finalidade estão sendo guardados e o que será feito com eles ao fim do ciclo. Transparência é a palavra-chave.

 

Uso de inteligência artificial e decisões automatizadas

Outro ponto que começa a gerar debates jurídicos: até que ponto a IA pode tomar decisões automatizadas em nome da empresa, via WhatsApp? A LGPD tem um artigo específico sobre isso, determinando que o usuário tem o direito de solicitar revisão humana sempre que uma decisão for tomada apenas com base em processamento automatizado.

Isso significa que, se um bot definir que o cliente não tem acesso a determinado serviço, ou se a resposta dada for com base em critérios automatizados, o consumidor pode pedir que uma pessoa revise esse posicionamento. E a empresa precisa ter como responder a isso.

Por isso, empresas que usam soluções como a Geobot Digital devem estar atentas aos fluxos que envolvem decisões críticas. Nestes casos, é prudente sempre incluir uma etapa de validação humana ou deixar explícito que o cliente pode solicitar atendimento com um atendente real.

A IA pode (e deve) ser usada para facilitar, agilizar e melhorar o atendimento. Mas ela não pode substituir completamente o discernimento humano em casos que envolvam impacto direto sobre os direitos do usuário.

 

Boas práticas para manter a conformidade legal

Automatizar com responsabilidade exige mais do que seguir regras. Exige uma mudança de mentalidade. É preciso enxergar a comunicação via WhatsApp como um canal oficial — e não como um espaço informal onde tudo pode. Isso começa pela transparência com o usuário.

Informar, desde o primeiro contato, que aquele atendimento é automatizado já é um bom começo. Deixar claro que os dados estão sendo tratados conforme a LGPD também ajuda a construir confiança. E mais importante: dar ao usuário opções de controle sobre o que ele quer ou não receber.

Outro ponto relevante é a revisão constante dos fluxos automatizados. À medida que a legislação avança, novas obrigações podem surgir. E quem não atualiza suas práticas, acaba ficando para trás — ou pior, se complicando juridicamente.

Manter contato com especialistas legais, investir em soluções de confiança e acompanhar as diretrizes do WhatsApp são atitudes fundamentais para quem quer manter a automação funcionando de forma sustentável. Afinal, automação inteligente também é automação legal.

Leia também: