07 de julho de 2025
Entenda • atualizado em 18/06/2025 às 11:18

Assédio algorítmico: especialista aponta riscos jurídicos do uso de IA nas empresas

Para evitar problemas legais, Nicoli orienta as empresas a adotarem medidas preventivas e de governança sobre o uso de IA no ambiente de trabalho
Entre as situações de risco, o advogado cita o monitoramento excessivo da rotina dos empregados, como rastreamento de redes sociais pessoais. Foto: Reprodução.
Entre as situações de risco, o advogado cita o monitoramento excessivo da rotina dos empregados, como rastreamento de redes sociais pessoais. Foto: Reprodução.

Com a rápida expansão do uso de inteligência artificial (IA) nas rotinas corporativas, um novo tipo de violação trabalhista começa a preocupar especialistas: o assédio algorítmico. O alerta é do advogado trabalhista Luis Gustavo Nicoli, em entrevista ao Diário de Goiás. Segundo ele, o uso indiscriminado de ferramentas digitais de monitoramento e gestão de desempenho pode ultrapassar os limites legais, violar a privacidade dos trabalhadores e gerar processos por assédio moral.

“Estamos vendo uma transformação grande no ambiente de trabalho. A inteligência artificial pode fortalecer o desempenho profissional, mas também pode ser usada de forma abusiva, principalmente quando invade a intimidade do trabalhador”, afirmou Nicoli.

Entre as situações de risco, o advogado cita o monitoramento excessivo da rotina dos empregados, como rastreamento de redes sociais pessoais, acesso a e-mails privados ou vigilância por meio de softwares instalados nos computadores corporativos. “A empresa pode até achar que está apenas acompanhando a produtividade, mas quando ultrapassa o limite, passa a ser um assédio velado, um assédio silencioso, que o colaborador só percebe quando já está emocionalmente afetado”, explica.

Limites legais e proteção de dados

De acordo com Nicoli, o uso da IA nas relações de trabalho deve obedecer princípios constitucionais como a dignidade da pessoa humana, a não discriminação e a proteção à intimidade. “A legislação brasileira ainda não tem uma norma específica para o assédio algorítmico, mas temos um conjunto de dispositivos legais que protegem o trabalhador, como a Constituição Federal e a Lei Geral de Proteção de Dados (LGPD)”, destaca.

O advogado lembra que a responsabilidade por decisões automatizadas é sempre da empresa, mesmo que o processo tenha sido conduzido por um sistema de inteligência artificial. “O Judiciário não aceita a justificativa de que ‘foi o algoritmo’. A decisão que afeta o trabalhador precisa ter supervisão e revisão humana”, ressalta.

Recomendações para as empresas

Para evitar problemas legais, Nicoli orienta as empresas a adotarem medidas preventivas e de governança sobre o uso de IA no ambiente de trabalho. Entre as principais recomendações estão:

  • Transparência sobre os critérios utilizados pelos algoritmos;
  • Justificativa técnica e legal para o uso de ferramentas de monitoramento;
  • Garantia de ciência ou consentimento dos empregados;
  • Revisão humana em todas as decisões críticas que afetem a vida profissional do trabalhador;
  • Documentação clara sobre o processo de coleta e tratamento de dados.

“A inteligência artificial pode e deve ser usada como uma ferramenta de apoio, não como um instrumento de coerção ou vigilância abusiva. As empresas precisam investir em governança algorítmica e em políticas internas de uso ético da tecnologia”, conclui.


Leia mais sobre: / / / / Cidades / Geral / Notícias do Estado