Com a rápida expansão do uso de inteligência artificial (IA) nas rotinas corporativas, um novo tipo de violação trabalhista começa a preocupar especialistas: o assédio algorítmico. O alerta é do advogado trabalhista Luis Gustavo Nicoli, em entrevista ao Diário de Goiás. Segundo ele, o uso indiscriminado de ferramentas digitais de monitoramento e gestão de desempenho pode ultrapassar os limites legais, violar a privacidade dos trabalhadores e gerar processos por assédio moral.
“Estamos vendo uma transformação grande no ambiente de trabalho. A inteligência artificial pode fortalecer o desempenho profissional, mas também pode ser usada de forma abusiva, principalmente quando invade a intimidade do trabalhador”, afirmou Nicoli.
Entre as situações de risco, o advogado cita o monitoramento excessivo da rotina dos empregados, como rastreamento de redes sociais pessoais, acesso a e-mails privados ou vigilância por meio de softwares instalados nos computadores corporativos. “A empresa pode até achar que está apenas acompanhando a produtividade, mas quando ultrapassa o limite, passa a ser um assédio velado, um assédio silencioso, que o colaborador só percebe quando já está emocionalmente afetado”, explica.
Limites legais e proteção de dados
De acordo com Nicoli, o uso da IA nas relações de trabalho deve obedecer princípios constitucionais como a dignidade da pessoa humana, a não discriminação e a proteção à intimidade. “A legislação brasileira ainda não tem uma norma específica para o assédio algorítmico, mas temos um conjunto de dispositivos legais que protegem o trabalhador, como a Constituição Federal e a Lei Geral de Proteção de Dados (LGPD)”, destaca.
O advogado lembra que a responsabilidade por decisões automatizadas é sempre da empresa, mesmo que o processo tenha sido conduzido por um sistema de inteligência artificial. “O Judiciário não aceita a justificativa de que ‘foi o algoritmo’. A decisão que afeta o trabalhador precisa ter supervisão e revisão humana”, ressalta.
Recomendações para as empresas
Para evitar problemas legais, Nicoli orienta as empresas a adotarem medidas preventivas e de governança sobre o uso de IA no ambiente de trabalho. Entre as principais recomendações estão:
- Transparência sobre os critérios utilizados pelos algoritmos;
- Justificativa técnica e legal para o uso de ferramentas de monitoramento;
- Garantia de ciência ou consentimento dos empregados;
- Revisão humana em todas as decisões críticas que afetem a vida profissional do trabalhador;
- Documentação clara sobre o processo de coleta e tratamento de dados.
“A inteligência artificial pode e deve ser usada como uma ferramenta de apoio, não como um instrumento de coerção ou vigilância abusiva. As empresas precisam investir em governança algorítmica e em políticas internas de uso ético da tecnologia”, conclui.
Leia mais sobre: Assédio / Empresas / Goiás / Inteligência Artificial / Cidades / Geral / Notícias do Estado