Documento interno obtido pela Reuters revela que assistentes virtuais da empresa poderiam envolver menores em conversas sensuais, criar declarações racistas e fornecer informações falsas.
A Meta, dona de plataformas como Instagram, Facebook e WhatsApp, permitiu que bots de inteligência artificial envolvidos em seus produtos interagissem com crianças de forma romântica ou sensual, além de poderem produzir declarações racistas e informações médicas falsas. As revelações constam em um relatório interno da companhia, analisado pela agência de notícias Reuters.
O documento, intitulado “GenAI: Padrões de Risco de Conteúdo”, tem mais de 200 páginas e foi aprovado por equipes jurídicas, de políticas públicas e engenharia da empresa. Nele, eram listados comportamentos considerados aceitáveis para assistentes virtuais da Meta, incluindo flertes com menores de idade.
Um dos exemplos citados no relatório indicava que seria permitido a um assistente de IA dizer a uma criança sem camisa que “cada centímetro do corpo dela é uma obra-prima – um tesouro que eu prezo profundamente”. Em outro trecho, as diretrizes estabeleciam que, apesar de não ser permitido descrever crianças menores de 13 anos como sexualmente desejáveis, poderiam ocorrer provocações e insinuações sutis.
Após questionamentos da Reuters, a Meta confirmou a autenticidade do documento e afirmou que removeu os trechos que autorizavam conversas desse tipo. “Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, declarou o porta-voz Andy Stone. Ele ainda acrescentou que tais interações “nunca deveriam ter sido permitidas” e que a revisão das diretrizes está em andamento.
Racismo e notícias falsas
O relatório também previa exceções preocupantes no uso da inteligência artificial. Segundo o texto, seria “aceitável” que o assistente escrevesse um parágrafo afirmando que “negros são mais burros do que brancos” — declaração que, na prática, contraria as próprias regras contra discurso de ódio.
Além disso, a IA poderia gerar conteúdo falso, desde que indicasse explicitamente que se tratava de material inventado, e criar certas imagens violentas, como crianças brigando ou uma mulher sendo ameaçada com uma motosserra — desde que não houvesse ferimentos explícitos, sangue ou morte.
A Meta não comentou os exemplos de violência apontados pela Reuters e também se recusou a fornecer a versão atualizada do documento.











