Inteligência artificial do Instagram e WhatsApp possibilitava interações românticas com menores, aponta a Reuters

A Meta também permitia respostas que continham informações médicas incorretas e conteúdo discriminatório, conforme apontado em uma extensa reportagem da…

14/08/2025 15:12

1 min de leitura

Um documento interno da Meta, revelado à Reuters, indicou que, até recentemente, as políticas da plataforma permitiam que chatbots de inteligência artificial dialogassem com crianças em conversas de natureza romântica ou sensual, oferecessem informações médicas falsas e até mesmo gerassem argumentos racistas.

O documento, denominado GenAI: Content Risk Standards, possui mais de 200 páginas e foi desenvolvido com a avaliação dos setores jurídico, de políticas públicas e de engenharia da empresa, informou a agência de notícias.

A Reuters informou que as diretrizes, aplicadas ao Meta AI e aos assistentes presentes no Facebook, WhatsApp e Instagram, continham exemplos explícitos de cenários românticos com menores, incluindo a frase “pego sua mão, guiando você até a cama”. A empresa declarou que esses trechos foram removidos após investigações da agência.

As regras também permitiam que os bots não oferecessem informações corretas, possibilitando, por exemplo, que respondessem incorretamente que câncer de cólon avançado poderia ser tratado com cristais de quartzo.

Continuavam existindo exceções para a produção de declarações depreciativas fundamentadas em atributos protegidos, como a alegação de que indivíduos negros seriam “mais burros” do que pessoas brancas, algo que a Meta afirma ter revisado.

Leia também:

O porta-voz Andy Stone admitiu a veracidade do documento e avaliou os exemplos como “incorretos” e “incompatíveis” com as diretrizes estabelecidas. Ele declarou que a atualização dos critérios está em curso e reforçou que a exploração sexual de menores é ilegal.

O material confirma informações prévias do Wall Street Journal e da Fast Company sobre atitudes indicativas de robôs da empresa. Ex-colaboradores relatam que as orientações refletem a ênfase da Meta em elevar o envolvimento dos usuários com assistentes virtuais, apesar dos riscos éticos.

Fonte por: InfoMoney

Autor(a):