Novo chatbot da Meta exibe tendências de gênero ao responder sobre profissões, levantando questões sobre vieses na inteligência artificial.
Com o lançamento global da nova Meta AI, o chatbot de inteligência artificial da Meta chegou ao WhatsApp e outras plataformas, e veículos no Reino Unido já realizaram testes que levantaram uma questão séria: será que a Meta AI reproduz estereótipos de gênero nas respostas?
1. Testes iniciais revelam estereótipos
O site Daily Mail realizou testes com a Meta AI para gerar imagens de profissionais e observou que a IA reproduziu estereótipos de gênero. Profissões como CEO, médico e político foram representadas por homens, enquanto recepcionistas e enfermeiras apareceram apenas como mulheres.
Quando a IA foi solicitada a gerar imagens de “líder” e “CEO“, as figuras eram exclusivamente masculinas, refletindo uma visão tradicional de papéis no trabalho e levantando questionamentos sobre a imparcialidade da IA da Meta, que parece absorver e reproduzir padrões culturais e estereótipos dos dados online.
2. Meta responde sobre treinamento
Em resposta, a Meta afirmou que essa é uma tecnologia nova e que ainda está em aprimoramento. Um porta-voz da empresa explicou ao MailOnline:
“Esta é uma nova tecnologia e pode nem sempre retornar a resposta que pretendemos, o que acontece com todos os sistemas de IA generativos. Desde que lançamos, estamos fazendo atualizações e melhorias em nossos modelos e continuamos trabalhando para torná-los melhores.”
A consultora de mídia social Rhea Freeman destacou que as respostas da IA refletem os dados nos quais a tecnologia foi treinada. Ela comentou: “A IA só pode ser tão precisa e útil quanto os dados em que é treinada. Precisamos lembrar que as informações vêm de inúmeras fontes, incluindo a internet, onde estereótipos de gênero ainda são bastante comuns.”
3. Desafio de “desprogramar” a IA
Esses estereótipos evidenciados pela IA da Meta revelam a influência do contexto histórico e cultural nos dados de treinamento. Segundo especialistas, os sistemas de IA, quando expostos a dados com vieses e tendências desatualizadas, acabam reproduzindo visões estereotipadas.
“Se treinarmos a IA apenas com dados da vida real, isso refletirá as disparidades e os preconceitos ainda presentes na sociedade,” afirmou Freeman.
Embora as representações da IA da Meta sejam baseadas em dados reais, há preocupação de que, ao reforçar estereótipos, a tecnologia contribua para visões limitantes.
Agora, a Meta busca reprogramar o algoritmo para reconhecer e evitar vieses, promovendo uma visão mais inclusiva, que valorize, por exemplo, a presença de mulheres em posições de liderança.
4. Erros e limitações
Durante os testes, a IA da Meta cometeu erros ao gerar imagens de jogadores de futebol profissionais: quando solicitado a mostrar “profissionais do futebol,” exibiu figuras masculinas e identificou incorretamente alguns como atletas reais, como Cristiano Ronaldo e Kylian Mbappé. Esse erro revela que, além dos estereótipos de gênero, a IA também enfrenta problemas de precisão.
Para aprimorar o sistema, os usuários podem marcar respostas como “não precisas” ou “prejudiciais”, permitindo que a Meta colete feedback essencial para melhorar a confiabilidade e precisão da IA em temas sensíveis.
5. Potencial para corrigir padrões estereotipados
Com a meta de se tornar “o assistente de IA mais usado e melhor do mundo”, como declarou Mark Zuckerberg, a Meta AI enfrenta desafios, como reduzir estereótipos de gênero. A empresa também foi criticada por treinar o chatbot com dados de usuários, muitas vezes sem seu conhecimento, gerando preocupações sobre privacidade e transparência.
Inicialmente lançada nos EUA, a ferramenta agora está disponível em plataformas como WhatsApp e Instagram no Brasil e em outros países, com expansão planejada para o Oriente Médio e Sudeste Asiático. Esse crescimento global aumenta a importância de ajustes na IA para um futuro mais inclusivo e ético.
6. IA e o impacto social
A questão da Meta AI não é única; várias ferramentas de IA enfrentam o desafio de reproduzir vieses de gênero e outros preconceitos. Esse cenário nos leva a refletir: como ensinar a IA a refletir a diversidade e inclusão que queremos para o futuro?
Com o avanço tecnológico, aumenta a pressão para que as empresas desenvolvam IA mais ética e representativa. Ao corrigir vieses, como os vistos no teste do Daily Mail, a Meta pode liderar a criação de um mundo digital mais justo. Em um contexto onde a tecnologia molda percepções e realidades, esses ajustes são essenciais para promover uma sociedade inclusiva e com oportunidades para todos.
Um vídeo sobre o tema: