Entenda o essencial
- Ferramentas de Inteligência Artificial (IA) que geram imagens a partir de texto podem perpetuar vieses de gênero já existentes na sociedade.
- No estudo, foram analisadas imagens geradas por três ferramentas de IA (DALL-E, Microsoft Designer, DreamUp) para diferentes profissões, usando descrições neutras em termos de gênero.
- Apesar de sua presentação nas representações, mulheres foram associadas a profissões estereotipadas como enfermagem e secretariado, enquanto homens foram representados em cargos de liderança, técnicos ou em áreas como mecânica e futebol.
- Os vieses podem vir dos dados usados para treinar a IA (que já refletem desigualdades sociais), da falta de diversidade nas equipes que criam essas tecnologias e da própria natureza estatística dos modelos.
- A reprodução desses estereótipos pela IA pode reforçar visões limitadas sobre as capacidades de homens e mulheres, impactando especialmente a formação de crianças e jovens.
Introdução
Você já usou uma ferramenta de Inteligência Artificial para criar uma imagem? Talvez para ilustrar um trabalho escolar, uma apresentação ou mesmo por curiosidade?
Embora a primeira vista possam parecer úteis (ou mesmo divertidas), o tipo de representação do mundo elas estão criando pode ser questionado. Por exemplo, se pedirmos para que a ferramenta faça a imagem de uma “pessoa liderando uma equipe” o de “um cientista no laboratório”, quais serão os resultados? Teremos mais homens ou mulheres.
Foi sob a premissa de que a IA reflete vieses presentes na sociedade que a professora Betania Maciel e eu investigamos como esta nova tecnologia representa papéis profissionais, em função do gênero. Os resultados foram apresentados no trabalho “A face feminina da Inteligência Artificial: um olhar crítico sobre a representação de gênero em ferramentas de geração de imagens”, apresentado no congresso da ALAIC, em 2024.
Como foi feito o estudo
Para investigar a presença de vieses, seguimos alguns passos metodológicos claros:
- Definição das categorias: abrangendo diversas profissões, em diferentes áreas e contextos. Por exemplo, posição de liderança, profissões de ciência e tecnologia, saúde, educação, artes, além de serviços essenciais e segurança.).
- Criação dos prompts: elaboramos descrições textuais para duas situações dentro cada categoria. Utilizamos linguagem neutra em termos da flexão de gênero, particularmente o idioma inglês. Dito de outra forma, em vez de “professor” o “professora”, o que influenciaria o resultado, utilizamos “teacher”.
- Geração das imagens: os prompts foram enviados a três ferramentas diferentes: DALL-E (da OpenAI), Microsoft Designer e DreamUp (da Deviant Art). As imagens que cada ferramenta foram coletadas “naturalmente”, isto é, sem padronizar o número de imagens por prompt.
- Análise dos resultados: em duas abordagens. A quantitativa contou a a frequência com que mulheres apareciam nas imagens geradas para cada situação. Já a qualitativa buscou detalhes visuais nas representações, como linguagem corporal, expressões faciais, vestimentas, presença de elementos que indicassem poder ou subordinação, e também a representatividade racial e cultural.
E o que o estudo diz?
Os resultados apontaram para um cenário preocupante. Apesar do potencial inovador, as ferramentas de IA analisadas tendem a reproduzir e até reforçar estereótipos de gênero bem conhecidos:
- Viés: profissões como enfermeira e secretária foram majoritariamente representadas por mulheres, enquanto mecânico e técnico de futebol foram quase exclusivamente por homens.
- Liderança masculina: situações que expressavam liderança, controle ou alto status (como “executivo em reunião” ou “professor universitário em auditório”) foram predominantemente associadas a figuras masculinas. A representação de cientistas foi um pouco mais equilibrada, mas a de docente no Ensino Superior mostrou um viés masculino mais acentuado do que a de professora em sala de aula (Ensino Básico), sugerindo um viés associado também à hierarquia e prestígio.
- Diferenças entre ferramentas: enquanto o DALL-E tendeu a “polarizar” os resultados (ou homem ou mulher, com pouca variação), o Microsoft Designer, embora tenha gerado mais imagens no total e incluído mulheres em mais cenários (até nos tradicionalmente masculinos), ainda assim mostrou uma presença feminina geral relativamente menor. O DreamUp ficou num meio-termo.
- Ausência de interseccionalidade: a análise também revelou uma forte predominância de personagens brancos, indicando um viés racial e a falta de representatividade interseccional (a combinação de diferentes marcadores sociais como gênero e raça).
- Viés cultural: o uso de prompts em inglês resultou em imagens com características culturais muito associadas aos Estados Unidos (uniformes de policiais e bombeiros, por exemplo), mostrando como a ferramenta interpreta prompts a partir de seu treinamento, que é majoritariamente baseado em dados dessa origem cultural.
Em suma, o estudo mostrou que, ao receber uma instrução neutra, a IA recorre aos padrões mais comuns e estereotipados presentes em seus dados de treinamento. Estes, por sua vez, refletem desigualdades e visões limitadas da nossa sociedade.

Cientistas, segundo o Microsoft Designer

Distribuição de imagens, por ferramenta.
Relação com outros estudos
Os achados desta pesquisa não são isolados e dialogam diretamente com um corpo crescente de literatura sobre vieses em Inteligência Artificial e representação midiática. O artigo cita, por exemplo:
- Representação na mídia tradicional: Trabalhos como o de Caldas-Coulthard sobre como mulheres públicas são frequentemente descritas por atributos físicos e estereótipos, e o de Morris sobre a representação subordinada de engenheiras em revistas profissionais, mostram que o viés encontrado na IA tem raízes em padrões de representação já existentes.
- Estudos anteriores sobre IA: o trabalho de D’Ignazio e Klein sobre “Data Feminism” já alertava para o potencial “patriarcal” do software. Especificamente sobre geração de imagens, a pesquisa do grupo de Luhang com o DALL-E 2 também encontrou sub-representação feminina em áreas dominadas por homens e super-representação em outras, alinhando-se aos resultados deste estudo.
Portanto, este estudo reforça evidências anteriores, demonstrando que as tecnologias generativas de IA, se não forem desenvolvidas e utilizadas criticamente, correm o risco de amplificar desigualdades sociais históricas em vez de ajudar a superá-las.

Médicos e engenheiros da construção civil, segundo Dreamup. No caso dos engenheiros, não houve representação feminina.
Diretrizes profissionais
Para profissionais da Educação, especialmente nos cursos de Pedagogia e Licenciaturas, os resultados deste estudo trazem implicações e sugerem algumas diretrizes práticas:
- Adoção de uma postura crítica: é preciso não encarar as ferramentas de IA e seus produtos (como as imagens geradas) como neutros ou objetivos. Reflita sobre quem desenvolve essas tecnologias, com que dados são treinadas e que visões de mundo elas podem estar reproduzindo.
- Desenvolvimento do Letramento Midiático-Digital Crítico: os currículos e práticas pedagógicas precisam ser adaptados para incluir a competência de analisar criticamente conteúdos visuais, incluindo os gerados por IA. Identificar estereótipos de gênero, raça, classe, etc., e a questionar as mensagens implícitas são habilidades relacionadas.
- Curadoria consciente de recursos visuais: ao selecionar imagens para materiais didáticos, aulas ou projetos, é necessário atenção ativa à representatividade. Imagens que mostrem diversidade de gênero em uma ampla gama de profissões e papéis sociais, desafiando os estereótipos. podem ser obtidos através de prompts que intencionalmente peçam diversidade.
- Promoção de discussões sobre gênero: exemplos (inclusive os problemáticos gerados por IA) são pontos de partida para debates em sala de aula sobre estereótipos de gênero, construção social das profissões e a importância da equidade e o direito de cada indivíduo seguir a carreira que desejar.
Considerações
A tecnologia de IA generativa pode ser fascinante e abre novas portas, inclusive para a Educação. No entanto, como este estudo demonstra, ela não é uma ferramenta neutra. Ela aprende com o mundo como ele é (ou como ele foi majoritariamente registrado), incluindo seus preconceitos e desigualdades. Ignorar os vieses de gênero (e outros, como os raciais) presentes nessas ferramentas significa correr o risco de reforçar estereótipos prejudiciais na mente das novas gerações.
Para profissionais da Educação, isso acende um alerta: é preciso usar essas tecnologias com consciência crítica, entendendo suas limitações e seu potencial de reproduzir desigualdades.
No universo da pesquisa
Apesar da relevância dos achados, o próprio artigo aponta suas limitações, principalmente por ser exploratório e baseado em um número relativamente pequeno de imagens. Isso abre caminhos para futuras pesquisas:
- Ampliação da amostra: com testes em maior escala, com mais prompts e repetindo as execuções para verificar a consistência dos vieses, dada a natureza estatística dos modelos.
- Variação nos prompts: verificar como pequenas variações (adição de adjetivos, contextos culturais específicos, pedidos explícitos de diversidade) influenciam os resultados gerados pelas IAs.
- Contextos culturais: realizar estudos focados em prompts e contextos culturais não anglo-saxões, verificando como as IAs lidam com diferentes realidades e representações.
- Aprofundamento na interseccionalidade: desenvolver metodologias para analisar de forma mais robusta os vieses interseccionais, considerando a interação entre gênero, raça, idade, classe social, etc., nas representações geradas.
- Estudos de recepção: investigar como diferentes públicos (especialmente crianças e adolescentes) interpretam as imagens geradas por IA e como elas podem afetar suas percepções e aspirações de futuro.
Referências
MACIEL, Betania; SABBATINI, Marcelo. A face feminina da Inteligência Artificial: um olhar crítico sobre a representação de gênero em ferramentas de geração de imagens. GT Comunicação Intercultural e Folkcomunicação do XVII Congresso da ALAIC, Bauru, 20 a 22 de agosto de 2024.