Em nova função social, IA passa a funcionar como espelho para pessoas cegas
Ao descrever a aparência física, as ferramentas de IA devolvem a autonomia às pessoas cegas, mas trazem alertas sobre vieses e pressão estética

Há pouco mais de dez anos, algumas tecnologias de assistência visual surgiram para auxiliar pessoas cegas a executar algumas tarefas funcionais, conectando usuários a voluntários que descreviam o que a câmera mostrava (app Be My Eyes). Em 2017, a Microsoft usou pela primeira vez a inteligência artificial (IA) para descrever textos, objetos e cenas pelo celular (app Seeing AI).
A partir de 2023, com a integração de modelos multimodais (que combinam visão computacional com linguagem natural) — como o GPT-4 e similares — essas descrições se tornaram mais detalhadas e contextualizadas, incluindo aspectos de aparência pessoal, como roupas, rosto e coordenação visual, como se fossem uma espécie de “espelho digital”.
Em uma entrevista recente à BBC, a criadora de conteúdo deficiente visual Lucy Edwards explicou: "durante toda a nossa vida, pessoas cegas tiveram de lidar com a ideia de que ver a nós mesmos é impossível, de que somos bonitas por dentro, e de que a primeira coisa que julgamos em alguém é a voz — mas sabemos que nunca poderemos vê-los”.
No entanto, a partir do aperfeiçoamento de modelos generativos de visão computacional, as ferramentas de IA passaram a dar a uma pessoa cega informações visuais detalhadas sobre sua própria imagem ou estilo. Mais do que um aperfeiçoamento tecnológico, a IA inaugurou uma importante função social: a de permitir acesso direto à própria aparência.
Ao traduzir informação visual em linguagem, a IA funciona como um espelho, pois descreve traços faciais, expressões e o contexto em que a imagem foi registrada.. Além disso, possibilita autoavaliação sem mediação humana. Isso significa que a pessoa cega não depende mais exclusivamente do olhar ou da opinião de terceiros para cuidar da própria apresentação.
Como a IA se transforma em espelho digital
Com a popularização de modelos avançados de visão computacional integrados em aplicativos como o Be My Eyes e o Envision, pessoas cegas podem enviar fotos ou usar a câmera do celular para receber informações detalhadas sobre textura da pele, formato facial e combinações de roupas, além de orientações sobre maquiagem ou estilo.
Com as IAs descrevendo o que está na foto, os usuários desse “espelho” têm a possibilidade de construir sua autoimagem, não só “o que estou vestindo”, mas também “como eu pareço para os outros”. Além de ler textos ou identificar objetos, a tecnologia assistiva passa a assumir um papel identitário, não apenas utilitário.
Para muitas pessoas deficientes visuais, especialmente aquelas que nasceram sem visão, essas ferramentas representam o primeiro acesso autônomo à aparência. Esse salto de independência pode influenciar desde a rotina de cuidados pessoais até a maneira como a pessoa se percebe socialmente e emocionalmente no mundo.
“A verdade é que eu não tive uma opinião sobre o meu rosto por 12 anos. De repente, tiro uma foto e posso pedir à IA que me dê todos os detalhes, que me dê uma nota de zero a dez e, embora não seja o mesmo que enxergar, é o mais perto que consigo chegar, por enquanto”, relata Lucy Edwards ao comentar esse novo tipo de feedback.
O empoderamento faz com que indivíduos com deficiência visual desenvolvam uma compreensão mais direta e pessoal de sua imagem corporal. Isso pode reduzir a sensação de exclusão visual, uma das queixas mais frequentes relatadas por pessoas cegas quando o assunto é autoimagem.
Do outro lado do espelho: vieses e alucinações

Se, para pessoas cegas, as novas ferramentas representam um primeiro acesso dissociado de preconceitos pessoais ou comparação direta, essas ferramentas levantam preocupações sobre vieses e padrões de beleza embutidos nos algoritmos de IA, treinados a partir de normas estéticas dominantes.
Dessa forma, mesmo não sendo programas explicitamente desenvolvidos para isso, as IAs podem acabar gerando comparações injustas ou expectativas irreais, que potencialmente influenciam negativamente a autoimagem de usuários que não têm como verificar visualmente as informações recebidas.
Segundo um estudo recente, publicado por pesquisadores da Universidade de Toronto (Canadá) na revista Psychology of Popular Media, existe também o risco de imprecisão ou “alucinações” da IA, quando o sistema produz descrições incorretas ou deformadas, levando a frustrações ou confusões sobre a própria aparência.
Para a pesquisadora em psicologia da saúde, Helena Lewis-Smith, focada em imagem corporal na Universidade de Bristol, na Inglaterra, “o que é assustador agora é que a IA não só permite que pessoas cegas façam isso comparando-se com descrições de fotos de outros seres humanos, mas também com o que a IA poderia considerar a versão perfeita delas”.
Ao contrário da pesquisadora, Edwards faz uma avaliação empírica positiva da tecnologia: “quanto mais robôs descreverem fotos para nós, nos guiarem, ajudarem nas compras, mais felizes seremos. São coisas que achávamos que tínhamos perdido e agora a tecnologia nos permite ter", conclui ela em sua entrevista à emissora britânica.


