Le estamos pidiendo a ChatGPT que valore cómo de guapos somos precisamente por lo que más miedo nos da: la verdad

“Espejito, espejito, ¿quién es la más guapa del reino?”, esa famosa pregunta que iba dirigida a un espejo encantado hoy se le hace a ChatGPT. Lo más curioso de este “popular prompt” es la disposición de muchas personas a seguir los consejos que puede ofrecer.
La honestidad. Una mujer australiana de 32 años, Ania Rucinski, entrevistada por The Washington Post, afirmó que preguntó a ChatGPT cómo podía verse más “atractiva” frente su pareja, debido a la falta de sinceridad en su entorno. La respuesta fue directa y sin rodeos: flequillo cortina. No obstante, esto no es nada nuevo y está ganando popularidad en redes sociales.
Una tendencia silenciosa. Uno de los vídeos que está ganando popularidad en TikTok es el publicado por Marina (@marinagudov), que ha alcanzado más de medio millón de visitas. En él ha explicado cómo ha usado el chatbot para hacer un análisis completo de su estilo y estética, desde una selfie sin maquillaje. La IA le indicó su paleta de color ideal, evaluó su tono de cabello, le aconsejó cambios de maquillaje con marcas y tonos concretos, y hasta le diseñó un look de sombras adaptado a la forma de sus ojos. Lo mismo hizo una periodista de Indy100, que decidió seguir la tendencia tras ver múltiples videos en redes sociales, y le ocurrió lo mismo que a la influencer. Lo más sorprendente, según relata, fue que el bot también le ofreció una imagen generada visualmente con el resultado.
Detrás de la viralidad. ¿Por qué preferir la opinión de un bot antes que la de un ser humano? Según algunos usuarios, la IA resulta más honesta sin ser cruel. Kayla Drew, también entrevistada por The Washington Post, ha afirmado que recurre a ChatGPT para todo, incluso consejos de belleza, porque su forma directa de hablar no le duele tanto como la crítica de una persona cercana. Por su parte, para el mismo medio, la crítica de belleza Jessica DeFino ha ofrecido una explicación más profunda: “Los humanos tenemos vínculos emocionales que afectan nuestras percepciones. Un bot, en cambio, no se deja influenciar por el cariño, el carisma o la personalidad. Solo analiza datos y da su veredicto. Para quienes buscan respuestas claras sobre su apariencia, eso se siente como una ventaja”.
Hay algo más. La IA puede aportar una visión a futuro más real; es como lanzarse a una piscina llena. La periodista de Indy100 ha encontrado en ChatGPT una forma de experimentar si consecuencias reales. La capacidad de probar, ajustar y visualizar antes de tomar una decisión se ha convertido en uno de los principales atractivos de esta tendencia.
¿Qué opinan los expertos? Algunos usuarios entrevistados por The Washington Post han confiado en ChatGPT porque ofrece una opinión “neutral”, pero los especialistas han advertido que solo es una ilusión. En el mismo medio, Emily Pfeiffer, analista de Forrester, ha destacado que “la IA simplemente refleja lo que ve en internet, y mucho de eso ha sido diseñado para hacer que las personas se sientan mal consigo mismas y compren más productos”. Es decir, sus respuestas pueden estar condicionadas por una lógica de mercado que favorece el consumo, no necesariamente el bienestar del usuario.
Por su parte, Alex Hanna (Distributed AI Research Institute) y Emily Bender(lingüista computacional) van más allá al advertir que entrenar estos modelos con contenido como foros que califican el atractivo (como r/RateMe o Hot or Not) implica que estamos “automatizando la mirada masculina”. Así, el chatbot podría perpetuar estándares de belleza sexistas, en lugar de ofrecer una evaluación justa o empática.
En la misma línea, tal y como ha detallado para el medio argentino Redacción Marzyeh Ghassemi, profesora del MIT en medicina computacional, su preocupación por cómo la IA puede ofrecer consejos dañinos en temas sensibles. En un caso documentado, una IA recomendó comportamientos peligrosos a personas con trastornos alimenticios. Esto subraya que, sin supervisión ética, estas herramientas pueden causar daño incluso cuando no lo pretenden.
El peligro de la cultura digital. La belleza siempre ha sido cambiante, cultural y profundamente subjetiva. Sin embargo, la inteligencia artificial tiende a reducirla a patrones repetidos y predecibles: piel sin imperfecciones, cuerpos delgados, rasgos eurocéntricos. Es decir, estándares dominantes que no nacen del individuo, sino del mercado. Como ha señalado la analista Emily Pfeiffer, mucho del contenido que entrena a estos modelos ha sido diseñado para hacernos sentir mal con nosotros mismos y empujarnos al consumo. La IA, así, no solo ofrece consejos: recomienda productos, sugiere procedimientos, incita al gasto. Convertimos el deseo de sentirnos mejor en una operación matemática orientada a la optimización. ¿Pero optimización para qué? ¿Para encajar en una imagen idealizada que otros —o un algoritmo— han construido?
Un estudio ha mostrado que sistemas como ChatGPT reproducen sesgos sistémicos de género y raza incluso en tareas técnicas como la selección de personal. Si eso ocurre en contextos “neutrales”, ¿qué no ocurrirá cuando la IA evalúa algo tan cargado culturalmente como el atractivo físico? Muchos de estos modelos beben de foros y comunidades en línea donde se cosifica y puntúa la apariencia, o espacios más oscuros de la manosfera y los entornos incel. Estos ecosistemas no solo normalizan la violencia simbólica contra los cuerpos que no encajan en su canon, sino que ahora alimentan las bases de datos con las que entrenamos a las inteligencias artificiales. Así, lo que parece una herramienta “objetiva” es, en realidad, un espejo deformado: devuelve no solo imágenes idealizadas, sino los prejuicios de toda una cultura digital profundamente marcada por el deseo masculino, el individualismo extremo y la lógica de competencia.
Imagen | Ecole polytechnique