Ultimas Noticias

Internet se ha llenado de vídeos con el nuevo tráiler del 'GTA VI'. El único problema es todos se han hecho con IA

Lo raro no es que haya pasado. Lo raro es que no haya pasado antes: la noticia de que aún tendríamos que esperar un año completo (y no los pocos meses que estaban previstos) para disfrutar de ‘GTA VI‘ cayó como un jarro de agua fría sobre los aficionados. Y después de todas las conjeturas pertinentes, llegó la ristra inevitable de trailers falsos hechos con IA.

Desesperación. El ansia por el juego más esperado de los últimos años ha cuajado en trailers falsos, un subgénero que siempre ha existido, pero que desde la aparición de la IA está alcanzando unas cotas de verosimilitud espectaculares. El canal especializado en este tipo de contenido Teaser Universe publicó un falso «tráiler final» del juego que ya pasa de las 600.000 reproducciones, y al que siguió uno adicional que obtuvo menor impacto. 

Con la complicidad de Google. Tal y como cuenta Kotaku, el mérito del alcance no es solo de la verosimilitud del vídeo (un ojo entrenado puede detectar que ese avance de ‘Vengadores: Doomsday’ es falso, pero con el contenido digital de videojuegos y las imágenes animadas la cosa se complica), sino de Google. El buscador difundió el vídeo como si fuera contenido oficial de Rockstar Games, aunque todo estaba hecho con IA, como reconoció su propio creador. De este modo (recordemos que no hablamos solo del buscador de Google, sino del propio algoritmo de Youtube, que también lo recomienda), lo que debería ser una anécdota pasa a convertirse en un fenómeno viral… y desinformador.

Hecho para confundir. Por mucho que el vídeo incluya en su descripción que está elaborado con IA, hay otros elementos del mismo algo más confusos. Por ejemplo, el título «Grand Theft Auto VI – Final Trailer (2026) Rockstar Games», un nombre calculado para confundirse con material oficial. El timing también fue voluntariamente confuso: el vídeo circuló justo tras el anuncio del aplazamiento de ‘GTA VI’ hasta noviembre de 2026, momento en que los jugadores estaban dispuestos a consumir cualquier contenido vinculado a ‘GTA’, aunque en sitios como los comentarios del propio vídeo el enfado por el engaño fue patente.

El falso botón del twerk. Es solo un ejemplo más de cómo de fácil es manipular algoritmos y buscadores mediante IA, y no el primero relacionado con ‘GTA VI’. Este verano, el YouTuber Jeffrey Phillips lanzó una campaña deliberada de desinformación publicando en Reddit y TikTok que el juego de Rockstar incorporaría un botón para hacer twerking. Phillips creó incluso un subreddit fraudulento, r/TrueFactsOnlyz, cuya descripción teóricamente ayudaría a la IA con sus resúmenes de búsqueda.

El resultado superó sus expectativas: Google AI Overview terminó citando literalmente los comentarios de Reddit que el propio Youtuber había escrito, y hacía referencia a estos comentarios como si fueran especulaciones de jugadores reales. Cuando alguien le pidió pruebas en Reddit, respondió que Rockstar le había llamado personalmente. Para la IA de Google fue suficiente, y así quedó claro que Google prioriza contenido de Reddit sin molestarse en darle una supervisión humana, permitiendo que mentiras malintencionadas como ésta (aunque fuera un experimento) contaminen las búsquedas.

Un problema sistémico. Todos estos casos vinculados con ‘GTA VI’ no son anomalías aisladas, sino síntomas de un fallo estructural en YouTube. Mozilla publicó en 2021 una investigación que reveló datos que el 71% de los vídeos problemáticos reportados por voluntarios les habían sido sugeridos directamente por el algoritmo de recomendación, no buscados activamente. Y debido a estas sugerencias, estos contenidos cuestionables registraban un 70% más de visualizaciones diarias que otros vídeos.

La proliferación del llamado contenido masivo generado por inteligencia artificial agrava el problema. Se han identificado canales que han acumulado casi 500 millones de reproducciones utilizando exclusivamente herramientas de IA. NBC News destapó una red de canales difundiendo bulos sobre famosos afroamericanos con deepfakes, algunos de ellos anuncios comerciales que generaban ingresos tanto para los creadores como para YouTube. Es decir, como comentaba Jonathan Albright en Medium, la paradoja tecnológica está a la vista: YouTube es capaz de detectar instantáneamente canciones protegidas por copyright, pero no identifica textos de artículos periodísticos leídos con voces sintéticas ni imágenes extraídas de otras webs. Un auténtico caos. 

En Xataka | He probado las Vista Dinámica de Gemini: aquí empieza la era de la IA visual e interactiva que no querrás dejar de usar

source

Mostrar más
Botón volver arriba