Ciencia y TecnologíaEntretenimiento

El Jefe de CDMX dijo que alguien falsificó su voz con Inteligencia Artificial: ahora Morena pide cárcel para quien haga «mal uso» de una IA

El 1 de noviembre, el Jefe de Gobierno de Ciudad de México, Martí Batres, aseguró que un audio filtrado donde parecía escucharse su voz hablando sobre el proceso interno de Morena en CDMX, era totalmente falso y había sido creado por inteligencia artificial.

Ahora, un par de semanas después, el diputado Miguel Torruco, ha presentado una propuesta para reformar el Código Penal Federal, proponiendo hasta ocho años de cárcel por el uso de la Inteligencia Artificial para generar contenido falso que parezca real.

Las justificaciones

En el caso del Jefe de Gobierno, Torruco mencionó que el audio pudo haber sido creado con la intención de «afectar al jefe de gobierno» y generar así inestabilidad política.

Además de este ejemplo, el diputado también menciona otro caso en la ciudad donde se generaron fotografías de alumnas para que aparecieran desnudas y se pudiera comercializar el material.

Según Torruco, esta iniciativa es para evitar la realización de este tipo de conductas, por lo que se establecen los usos de la inteligencia artificial que no serían permitidos, así como las penas para quienes los cometan.

Los castigos por usar IA de forma delictiva

La reforma propuesta por el diputado considera cambios en el capítulo 3, artículo 121 del Código Penal Federal, agregando tanto el término “inteligencia artificial” como los castigos derivados de su uso.

Por ejemplo, se establecen entre dos y hasta ocho años de cárcel, además de entre 100 a 800 días de multa para aquella persona que modifique tanto videos, audios, rostros, grabaciones o escenarios para hacerlos pasar como reales, afectando así las actividades de alguna persona tanto física como moral.

Robot 1

También se consideran castigos para quienes generen daño o perjuicio a la imagen o reputación de una persona, o si se usa IA para fraudes.

La reforma incluso considera castigos para aquellos que falsifiquen documentos oficiales para causar daño patrimonial, o que expongan y lleguen a distribuir de alguna manera tanto imágenes, audios o videos íntimos de personas sin su consentimiento por cualquier medio.

Lo que la iniciativa no incluye

Por ahora, la propuesta de reforma no aclara otros usos de la IA, como su aplicación para contenidos como caricaturas, parodias ni casos como el de Bad Bunny, donde con un modelo de inteligencia artificial llamado FlowGPT, se generó una canción replicando su voz en el proceso.

Tampoco aborda otros ejemplos donde, sin el consentimiento de las productoras ni de los cantantes, se genera contenido utilizando la voz o el rostro de distintos artistas. Por ahora, falta ver si se terminan considerando estas situaciones también, así como si se establecen reglas y castigos a seguir.

En esta propuesta de reforma, tampoco se menciona como antecedente una iniciativa presentada en el Congreso de la CDMX, donde se planteó castigar a quien utilice la IA para hacer deepfakes de mujeres con contenidos sexuales.

Mostrar más

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba