Ultimas Noticias

Inteligencia artificial desde la seguridad internacional, estudios de conflictividad y paz

El tema de la inteligencia artificial (IA) no es, por supuesto, algo nuevo y las discusiones que hoy se tienen al respecto llevan años. Lo que pasa es que a partir de la salida de ChatGPT al mercado en noviembre del año pasado, y la explosión encadenada de subsecuentes herramientas y programas que utilizan IA, pareciera que esas discusiones se nos vinieron encima. En el campo de la seguridad internacional, por ejemplo, tenemos años debatiendo acerca de cómo garantizar que la última palabra en la toma de decisiones de armamento que usa inteligencia artificial, debe ser humana. En otros campos sucede algo similar. La cuestión es que debemos asumir que el futuro ya está acá, y que, además, llegó para quedarse y seguir avanzando. Los largos e inacabados debates al respecto necesitan respuestas prontas porque las decisiones, medidas o pasos a seguir, no pueden ya esperar. En este texto abordamos solo algunos ángulos de esas discusiones, analizando el tema no solo desde el ámbito de la seguridad, sino desde los estudios de conflictividad y paz.

¿Cómo ha sido, hasta ahora, el ciclo de la dependencia digital?

Este no es un análisis histórico; solo recordar qué es lo que normalmente ha sucedido con las herramientas digitales de las últimas décadas, desde la llegada de las PCs y el internet a nuestra vida diaria, hasta otras herramientas y plataformas como redes sociales, teléfonos móviles y las infinitas aplicaciones que empleamos gracias a ellos:

1. Estas herramientas, comúnmente, ofrecen inagotables beneficios que vamos descubriendo.

2. Las comenzamos a usar, las aprovechamos, seguimos descubriendo e inventando nuevos beneficios que facilitan nuestra vida, que amplían nuestro conocimiento, nuestras capacidades.

3. Salvo que paulatinamente, vamos depositando todo lo que tenemos en esas herramientas, nuestras finanzas, nuestra vida diaria, la privada y la pública, nuestras comunicaciones, los asuntos de empresas y Estado, nuestros secretos y garantías de seguridad también. Depositamos en esas herramientas toda nuestra confianza. Nuestras interacciones. Nuestros patrones de conducta. Nos volvemos dependientes (algo que Virgil Gheorghiu ya describía desde 1962 en lo que él llamaba nuestra dependencia del “esclavo técnico”, nos tornábamos como con Hegel, en esclavos del esclavo).

4. A medida que nos volvemos más dependientes de esas herramientas, que en principio sentimos que conocemos bien y creemos sabemos usar, nos volvemos más vulnerables, porque la verdad es que no siempre sabemos todo acerca de esos instrumentos, como nos lo muestran la vida y la realidad. Desde los accidentes que ocasionan descomposturas y pérdidas de información, hasta otro tipo de vulnerabilidades psicosociales, así como dinámicas colectivas y de seguridad, emergen sin que sepamos aún controlarlas o cuando menos, mitigar sus efectos. Estos riesgos surgen a veces de manera completamente orgánica, otras veces, surgen de manera inducida por parte de actores—internos o externos—que encuentran cómo sacar ventaja de esos riesgos para avanzar intereses varios, económicos, políticos o sociales.

5. Una vez que algunos de esos riesgos salen a la luz, hacemos todo lo que está en nuestras manos para comprenderlos mejor (mediante estudios académicos, reportes, análisis, hasta comisiones), para implementar medidas legales, políticas, sociales o educativas que intentan poner algo de orden en aquello que nos damos cuenta que ha emergido de manera desordenada, e intentamos resolver las cosas de raíz.

6. Pero la tecnología sigue avanzando, normalmente va varios pasos adelante, y cuando se desarrollan medidas de ciberseguridad, por ejemplo, alguien, en algún país, ha ya diseñado métodos para esquivar esas medidas, retornándonos a algunos de los pasos del ciclo que acá señalamos.

7. Estos factores no se ubican exclusivamente en el campo de la seguridad de los países, las agencias o las empresas. Hay muchos componentes operando a la vez. Por ejemplo, las redes sociales no son servicios, sino empresas que tienen el objetivo de maximizar sus ganancias y el retorno de capital. Para ello, desarrollan y ponen en marcha algoritmos que buscan mantenernos la mayor cantidad de tiempo posible conectados a esas redes, y que, a la vez, al hacerlo, van aprendiendo mejor nuestros patrones de conducta, nuestros gustos, nuestras afinidades, para así, acercarnos a temas, empresas, productos y personas que nos son afines, intentando en última instancia vender más y mejor. La cuestión es que esa situación de ir paulatinamente sacando provecho de nuestras preferencias, y nuestra conducta, tiene consecuencias no solamente comerciales, sino también políticas, sociales y culturales. Ello, como dijimos, abre las puertas a una serie de dinámicas orgánicas, y también a otras dinámicas que son inducidas.

Dinámicas orgánicas

Con el fin de ejemplificar, coloco acá algunos temas de los que hay mucho material escrito, y, en teoría, mucha comprensión también, salvo que ese conocimiento aún no nos permite controlar lo que supuestamente “entendemos”.

1. Cámaras de eco y polarización en redes. Los algoritmos, como dijimos, nos acercan a ideas, movimientos, gustos y en general, a personas afines. A la vez, nos alejan de quienes no nos son afines. Esto, en la investigación (ver por ejemplo Carothers y O’Donohue, 2019), profundiza procesos de polarización severa. Es decir, la polarización existe allá afuera del mundo digital, pero pareciera que—dado que somos seres contadores de historias (mucho como lo explica Yuval N. Harari) y, por tanto, seres de comunicación—a medida que nuestras comunicaciones e interacciones digitales crecen, también crece la probabilidad de que nos vayamos ubicando en círculos y polos, de los cuales no siempre estamos conscientes y no siempre es simple salir. Esto tiene implicaciones en una gran cantidad de rubros que se salen del ámbito digital o informativo, e incluso, en algunos extremos, detonan procesos de violencia física. Hay infinidad de estudios al respecto, y aún pocas respuestas.

2. La información falsa. Desde hace años se han publicado estudios que muestran que nos estamos enfrentando a fenómenos como la amplitud y velocidad con la que viajan textos, imágenes y videos que producen emociones fuertes como el miedo o el terror, la frustración o la ira, y por supuesto, nos estamos enfrentando a los efectos por la propagación de noticias falsas. De acuerdo con investigación de distintas fuentes, un tuit falso tiene 75% más probabilidades de ser retuiteado que uno verdadero, y una noticia falsa puede viajar hasta 100 veces más lejos que una verdadera. En otras palabras, la información falsa viaja más rápido, más lejos y llega más hondo, que la verdadera (ver, por ejemplo: Marchal, 2019; Vosoughi, 2018). Nuevamente, tenemos conocimiento acerca de cómo esto funciona, pero no hemos sido eficaces aún en contenerlo o mitigarlo.

3. La centralización de temas y conversaciones que en otros tiempos estaban en las márgenes. Por ejemplo, temas como procesos de extremismo, radicalización, odio o teorías conspirativas, tienden a crecer y potenciarse en los entornos digitales de formas incontrolables. No solo se trata de una explosión de la propaganda política extremista, sino de la dinámica de comportamiento ligada con el algoritmo que muestra y prioriza la información que tendemos a creer, y oculta u ocluye, información diferente, profundizando entonces nuestras conversaciones e interacciones al respecto de esos temas y nuestro distanciamiento de visiones diversas del mundo.

Hay muchos otros ejemplos, pero ahora pensemos en las dinámicas inducidas:

Las dinámicas inducidas.

En este rubro estamos hablando cómo ciertos actores que buscan avanzar sus intereses (económicos, políticos o sociales) pueden emplear, con esas metas, algunas de las vulnerabilidades que describo. Por ejemplo, para campañas o propaganda política, para la ciberguerra o para las guerras de información, el uso de cuentas falsas de redes sociales o ejércitos de “bots” para incentivar, acelerar y profundizar los procesos de polarización. Estos actores (estatales o no estatales) pueden operar tanto al interior de un país empujando intereses locales, como a nivel internacional ya sea para buscar ganancias o para espiar, adquirir información, competir, rivalizar o atacar.

La discusión sobre la inteligencia artificial (IA)

Como vemos, el tema rebasa con mucho a cómo lograr dominar herramientas como ChatGPT y muchísimas otras en ámbitos como la educación o la vida diaria. La reflexión debe incluir, además de ello, el cómo es que esas herramientas de inteligencia artificial tienen la capacidad de potenciar las dinámicas orgánicas o las inducidas que arriba señalo. Algunos de los ámbitos podrían incluir (no se trata de aspectos aislados sino de aspectos que se cruzan entre ellos):

1. Uso de IA como herramienta para propaganda política, y para campañas negativas de adversarios o rivales.

2. Esparcimiento de información falsa (orgánica e inducida). Imagine usted en tiempos de vacunación contra Covid, la posibilidad de escribir, mediante herramientas de IA, estudios académicos creíbles y bien argumentados, que sustenten la “ineficacia” o el “daño” de las vacunas o de teorías conspirativas sobre ese tema, o acerca de cualquier otro que sea políticamente relevante en cualquier momento. Imagine la proliferación de estudios científicos que no existen, sin mencionar fotos, videos, discursos políticos, reportajes, “evidencia”, todo falso, y su capacidad de extenderse considerando la velocidad y profundidad con la que la información falsa viaja.

3. Las implicaciones de la IA en términos de los procesos de polarización severa que ya existen (procesos orgánicos y procesos inducidos). Por ejemplo, mediante herramientas de uso de lenguaje, argumentación, documentación, intensificación de simpatías y antipatías, odio, prejuicios o extremismos.

4. El uso de IA por parte del crimen organizado local o transnacional para obtener ganancias.

5. Uso de IA por parte de regímenes no democráticos como instrumento para aprender más acerca del comportamiento humano como herramienta de control político, espionaje o hackeo.

6. El uso de IA en armamento (un proceso que tiene ya muchos años, pero que se irá tornando cada vez en algo más relevante en las carreras armamentistas que vienen dado el contexto geopolítico prevaleciente) o como herramienta de guerra. Concretamente, la posibilidad o no de que el ser humano siempre siga teniendo el control de las decisiones que pueden implicar la pérdida de vidas humanas.

En fin, nada de lo que he colocado en este texto es definitivo o completo. Son simplemente ideas que recojo al respecto, las cuales proceden de muchos textos que estamos recibiendo. Me parece que el tema central tiene que ver con la velocidad con la que todo esto está explotando y el poco tiempo con el que contamos para tomar decisiones o implementar medidas que puedan contener algunos de los riesgos acá señalados. Lo seguiremos comentando.

Instagram: @mauriciomesch

TW: @maurimm

Mostrar más

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba