¿Es inteligente prohibir la Inteligencia Artificial?

ChatGPT es la más conocida pero no la única. El crecimiento de las herramientas de IA preocupa en todo el mundo. Italia, el primer país en bloquearla.
La imagen falsa del Papa Francisco generada por Inteligencia Artificial.
La imagen falsa del Papa Francisco generada por Inteligencia Artificial.

ChatGPT -a esta altura un nombre estelar de la Inteligencia Artificial- tardó dos meses en llegar a los 100 millones de usuarios en el mundo. TikTok, la red social más importante del presente, había demorado ocho en alcanzar la misma cifra. La comparación sirve para graficar el fenómeno: hoy no hay una preocupación más compartida por los países líderes.

¿Y por qué están preocupados? La respuesta se diversifica en dos direcciones. Un primer nivel involucra sobre todo a los medios de comunicación. Las razones pueden entenderse a partir de ejemplos concretos. El diario inglés The Guardian descubrió contenido generado por IA que referenciaba a sus artículos. Una investigación posterior determinó que esos artículos nunca se habían escrito. El Washington Post informó que el ChatGPT inventó un escándalo de acoso sexual que involucró a un profesor de Derecho de la Universidad George Washington. El software citó un artículo del Post de 2018 que luego se descubrió tampoco existía. Según la web de la Universidad de Periodismo de Columbia, el ChatGPT también “escribió” hace unas semanas que un político australiano había cumplido condena por soborno. También era falso. La víctima amenaza con demandar por difamación a OpenAI, la empresa desarrolladora de GPT, pero la falta de antecedentes complica el avance de la causa.

La foto de Trump arrestado fue mentira; también la del Papa Francisco con un camperón blanco. Es decir, sin prisa pero sin pausa crece la circulación de información falsa. Alguna, como la imagen del Papa, se advierte por su absurdo. Otras resultan casi imposibles de identificar. La tendencia mundial afectará a la Argentina.

Los medios enfrentan un dilema. El uso de IA resulta arriesgado por aumentar la posibilidad de error, pero también permitiría optimizar procesos de trabajo y costos, lo que despierta entusiasmo. No son intereses contrapuestos entre periodistas e inversores, pero los grandes diarios del mundo buscan el modo de alcanzar una síntesis positiva. Una certeza es definitiva, ya es imposible volver atrás.

Frente a la posibilidad concreta de una nueva y mayor ola de información falsa es donde intervienen los gobiernos. No los impulsa la benevolencia sino el temor. Cualquier funcionario o candidato puede ser la próxima víctima.

Lo cierto es que la reacción inicial de los gobiernos no parece la más original. ¿Cuál es? Prohibir el uso de la IA (a propósito, el estado de Montana, en los Estados Unidos, fue el primero en prohibir las descargas de TikTok en su territorio). En tanto, Italia es el primer país en bloquear el uso de ChatGPT por supuesta violación a la privacidad de datos; España anunció su intención de ir en el mismo sentido y lo seguirían los demás integrantes de la Unión Europea. El diario The Wall Street Journal informó la semana pasada que la administración de Biden estudia “regulaciones” para los modelos de lenguaje basados en IA.

PUBLICIDAD

“No se puede regular lo que no se entiende”, desafían expertos en Washington. La definicion suena precisa, y ya había sido argumentada durante la interpelación a Mark Zuckerberg en el Senado de los EE.UU. Expone la brecha entre los funcionarios y la política, aún analógicos en términos conceptuales, y la aceleración tecnológica.

Regular, y aún más prohibir la tecnología utilizada para distribuir información no se advierte como una respuesta sofisticada. Y puede abrir puertas a tentaciones peligrosas.

Comentar esta nota
Más de Sociedad