Radio UCentral – 107.1FM

Periodismo GPT: el reto de comunicar en la revolución de la IA

La inteligencia artificial llegó para quedarse. Intentar remar contra la revolución que han significado Gemini, Copilot o el gran referente dentro de la cultura popular al mencionar IA, Chat GPT, resulta tan infructuoso como oponerse al surgimiento del internet o la electricidad. Es una nueva revolución industrial que llegó para cambiar el mundo, incluyendo, por supuesto, al periodismo y las comunicaciones.

Imagen generada con IA sobre el periodismo robótico en los tiempos de la inteligencia artificial.

 

Ficción realista

Los comunicadores audiovisuales han encontrado muchísimas nuevas opciones por medio de plataformas generadoras de imágenes y vídeos que resultan cada vez más prometedoras, sobre todo al contemplar lo que está exhibiendo en sus adelantos Sora, el flamante producto de generación de videos de OpenAI, empresa creadora de titanes cómo ChatGPT.

El periodismo, obviamente, no queda fuera de esta revolución. Muchas de las herramientas que sirven a los comunicadores audiovisuales también han ayudado a acelerar los procesos de generación de contenido por parte de los periodistas. Por ejemplo, por intermedio de plataformas como Dall-E es posible generar una imagen de portada para algún artículo en lugar de tener que buscar una fotografía ad hoc al tema de su publicación, algo que resulta sumamente útil al escribir sobre astronomía, historia o ficción, y que por lo mismo ha generado amplio debate en torno al uso de imágenes creadas con IA representando a personas reales, una discusión de la que el periodismo no puede abstenerse.

Es evidente que el generar contenido pornográfico por medio de deepfakes para representar a cantantes o estrellas de Hollywood en escenas para adultos de altísimo realismo, o mostrarlos a través de la IA cometiendo delitos resulta condenable en múltiples aspectos, pero ¿Qué ocurre con la utilización de su imagen o sus voces para la propaganda y publicidad? ¿O para emplearlos en portadas satíricas? ¿Dónde está el límite ético para generar imágenes por parte de los profesionales de la comunicación?

Otra tendencia que se está presentando, sobre todo en redes sociales, es la utilización de voces de famosos para todo tipo de contenido. Puede resultar bastante inocente escuchar a Homero Simpson “cantando” ‘La gata bajo la lluvia’, o una interpretación paródica de Goku de ‘Llamado de emergencia’, pero ¿Qué sucede al momento de utilizarla para fines publicitarios? Es verdad, tal vez Goku, como un personaje ficticio, no tenga los derechos de un ser humano de carne y hueso ¿Pero qué ocurre con los derechos sobre el uso de la voz de Mario Castañeda? Actor que dobla al protagonista de Dragon Ball y cuya voz está siendo utilizada para toda clase de fines.

Pluma artificial

En otra arista, y apuntando a un ejercicio periodístico mucho más puro, la IA está redactando más notas de las esperables dentro de los medios de comunicación. Por hablar de un caso rimbombante, están los falsos periodistas humanos de Sports Illustrated, uno de los medios deportivos más relevantes del planeta, que, en base a lo reporteado por Futurism, tenía publicados diversos artículos firmados por autores ficticios, con fotografías ficticias y, por supuesto, biografías igual de ficticias.

En la actualidad, muchísimas de las llamadas “notas SEO”, artículos que deambulan en una delgada línea entre periodismo y marketing para cubrir ágilmente las palabras clave que está buscando el público en sus motores de búsqueda (Google, Bing), usualmente privilegiando cumplir con criterios técnicos para atraer más visitas, en ocasiones incluso por medio del clickbait, por encima de la calidad periodística, son redactadas a través de plataformas de IA como ChatGPT, Jasper, Gemini o el AI Writer de Ubersuggest.

Es tan simple como saber digitar correctamente una orden y la máquina se encargará de escribir por nosotros. Pero no estamos hablando solamente de notas genéricas para responder a preguntas comunes, sino que, utilizando el lenguaje de manera correcta, podemos crear un contenido tan subjetivo como una columna de «opinión», o al menos simularla.

ChatGPT escribe una columna de opinión en base a la solicitud del usuario.

De hecho, ni siquiera es necesario generar el contenido por uno mismo, podemos ir todavía más allá y comprar notas algorítmicas en plataformas como Data Factory, quienes en su web aseguran crear más de seis mil artículos cada semana para torneos de fútbol, generando crónicas a través de datos estadísticos, incluyendo previa, actualización en directo del encuentro y, por supuesto, contenido post partido, que puede estar estar disponible hasta tres días antes del cotejo, destacando incluso los ‘hoyitos’ que hicieron los jugadores durante el evento, y, por supuesto, encargándose de las imágenes pertinentes para cada nota.

¿Dónde termina el periodismo?

En los tiempos de la revolución de la inteligencia artificial, el periodismo y las comunicaciones pueden explorar tantas oportunidades de desarrollo que trascienden mucho más allá de lo que pueda abarcar una columna, encontrando opciones en generación de imágenes, texto, big data, facilitar el reporteo, aportar con ideas, creación de sonidos, locuciones, además de un incalculable y ascendente etcétera.

Sin embargo, más allá de todas las oportunidades que se presentan con las herramientas de IA, un periodista debe tener presente dónde están los límites entre utilizar estos instrumentos para optimizar sus procesos de creación y en qué punto este ejercicio deja de ser periodismo para transformarse sencillamente en generación de contenido marketero, muchas veces, antiético.

Y es que justamente es la ética, el tratamiento de la información, aquello que diferencia al periodista de cualquier otro ciudadano que pueda publicar contenido en internet. Sin ese criterio, simplemente se transforman en publicadores, tal como puede serlo un arquitecto, un albañil, un ingeniero o, de hecho, niños y adolescentes, que muchas veces reciben más visitas en Tik Tok de lo que consiguen algunos medios de comunicación tradicionales.

Probablemente las “notas SEO” plásticas puedan ser reemplazadas por la IA, después de todo, ya de por sí se trataba de una tarea robótica, más allá de que los criterios SEO sí puedan ser aplicados de forma orgánica a nuestro contenido para optimizar sus resultados. Pero la crónica, esos textos que viven de la experiencia humana, el periodismo inmersivo, la columna de opinión, no pueden ser simplemente reemplazados por fríos algoritmos.

La percepción, el análisis de la realidad, e incluso la pasión y pluma del autor, son cosas que no pueden ser reemplazadas por generadores de lenguaje. El factor humano es aquello que vuelve diferente a esta clase de textos.

Es precisamente la empatía las que nos permite forjar un buen periodismo y la que hace que nos importe ejercerlo, pues, como decía Ryszard Kapuśiński “Creo que para ejercer el periodismo, ante todo, hay que ser un buen hombre, o una buena mujer: buenos seres  humanos. Las malas personas no pueden ser buenos periodistas. Si se es una buena persona se puede intentar comprender a los demás, sus intenciones, su fe, sus intereses, sus dificultades, sus tragedias. Y convertirse, inmediatamente, desde el primer momento, en parte de su destino. Es una cualidad que en psicología se denomina ‘empatía’. Mediante la empatía, se puede comprender el carácter del propio interlocutor y compartir de forma natural y sincera el destino y los problemas de los demás”.

El límite está y seguirá estando ahí: en saber utilizar las plataformas de inteligencia artificial como lo que son: herramientas que puedan ayudarnos a optimizar procesos, pero siempre bajo un accionar ético, respetuoso de los derechos humanos, empático, honesto y al servicio de la ciudadanía. En esencia, más allá del avance tecnológico y el pasar de los años, respetar el rol social del periodista y sin importar la plataforma o los instrumentos, dedicarse a hacer “buen periodismo”.

Salir de la versión móvil