Rodolfo A. Rico
SUMARIO
El autor nos ofrecre un breve recorrido sobre el lanzamiento de la llamada inteligencia artificial (IA). Luego se adentra en lo que significa la IA para los medios y los periodistas y el uso que se puede hacer de ella en el campo de la información-comunicación. El texto se pregunta: ¿Hay oportunidades para el buen periodismo y el negocio del contenido en un mundo cada vez más dominado por la integración con IA? La respuesta es afirmativa.
30 de noviembre de 2022. Esa es la fecha. Es el dia que fue lanzado ChatGPT de la empresa OpenAI. Permitía desde el primer momento preguntar, conversar con una IA y recibir respuestas lo suficientemente claras y coherentes sobre cualquier cosa que uno le preguntara. No necesariamente las respuestas eran correctas pero sonaban veraces y plausibles. Estaban a un clic, a un tecleo. Aunque el periodismo tenía ya años experimentando con inteligencia artificial, para notas financieras, deportivas, para ofrecer contenido específico a los lectores, esto era otra cosa. No pasaba por el medio, ni siquiera nos referenciaba y por supuesto no generaba ningún clic. Si antes de 2022 el temor era que la IA sustituyera a los periodistas, a partir de 2022 el temor aumentó a que los medios dejaran de ser completamente relevantes para informarse y como más precaria aún forma de negocio.
Hasta que salió ChatGPT un medio o una agencia hacía uso del aprendizaje automatizado para crear su propio modelo a partir de sus propios contenidos. Se tenía por un lado una base de datos, la cotización de la bolsa o los datos de un partido de béisbol en progreso y con esa información, más el histórico de artículos del tema en el medio se le enseñaba al modelo a escribir ese tipo de notas. Para entrenar su propio modelo cada medio o agencia necesitaba de su propio volumen de información. Volumen de datos, volumen de artículos. Todo esto ocurría en la segunda mitad de la década de 2010, pero en el mundo de la inteligencia artificial hay un santo grial por descubrir: la inteligencia artificial general, una que lo sepa todo y responda sobre todo, que sepa más no que un humano, sino que la humanidad entera.
¿Pero cómo se hace eso?
Primero hay que entender que lo que llamamos inteligencia artificial generativa hoy en día es sobre todo una estadística. Introducimos una serie de palabras juntas en un chat que conforman una pregunta, un servidor recibe esa serie de palabras unidas entre sí, interpreta que muy probablemente le estás preguntando X cosa y genera una respuesta que incluye la relación entre esa serie de palabras que uniste al principio como pregunta. Además de esa relación entre las palabras, se le agrega un montón de parámetros que añaden características (parámetros) a la respuesta de la inteligencia artificial.
Empezaba la década de los veinte y una plaga empezaba a acechar Internet, sitios como Archive.org, el proyecto Gutenberg o la Wikipedia fueron los primeros en alertarlo: recibían la visita masiva de arañas que extraían todo su contenido. Más visitas de bots de IA que de humanos avisaban desde estas empresas de filantropía informativa, y es que ¿cómo era posible que chatGPT respondiera según el estilo de redacción de un experto, de una institución o imitando cualquier estilo sin antes haberlo conocido? Porque el detalle estaba ahí, todos los modelos de inteligencia artificial generativa se alimentaron con todo lo que pudieran conseguir por Internet, tuvieran derechos sobre ello o no. Es conocido, por ejemplo, que el modelo de Meta, Llama, fue entrenado con el mayor repositorio de libros pirateados del mundo. O que también usaron los archivos del New York Times, porque estos hicieron ingeniería inversa para identificar que sus textos habían sido usados para entrenar a los modelos de lenguaje. En la medida que los modelos de lenguaje evolucionaban fue evidente que también fotografías, videos y cualquier producto creativo creado por la humanidad había sido usado para entrenarlos. Todo sin pagar y en nombre de un supuesto “uso justo”.
Desde 2022 hasta 2025 la inteligencia artificial generativa no ha hecho sino mejorar. Cada vez se le notan menos las costuras. Se equivoca o inventa menos. Lo que nos lleva a otra situación: cada vez es más difícil distinguir la ficción creada de la realidad, incluso hay situaciones más complejas pues el uso de la inteligencia artificial para difundir desinformación ya es parte de la cotidianidad; ya no solo fotos inventadas, sino voces clonadas, videos, noticieros completos. Todo usado como herramientas para fortalecer sesgos y acciones políticas. [Continúa leyendo…].



