Existe una nueva paradoja en los medios de
comunicación. Mientras se pasa de usar la IA generativa para redactar textos a
delegar tareas complejas en sistemas de IA agéntica, el periodismo se ve
obligado a reforzar aquello de lo que más carecen estas tecnologías, la ética.
Las máquinas operan como cajas negras entrenadas con datos que se desconocen y cargadas de sesgos que muchas veces ni sus propios creadores pueden explicar del todo. Y, sin embargo, cada vez participan más en la producción de información que impacta la vida pública.
En charlas recientes con estudiantes de periodismo en la Universidad Anáhuac de México y la Andrés Bello de Venezuela, insistí en un principio: cuanto más poderosa es la herramienta, mayor debe ser la responsabilidad moral del periodista.
El uso de IA en los
medios exige elevar los estándares de transparencia y reforzar los criterios
editoriales para no perder la confianza del público. Por eso muchos medios
están revisando y actualizando sus manuales de estilo y códigos de ética. En el
fondo, la cuestión no es solo cómo usar la IA, sino cómo delegar en ella sin
perder el alma.
Algunos modelos ya ofrecen pistas. En el The New York
Times, bajo el impulso editorial de Zach Seward en el área de IA, se han ido
consolidando criterios claros. IA puede asistir, pero no sustituir el juicio
humano. Puede sugerir, resumir o ayudar en procesos internos, pero el contenido
final sigue siendo responsabilidad de los periodistas. Y lo esencial, el
público debe saber cuándo la IA interviene de forma sustancial.
Con los estudiantes
hablamos de un cambio profundo en el oficio. Antes le preguntábamos a la IA,
ahora le encargamos tareas. Podemos crear sistemas que monitorean bases de
datos en tiempo real, detectan patrones de corrupción o sugieren líneas de
investigación.
Ese salto es enorme y
exige más responsabilidad. La IA debe tratarse como se trata al poder, con
escepticismo, sospecha, distancia y rigor. Con la misma actitud con la que se
enfrenta a un presidente que miente o a una fuente interesada. La obligación
sigue siendo la de siempre, dudar, verificar, contrastar.
El periodista no
puede ser un usuario pasivo. Debe asumirse como auditor hostil y abogado del
diablo. De lo contrario, la máquina termina confirmando sesgos y prejuicios. Debe
considerarse que el resultado que arroja una IA no es conocimiento, solo es una
hipótesis. Por eso hay que desconfiar, desafiarla y llevarla al límite.
Para los medios, la
llegada de la IA agéntica exige algo más profundo que aprender nuevas
herramientas. Obliga a incorporar protocolos claros en sus procesos con
responsabilidad humana indelegable, trazabilidad en el uso de sistemas
automatizados y transparencia sobre cómo se construye la información.
La IA asume consecuencias ni responde ante el público.
La responsabilidad siempre recae en lo humano.
En ese punto aparece
la paradoja del oficio. Cuanto más imperfecta es la ética de la IA, más
impecable debe ser la del medio y la del periodista.
Ahí es donde se juega
el futuro del periodismo y su relación con el público.
En este enlace se
puede escuchar la charla con los estudiantes de la clase del profesor Arturo
Corona de la Universidad Anahuac: https://youtu.be/G6RgUQNeB6o

No hay comentarios:
Publicar un comentario