marzo 28, 2026

La paradoja ética entre el Periodismo y la IA

Existe una nueva paradoja en los medios de comunicación. Mientras se pasa de usar la IA generativa para redactar textos a delegar tareas complejas en sistemas de IA agéntica, el periodismo se ve obligado a reforzar aquello de lo que más carecen estas tecnologías, la ética.

Las máquinas operan como cajas negras entrenadas con datos que se desconocen y cargadas de sesgos que muchas veces ni sus propios creadores pueden explicar del todo. Y, sin embargo, cada vez participan más en la producción de información que impacta la vida pública.

En charlas recientes con estudiantes de periodismo en la Universidad Anáhuac de México y la Andrés Bello de Venezuela, insistí en un principio: cuanto más poderosa es la herramienta, mayor debe ser la responsabilidad moral del periodista.

El uso de IA en los medios exige elevar los estándares de transparencia y reforzar los criterios editoriales para no perder la confianza del público. Por eso muchos medios están revisando y actualizando sus manuales de estilo y códigos de ética. En el fondo, la cuestión no es solo cómo usar la IA, sino cómo delegar en ella sin perder el alma.

Algunos modelos ya ofrecen pistas. En el The New York Times, bajo el impulso editorial de Zach Seward en el área de IA, se han ido consolidando criterios claros. IA puede asistir, pero no sustituir el juicio humano. Puede sugerir, resumir o ayudar en procesos internos, pero el contenido final sigue siendo responsabilidad de los periodistas. Y lo esencial, el público debe saber cuándo la IA interviene de forma sustancial.

Con los estudiantes hablamos de un cambio profundo en el oficio. Antes le preguntábamos a la IA, ahora le encargamos tareas. Podemos crear sistemas que monitorean bases de datos en tiempo real, detectan patrones de corrupción o sugieren líneas de investigación.

Ese salto es enorme y exige más responsabilidad. La IA debe tratarse como se trata al poder, con escepticismo, sospecha, distancia y rigor. Con la misma actitud con la que se enfrenta a un presidente que miente o a una fuente interesada. La obligación sigue siendo la de siempre, dudar, verificar, contrastar.

El periodista no puede ser un usuario pasivo. Debe asumirse como auditor hostil y abogado del diablo. De lo contrario, la máquina termina confirmando sesgos y prejuicios. Debe considerarse que el resultado que arroja una IA no es conocimiento, solo es una hipótesis. Por eso hay que desconfiar, desafiarla y llevarla al límite.

Para los medios, la llegada de la IA agéntica exige algo más profundo que aprender nuevas herramientas. Obliga a incorporar protocolos claros en sus procesos con responsabilidad humana indelegable, trazabilidad en el uso de sistemas automatizados y transparencia sobre cómo se construye la información.

La IA asume no consecuencias ni responde ante el público. La responsabilidad siempre recae en lo humano.

En ese punto aparece la paradoja del oficio. Cuanto más imperfecta es la ética de la IA, más impecable debe ser la del medio y la del periodista.

Ahí es donde se juega el futuro del periodismo y su relación con el público.

En este enlace se puede escuchar la charla con los estudiantes de la clase del profesor Arturo Corona de la Universidad Anahuac: https://youtu.be/G6RgUQNeB6o


marzo 22, 2026

Medios, internet e IA, una asimetría letal

Los medios de comunicación siempre abrazaron la tecnología para expandir su alcance. Pero los últimos dos saltos han sido traumáticos. Primero fue el internet, que devoró la publicidad y fragmentó las audiencias, empujando a miles de medios a cerrar en todo el mundo.

Ahora emerge algo más profundo y silencioso. Internet y la inteligencia artificial han empezado a operar como un solo sistema. “Raspan” contenido de los medios, lo procesan y lo devuelven convertido en resúmenes que presentan como propios. La información queda atrapada en un jardín amurallado y las grandes plataformas concentran la atención, el tráfico y el negocio, dejando fuera del circuito a los medios, los verdaderos creadores. Se trata de un robo de contenidos a escala industrial.

Hace tiempo que los medios y sus asociaciones denuncian este maltrato, pero las tecnológicas responden con "ethic washing", migajas y acuerdos que se parecen más a obras de caridad que a verdaderos contratos comerciales.

Ahora surge una oportunidad que no deberían desaprovechar. El 2 de marzo, el Reino Unido marcó una línea en la arena. Una coalición de gigantes, entre ellos la BBC, The Guardian, Financial Times, Sky News y Telegraph Media Group, lanzó SPUR (Standards for Publisher Usage Rights). Su objetivo es establecer estándares de licencias y transparencia para que las tecnológicas accedan al contenido de forma legítima, pagando por lo que hoy utilizan sin permiso ni compensación.

Las tecnológicas se escudan en el “uso justo”, alegando que la IA aprende como un estudiante en una biblioteca, es decir lee, procesa y genera respuestas nuevas sin copiar directamente. Pero medios como The New York Times han demostrado que los sistemas de IA son capaces de reproducir fragmentos casi idénticos de artículos protegidos. No solo aprenden, también almacenan, replican y sustituyen.

Mientras el diario neoyorquino libra una batalla judicial que incluso exige la destrucción de modelos de IA entrenados con su contenido, la mayoría de los medios no tiene ese músculo y opta por negociar para sobrevivir. 

Algunos grandes logran acuerdos millonarios: News Corp y Axel Springer, entre otras cadenas, han cerrado pactos con OpenAI y Meta, mientras Google impulsa programas de licencias, incluso en América Latina, que resultan insuficientes para las partes. 

Esa puerta no está abierta para todos. La asimetría es doble y letal. Por un lado, la brecha de poder entre las plataformas tecnológicas y los medios es colosal. Por otro, dentro del propio ecosistema mediático, solo los grandes tienen recursos para demandar o negociar, mientras los medios medianos y pequeños, esos que a nivel local vigilan alcaldías, tribunales y abusos cotidianos, quedan sin escala y fuera de la mesa de negociación y de los acuerdos.

Por eso el modelo británico puede ser una salida. La negociación colectiva incomoda a las plataformas, como ya ocurrió en Australia y Canadá, donde medios de distinto tamaño lograron resultados más equitativos.

Sin ese camino, el sistema seguirá cayendo en un círculo vicioso en el que desaparece la prensa local, crece la corrupción y se debilita la participación ciudadana en los asuntos públicos. Si los medios pequeños y medianos perecen o son absorbidos por los grandes, se profundiza la concentración y se erosiona la diversidad de voces que sostiene a la democracia.

A partir de la iniciativa de los medios ingleses surge una oportunidad para la solidaridad entre medios. Que los grandes antepongan el interés del sistema al propio. Si no protegen a los pequeños, el periodismo dejará de ser un servicio público y quedará reducido a materia prima para la máquina.

Los gobiernos y organismos internacionales no pueden seguir mirando al costado. No proteger la sostenibilidad del periodismo a través de negociaciones justas y equitativas entre plataformas y medios es, en los hechos, una forma de corrupción por omisión.

marzo 15, 2026

Inteligencia artificial: el aula sin maestro

El mundo de las empresas de inteligencia artificial se parece a un aula cuando el maestro se ausenta. Sin autoridad presente, todos gritan a la vez y compiten para ver quién provoca más desorden.

En un ecosistema sin vigilancia ni frenos éticos o regulatorios, las compañías tecnológicas aceleran por miedo a quedarse atrás de la competencia. En esta carrera, el afán de dominio y el lucro mandan por encima de nuestro bienestar como usuarios.

Mientras las empresas juegan, quedamos a merced de sus “cajas negras”. Ignoramos cómo operan sus sistemas y si utilizan nuestros datos para conducirnos por caminos que nunca elegimos libremente.

La gran paradoja de nuestro tiempo es que la IA se nutre de la creatividad humana. Sin nuestro ingenio, estas máquinas serían cáscaras vacías. Bajo el mantra del progreso, la industria ha normalizado el mayor saqueo de propiedad intelectual de la historia, absorbiendo contenidos periodísticos, literarios, científicos y académicos. Sin esa apropiación masiva, estas compañías difícilmente habrían alcanzado su éxito ni sus valuaciones multimillonarias.

La lógica económica recuerda a la vieja fiebre del oro, aunque con una diferencia crucial. En el siglo XIX cualquiera con una batea podía probar suerte en un río. En la fiebre actual, las minas pertenecen a un puñado de gigantes que, tras amasar fortunas en la era del internet abierto, ahora explotan este nuevo filón en régimen casi monopólico.

Hasta hace poco el negocio de la IA marchaba sobre ruedas porque la batalla se libraba sobre todo a nivel cultural. Pero la geopolítica ha metido un palo entre las ruedas. Al abrir sus modelos a agencias de inteligencia y defensa, las tecnológicas han cruzado sus propias líneas rojas. Hoy la IA se utiliza para identificar objetivos militares, detectar migración irregular y, combinada con herramientas como Pegasus, espiar a periodistas y activistas. Estamos ante sistemas de vigilancia masiva y manipulación cognitiva donde la supervisión humana es cada vez más difusa.

En esta aula sin supervisión, algunas empresas intentan levantar tímidas murallas de contención. OpenAI busca reforzar la honestidad factual de sus modelos para reducir errores y alucinaciones, mientras Anthropic promueve una “IA Constitucional” que intenta integrar principios éticos en el código y ha resistido presiones del Pentágono para su uso militar. Otras compañías experimentan con auditorías externas y marcos de gobernanza para anticipar riesgos antes de que la tecnología llegue al público.

Las intenciones pueden ser buenas, pero el problema es la velocidad. Estas iniciativas avanzan con una lentitud inoperante frente a la aceleración tecnológica que las propias empresas impulsan. Se trata de una contradicción evidente entre los principios que proclaman y la urgencia con la que lanzan nuevos modelos al mercado. Mientras la ética y la regulación requieren reflexión y tiempo, el negocio de la IA solo sabe acelerar, dejando cualquier intento de contención como un adorno en una carrera sin frenos.

Desde afuera, los esfuerzos por imponer orden también se multiplican, aunque a un ritmo peligrosamente lento. Universidades como Oxford, MIT o Stanford advierten que no bastan los parches técnicos. Lo mismo señalan organismos como la UNESCO, la OCDE o el G7, que han trazado marcos éticos para proteger derechos fundamentales. Pero la burocracia institucional está lejos de competir con la agilidad del silicio.

Esa discordancia es peligrosa. Si la industria persiste en su mala conducta de estudiante sin supervisión, tarde o temprano chocará con regulaciones draconianas. En su afán por proteger derechos fundamentales, los gobiernos podrían reaccionar con marcos legales tan rígidos que terminen asfixiando la innovación.

Pasar del libertinaje a la madurez exige que la responsabilidad social vuelva al centro del debate. De lo contrario, el maestro llegará tarde… y lo hará con un castigo que nadie quiere recibir.

marzo 08, 2026

La IA y el “destape” creativo

    Durante siglos, crear arte, ciencia o conocimiento exigía esfuerzo, tiempo y talento manual. Hoy la inteligencia artificial generativa ha derrumbado muchos de esos límites de golpe y a una velocidad deslumbrante.
    Cada tecnología que expande nuestras capacidades suele recorrer un mismo ciclo. Primero la fascinación, luego el exceso y, con el tiempo, el aprendizaje que conduce a un equilibrio más responsable. Con la IA parece que estamos en esa fase de fascinación y exceso, donde la rapidez y la eliminación de los límites técnicos generan una ilusión de omnipotencia.
    Algo parecido ocurrió tras muchas dictaduras. Después de años de prohibiciones absurdas, desde la barba y el pelo largo hasta las minifaldas, llegó una época de “destape” en la que se exploró lo erótico, lo transgresor y también lo ilegal sin demasiado freno. Es la etapa del libertinaje que suele preceder a la libertad, cuando se asumen con mayor consciencia los límites y las responsabilidades.
    Con la IA parece estar ocurriendo algo similar. Vivimos un momento de “vale todo”, en el que crear imágenes, voces o escenas ficticias se ha vuelto trivial y donde muchas veces dejamos de preguntarnos si lo que circula es verdadero o falso.
    Los ejemplos abundan. Desde el papa Francisco con un abrigo de Balenciaga hasta Aitana López, la influencer española que nunca existió. Más recientemente apareció Xenia Monet, una cantante cuya voz mezcla matices de Beyoncé, Mariah Carey y Whitney Houston y que llegó a las listas de Billboard mientras su creadora en Misisipi firma contratos millonarios. O la pelea viral entre Brad Pitt y Tom Cruise, digna de una superproducción de Hollywood, creada con Seedance 2.0, una herramienta de IA vinculada a TikTok.
    Las protestas de artistas y productores no tardaron en llegar. Denunciaron que la creatividad artificial suplanta a la humana y temieron por el impacto laboral en sus industrias. Pero ese reclamo corporativo pasa por alto algo inquietante. Al público parece importarle cada vez menos si lo que consume es real o generado.
    El problema, en realidad, es más profundo. No tiene que ver con la “creatividad” de la máquina, sino con la posible atrofia de nuestra propia agencia cuando delegamos el pensamiento en algoritmos, con la normalización de la mentira en una época saturada de desinformación y con la erosión gradual de la confianza pública.
    Conviene, además, exonerar a la máquina de parte de esta discusión. Quien creó a Xenia Monet o la pelea entre Pitt y Cruise no escribió un simple prompt y listo. Como en cualquier proceso creativo, hubo ensayo, prueba, error y ajustes constantes hasta acercarse a lo imaginado.
    La IA es simplemente la última herramienta en una larga cadena de instrumentos que los humanos hemos utilizado para ampliar nuestras capacidades. Nuestros antepasados usaron piedras para producir fuego, mezclaron minerales para inventar metales o manipularon microorganismos para crear antibióticos.
    El libertinaje creativo actual se explica en buena medida por un desfase evidente. La tecnología avanzó mucho más rápido que los legisladores, educadores y pensadores encargados de construir los marcos éticos y legales. Sin esas referencias, distinguir entre lo aceptable y lo abusivo se vuelve cada vez más difícil.
    De ahí que el debate ético haya comenzado a ocupar espacio en universidades y foros internacionales. Organizaciones como la UNESCO impulsan marcos para el uso responsable de la inteligencia artificial, mientras muchas universidades han incorporado estos dilemas a sus programas de estudio. En Estados Unidos incluso se celebran jornadas como la “Ethics Week”, donde estudiantes y profesores debaten cómo preservar valores como la verdad y la libertad frente a la fascinación tecnológica y qué partes de nuestra humanidad no estamos dispuestos a delegar en las máquinas.
    Pasar del libertinaje a la madurez creativa implica asumir el control consciente de la herramienta. La IA puede generar el lienzo, el color o la melodía a una velocidad inédita, pero el propósito, el significado y la verdad que transmiten esas obras siguen siendo responsabilidad humana. Con el tiempo, a medida que la sociedad se familiarice con estas tecnologías, es probable que emerja un mayor equilibrio en el que la IA amplíe nuestras capacidades sin reemplazar el juicio ni el pensamiento crítico.
    En el próximo artículo abordaré el peligroso libertinaje de las empresas creadoras de IA.

La evolución de las alucinaciones

Hubo un tiempo en que las alucinaciones eran íntimas. Químicas, deliberadas, casi rituales.   Se buscaban en el ácido lisérgico, en la cocaí...