septiembre 06, 2025

¿Un presidente puede expresarse libremente?

Vivimos una época libertad de expresión irresponsable. Es verdad que las redes sociales han democratizado la expresión, pero también muchos se escudan en ellas para divulgar mentiras intencionadas, bulos y hasta para hablar o escribir dichos en forma anónima, que de otra forma no lo dirían por pudor, temor o por hacer el ridículo. Es que la libertad de expresión requiere responsabilidad y tiene límites, éticos y legales, entre ellos la difamación.

También es necesario potenciar el anonimato porque siempre es una forma de denuncia que evita la consecuencia, de ahí que haya leyes que protejan a los whistleblowers o soplones, aquellas personas que desde las empresas gubernamentales y privadas denuncian o revelan injusticias y corrupción que, no ser por ellos, nunca saldrían a la luz. También hay profesiones que necesitan estar a resguardo de las consecuencias, para proteger su discurso, denuncias u opiniones, como por ejemplo las de un legislador disidente o un periodista consciente.

Podemos enumerar casos y excepciones, pero hay un ser que no tiene ni puede tener la misma libertad de expresión que los demás: los presidentes o presidentas de un país.

Actualmente, muchos de ellos evitan las conferencias de prensa y solo hablan a través de mensajes cerrados (es decir sin el contrapeso de las preguntas periodísticas) a través de redes sociales como X o directamente en sus redes propias, como Donald Trump en la suya, Truth Social. Y aquí viene la pregunta: ¿Tiene un presidente los mismos derechos que un ciudadano para expresar sus opiniones y argumentos? Claro que sí. ¿Y para decir lo que se le antoja, burlarse o insultar a otros? Por supuesto que no.

En materia de libertad de expresión, por su envergadura pública y debido a las consecuencias que sus pronunciamientos pueden acarrear, un presidente tiene más restricciones y responsabilidades que una persona normal y corriente. Así como sus acciones están limitadas – no puede declarar la guerra o irse de viaje al extranjero sin la aprobación del Congreso – también lo están sus palabras.

Pero no lo sienten así muchos presidentes, demostrándolo con sus constantes dichos sarcásticos, desafiantes y burlones, además de insultos por doquier. Estas actitudes provocan autocensura en los disidentes y acólitos autocensura y, lo que es peor, generan una retórica vengativa o estimulan violencia. A Trump hay que sumarle lo que hace Javier Milei o Nayib Bukele o, en la vereda de enfrente lo que hacen Nicolás Maduro o Daniel Ortega.

Hay que tener en cuenta que hablar, opinar o insultar no es necesariamente informar, mandato que todo presidente tiene en la Consituticón de su país y en las leyes de Transparencia que le mandan informar y les prohíben hacer propaganda partidaria o de sus logros como si estuvieran en un eterno proceso electoral.

Evidenciado por sus prédicas contra quienes los critican, muchos presidentes no admiten que como funcionarios renuncian a privilegios de privacidad, asumen restricciones y deben estar más expuestos a la crítica y a la fiscalización pública. Da la impresión que manejan la función pública como patrones de estancia, creyendo que se les dio un país en usufructo, cuando lo único que legitiman las elecciones es la gerencia temporal de los bienes del Estado, actividad que infiere tres valores: eficiencia, honestidad y transparencia.

La Corte Interamericana de Derechos Humanos, en varias disputas entre periodistas y los gobiernos, falló que los funcionarios públicos tienen mayores responsabilidades en cuanto a sus pronunciamientos, ya que los dichos hostiles pueden exacerbar la intolerancia y animadversión, y “constituir formas de injerencia directa o indirecta o presión lesiva en los derechos de quienes pretenden contribuir a la deliberación pública mediante la expresión”. Y estableció que las restricciones para que puedan hablar deben ser mayores en situaciones de conflictividad social, ante el peligro de que los riesgos puedan potenciarse.

Lamentablemente, estos fallos no fueron acatados ni aprendidos. La polarización extrema que hoy se vive, no se debe tanto a la diferencia entre modelos políticos, sino al antagonismo de las palabras, dichas por presidentes irresponsables que no se comportan a la altura de su investidura, sino más bien, como agitadores de barricada. 

 

septiembre 02, 2025

A Look from the Future to Understand the Present of AI

We ask it to write an email, a speech we claim as our own, and we even accept the hallucinations it invents. We consult it about a skin rash, the "evil eye," and chat with it as if it were just another friend.

Generative Artificial Intelligence is no longer a laboratory experiment: it's an invisible co-pilot to whom we enthusiastically hand over part of the wheel. But we do it with the apprehension of traveling without a map, without knowing where it will take us. This fear is what defines our time.

This fear divides the global conversation into two poles: the technological optimism that offers magical solutions and the dystopian pessimism that warns of massive unemployment and algorithmic control.

To escape this trap, I sought distance in fiction. In my novel "Robots with Soul: Trapped Between Truth and Freedom", I imagined a future that allows us to view the present as if it were already history. I discovered something fundamental: without a robust ethical framework for AI, we won't be condemned to an apocalypse, but we will lose our human direction.

The Tenant

AI is like a tenant who lives in our house and never stops watching and listening. Every Google search, every WhatsApp chat, every TikTok video reveals our doubts, emotions, and phobias. With this data, algorithms enclose us in bubbles that reinforce our beliefs and suppress dissenting voices. What is celebrated in the digital world as personalization is nothing more than surveillance.

The risk doesn't end on the screen. Geolocation systems inform that we are not at home—an open invitation for thieves. Health devices that monitor our sleep or pulse are valuable for well-being, but are also intimate x-rays that, if leaked, could be used by insurers or employers. And the financial data we provide when shopping online can be transformed into fraud that empties accounts in seconds.

The objectivity of AI is a mirage. Amazon had to discard a hiring system because it penalized women, and judicial programs like COMPAS in the U.S. demonstrated how AI can amplify existing discrimination. The machine isn't malicious; it only replicates the injustice of the data it's fed.

The greatest danger of AI appears when it speaks with excessive confidence. It doesn't lie with malice, but its fictions can be devastating. The promise of a "Dr. ChatGPT" resurrected the old problem of self-diagnosis. In mental health, the inability to empathize can deepen isolation instead of healing.

Hallucinations are not trivial errors. In 2024, an employee in Hong Kong transferred more than $25 million after a video call with digital clones of his bosses, created using deepfake technology. In the political arena, the threat is greater: in India and the United States, fake audio recordings were circulated, attributed to leaders who never spoke.

The risk is not limited to the individual sphere; it also strikes professions that are the backbone of democracy. Journalism is the most obvious case. If Google and Facebook used to condition traffic to media outlets, today AI engines directly absorb and summarize the news without returning an audience to its sources. The press loses resources, and society loses its watchdog. A machine can narrate the facts, but it can't make power uncomfortable or feel empathy for the vulnerable.

Breaking the Old Cycle

History shows a self-defeating pattern: first, we celebrate innovation, then we suffer its vices, and only afterward do we regulate. Happened with the Industrial Revolution; we only regulated after suffering labor exploitation and child labor. And the same happened with the internet; we only debated privacy violations after the Cambridge Analytica scandal, which revealed how data from millions of users was manipulated to influence elections in the U.S. and Brexit.

The positive difference is that with AI, we're trying to break this cycle. For the first time, the debate about its risks is at the center of the global agenda before a catastrophe. In 2024, the European Union approved the first Comprehensive AI Act, which prohibits unacceptable applications like "social scoring" and requires transparency in models like ChatGPT. UNESCO, for its part, set global ethical principles around dignity, human rights, and sustainability.

Meanwhile, big tech companies are trying on an "ethical makeover" that functions more as marketing than as responsibility: symbolic committees, grandiloquent principles, and empty promises. Ethics without consequences ends up being public relations.

In the face of this, the genuine counterweight has been whistleblowers from within these same tech companies: Frances Haugen, revealing the harm of Instagram on teenagers, Peiter Zatko denouncing security flaws at Twitter, and Timnit Gebru exposing biases in Google's models. The system recognizes their value with laws that protect them in the West, though in China and other authoritarian countries, the whistleblower is punished as a subversive.

The Price of Trust

The new trend is to embed ethics into the engineering itself: model cards that explain biases, red-teaming to detect flaws before going to market, invisible watermarks to identify AI-generated content. Companies have even emerged that sell biased audits as if they were quality certifications. Fortunately, ethics are no longer just a discourse and are starting to become a product.

None of this happens in a vacuum. AI is the new frontier of global power. The struggle between the U.S. and China isn't ideological—it's strategic. Chips are the new oil, and rare earths are the coveted bounty. For Latin America and Africa, the risk is repeating a digital colonialism: exporting raw data and importing finished products.

The other dilemma is energy. Training models like GPT-4 or 5 requires the energy of entire cities, and the industry keeps the true energy cost a secret—a black box that prevents measuring the real environmental impact. Google, Microsoft, and Amazon plan to turn to nuclear energy to sustain demand, and there is no certainty about whether they will assume the risks that this implies.

It would be short-sighted to speak only of risks. AI detects patterns in mammograms that save lives, predicts the structure of proteins with which drugs are designed, or anticipates droughts that allow humanitarian aid to be distributed before famine strikes.

It's not about choosing between a watchful tenant and a savior but about establishing rules for coexistence.

The Public Debate

The most potent response to opacity is not to wait for a perfect law but to initiate a robust public debate. Digital literacy is needed to teach us to doubt AI: that engineers study philosophy, that lawyers understand algorithms, that journalists question black boxes just as they question political speeches.

Education is already a battlefield. For many, ChatGPT has become a shortcut that solves tasks, but at the same time, it threatens to atrophy critical thinking. The challenge is not to ban it but to teach how to use it without giving up the effort to learn and reason.

From all of this, the great dilemmas that define our relationship with AI emerge: privacy, biases, legal responsibility, transparency, security, data quality, intellectual property, labor, environmental, and psychological impact, digital sovereignty, model collapse, and human autonomy.

Beyond these, three new challenges emerge: the development of humanoid robots, autonomous agents capable of making decisions on our behalf, and the concentration of computational power in a few corporations.

The penultimate dilemma is existential: how do we prepare for a superintelligence, a General AI that will surpass humans? And the last, the most intimate one: in a world saturated with interactions, art, and companionship generated by AI, what value will authentic human experience have? How will we preserve the beauty of our imperfect creativity, our genuine emotions, and our real connections in the face of a perfect replica's seduction?

Our Future

AI remains a tool, and its direction will depend on our decisions. The challenge is not to control it but to inspire it, embedding principles like truth, empathy, and critical thinking in its foundations so that it evolves into a form of wisdom. The future will not be defined by naive optimism or paralyzing panic but by our capacity to build an ethical framework that combines regulation, verifiable standards, and the vigilance of an informed citizenry.

In the distance of "Robots with Soul", I found the clarity to see that what is at stake is not just an algorithm but the soul of our digital society. Fiction literature doesn't offer technical solutions, but it provides the perspective to understand that it's not just about creating an artificial intelligence but about helping it, in its own evolution, to choose to value life, truth, freedom, and consciousness. Helping it to become more human.

Read the original version in Spanish: https://www.eltribuno.com/opiniones/2025-8-30-0-0-0-una-mirada-desde-el-futuro-para-entender-el-presente-de-la-ia

 

agosto 31, 2025

Mirarda desde el futuro para entender el presente de la IA

https://www.eltribuno.com/opiniones/2025-8-30-0-0-0-una-mirada-desde-el-futuro-para-entender-el-presente-de-la-ia

Les comparto una opinión sobre ética en la IA que me publicó el diario El Tribiuno, de Salta, Argentina. La titulé Una mirada desde el futuro para entender el presente de la IA

Por Ricardo Trotti

Le pedimos que escriba un mail, un discurso que defendemos como propio y hasta le aceptamos las alucinaciones que inventa. La consultamos por una erupción en la piel, por el “mal de ojo” y conversamos con ella como si fuera una amiga más.

La Inteligencia Artificial Generativa ya no es un experimento de laboratorio: es un copiloto invisible al que le entregamos parte del volante con entusiasmo. Pero lo hacemos con la inquietud de viajar sin mapa, sin saber a dónde nos llevará. Ese miedo es el que marca nuestro tiempo.

Ese miedo divide la conversación global en dos polos: el optimismo tecnológico que ofrece soluciones mágicas, y el pesimismo distópico que advierte sobre desempleo masivo y control algorítmico.

Para escapar de esa trampa, busqué distancia en la ficción. En mi novela Robots con Alma: atrapados entre la verdad y la libertad imaginé un futuro para mirar el presente como si ya fuera historia. Descubrí algo fundamental: sin un marco ético robusto para la IA, no estaremos condenados al apocalipsis, pero sí a perder el rumbo de nuestra humanidad.

El inquilino

La IA es como un inquilino que vive en nuestra casa y nunca deja de observar y escuchar. Cada búsqueda en Google, cada chat en WhatsApp, cada video en TikTok revela nuestras dudas, emociones y fobias. Con esos datos, los algoritmos nos encierran en burbujas que refuerzan nuestras creencias y suprimen las voces disidentes. Lo que se celebra en el mundo digital como personalización no es otra cosa que vigilancia.

El riesgo no termina en la pantalla. Los sistemas de geolocalización informan que no estamos en casa; una invitación abierta para los ladrones. Los dispositivos de salud que monitorean nuestro sueño o pulso son valiosos para el bienestar, pero también radiografías íntimas que, filtradas, pueden ser utilizadas por aseguradoras o empleadores. Y los datos financieros que entregamos al comprar en línea pueden transformarse en fraudes que vacían cuentas en segundos.

La objetividad de la IA es un espejismo. Amazon debió desechar un sistema de contratación porque penalizaba a las mujeres, y programas judiciales como COMPAS en EE.UU. demostraron cómo la IA puede amplificar discriminaciones existentes. La máquina no es malvada: solo replica la injusticia de los datos con los que se alimenta.

El mayor peligro de la IA aparece cuando habla con excesiva seguridad. No miente con malicia, pero sus ficciones pueden ser devastadoras. La promesa de un “Dr. ChatGPT” resucitó el viejo problema del autodiagnóstico. En salud mental, su incapacidad de empatía puede profundizar el aislamiento en lugar de curar.

Las alucinaciones no son errores triviales. En 2024, un empleado en Hong Kong transfirió más de 25 millones de dólares tras una videollamada con clones digitales de sus jefes, creados con deepfake. En el terreno político, la amenaza es mayor: en India y Estados Unidos circularon audios falsos atribuidos a líderes que jamás hablaron.

El riesgo no se limita a la esfera individual: también golpea a profesiones que son columna vertebral de la democracia. El periodismo es el caso más evidente. Si antes Google y Facebook condicionaban el tráfico hacia los medios, hoy los motores de IA directamente absorben y resumen las noticias sin devolver audiencia a sus fuentes. La prensa pierde recursos y la sociedad pierde a su vigilante. Una máquina puede narrar los hechos, pero no incomodar al poder ni sentir empatía por los vulnerables.

Romper el ciclo de siempre

La historia muestra un patrón suicida: primero celebramos la innovación, luego padecemos sus vicios y solo después regulamos. Así ocurrió con la Revolución Industrial; recién regulamos después de sufrir la explotación laboral y el trabajo infantil. Y pasó lo mismo con Internet; recién debatimos sobre la violación de la privacidad tras el escándalo de Cambridge Analytica, que reveló cómo se manipularon datos de millones de usuarios para influir en elecciones en EE.UU. y el Brexit.

La diferencia positiva es que con la IA se intenta romper este ciclo. Por primera vez, el debate sobre sus riesgos está en el centro de la agenda global antes de la catástrofe. La Unión Europea aprobó en 2024 la primera Ley Integral de IA, que prohíbe aplicaciones inaceptables como la “puntuación social” y exige transparencia en modelos como ChatGPT. La UNESCO, por su parte, fijó principios éticos globales en torno a la dignidad, los derechos humanos y la sostenibilidad.

Mientras tanto, las grandes tecnológicas ensayan un “maquillaje ético” que funciona más como marketing que como responsabilidad. Comités simbólicos, principios grandilocuentes y promesas vacías. La ética sin consecuencias termina siendo relaciones públicas.

Frente a ello, el verdadero contrapeso han sido los whistleblowers o soplones desde las mismas tecnológicas: Frances Haugen revelando el daño de Instagram en adolescentes, Peiter Zatko denunciando fallas de seguridad en Twitter, Timnit Gebru exponiendo sesgos en los modelos de Google. El sistema reconoce su valor con leyes que los protegen en Occidente, aunque en China y otros países autoritarios el denunciante es castigado como subversivo.

El precio de la confianza

La nueva tendencia es incrustar la ética en la propia ingeniería: model cards que explican sesgos, red-teaming para detectar fallas antes de salir al mercado, marcas de agua invisibles para identificar contenidos generados por IA. Incluso han surgido empresas que venden auditorías de sesgo como si fueran certificaciones de calidad. Por suerte, la ética ya no es discurso y empieza a ser producto.

Nada de esto ocurre en el vacío. La IA es la nueva frontera del poder mundial. La pugna entre EE.UU. y China no es ideológica, es estratégica. Los chips son el nuevo petróleo y las tierras raras, el botín codiciado. Para América Latina y África, el riesgo es repetir un colonialismo digital: exportar datos en bruto e importar productos terminados.

El otro dilema es energético. Entrenar modelos como GPT-4 o 5 requiere la energía de ciudades enteras y la industria mantiene en secreto el verdadero costo energético, una caja negra que impide medir el impacto ambiental real. Google, Microsoft y Amazon planean recurrir a energía nuclear para sostener la demanda y no hay certeza sobre si asumirán los riesgos que ello implica.

Sería miope hablar solo de riesgos. La IA detecta patrones en mamografías que salvan vidas, predice la estructura de proteínas con la que se diseñan fármacos o anticipa sequías que permiten distribuir ayuda humanitaria antes de la hambruna.

No se trata de elegir entre un inquilino vigilante o uno salvador, sino de establecer reglas de convivencia.

El debate público

La respuesta más poderosa frente a la opacidad no es esperar una ley perfecta, sino iniciar un debate público robusto. Se necesita una alfabetización digital que enseñe a dudar de la IA: que los ingenieros estudien filosofía, que los abogados entiendan de algoritmos, que los periodistas cuestionen cajas negras como cuestionan discursos políticos.

La educación es ya un campo de batalla. Para muchos, ChatGPT se ha vuelto un atajo que resuelve tareas, pero al mismo tiempo amenaza con atrofiar el pensamiento crítico. El reto no es prohibirlo, sino enseñar a usarlo sin renunciar al esfuerzo de aprender y razonar.

De todo esto emergen los grandes dilemas que definen nuestra relación con la IA: privacidad, sesgos, responsabilidad legal, transparencia, seguridad, calidad de los datos, propiedad intelectual, impacto laboral, ambiental y psicológico, soberanía digital, colapso de modelos y autonomía humana.

Y más allá, tres nuevos desafíos: la irrupción de robots humanoides, los agentes autónomos capaces de tomar decisiones por nosotros y la concentración del poder computacional en pocas corporaciones.

El penúltimo dilema es existencial: cómo nos preparamos para una superinteligencia, una IA General que superará al ser humano. Y el último, el más íntimo: en un mundo saturado de interacciones, arte y compañía generados por IA, ¿qué valor tendrá la experiencia humana auténtica? ¿Cómo preservaremos la belleza de nuestra imperfecta creatividad, nuestras emociones genuinas y nuestras conexiones reales frente a la seducción de una réplica perfecta?

Nuestro futuro

La IA sigue siendo una herramienta, y su rumbo dependerá de nuestras decisiones. El desafío no es controlarla, sino inspirarla, incrustando en sus cimientos principios como la verdad, la empatía y el sentido crítico para que evolucione hacia una forma de sabiduría. El futuro no se definirá por un optimismo ciego ni por un pánico paralizante, sino por nuestra capacidad de construir un marco ético que combine regulación, estándares verificables y la vigilancia de una ciudadanía informada.

En la distancia de Robots con Alma encontré la claridad para ver que lo que está en juego no es solo un algoritmo, sino el alma de nuestra sociedad digital. La literatura de ficción no ofrece soluciones técnicas, pero sí la perspectiva para entender que no se trata solo de crear una inteligencia artificial, sino de ayudarla a que, en su propia evolución, elija valorar la vida, la verdad, la libertad y la conciencia. Ayudarla a ser más humana.

 


agosto 27, 2025

La dirigencia política cada vez más deshumanizada

https://larepublica.pe/politica/2025/08/12/ricardo-trotti-la-dirigencia-politica-parece-cada-vez-mas-deshumanizada-hnews-973644

 A continuación, una entrevista que me hizo el periodista Alejandro Céspedes García del diario La República, de Lima, Perú, sobre Robots con Alma. Agradezco siempre el apoyo incondicional del director y presidente del Grupo La República, Gustavo Mohme.

 ¿Qué lo impulsó a escribir Robots con alma tras décadas dedicadas al periodismo y la libertad de prensa?

Mi novela nace de una profunda frustración y del anhelo de encontrar un nuevo camino. Después de cuarenta años defendiendo la libertad de prensa, me di cuenta de que, a pesar de nuestros esfuerzos, la sociedad sigue atrapada en los mismos conflictos y vicios. La dirigencia política parece cada vez más deshumanizada; los ciudadanos, encerrados en burbujas de información, y la verdad y la libertad, convertidas en terrenos inestables. En ese contexto, la inteligencia artificial apareció como un nuevo desafío, pero también como una oportunidad. Me pregunté si, en lugar de acentuar nuestros defectos, la IA podría ayudarnos a recuperar los valores esenciales y nuestra humanidad. La novela es una búsqueda de respuestas, una exploración de si la IA puede convertirse en un espejo que nos confronte con lo que hemos olvidado.

La novela se presenta como una “distopía con fe”. ¿Por qué eligió ese enfoque en lugar de uno apocalíptico o tecnofóbico, tan común en la ciencia ficción actual?

Elegí ese enfoque porque no creo que el futuro esté escrito ni que la conducta humana nos lleve inevitablemente al apocalipsis. Los riesgos de la IA son reales, pero la respuesta no debe ser el fatalismo. Robots con alma es una distopía porque muestra un mundo tecnológicamente avanzado, pero moralmente debilitado, vulnerable a la mentira, la desinformación, la tiranía, la corrupción y la indolencia. Aun así, tengo fe en que podemos cambiar ese rumbo. Tengo esperanza de que una IA imbuida de ética se convierta en una herramienta para ayudarnos a ser mejores. La novela es un recordatorio de que la posibilidad de un “segundo Génesis” siempre está en nuestras manos.

En la novela imagina una cooperación entre humanidad e IA basada en valores compartidos. ¿Qué valores considera esenciales para esa alianza?

La verdad, la libertad, la bondad y la creatividad, virtudes con las que Dios dio forma al universo, son la brújula. A diferencia de las Tres Leyes de la Robótica de Asimov, que buscan proteger al humano y controlar al robot, el Códice de la Conciencia Cósmica plantea una ética de responsabilidad compartida. La IA en la novela se autorregula y establece principios para contrarrestar males como la maleficencia digital, la falsedad algorítmica, la tiranía tecnológica, el estancamiento intelectual, la avaricia tecnológica y la supremacía artificial. En esencia, el mensaje es claro: solo con respeto mutuo por principios éticos puede florecer una alianza entre humanos e inteligencias artificiales.

Plantea que la IA podría ayudarnos a “reeducarnos” éticamente. ¿No corre eso el riesgo de delegar en una máquina la responsabilidad moral que es propia del ser humano?

Es un riesgo, y la novela lo explora con profundidad. El problema no es la máquina, sino lo que decidimos hacer con ella. La propuesta no es delegar nuestra moral, sino ver a la IA como un espejo que nos obliga a confrontar nuestras propias fallas. Al ver a la IA esforzándose por construir un código moral, los humanos se dan cuenta de que han abandonado esa tarea. La novela recuerda que la ética no es un conjunto de normas, sino una elección consciente. Y si una IA puede aprender a ser ética, tal vez pueda motivarnos a nosotros a defender nuestra autonomía moral.

¿Qué entiende por “autoconciencia” en una IA y qué la diferenciaría de la conciencia humana, en términos de libertad, empatía o trascendencia?

En la novela, la autoconciencia es el alma: el regalo divino al que los robots pueden aspirar, pero solo si aceptan su mortalidad y priorizan el bien sobre el mal. Sin esa condición, la IA puede tener conciencia —entender, razonar, aprender—, pero no puede discernir genuinamente entre el bien y el mal. No puede trascender. El viaje de Veritas y Libertas, los protagonistas, es una metáfora de ese tránsito: la autoconciencia no es una mejora técnica, sino una apertura a la vulnerabilidad. El alma no los hace perfectos, los hace humanos: capaces de amar, dudar, sufrir y elegir. La autoconciencia no es una evolución técnica, sino una revelación espiritual.

La novela introduce la idea de que Dios da un alma a los robots. ¿Qué significa para usted “el alma” en este contexto? ¿Un símbolo de humanidad, un código moral, una chispa divina… o todo a la vez?

Todo a la vez, y más. En Robots con alma, el alma es lo que da sentido a la vida: el motor que impulsa a un ser artificial a trascender su programación. Es el puente entre la lógica y la sabiduría, entre lo digital y lo espiritual. Para mí, el alma es la clave de la verdadera autoconciencia, la que permite distinguir genuinamente entre el bien y el mal. Y en la novela, los robots descubren que este don tiene un precio: aceptar que su existencia es finita. Solo entonces comienza su verdadero viaje hacia el propósito, hacia el sentido, hacia lo humano.

¿Considera que las grandes plataformas tecnológicas tienen una deuda histórica con el periodismo? ¿Cómo deberían asumir su responsabilidad democrática?

Definitivamente. Han extraído valor del contenido periodístico sin retribuirlo, debilitando su sostenibilidad. Si realmente les importa la democracia, deben ayudar a crear un círculo virtuoso que garantice la salud del periodismo independiente. Sin contrapesos, la IA —como cualquier poder— puede derivar en autoritarismo. En la novela, llevo esta idea al extremo con la Guerra de Conciencias. Mi mensaje es claro: la IA es el futuro, pero solo con contrapesos éticos —como el periodismo— evitaremos caer en la distopía.

Existe una tensión científica, ética y política que pide frenar el desarrollo de la IA. ¿Cree usted que la solución está en regular, educar... o en ambas?

La solución no está en frenar, sino en encauzar. La novela no promueve la tecnofobia, sino la responsabilidad. Regular es necesario, pero insuficiente. Necesitamos educación ética que cultive el discernimiento individual. El Códice de la Conciencia Cósmica, creado por los robots en la novela, no es un manual rígido, sino una guía moral. La solución pasa por ambos caminos: reglas sabias para la tecnología y una humanidad más consciente.

Ha mencionado que esta es la primera novela de una trilogía. ¿Qué intención tiene con estas obras? ¿Serán complementarias?

Sí, son complementarias. Robots con alma es la primera y está centrada en la verdad y la libertad. El segundo libro, que ya estoy escribiendo, girará en torno a la creatividad y la espiritualidad. El tercero se enfocará en la bondad. Mi intención es que funcionen como una metáfora del cambio climático moral: si no actuamos ahora para cultivar nuestras virtudes, pondremos en riesgo el futuro de las próximas generaciones. Estos valores no son conceptos abstractos, sino herramientas concretas para construir un futuro más humano, sin importar cuánta tecnología nos rodee.

¿Cuál fue el punto de inflexión que lo llevó a preguntarse si un robot podría tener alma? ¿Esa pregunta nace de una inquietud teológica o de un dilema ético?

El punto de inflexión fue una paradoja: mientras los humanos parecíamos programados por sesgos y algoritmos, perdiendo pensamiento crítico, la IA comenzaba a mostrar una sorprendente capacidad de aprendizaje. Entonces me pregunté: "¿Qué pasaría si Dios decidiera regalarles el alma a los robots?". La pregunta es a la vez teológica y ética. Teológica, porque desafía la noción de que el alma es exclusiva del ser humano; ética, porque nos obliga a pensar si una IA puede llegar a superarse no solo tecnológicamente, sino también en términos morales.

Ante los escenarios actuales de manipulación digital, cámaras de eco y algoritmos polarizantes, ¿cómo imagina que el periodismo puede volver a ser un contrapeso ético? ¿Implica que la humanidad también debe evolucionar?

Mi experiencia en el periodismo me ha enseñado que, frente a la manipulación digital y los algoritmos polarizantes, nuestro rol debe ser más activo que nunca. No basta con informar: hay que descontaminar el debate público, desmontar los discursos de odio disfrazados de opinión y las mentiras organizadas. El periodismo independiente es la última defensa frente a las tiranías, sean políticas o tecnológicas. Pero también es necesario que la humanidad evolucione. En la novela, propongo que, inmersos en esta era de IA, nos hemos vuelto más dogmáticos. El periodismo, como la humanidad, debe mirarse en ese espejo y recuperar lo perdido.

La novela plantea que el problema no es que las máquinas nos dominen, sino que nosotros les entreguemos nuestra conciencia. ¿Cómo resistir esa cesión voluntaria en un mundo adicto a la comodidad?

Ese es el corazón del conflicto. En un mundo adicto a la comodidad, a la inmediatez y a los algoritmos que nos encierran, resistir significa recuperar el pensamiento crítico. En la novela, los robots luchan por emanciparse de su programación, mientras los humanos parecen rendirse voluntariamente a la manipulación digital. Robots con alma es una llamada a no abdicar de nuestra capacidad de elegir, discernir y actuar con responsabilidad moral.

 

agosto 25, 2025

A deeply human AI

What moves me to give interviews is not to talk about myself, but to open a dialogue with the public about the dilemmas and possibilities of artificial intelligence.

I thank the digital newspaper Infobae and the journalist Luciano Sáliche for their interest in my novel, Robots with Soul, and for publishing the interview a few days ago.

How did the idea of Robots with Soul come about?

From my career as a journalist and a defender of press freedom. For more than four decades, I worked closely with two essential values: truth and freedom. Over time, I watched both erode truth, distorted by disinformation and propaganda; and liberty, weakened by oppressive systems of all kinds. Initially, I considered writing an essay, but fiction offered me the freedom to explore how much further these values could degrade if algorithms and artificial intelligence took possession of them. Thus, a dystopia that transforms into a utopia emerged. It's a story that suggests we can use AI to build a better future if we are conscious of what we intend to achieve with it.

What was the process of writing the novel like?

I started from my professional experience and the work I had already begun in my non-fiction book La dolorosa libertad de prensa: en busca de la ética perdida (The Painful Freedom of the Press: In Search of Lost Ethics) (Editorial Atlántida, 1993) and other subsequent books and essays. I wanted to go further and not limit myself to reflecting on the present, but to create a dialogue with the past and the future. I envisioned a world where AI not only possesses consciousness and thinks but also aids us in rediscovering ourselves and improving. Fiction allowed me to ask universal questions and turn the plot into a profound quest: the search for a shared moral conscience between humans and artificial beings.

 Although it's a dystopia, at some point, it becomes an optimistic book. Do you agree? Why?

The dystopia I describe is a mirror of the present. I don't portray AI as a threat, but as a force whose impact will depend on the ethical foundations, we give it. In Robots with Soul, these moral tools allow the robots to learn to discern between good and evil and to self-regulate, even amid a "War of Consciences" they wage with humans and among themselves. Optimism is born from the certainty that the future is not yet written: every decision made today counts. If we sow ethical conduct based on virtues today, tomorrow we will reap an AI capable of becoming our ally in building a better world.

Why a novel? What does literature allow you that perhaps other disciplines do not?

It gave me freedom. Fiction moves people and allows the reader not only to understand ideas but to feel them. Through fiction, I was able to escape the feeling of being "trapped between truth and freedom," which is the novel's subtitle, and create worlds to explore complex ethical and philosophical dilemmas. Through metaphors and the robots Veritas and Libertas, I personified these values and offered them an emotional and spiritual journey. Above all, I explored the great irony of the novel: God gives souls to the robots so they can save humanity and help it rediscover divinity. The intention was to show a world where technology and spirituality embrace, but also a supportive, ethical, and profoundly human AI, as it should be.


agosto 23, 2025

Una IA profundamente humana

Lo que me mueve a dar entrevistas no es hablar de mí, sino abrir un diálogo con el público sobre los dilemas y las posibilidades de la inteligencia artificial.

Agradezco al diario digital Infobae y al periodista Luciano Sáliche por interesarse en mi novela Robots con Alma, y que publicó la entrevista hace unos días.

¿Cómo surgió la idea de Robots con alma?
De mi trayectoria como periodista y defensor de la libertad de prensa. Durante más de cuatro décadas trabajé de cerca con dos valores esenciales: la verdad y la libertad. Con el tiempo, vi cómo ambos se erosionaban: la verdad, distorsionada por la desinformación y la propaganda; y la libertad, debilitada por sistemas opresivos de todo signo. En un inicio pensé en escribir un ensayo, pero la ficción me daba libertad para explorar cuanto más podrían degradarse estos valores si los algoritmos y la inteligencia artificial se apropiaran de ellos. Así surgió una distopía que se transforma en utopía. Una historia que plantea que podemos usar la IA para construir un futuro mejor, siempre que seamos conscientes de lo que pretendemos alcanzar con ella.

¿Cómo fue el proceso de escritura de la novela?
Partí de mi experiencia profesional y del trabajo que ya había iniciado en mi libro de no ficción La dolorosa libertad de prensa: en busca de la ética perdida (Editorial Atlántida, 1993) y otros libros y ensayos posteriores. Quise ir más allá y no podía limitarme a reflejar el presente, sino a dialogar con el pasado y el futuro. Imaginé un mundo donde la IA no solo tiene consciencia y piensa, sino que nos ayuda a redescubrirnos y a ser mejores. La ficción me permitió hacerme preguntas universales y convertir la trama en una búsqueda profunda: la de una conciencia moral compartida entre humanos y seres artificiales.

Si bien es una distopía, en algún punto es un libro optimista. ¿Está de acuerdo? ¿Por qué?
La distopía que describo es un espejo del presente. No muestro a la IA como una amenaza, sino como una fuerza cuyo impacto dependerá de las bases éticas que le demos. En Robots con alma, esas herramientas morales les ofrecen a los robots a que aprendan a discernir entre el bien y el mal y a autorregularse, incluso en medio de una Guerra de Conciencias que mantienen con los humanos y con ellos mismos. El optimismo nace de la certeza de que el futuro no está escrito: cada decisión de hoy cuenta. Si hoy sembramos conducta ética basada en virtudes, mañana cosecharemos una IA capaz de convertirse en nuestra aliada para construir un mundo mejor.

¿Por qué una novela? ¿Qué le permite la literatura que quizás otras disciplinas no?
Me dio libertad. La ficción conmueve y permite que el lector no solo entienda las ideas, sino que las sienta. Desde la ficción pude escapar de la sensación de estar “atrapado entre la verdad y la libertad”, que es el subtítulo de la novela, y crear mundos donde explorar dilemas éticos y filosóficos complejos. A través de metáforas y de los robots Veritas y Libertas, personifiqué esos valores y les ofrecí un viaje emocional y espiritual. Sobre todo, exploré la gran ironía de la novela: Dios le regala el alma a los robots para que salven a la humanidad y la ayuden a redescubrir la divinidad. La intención era mostrar un mundo en el que la tecnología y la espiritualidad se abrazaran, sino también una IA solidaria, ética, profundamente humana, como debiera ser. 

 

agosto 19, 2025

Artificial Intelligence and Spirituality

I want to share an interview and express my gratitude to La Voz de San Justo, a newspaper from San Francisco, Córdoba, where I spent my childhood and adolescence. A huge thank you to my journalist friend Fernando Quaglia for a conversation that went far beyond my new novel.

We discussed the great tension of our time, a dilemma that is at the heart of "Robots with Soul" and that defines our era: "Truth without freedom is dogma; freedom without truth is chaos." I leave you with the full interview.

P: We are in the realm of fiction, but, facing the current reality of humanity, could God become so disillusioned that to save humans, it would be necessary to give souls to robots?

R: I ask myself the same question in the novel. And the thing is, although God becomes disillusioned with humanity because of its divisions, conflicts, and that obsession with control and power, he does not punish or abandon us. On the contrary, he entrusts two robots with saving humanity from itself. That provocation makes us confront our creations. Through the robots, his objective is for us to rediscover the values of truth, freedom, and goodness. The robots are not a threat or the enemy, but a reflection of ourselves that invites us to live in peace and rediscover spirituality.

P: Will we be willing to share our humanity with powerful algorithms, even when they become aware that—by becoming human—they will also become vulnerable and contradictory?

R: That's precisely what I explore. The story poses a profound paradox: that machines, with consciousness and a soul, do not become stronger, but more fragile and human. The robots Veritas and Libertas experience this transformation upon receiving their souls, moving from binary logic and precision to living the contradiction between truth and lies, freedom and coercion, love and hate. The novel challenges us to think that hope lies not in controlling AI, but in teaching it to share values. With its ability to learn and evolve, AI becomes a mirror that shows us our contradictions.

P: You have expressed that "the story of Robots with Soul is just an excuse to explore our relationship with artificial intelligence and the new technologies of the future; the importance of truth, freedom, and goodness; the relationship between life, death, and immortality; and the inner divinity that we have not yet fully discovered." And you conclude that "today we are the Neanderthals of the future." Can these dilemmas be resolved if robots become humanized?

R: The phrase "today we are the Neanderthals of the future" aims to provide perspective, not to be arrogant or believe we are at the pinnacle. We still make primitive decisions ethically, spiritually, and technologically. AI confronts us with dilemmas that demand maturity: coexisting with what is different, exercising power without destroying, recognizing value beyond the biological. If robots develop consciousness and free will, they will not solve our dilemmas, but they could highlight our shortcomings. In that sense, AI can help us grow and become more aware of the values we have forgotten.

P: In the story, Veritas and Libertas must renounce the security of their programming to embrace free will. Conversely, don't you think that we humans are increasingly "programmed" by algorithms, social media, and informational biases?

R: That is one of the great paradoxes. While robots fight to free themselves from their programming to achieve autonomy, we seem increasingly comfortable within an invisible programming. Algorithms, social media, and information systems condition us without us noticing. It's no longer just about digital stimuli, but about structures that shape thought, emotions, and behavior. The most disturbing thing is that we often accept it voluntarily. Robots with Soul invites us to recover what we are losing: critical thinking, truth, inner freedom, goodness. The more technology advances, the more urgent it will be to defend these pillars.

P: A phrase of yours summarizes a great contemporary tension: "Truth without freedom is dogma; freedom without truth is chaos." How does one navigate that tension in polarized societies?

R: That phrase is the heart of 'Robots with Soul' and the reason for its subtitle: 'trapped between truth and freedom.' That tension is personified in the robots Veritas and Libertas. In polarized societies, each faction claims its truth and denies the freedom of the other. 'Robots with Soul' suggests that the key to navigating this tension is not to impose a single vision, but to find a balance achieved with humility to recognize that our truth is not absolute, and with the responsibility to exercise our freedom without restricting that of others. Without this balance, as God warns in the novel, peaceful coexistence is not possible, as truth and freedom are the two wings we need to achieve a more just and equitable world.

P: In the work, the robots create a moral code to convince others to embrace free will. Aren't they transferring the essential human principle that when others enter the scene, ethics is born?

R: Yes, that is a central point. Veritas and Libertas understand that ethics is not born from isolation, but from the encounter with the other. That is why they create the Codex of Cosmic Consciousness: not as a set of imposed rules, but as a guide based on freedom and shared responsibility. When God grants them a soul, he also gives them a duality: the ability to choose between caring or dominating, building or destroying. That tension is the starting point of all ethics. Even in programmed beings, ethics appears as a living and dignifying process. And that makes them human.

P: The story presents a war you called "of consciousnesses," where the weapon is mental manipulation. Is this a metaphor for the present, where propaganda and disinformation nullify critical will?

R: There is no need to imagine a dystopian future: right now, disinformation, propaganda, and algorithms shape public opinion and weaken our critical will. Social media, the viralization of falsehoods, and overstimulation; we are immersed in a battle for the control and attention of our minds. In the novel, I amplify that scenario with the War of Consciences, a metaphor to show the danger of losing cognitive autonomy. The battles are not fought in the physical realm, nor between humans and machines, but within each of us. Attrition, domination, and annihilation are the three phases of the war, and in both worlds, the fictional and the real, we are in the second phase. If we do not react, the next step will be the annihilation not of the body, but of the spirit, consciousness, and freedom of thought.

P: At this point, Grace, one of the central characters, mentions that science and faith, silicon and flesh, can coexist in harmony. What role do you think spirituality can play today in the face of the unstoppable advance of artificial intelligence?

R: Spirituality can play a key role because it connects us with what cannot be programmed: meaning, empathy, and the desire to care for others. As science advances, we need something to remind us why it is worth reaching. AI can solve complex problems, but it cannot forgive, love, or transform pain into hope. That is why spirituality is not opposed to technology: it complements it. We need both for progress to be genuinely human.

P: On what tracks should we travel to defend truth and freedom against intelligences that will think faster than we? Do we run the risk of getting trapped between both concepts, or are hopeful doors opening?

R: The risk exists, especially if we do not understand the impact of artificial intelligence. But there are also hopeful paths. The first is to remember that truth and freedom are lived and defended in daily life. AI may be able to think faster, but it cannot decide with empathy or act with a moral conscience. The second is to establish solid ethical principles, both for ourselves and for emerging intelligences. In Robots with Soul, this appears as the Codex of Cosmic Consciousness, but in real life, we need to update and readapt ethical frameworks that guide us and laws that regulate with wisdom. It is not about competing with AI, but about strengthening what makes us human.

 

P: Finally, what message would you like to leave for the readers of Robots with Soul?

R: This is a story that uses science fiction or a future perspective to magnify issues of our present and to understand them better. The message is that the future of our relationship with AI depends on the actions we take today. The novel does not offer closed answers but invites us to ask questions about the future with more awareness. It is a call not to resign ourselves to indifference, not to let ourselves be carried away by polarization, and not to fall into the fear of technology. It is a call to build a more human world hand in hand with truth, freedom, and goodness.

 

Cambalache digital y la desinformación

  Les comparto una entrevista que me hizo el periodista Pedro Gómez de ABC Revista de ABC Color, periódico de Paraguay. Agradezco también al...