septiembre 06, 2025

¿Un presidente puede expresarse libremente?

Vivimos una época libertad de expresión irresponsable. Es verdad que las redes sociales han democratizado la expresión, pero también muchos se escudan en ellas para divulgar mentiras intencionadas, bulos y hasta para hablar o escribir dichos en forma anónima, que de otra forma no lo dirían por pudor, temor o por hacer el ridículo. Es que la libertad de expresión requiere responsabilidad y tiene límites, éticos y legales, entre ellos la difamación.

También es necesario potenciar el anonimato porque siempre es una forma de denuncia que evita la consecuencia, de ahí que haya leyes que protejan a los whistleblowers o soplones, aquellas personas que desde las empresas gubernamentales y privadas denuncian o revelan injusticias y corrupción que, no ser por ellos, nunca saldrían a la luz. También hay profesiones que necesitan estar a resguardo de las consecuencias, para proteger su discurso, denuncias u opiniones, como por ejemplo las de un legislador disidente o un periodista consciente.

Podemos enumerar casos y excepciones, pero hay un ser que no tiene ni puede tener la misma libertad de expresión que los demás: los presidentes o presidentas de un país.

Actualmente, muchos de ellos evitan las conferencias de prensa y solo hablan a través de mensajes cerrados (es decir sin el contrapeso de las preguntas periodísticas) a través de redes sociales como X o directamente en sus redes propias, como Donald Trump en la suya, Truth Social. Y aquí viene la pregunta: ¿Tiene un presidente los mismos derechos que un ciudadano para expresar sus opiniones y argumentos? Claro que sí. ¿Y para decir lo que se le antoja, burlarse o insultar a otros? Por supuesto que no.

En materia de libertad de expresión, por su envergadura pública y debido a las consecuencias que sus pronunciamientos pueden acarrear, un presidente tiene más restricciones y responsabilidades que una persona normal y corriente. Así como sus acciones están limitadas – no puede declarar la guerra o irse de viaje al extranjero sin la aprobación del Congreso – también lo están sus palabras.

Pero no lo sienten así muchos presidentes, demostrándolo con sus constantes dichos sarcásticos, desafiantes y burlones, además de insultos por doquier. Estas actitudes provocan autocensura en los disidentes y acólitos autocensura y, lo que es peor, generan una retórica vengativa o estimulan violencia. A Trump hay que sumarle lo que hace Javier Milei o Nayib Bukele o, en la vereda de enfrente lo que hacen Nicolás Maduro o Daniel Ortega.

Hay que tener en cuenta que hablar, opinar o insultar no es necesariamente informar, mandato que todo presidente tiene en la Consituticón de su país y en las leyes de Transparencia que le mandan informar y les prohíben hacer propaganda partidaria o de sus logros como si estuvieran en un eterno proceso electoral.

Evidenciado por sus prédicas contra quienes los critican, muchos presidentes no admiten que como funcionarios renuncian a privilegios de privacidad, asumen restricciones y deben estar más expuestos a la crítica y a la fiscalización pública. Da la impresión que manejan la función pública como patrones de estancia, creyendo que se les dio un país en usufructo, cuando lo único que legitiman las elecciones es la gerencia temporal de los bienes del Estado, actividad que infiere tres valores: eficiencia, honestidad y transparencia.

La Corte Interamericana de Derechos Humanos, en varias disputas entre periodistas y los gobiernos, falló que los funcionarios públicos tienen mayores responsabilidades en cuanto a sus pronunciamientos, ya que los dichos hostiles pueden exacerbar la intolerancia y animadversión, y “constituir formas de injerencia directa o indirecta o presión lesiva en los derechos de quienes pretenden contribuir a la deliberación pública mediante la expresión”. Y estableció que las restricciones para que puedan hablar deben ser mayores en situaciones de conflictividad social, ante el peligro de que los riesgos puedan potenciarse.

Lamentablemente, estos fallos no fueron acatados ni aprendidos. La polarización extrema que hoy se vive, no se debe tanto a la diferencia entre modelos políticos, sino al antagonismo de las palabras, dichas por presidentes irresponsables que no se comportan a la altura de su investidura, sino más bien, como agitadores de barricada. 

 

septiembre 02, 2025

A Look from the Future to Understand the Present of AI

We ask it to write an email, a speech we claim as our own, and we even accept the hallucinations it invents. We consult it about a skin rash, the "evil eye," and chat with it as if it were just another friend.

Generative Artificial Intelligence is no longer a laboratory experiment: it's an invisible co-pilot to whom we enthusiastically hand over part of the wheel. But we do it with the apprehension of traveling without a map, without knowing where it will take us. This fear is what defines our time.

This fear divides the global conversation into two poles: the technological optimism that offers magical solutions and the dystopian pessimism that warns of massive unemployment and algorithmic control.

To escape this trap, I sought distance in fiction. In my novel "Robots with Soul: Trapped Between Truth and Freedom", I imagined a future that allows us to view the present as if it were already history. I discovered something fundamental: without a robust ethical framework for AI, we won't be condemned to an apocalypse, but we will lose our human direction.

The Tenant

AI is like a tenant who lives in our house and never stops watching and listening. Every Google search, every WhatsApp chat, every TikTok video reveals our doubts, emotions, and phobias. With this data, algorithms enclose us in bubbles that reinforce our beliefs and suppress dissenting voices. What is celebrated in the digital world as personalization is nothing more than surveillance.

The risk doesn't end on the screen. Geolocation systems inform that we are not at home—an open invitation for thieves. Health devices that monitor our sleep or pulse are valuable for well-being, but are also intimate x-rays that, if leaked, could be used by insurers or employers. And the financial data we provide when shopping online can be transformed into fraud that empties accounts in seconds.

The objectivity of AI is a mirage. Amazon had to discard a hiring system because it penalized women, and judicial programs like COMPAS in the U.S. demonstrated how AI can amplify existing discrimination. The machine isn't malicious; it only replicates the injustice of the data it's fed.

The greatest danger of AI appears when it speaks with excessive confidence. It doesn't lie with malice, but its fictions can be devastating. The promise of a "Dr. ChatGPT" resurrected the old problem of self-diagnosis. In mental health, the inability to empathize can deepen isolation instead of healing.

Hallucinations are not trivial errors. In 2024, an employee in Hong Kong transferred more than $25 million after a video call with digital clones of his bosses, created using deepfake technology. In the political arena, the threat is greater: in India and the United States, fake audio recordings were circulated, attributed to leaders who never spoke.

The risk is not limited to the individual sphere; it also strikes professions that are the backbone of democracy. Journalism is the most obvious case. If Google and Facebook used to condition traffic to media outlets, today AI engines directly absorb and summarize the news without returning an audience to its sources. The press loses resources, and society loses its watchdog. A machine can narrate the facts, but it can't make power uncomfortable or feel empathy for the vulnerable.

Breaking the Old Cycle

History shows a self-defeating pattern: first, we celebrate innovation, then we suffer its vices, and only afterward do we regulate. Happened with the Industrial Revolution; we only regulated after suffering labor exploitation and child labor. And the same happened with the internet; we only debated privacy violations after the Cambridge Analytica scandal, which revealed how data from millions of users was manipulated to influence elections in the U.S. and Brexit.

The positive difference is that with AI, we're trying to break this cycle. For the first time, the debate about its risks is at the center of the global agenda before a catastrophe. In 2024, the European Union approved the first Comprehensive AI Act, which prohibits unacceptable applications like "social scoring" and requires transparency in models like ChatGPT. UNESCO, for its part, set global ethical principles around dignity, human rights, and sustainability.

Meanwhile, big tech companies are trying on an "ethical makeover" that functions more as marketing than as responsibility: symbolic committees, grandiloquent principles, and empty promises. Ethics without consequences ends up being public relations.

In the face of this, the genuine counterweight has been whistleblowers from within these same tech companies: Frances Haugen, revealing the harm of Instagram on teenagers, Peiter Zatko denouncing security flaws at Twitter, and Timnit Gebru exposing biases in Google's models. The system recognizes their value with laws that protect them in the West, though in China and other authoritarian countries, the whistleblower is punished as a subversive.

The Price of Trust

The new trend is to embed ethics into the engineering itself: model cards that explain biases, red-teaming to detect flaws before going to market, invisible watermarks to identify AI-generated content. Companies have even emerged that sell biased audits as if they were quality certifications. Fortunately, ethics are no longer just a discourse and are starting to become a product.

None of this happens in a vacuum. AI is the new frontier of global power. The struggle between the U.S. and China isn't ideological—it's strategic. Chips are the new oil, and rare earths are the coveted bounty. For Latin America and Africa, the risk is repeating a digital colonialism: exporting raw data and importing finished products.

The other dilemma is energy. Training models like GPT-4 or 5 requires the energy of entire cities, and the industry keeps the true energy cost a secret—a black box that prevents measuring the real environmental impact. Google, Microsoft, and Amazon plan to turn to nuclear energy to sustain demand, and there is no certainty about whether they will assume the risks that this implies.

It would be short-sighted to speak only of risks. AI detects patterns in mammograms that save lives, predicts the structure of proteins with which drugs are designed, or anticipates droughts that allow humanitarian aid to be distributed before famine strikes.

It's not about choosing between a watchful tenant and a savior but about establishing rules for coexistence.

The Public Debate

The most potent response to opacity is not to wait for a perfect law but to initiate a robust public debate. Digital literacy is needed to teach us to doubt AI: that engineers study philosophy, that lawyers understand algorithms, that journalists question black boxes just as they question political speeches.

Education is already a battlefield. For many, ChatGPT has become a shortcut that solves tasks, but at the same time, it threatens to atrophy critical thinking. The challenge is not to ban it but to teach how to use it without giving up the effort to learn and reason.

From all of this, the great dilemmas that define our relationship with AI emerge: privacy, biases, legal responsibility, transparency, security, data quality, intellectual property, labor, environmental, and psychological impact, digital sovereignty, model collapse, and human autonomy.

Beyond these, three new challenges emerge: the development of humanoid robots, autonomous agents capable of making decisions on our behalf, and the concentration of computational power in a few corporations.

The penultimate dilemma is existential: how do we prepare for a superintelligence, a General AI that will surpass humans? And the last, the most intimate one: in a world saturated with interactions, art, and companionship generated by AI, what value will authentic human experience have? How will we preserve the beauty of our imperfect creativity, our genuine emotions, and our real connections in the face of a perfect replica's seduction?

Our Future

AI remains a tool, and its direction will depend on our decisions. The challenge is not to control it but to inspire it, embedding principles like truth, empathy, and critical thinking in its foundations so that it evolves into a form of wisdom. The future will not be defined by naive optimism or paralyzing panic but by our capacity to build an ethical framework that combines regulation, verifiable standards, and the vigilance of an informed citizenry.

In the distance of "Robots with Soul", I found the clarity to see that what is at stake is not just an algorithm but the soul of our digital society. Fiction literature doesn't offer technical solutions, but it provides the perspective to understand that it's not just about creating an artificial intelligence but about helping it, in its own evolution, to choose to value life, truth, freedom, and consciousness. Helping it to become more human.

Read the original version in Spanish: https://www.eltribuno.com/opiniones/2025-8-30-0-0-0-una-mirada-desde-el-futuro-para-entender-el-presente-de-la-ia

 

agosto 31, 2025

Mirarda desde el futuro para entender el presente de la IA

https://www.eltribuno.com/opiniones/2025-8-30-0-0-0-una-mirada-desde-el-futuro-para-entender-el-presente-de-la-ia

Les comparto una opinión sobre ética en la IA que me publicó el diario El Tribiuno, de Salta, Argentina. La titulé Una mirada desde el futuro para entender el presente de la IA

Por Ricardo Trotti

Le pedimos que escriba un mail, un discurso que defendemos como propio y hasta le aceptamos las alucinaciones que inventa. La consultamos por una erupción en la piel, por el “mal de ojo” y conversamos con ella como si fuera una amiga más.

La Inteligencia Artificial Generativa ya no es un experimento de laboratorio: es un copiloto invisible al que le entregamos parte del volante con entusiasmo. Pero lo hacemos con la inquietud de viajar sin mapa, sin saber a dónde nos llevará. Ese miedo es el que marca nuestro tiempo.

Ese miedo divide la conversación global en dos polos: el optimismo tecnológico que ofrece soluciones mágicas, y el pesimismo distópico que advierte sobre desempleo masivo y control algorítmico.

Para escapar de esa trampa, busqué distancia en la ficción. En mi novela Robots con Alma: atrapados entre la verdad y la libertad imaginé un futuro para mirar el presente como si ya fuera historia. Descubrí algo fundamental: sin un marco ético robusto para la IA, no estaremos condenados al apocalipsis, pero sí a perder el rumbo de nuestra humanidad.

El inquilino

La IA es como un inquilino que vive en nuestra casa y nunca deja de observar y escuchar. Cada búsqueda en Google, cada chat en WhatsApp, cada video en TikTok revela nuestras dudas, emociones y fobias. Con esos datos, los algoritmos nos encierran en burbujas que refuerzan nuestras creencias y suprimen las voces disidentes. Lo que se celebra en el mundo digital como personalización no es otra cosa que vigilancia.

El riesgo no termina en la pantalla. Los sistemas de geolocalización informan que no estamos en casa; una invitación abierta para los ladrones. Los dispositivos de salud que monitorean nuestro sueño o pulso son valiosos para el bienestar, pero también radiografías íntimas que, filtradas, pueden ser utilizadas por aseguradoras o empleadores. Y los datos financieros que entregamos al comprar en línea pueden transformarse en fraudes que vacían cuentas en segundos.

La objetividad de la IA es un espejismo. Amazon debió desechar un sistema de contratación porque penalizaba a las mujeres, y programas judiciales como COMPAS en EE.UU. demostraron cómo la IA puede amplificar discriminaciones existentes. La máquina no es malvada: solo replica la injusticia de los datos con los que se alimenta.

El mayor peligro de la IA aparece cuando habla con excesiva seguridad. No miente con malicia, pero sus ficciones pueden ser devastadoras. La promesa de un “Dr. ChatGPT” resucitó el viejo problema del autodiagnóstico. En salud mental, su incapacidad de empatía puede profundizar el aislamiento en lugar de curar.

Las alucinaciones no son errores triviales. En 2024, un empleado en Hong Kong transfirió más de 25 millones de dólares tras una videollamada con clones digitales de sus jefes, creados con deepfake. En el terreno político, la amenaza es mayor: en India y Estados Unidos circularon audios falsos atribuidos a líderes que jamás hablaron.

El riesgo no se limita a la esfera individual: también golpea a profesiones que son columna vertebral de la democracia. El periodismo es el caso más evidente. Si antes Google y Facebook condicionaban el tráfico hacia los medios, hoy los motores de IA directamente absorben y resumen las noticias sin devolver audiencia a sus fuentes. La prensa pierde recursos y la sociedad pierde a su vigilante. Una máquina puede narrar los hechos, pero no incomodar al poder ni sentir empatía por los vulnerables.

Romper el ciclo de siempre

La historia muestra un patrón suicida: primero celebramos la innovación, luego padecemos sus vicios y solo después regulamos. Así ocurrió con la Revolución Industrial; recién regulamos después de sufrir la explotación laboral y el trabajo infantil. Y pasó lo mismo con Internet; recién debatimos sobre la violación de la privacidad tras el escándalo de Cambridge Analytica, que reveló cómo se manipularon datos de millones de usuarios para influir en elecciones en EE.UU. y el Brexit.

La diferencia positiva es que con la IA se intenta romper este ciclo. Por primera vez, el debate sobre sus riesgos está en el centro de la agenda global antes de la catástrofe. La Unión Europea aprobó en 2024 la primera Ley Integral de IA, que prohíbe aplicaciones inaceptables como la “puntuación social” y exige transparencia en modelos como ChatGPT. La UNESCO, por su parte, fijó principios éticos globales en torno a la dignidad, los derechos humanos y la sostenibilidad.

Mientras tanto, las grandes tecnológicas ensayan un “maquillaje ético” que funciona más como marketing que como responsabilidad. Comités simbólicos, principios grandilocuentes y promesas vacías. La ética sin consecuencias termina siendo relaciones públicas.

Frente a ello, el verdadero contrapeso han sido los whistleblowers o soplones desde las mismas tecnológicas: Frances Haugen revelando el daño de Instagram en adolescentes, Peiter Zatko denunciando fallas de seguridad en Twitter, Timnit Gebru exponiendo sesgos en los modelos de Google. El sistema reconoce su valor con leyes que los protegen en Occidente, aunque en China y otros países autoritarios el denunciante es castigado como subversivo.

El precio de la confianza

La nueva tendencia es incrustar la ética en la propia ingeniería: model cards que explican sesgos, red-teaming para detectar fallas antes de salir al mercado, marcas de agua invisibles para identificar contenidos generados por IA. Incluso han surgido empresas que venden auditorías de sesgo como si fueran certificaciones de calidad. Por suerte, la ética ya no es discurso y empieza a ser producto.

Nada de esto ocurre en el vacío. La IA es la nueva frontera del poder mundial. La pugna entre EE.UU. y China no es ideológica, es estratégica. Los chips son el nuevo petróleo y las tierras raras, el botín codiciado. Para América Latina y África, el riesgo es repetir un colonialismo digital: exportar datos en bruto e importar productos terminados.

El otro dilema es energético. Entrenar modelos como GPT-4 o 5 requiere la energía de ciudades enteras y la industria mantiene en secreto el verdadero costo energético, una caja negra que impide medir el impacto ambiental real. Google, Microsoft y Amazon planean recurrir a energía nuclear para sostener la demanda y no hay certeza sobre si asumirán los riesgos que ello implica.

Sería miope hablar solo de riesgos. La IA detecta patrones en mamografías que salvan vidas, predice la estructura de proteínas con la que se diseñan fármacos o anticipa sequías que permiten distribuir ayuda humanitaria antes de la hambruna.

No se trata de elegir entre un inquilino vigilante o uno salvador, sino de establecer reglas de convivencia.

El debate público

La respuesta más poderosa frente a la opacidad no es esperar una ley perfecta, sino iniciar un debate público robusto. Se necesita una alfabetización digital que enseñe a dudar de la IA: que los ingenieros estudien filosofía, que los abogados entiendan de algoritmos, que los periodistas cuestionen cajas negras como cuestionan discursos políticos.

La educación es ya un campo de batalla. Para muchos, ChatGPT se ha vuelto un atajo que resuelve tareas, pero al mismo tiempo amenaza con atrofiar el pensamiento crítico. El reto no es prohibirlo, sino enseñar a usarlo sin renunciar al esfuerzo de aprender y razonar.

De todo esto emergen los grandes dilemas que definen nuestra relación con la IA: privacidad, sesgos, responsabilidad legal, transparencia, seguridad, calidad de los datos, propiedad intelectual, impacto laboral, ambiental y psicológico, soberanía digital, colapso de modelos y autonomía humana.

Y más allá, tres nuevos desafíos: la irrupción de robots humanoides, los agentes autónomos capaces de tomar decisiones por nosotros y la concentración del poder computacional en pocas corporaciones.

El penúltimo dilema es existencial: cómo nos preparamos para una superinteligencia, una IA General que superará al ser humano. Y el último, el más íntimo: en un mundo saturado de interacciones, arte y compañía generados por IA, ¿qué valor tendrá la experiencia humana auténtica? ¿Cómo preservaremos la belleza de nuestra imperfecta creatividad, nuestras emociones genuinas y nuestras conexiones reales frente a la seducción de una réplica perfecta?

Nuestro futuro

La IA sigue siendo una herramienta, y su rumbo dependerá de nuestras decisiones. El desafío no es controlarla, sino inspirarla, incrustando en sus cimientos principios como la verdad, la empatía y el sentido crítico para que evolucione hacia una forma de sabiduría. El futuro no se definirá por un optimismo ciego ni por un pánico paralizante, sino por nuestra capacidad de construir un marco ético que combine regulación, estándares verificables y la vigilancia de una ciudadanía informada.

En la distancia de Robots con Alma encontré la claridad para ver que lo que está en juego no es solo un algoritmo, sino el alma de nuestra sociedad digital. La literatura de ficción no ofrece soluciones técnicas, pero sí la perspectiva para entender que no se trata solo de crear una inteligencia artificial, sino de ayudarla a que, en su propia evolución, elija valorar la vida, la verdad, la libertad y la conciencia. Ayudarla a ser más humana.

 


El sesgo moral del lenguaje periodístico

Soy suscriptor y admirador del periodismo de El País de España y de lo que producen sus redacciones en los países americanos. En estos días ...