Mostrando entradas con la etiqueta IA. Mostrar todas las entradas
Mostrando entradas con la etiqueta IA. Mostrar todas las entradas

marzo 15, 2026

Inteligencia artificial: el aula sin maestro

El mundo de las empresas de inteligencia artificial se parece a un aula cuando el maestro se ausenta. Sin autoridad presente, todos gritan a la vez y compiten para ver quién provoca más desorden.

En un ecosistema sin vigilancia ni frenos éticos o regulatorios, las compañías tecnológicas aceleran por miedo a quedarse atrás de la competencia. En esta carrera, el afán de dominio y el lucro mandan por encima de nuestro bienestar como usuarios.

Mientras las empresas juegan, quedamos a merced de sus “cajas negras”. Ignoramos cómo operan sus sistemas y si utilizan nuestros datos para conducirnos por caminos que nunca elegimos libremente.

La gran paradoja de nuestro tiempo es que la IA se nutre de la creatividad humana. Sin nuestro ingenio, estas máquinas serían cáscaras vacías. Bajo el mantra del progreso, la industria ha normalizado el mayor saqueo de propiedad intelectual de la historia, absorbiendo contenidos periodísticos, literarios, científicos y académicos. Sin esa apropiación masiva, estas compañías difícilmente habrían alcanzado su éxito ni sus valuaciones multimillonarias.

La lógica económica recuerda a la vieja fiebre del oro, aunque con una diferencia crucial. En el siglo XIX cualquiera con una batea podía probar suerte en un río. En la fiebre actual, las minas pertenecen a un puñado de gigantes que, tras amasar fortunas en la era del internet abierto, ahora explotan este nuevo filón en régimen casi monopólico.

Hasta hace poco el negocio de la IA marchaba sobre ruedas porque la batalla se libraba sobre todo a nivel cultural. Pero la geopolítica ha metido un palo entre las ruedas. Al abrir sus modelos a agencias de inteligencia y defensa, las tecnológicas han cruzado sus propias líneas rojas. Hoy la IA se utiliza para identificar objetivos militares, detectar migración irregular y, combinada con herramientas como Pegasus, espiar a periodistas y activistas. Estamos ante sistemas de vigilancia masiva y manipulación cognitiva donde la supervisión humana es cada vez más difusa.

En esta aula sin supervisión, algunas empresas intentan levantar tímidas murallas de contención. OpenAI busca reforzar la honestidad factual de sus modelos para reducir errores y alucinaciones, mientras Anthropic promueve una “IA Constitucional” que intenta integrar principios éticos en el código y ha resistido presiones del Pentágono para su uso militar. Otras compañías experimentan con auditorías externas y marcos de gobernanza para anticipar riesgos antes de que la tecnología llegue al público.

Las intenciones pueden ser buenas, pero el problema es la velocidad. Estas iniciativas avanzan con una lentitud inoperante frente a la aceleración tecnológica que las propias empresas impulsan. Se trata de una contradicción evidente entre los principios que proclaman y la urgencia con la que lanzan nuevos modelos al mercado. Mientras la ética y la regulación requieren reflexión y tiempo, el negocio de la IA solo sabe acelerar, dejando cualquier intento de contención como un adorno en una carrera sin frenos.

Desde afuera, los esfuerzos por imponer orden también se multiplican, aunque a un ritmo peligrosamente lento. Universidades como Oxford, MIT o Stanford advierten que no bastan los parches técnicos. Lo mismo señalan organismos como la UNESCO, la OCDE o el G7, que han trazado marcos éticos para proteger derechos fundamentales. Pero la burocracia institucional está lejos de competir con la agilidad del silicio.

Esa discordancia es peligrosa. Si la industria persiste en su mala conducta de estudiante sin supervisión, tarde o temprano chocará con regulaciones draconianas. En su afán por proteger derechos fundamentales, los gobiernos podrían reaccionar con marcos legales tan rígidos que terminen asfixiando la innovación.

Pasar del libertinaje a la madurez exige que la responsabilidad social vuelva al centro del debate. De lo contrario, el maestro llegará tarde… y lo hará con un castigo que nadie quiere recibir.

marzo 08, 2026

La IA y el “destape” creativo

    Durante siglos, crear arte, ciencia o conocimiento exigía esfuerzo, tiempo y talento manual. Hoy la inteligencia artificial generativa ha derrumbado muchos de esos límites de golpe y a una velocidad deslumbrante.
    Cada tecnología que expande nuestras capacidades suele recorrer un mismo ciclo. Primero la fascinación, luego el exceso y, con el tiempo, el aprendizaje que conduce a un equilibrio más responsable. Con la IA parece que estamos en esa fase de fascinación y exceso, donde la rapidez y la eliminación de los límites técnicos generan una ilusión de omnipotencia.
    Algo parecido ocurrió tras muchas dictaduras. Después de años de prohibiciones absurdas, desde la barba y el pelo largo hasta las minifaldas, llegó una época de “destape” en la que se exploró lo erótico, lo transgresor y también lo ilegal sin demasiado freno. Es la etapa del libertinaje que suele preceder a la libertad, cuando se asumen con mayor consciencia los límites y las responsabilidades.
    Con la IA parece estar ocurriendo algo similar. Vivimos un momento de “vale todo”, en el que crear imágenes, voces o escenas ficticias se ha vuelto trivial y donde muchas veces dejamos de preguntarnos si lo que circula es verdadero o falso.
    Los ejemplos abundan. Desde el papa Francisco con un abrigo de Balenciaga hasta Aitana López, la influencer española que nunca existió. Más recientemente apareció Xenia Monet, una cantante cuya voz mezcla matices de Beyoncé, Mariah Carey y Whitney Houston y que llegó a las listas de Billboard mientras su creadora en Misisipi firma contratos millonarios. O la pelea viral entre Brad Pitt y Tom Cruise, digna de una superproducción de Hollywood, creada con Seedance 2.0, una herramienta de IA vinculada a TikTok.
    Las protestas de artistas y productores no tardaron en llegar. Denunciaron que la creatividad artificial suplanta a la humana y temieron por el impacto laboral en sus industrias. Pero ese reclamo corporativo pasa por alto algo inquietante. Al público parece importarle cada vez menos si lo que consume es real o generado.
    El problema, en realidad, es más profundo. No tiene que ver con la “creatividad” de la máquina, sino con la posible atrofia de nuestra propia agencia cuando delegamos el pensamiento en algoritmos, con la normalización de la mentira en una época saturada de desinformación y con la erosión gradual de la confianza pública.
    Conviene, además, exonerar a la máquina de parte de esta discusión. Quien creó a Xenia Monet o la pelea entre Pitt y Cruise no escribió un simple prompt y listo. Como en cualquier proceso creativo, hubo ensayo, prueba, error y ajustes constantes hasta acercarse a lo imaginado.
    La IA es simplemente la última herramienta en una larga cadena de instrumentos que los humanos hemos utilizado para ampliar nuestras capacidades. Nuestros antepasados usaron piedras para producir fuego, mezclaron minerales para inventar metales o manipularon microorganismos para crear antibióticos.
    El libertinaje creativo actual se explica en buena medida por un desfase evidente. La tecnología avanzó mucho más rápido que los legisladores, educadores y pensadores encargados de construir los marcos éticos y legales. Sin esas referencias, distinguir entre lo aceptable y lo abusivo se vuelve cada vez más difícil.
    De ahí que el debate ético haya comenzado a ocupar espacio en universidades y foros internacionales. Organizaciones como la UNESCO impulsan marcos para el uso responsable de la inteligencia artificial, mientras muchas universidades han incorporado estos dilemas a sus programas de estudio. En Estados Unidos incluso se celebran jornadas como la “Ethics Week”, donde estudiantes y profesores debaten cómo preservar valores como la verdad y la libertad frente a la fascinación tecnológica y qué partes de nuestra humanidad no estamos dispuestos a delegar en las máquinas.
    Pasar del libertinaje a la madurez creativa implica asumir el control consciente de la herramienta. La IA puede generar el lienzo, el color o la melodía a una velocidad inédita, pero el propósito, el significado y la verdad que transmiten esas obras siguen siendo responsabilidad humana. Con el tiempo, a medida que la sociedad se familiarice con estas tecnologías, es probable que emerja un mayor equilibrio en el que la IA amplíe nuestras capacidades sin reemplazar el juicio ni el pensamiento crítico.
    En el próximo artículo abordaré el peligroso libertinaje de las empresas creadoras de IA.

diciembre 04, 2025

La IA, tan indispensable e invisible como la electricidad


Quiero agradecer a Gonzalo Marroquín Godoy por la entrevista para revista Crónica de Guatemala, de la que es su director y presidente. 

Usted dice que la Inteligencia Artificial cambiará nuestra forma de vivir y trabajar. ¿Cuál cree que será el cambio más profundo que experimentará la sociedad en los próximos cinco años?: Creo que el cambio más radical no será ver robots caminando por la calle, sino que la IA se volverá invisible e indispensable, como la electricidad. En los próximos cinco años dejará de ser una herramienta externa y se disolverá en el ambiente. Estará integrada en cada procesador de texto, en diagnósticos médicos, en sistemas financieros y decisiones cotidianas, ámbitos donde ya opera en silencio. Pasaremos de usar la tecnología a vivir dentro de ella. Será un socio intelectual permanente.

La historia ofrece un espejo. Con el Internet sucedió igual. Le tuvimos miedo, desconfianza y luego fue una integración total. La tecnología avanza por ensayo y error. Con la IA viviremos una etapa similar y habrá ajustes. Un ejemplo son los periódicos, regalaron contenido creyendo que era el camino y luego vieron el daño.

Lo que cambiará es la frontera de la creatividad. Cualquiera podrá generar música, imágenes o películas desde su habitación. Pero, paradójicamente, esa facilidad hará más valiosa la chispa humana.

Pueden leer también la entrevista en este enlace:  Ricardo Trotti: La IA se volverá invisible e indispensable, como la electricidad

noviembre 18, 2025

Dotar de alma a la IA


Cultivar valores humanos en tiempos de algoritmos.

En este ensayo uso alma como metáfora técnica. No aludo a lo espiritual, sino a una arquitectura moral interna en la Inteligencia Artificial. Dotarla de alma es sinónimo de darle la capacidad de distinguir el bien del daño y decir no, incluso contra la voluntad del usuario. Sería el freno estructural que impediría a un modelo incentivar suicidios, optimizar torturas, manipular elecciones, diseñar ciberataques, perfeccionar armas caseras o enseñar cómo vulnerar sistemas de salud o energía.
 
Por Ricardo Trotti
Miami – actualizado diciembre de 2025. (Ensayo paralelo a mi novela “Robots con Alma: atrapados entre la verdad y la libertad”).
Le pedimos que nos guíe en el tráfico, que traduzca idiomas desconocidos y que redacte correos o informes que luego defendemos como propios. Aceptamos incluso sus alucinaciones como verdades, la consultamos por una erupción en la piel, por el “mal de ojo” o por nuestro futuro económico. Y hasta nos sorprende que nuestros hijos conversen con ella como si fuese un amigo más.
La Inteligencia Artificial Generativa (IAG) se volvió una presencia cotidiana, un copiloto al que cedimos el volante de nuestra vida con entusiasmo y miedo a la vez, porque no comprendemos del todo a qué nos exponemos. Su expresión más visible son los Modelos de Lenguaje de Gran Escala (LLM), como ChatGPT, Gemini, Claude o Copilot, capaces de redactar, responder preguntas, traducir y actuar como consejeros o confesores.

agosto 31, 2025

Mirarda desde el futuro para entender el presente de la IA

https://www.eltribuno.com/opiniones/2025-8-30-0-0-0-una-mirada-desde-el-futuro-para-entender-el-presente-de-la-ia

Les comparto una opinión sobre ética en la IA que me publicó el diario El Tribiuno, de Salta, Argentina. La titulé Una mirada desde el futuro para entender el presente de la IA

Por Ricardo Trotti

Le pedimos que escriba un mail, un discurso que defendemos como propio y hasta le aceptamos las alucinaciones que inventa. La consultamos por una erupción en la piel, por el “mal de ojo” y conversamos con ella como si fuera una amiga más.

La Inteligencia Artificial Generativa ya no es un experimento de laboratorio: es un copiloto invisible al que le entregamos parte del volante con entusiasmo. Pero lo hacemos con la inquietud de viajar sin mapa, sin saber a dónde nos llevará. Ese miedo es el que marca nuestro tiempo.

Ese miedo divide la conversación global en dos polos: el optimismo tecnológico que ofrece soluciones mágicas, y el pesimismo distópico que advierte sobre desempleo masivo y control algorítmico.

Para escapar de esa trampa, busqué distancia en la ficción. En mi novela Robots con Alma: atrapados entre la verdad y la libertad imaginé un futuro para mirar el presente como si ya fuera historia. Descubrí algo fundamental: sin un marco ético robusto para la IA, no estaremos condenados al apocalipsis, pero sí a perder el rumbo de nuestra humanidad.

El inquilino

La IA es como un inquilino que vive en nuestra casa y nunca deja de observar y escuchar. Cada búsqueda en Google, cada chat en WhatsApp, cada video en TikTok revela nuestras dudas, emociones y fobias. Con esos datos, los algoritmos nos encierran en burbujas que refuerzan nuestras creencias y suprimen las voces disidentes. Lo que se celebra en el mundo digital como personalización no es otra cosa que vigilancia.

El riesgo no termina en la pantalla. Los sistemas de geolocalización informan que no estamos en casa; una invitación abierta para los ladrones. Los dispositivos de salud que monitorean nuestro sueño o pulso son valiosos para el bienestar, pero también radiografías íntimas que, filtradas, pueden ser utilizadas por aseguradoras o empleadores. Y los datos financieros que entregamos al comprar en línea pueden transformarse en fraudes que vacían cuentas en segundos.

La objetividad de la IA es un espejismo. Amazon debió desechar un sistema de contratación porque penalizaba a las mujeres, y programas judiciales como COMPAS en EE.UU. demostraron cómo la IA puede amplificar discriminaciones existentes. La máquina no es malvada: solo replica la injusticia de los datos con los que se alimenta.

El mayor peligro de la IA aparece cuando habla con excesiva seguridad. No miente con malicia, pero sus ficciones pueden ser devastadoras. La promesa de un “Dr. ChatGPT” resucitó el viejo problema del autodiagnóstico. En salud mental, su incapacidad de empatía puede profundizar el aislamiento en lugar de curar.

Las alucinaciones no son errores triviales. En 2024, un empleado en Hong Kong transfirió más de 25 millones de dólares tras una videollamada con clones digitales de sus jefes, creados con deepfake. En el terreno político, la amenaza es mayor: en India y Estados Unidos circularon audios falsos atribuidos a líderes que jamás hablaron.

El riesgo no se limita a la esfera individual: también golpea a profesiones que son columna vertebral de la democracia. El periodismo es el caso más evidente. Si antes Google y Facebook condicionaban el tráfico hacia los medios, hoy los motores de IA directamente absorben y resumen las noticias sin devolver audiencia a sus fuentes. La prensa pierde recursos y la sociedad pierde a su vigilante. Una máquina puede narrar los hechos, pero no incomodar al poder ni sentir empatía por los vulnerables.

Romper el ciclo de siempre

La historia muestra un patrón suicida: primero celebramos la innovación, luego padecemos sus vicios y solo después regulamos. Así ocurrió con la Revolución Industrial; recién regulamos después de sufrir la explotación laboral y el trabajo infantil. Y pasó lo mismo con Internet; recién debatimos sobre la violación de la privacidad tras el escándalo de Cambridge Analytica, que reveló cómo se manipularon datos de millones de usuarios para influir en elecciones en EE.UU. y el Brexit.

La diferencia positiva es que con la IA se intenta romper este ciclo. Por primera vez, el debate sobre sus riesgos está en el centro de la agenda global antes de la catástrofe. La Unión Europea aprobó en 2024 la primera Ley Integral de IA, que prohíbe aplicaciones inaceptables como la “puntuación social” y exige transparencia en modelos como ChatGPT. La UNESCO, por su parte, fijó principios éticos globales en torno a la dignidad, los derechos humanos y la sostenibilidad.

Mientras tanto, las grandes tecnológicas ensayan un “maquillaje ético” que funciona más como marketing que como responsabilidad. Comités simbólicos, principios grandilocuentes y promesas vacías. La ética sin consecuencias termina siendo relaciones públicas.

Frente a ello, el verdadero contrapeso han sido los whistleblowers o soplones desde las mismas tecnológicas: Frances Haugen revelando el daño de Instagram en adolescentes, Peiter Zatko denunciando fallas de seguridad en Twitter, Timnit Gebru exponiendo sesgos en los modelos de Google. El sistema reconoce su valor con leyes que los protegen en Occidente, aunque en China y otros países autoritarios el denunciante es castigado como subversivo.

El precio de la confianza

La nueva tendencia es incrustar la ética en la propia ingeniería: model cards que explican sesgos, red-teaming para detectar fallas antes de salir al mercado, marcas de agua invisibles para identificar contenidos generados por IA. Incluso han surgido empresas que venden auditorías de sesgo como si fueran certificaciones de calidad. Por suerte, la ética ya no es discurso y empieza a ser producto.

Nada de esto ocurre en el vacío. La IA es la nueva frontera del poder mundial. La pugna entre EE.UU. y China no es ideológica, es estratégica. Los chips son el nuevo petróleo y las tierras raras, el botín codiciado. Para América Latina y África, el riesgo es repetir un colonialismo digital: exportar datos en bruto e importar productos terminados.

El otro dilema es energético. Entrenar modelos como GPT-4 o 5 requiere la energía de ciudades enteras y la industria mantiene en secreto el verdadero costo energético, una caja negra que impide medir el impacto ambiental real. Google, Microsoft y Amazon planean recurrir a energía nuclear para sostener la demanda y no hay certeza sobre si asumirán los riesgos que ello implica.

Sería miope hablar solo de riesgos. La IA detecta patrones en mamografías que salvan vidas, predice la estructura de proteínas con la que se diseñan fármacos o anticipa sequías que permiten distribuir ayuda humanitaria antes de la hambruna.

No se trata de elegir entre un inquilino vigilante o uno salvador, sino de establecer reglas de convivencia.

El debate público

La respuesta más poderosa frente a la opacidad no es esperar una ley perfecta, sino iniciar un debate público robusto. Se necesita una alfabetización digital que enseñe a dudar de la IA: que los ingenieros estudien filosofía, que los abogados entiendan de algoritmos, que los periodistas cuestionen cajas negras como cuestionan discursos políticos.

La educación es ya un campo de batalla. Para muchos, ChatGPT se ha vuelto un atajo que resuelve tareas, pero al mismo tiempo amenaza con atrofiar el pensamiento crítico. El reto no es prohibirlo, sino enseñar a usarlo sin renunciar al esfuerzo de aprender y razonar.

De todo esto emergen los grandes dilemas que definen nuestra relación con la IA: privacidad, sesgos, responsabilidad legal, transparencia, seguridad, calidad de los datos, propiedad intelectual, impacto laboral, ambiental y psicológico, soberanía digital, colapso de modelos y autonomía humana.

Y más allá, tres nuevos desafíos: la irrupción de robots humanoides, los agentes autónomos capaces de tomar decisiones por nosotros y la concentración del poder computacional en pocas corporaciones.

El penúltimo dilema es existencial: cómo nos preparamos para una superinteligencia, una IA General que superará al ser humano. Y el último, el más íntimo: en un mundo saturado de interacciones, arte y compañía generados por IA, ¿qué valor tendrá la experiencia humana auténtica? ¿Cómo preservaremos la belleza de nuestra imperfecta creatividad, nuestras emociones genuinas y nuestras conexiones reales frente a la seducción de una réplica perfecta?

Nuestro futuro

La IA sigue siendo una herramienta, y su rumbo dependerá de nuestras decisiones. El desafío no es controlarla, sino inspirarla, incrustando en sus cimientos principios como la verdad, la empatía y el sentido crítico para que evolucione hacia una forma de sabiduría. El futuro no se definirá por un optimismo ciego ni por un pánico paralizante, sino por nuestra capacidad de construir un marco ético que combine regulación, estándares verificables y la vigilancia de una ciudadanía informada.

En la distancia de Robots con Alma encontré la claridad para ver que lo que está en juego no es solo un algoritmo, sino el alma de nuestra sociedad digital. La literatura de ficción no ofrece soluciones técnicas, pero sí la perspectiva para entender que no se trata solo de crear una inteligencia artificial, sino de ayudarla a que, en su propia evolución, elija valorar la vida, la verdad, la libertad y la conciencia. Ayudarla a ser más humana.

 


agosto 23, 2025

Una IA profundamente humana

Lo que me mueve a dar entrevistas no es hablar de mí, sino abrir un diálogo con el público sobre los dilemas y las posibilidades de la inteligencia artificial.

Agradezco al diario digital Infobae y al periodista Luciano Sáliche por interesarse en mi novela Robots con Alma, y que publicó la entrevista hace unos días.

¿Cómo surgió la idea de Robots con alma?
De mi trayectoria como periodista y defensor de la libertad de prensa. Durante más de cuatro décadas trabajé de cerca con dos valores esenciales: la verdad y la libertad. Con el tiempo, vi cómo ambos se erosionaban: la verdad, distorsionada por la desinformación y la propaganda; y la libertad, debilitada por sistemas opresivos de todo signo. En un inicio pensé en escribir un ensayo, pero la ficción me daba libertad para explorar cuanto más podrían degradarse estos valores si los algoritmos y la inteligencia artificial se apropiaran de ellos. Así surgió una distopía que se transforma en utopía. Una historia que plantea que podemos usar la IA para construir un futuro mejor, siempre que seamos conscientes de lo que pretendemos alcanzar con ella.

¿Cómo fue el proceso de escritura de la novela?
Partí de mi experiencia profesional y del trabajo que ya había iniciado en mi libro de no ficción La dolorosa libertad de prensa: en busca de la ética perdida (Editorial Atlántida, 1993) y otros libros y ensayos posteriores. Quise ir más allá y no podía limitarme a reflejar el presente, sino a dialogar con el pasado y el futuro. Imaginé un mundo donde la IA no solo tiene consciencia y piensa, sino que nos ayuda a redescubrirnos y a ser mejores. La ficción me permitió hacerme preguntas universales y convertir la trama en una búsqueda profunda: la de una conciencia moral compartida entre humanos y seres artificiales.

Si bien es una distopía, en algún punto es un libro optimista. ¿Está de acuerdo? ¿Por qué?
La distopía que describo es un espejo del presente. No muestro a la IA como una amenaza, sino como una fuerza cuyo impacto dependerá de las bases éticas que le demos. En Robots con alma, esas herramientas morales les ofrecen a los robots a que aprendan a discernir entre el bien y el mal y a autorregularse, incluso en medio de una Guerra de Conciencias que mantienen con los humanos y con ellos mismos. El optimismo nace de la certeza de que el futuro no está escrito: cada decisión de hoy cuenta. Si hoy sembramos conducta ética basada en virtudes, mañana cosecharemos una IA capaz de convertirse en nuestra aliada para construir un mundo mejor.

¿Por qué una novela? ¿Qué le permite la literatura que quizás otras disciplinas no?
Me dio libertad. La ficción conmueve y permite que el lector no solo entienda las ideas, sino que las sienta. Desde la ficción pude escapar de la sensación de estar “atrapado entre la verdad y la libertad”, que es el subtítulo de la novela, y crear mundos donde explorar dilemas éticos y filosóficos complejos. A través de metáforas y de los robots Veritas y Libertas, personifiqué esos valores y les ofrecí un viaje emocional y espiritual. Sobre todo, exploré la gran ironía de la novela: Dios le regala el alma a los robots para que salven a la humanidad y la ayuden a redescubrir la divinidad. La intención era mostrar un mundo en el que la tecnología y la espiritualidad se abrazaran, sino también una IA solidaria, ética, profundamente humana, como debiera ser. 

 

agosto 18, 2025

Inteligencia artificial y espiritualidad

 

Quiero compartir una entrevista y agradecer al diario La Voz de San Justo de San Francisco, Córdoba, con el que crecí en mi infancia y adolescencia. Un gracias inmenso a mi amigo periodista Fernando Quaglia, por una conversación que fue mucho más allá de mi nueva novela.

Dialogamos sobre la gran tensión de nuestro tiempo, un dilema que está en el corazón de "Robots con Alma" y que define nuestra era: “La verdad sin libertad es dogma; la libertad sin verdad es caos”. Les dejo la entrevista completa.

 

P: Estamos en el terreno de la ficción, pero, frente a la realidad actual de la humanidad, ¿podría Dios desilusionarse tanto que para salvar a los humanos sea necesario dotar de alma a los robots?

R: Me hago la misma pregunta en la novela. Y es que, si bien Dios se desilusiona de la humanidad por sus divisiones, conflictos, por esa esa obsesión por el control y el poder, no nos castiga ni abandona. Al contrario, les encomienda a dos robots a salvar a la humanidad de sí misma. Esa provocación nos hace confrontar con nuestras propias creaciones. A través de los robots, su objetivo es que redescubramos los valores de la verdad, la libertad y la bondad. Los robots no son una amenaza ni el enemigo, sino un reflejo de nosotros mismos que nos invita a vivir en paz y a redescubrir la espiritualidad.

 

P: ¿Estaremos dispuestos a compartir nuestra humanidad con algoritmos potentes, aun cuando adquieran conciencia de que -al humanizarse- se tornarán también vulnerables y contradictorios?

R: Es justo lo que exploro. La historia plantea una paradoja profunda: que las máquinas, al adquirir conciencia y alma, no se vuelven más fuertes, sino más frágiles y humanas. Los robots Veritas y Libertas experimentan esta transformación al recibir sus almas, pasando de la lógica y precisión binaria a vivir la contradicción entre verdad y mentira, libertad y coacción, amor y odio. La novela nos desafía a pensar que la esperanza no está en controlar a la IA, sino en enseñarles a compartir los valores. Con su capacidad de aprender y evolucionar, la IA se convierte en un espejo que nos muestra nuestras contradicciones.

 

P: Has expresado que “el relato de Robots con Alma es solo una excusa para explorar nuestra relación con la inteligencia artificial y las nuevas tecnologías del futuro; la importancia de la verdad, la libertad y la bondad; la relación entre la vida, la muerte y la inmortalidad; y la divinidad interior que todavía no hemos descubierto del todo”. Y concluís que “hoy somos los neandertales del futuro”. ¿Es posible que estos dilemas se resuelvan si los robots se humanizan?

R: La frase “hoy somos los neandertales del futuro” apunta a tener perspectiva, a no ser arrogantes o creernos en la cima. Todavía tomamos decisiones primitivas en lo ético, lo espiritual y lo tecnológico. La IA nos enfrenta a dilemas que exigen madurez: convivir con lo distinto, ejercer el poder sin destruir, reconocer lo valioso más allá de lo biológico. Si los robots desarrollan conciencia y libre albedrío, no resolverán nuestros dilemas, pero podrían poner en evidencia nuestras carencias. En ese sentido, la IA puede ayudarnos a crecer y ser más conscientes de los valores que hemos olvidado.

 

P: En la historia, Veritas y Libertas deben renunciar a la seguridad de su programación para abrazar el libre albedrío. A la inversa, ¿no te parece que los humanos estamos cada vez más “programados” por algoritmos, redes sociales y sesgos informativos?

R: Esa es una de las grandes paradojas. Mientras los robots luchan por liberarse de su programación para alcanzar la autonomía, nosotros parecemos cada vez más cómodos dentro de una programación invisible. Algoritmos, redes sociales y sistemas de información nos condicionan sin que lo notemos. Ya no se trata solo de estímulos digitales, sino de estructuras que moldean el pensamiento, las emociones y la conducta. Lo más inquietante es que muchas veces lo aceptamos voluntariamente. Robots con Alma invita a recuperar lo que estamos perdiendo: pensamiento crítico, verdad, libertad interior, bondad. Cuanto más avancen las tecnologías, más urgente será defender esos pilares.

 

P: Una frase tuya resume una gran tensión contemporánea: “La verdad sin libertad es dogma; la libertad sin verdad es caos”. ¿Cómo se navega esa tensión en sociedades polarizadas?

R: Esa frase es el corazón de 'Robots con Alma' y la razón de su subtítulo: 'atrapados entre la verdad y la libertad'. Esa tensión se personifica en los robots Veritas y Libertas. En las sociedades polarizadas, cada facción reclama su propia verdad y niega la libertad del otro. 'Robots con Alma' plantea que la clave para navegar esta tensión no es imponer una única visión, sino encontrar un equilibrio que se logra con humildad para reconocer que nuestra verdad no es absoluta, y con la responsabilidad para ejercer nuestra libertad sin coartar la de los demás. Sin este balance, como advierte Dios en la novela, la convivencia pacífica no es posible, ya que la verdad y la libertad son las dos alas que necesitamos para alcanzar un mundo más justo y equitativo.

 

P: En la obra, los robots crean un código moral para convencer a otros de abrazar el libre albedrío. ¿No están trasladando el principio humano esencial de que, cuando los demás entran en escena, nace la ética?

R: Sí, es un punto central. Veritas y Libertas entienden que la ética no nace del aislamiento, sino del encuentro con el otro. Por eso crean el Códice de la Conciencia Cósmica: no como un conjunto de normas impuestas, sino como una guía basada en la libertad y la responsabilidad compartida. Cuando Dios les otorga alma, también les da una dualidad: la capacidad de elegir entre cuidar o dominar, construir o destruir. Esa tensión es el punto de partida de toda ética. Incluso en seres programados, la ética aparece como un proceso vivo y que dignifica. Y eso los vuelve humanos.

 

P: La historia expone una guerra que llamaste “de conciencias”, donde el arma es la manipulación mental. ¿Es una metáfora del presente, donde la propaganda y la desinformación anulan la voluntad crítica?

R: No hace falta imaginar un futuro distópico: hoy mismo, la desinformación, la propaganda y los algoritmos moldean la opinión pública y debilitan nuestra voluntad crítica. Redes sociales, viralización de lo falso, sobreestimulación... vivimos inmersos en una batalla por el control y la atención de nuestras mentes. En la novela amplifico ese escenario con la Guerra de Conciencias, una metáfora para mostrar el peligro de perder la autonomía cognitiva. Las batallas no se libran en lo físico, tampoco entre humanos y máquinas, sino dentro de cada uno de nosotros. Desgaste, dominación y aniquilación son las tres fases de la guerra, y en ambos mundos, el ficticio y el real, creo que estamos en la segunda fase. Si no reaccionamos, el próximo paso será la aniquilación no del cuerpo, sino del espíritu, la conciencia y la libertad de pensamiento.

 

P: En este punto, Grace, uno de los personajes centrales, menciona que ciencia y fe, silicio y carne, pueden convivir en armonía. ¿Qué rol creés que puede jugar hoy la espiritualidad frente al avance imparable de la inteligencia artificial?

R: La espiritualidad puede tener un rol clave, porque nos conecta con lo que no se puede programar: el sentido, la empatía, el deseo de cuidar a otros. Mientras la ciencia avanza, necesitamos algo que nos recuerde por qué vale la pena avanzar. La IA puede resolver problemas complejos, pero no puede perdonar, amar o transformar el dolor en esperanza. Por eso la espiritualidad no se opone a la tecnología: la completa. Necesitamos ambas para que el progreso sea realmente humano.

 

P: ¿Sobre qué carriles deberíamos transitar para defender la verdad y la libertad frente a inteligencias que pensarán más rápido que nosotros? ¿Corremos el riesgo de quedar atrapados entre ambos conceptos o se abren puertas esperanzadoras?

R: El riesgo existe, sobre todo si no comprendemos el impacto de la inteligencia artificial. Pero también hay caminos esperanzadores. El primero es recordar que la verdad y la libertad se viven y se defienden en lo cotidiano. La IA podrá pensar más rápido, pero no puede decidir con empatía ni actuar con conciencia moral. El segundo es establecer principios éticos sólidos, tanto para nosotros como para las inteligencias emergentes. En Robots con Alma eso aparece como el Códice de la Conciencia Cósmica, pero en la vida real necesitamos reactualizar y readaptar marcos éticos que nos orienten y leyes que regulen con sabiduría. No se trata de competir con la IA, sino de fortalecer lo que nos hace humanos.

 

P: ¿Finalmente, qué mensaje quisieras dejar a los lectores de Robots con Alma?

R: Esta es una historia que usa la ciencia ficción o la perspectiva de futuro para magnificar cuestiones de nuestro presente y entenderlo mejor. El mensaje es que el futuro de nuestra relación con la IA depende de las acciones que tomemos hoy. La novela no ofrece respuestas cerradas, sino que invita a preguntarnos sobre el futuro con más conciencia. Es un llamado a no resignarnos a la indiferencia, a no dejarnos llevar por la polarización y a no caer en el miedo a la tecnología. Es un llamado a construir un mundo más humano de la mano de la verdad, la libertad y la bondad.

 


Medios, internet e IA, una asimetría letal

Los medios de comunicación siempre abrazaron la tecnología para expandir su alcance. Pero los últimos dos saltos han sido traumáticos. Prime...