Quiero agradecer a Gonzalo Marroquín Godoy por la entrevista para revista Crónica de Guatemala, de la que es su director y presidente.
Usted dice que la Inteligencia Artificial cambiará nuestra forma de vivir y trabajar. ¿Cuál cree que será el cambio más profundo que experimentará la sociedad en los próximos cinco años?: Creo que el cambio más radical no será ver robots caminando por la calle, sino que la IA se volverá invisible e indispensable, como la electricidad. En los próximos cinco años dejará de ser una herramienta externa y se disolverá en el ambiente. Estará integrada en cada procesador de texto, en diagnósticos médicos, en sistemas financieros y decisiones cotidianas, ámbitos donde ya opera en silencio. Pasaremos de usar la tecnología a vivir dentro de ella. Será un socio intelectual permanente.
La historia
ofrece un espejo. Con el Internet sucedió igual. Le tuvimos miedo, desconfianza
y luego fue una integración total. La tecnología avanza por ensayo y error. Con
la IA viviremos una etapa similar y habrá ajustes. Un ejemplo son los
periódicos, regalaron contenido creyendo que era el camino y luego vieron el
daño.
Lo que cambiará es la frontera de la creatividad. Cualquiera podrá generar música, imágenes o películas desde su habitación. Pero, paradójicamente, esa facilidad hará más valiosa la chispa humana.
Pueden leer también la entrevista en este enlace: Ricardo Trotti: La IA se volverá invisible e indispensable, como la electricidad
Trotti se ha convertido en uno de los referentes para el tema de IA
luego de su obra «Robots con Alma», y el ensayo «Dotar de alma a la IA».
En
su ensayo “Dotar de alma a la IA” aborda tanto el potencial como los riesgos de
la IA. ¿Cuáles considera que son los peligros que encierra la IA?: La tecnología
es un espejo amplificador. Si está sucio, deforma. El riesgo inmediato es la
erosión de la verdad. Las IAs son probabilísticas; pueden inventar hechos con
total elocuencia.
Otro peligro
es el sesgo inadvertido. Como la IA aprende del pasado y la historia está llena
de racismo, machismo y desigualdades, la tecnología tiende a perpetuar esos
defectos. Por eso insisto en dotarla de “alma”, de una ética incorporada desde
el diseño. Hablo de principios programables. Expertos como Stuart Russell han
demostrado que es posible priorizar la seguridad humana sobre la eficiencia. Ya
existen modelos de “IA constitucional” que obedecen reglas éticas antes de
responder.
Incluso con
esa ética, es peligroso delegar en algoritmos sin transparencia decisiones
críticas sobre nuestras vidas, como quién recibe un crédito o quién recibirá un
órgano donado.
Muchos
temen que la IA reemplace trabajos humanos. Desde su investigación, ¿qué
trabajos desaparecerán primero y qué nuevos empleos surgirán?: Soy optimista
basándome en la historia. Mis hijos trabajan hoy en Marketing Digital, una
profesión que no existía cuando yo tenía su edad. Si en los noventa hubiéramos
prohibido Internet para proteger a los tipógrafos, esa generación no habría
tenido las oportunidades que hoy tiene.
Así como
ocurrió con los tipógrafos, desaparecerán disciplinas y tareas, y otras
evolucionarán. Lo que se irá primero es lo repetitivo y tedioso, como la
traducción básica, los informes rutinarios o el análisis mecánico de datos.
Cuando apareció la calculadora Texas Instruments no reemplazó a las
matemáticas, ni al álgebra, ni al pensamiento lógico; simplemente eliminó el
cálculo manual lento. La IA hará lo mismo con nuestra burocracia mental.
A cambio
surgirán nuevos oficios como curadores de datos, auditores de sesgos,
supervisores de IA en instituciones públicas. Y esto nos permitirá revalorizar
lo humano. La IA nos quitará la parte robótica del trabajo para permitirnos ser
más humanos.
¿Cómo
pueden reproducirse o amplificarse las desigualdades sociales mediante sistemas
de IA, aun cuando sus programadores no lo pretendan?: La IA
multiplica capacidades. Si quien tiene recursos accede a ella, despega; si se
la niega a los que menos tienen, el rezago será brutal. En América Latina
creamos grandes brechas con el Internet porque los gobiernos se dedicaron más a
regular y controlar que a expandir el conocimiento. No podemos repetir ese
error. la brecha del Internet aún persiste debido a la falta de alfabetización
digital y de conexión. Con la IA, es urgente que el Estado y la empresa privada
trabajen juntos para cerrar esa grieta antes de que sea insalvable.
Otro problema
estructural es el punto ciego de los datos. Por ejemplo, si entrenamos una IA
médica solo con expedientes de hospitales en Boston o Londres, el sistema será
excelente diagnosticando a hombres blancos occidentales, pero fallará con una
mujer indígena en nuestros países
Y el costo de
la IA es otra barrera. Las mejores IAs hoy son de pago. Si la educación de
calidad y las herramientas más potentes se vuelven un lujo privado, crearemos
castas cognitivas, lo que sería devastador.
La IA llegó para quedarse y se convierte rápidamente en acompañante del
ser humano, con sus ventajas y peligros.
¿Qué
responsabilidades tienen las grandes empresas tecnológicas en el desarrollo
ético de la IA y qué papel deben jugar los Estados para regularla sin frenar la
innovación? ¿Es necesario legislar su uso?: Defiendo la idea de que la ética es
un acelerador, no un freno. Las empresas deben incorporar principios éticos
desde el diseño porque no es aceptable lanzar productos peligrosos y esperar
que la sociedad los corrija. También deben democratizar el acceso, colaborar en
la infraestructura donde el Estado no llega y mitigar el impacto ambiental de
sus centros de datos.
Los gobiernos
no deben regular la tecnología misma, porque cambia demasiado rápido, sino sus
efectos. Deben prohibir discriminación algorítmica, perseguir deepfakes dañinos
y garantizar responsabilidad humana y nunca bloquear el desarrollo técnico.
Se debe
incentivar la innovación local y a los emprendedores locales.
En
su libro de ficción “Robots con Alma: atrapados entre la verdad y la libertad”,
menciona escenarios futuros con IA general o sistemas autónomos avanzados. ¿Qué
tan cerca estamos de ver una inteligencia que iguale o supere al ser humano en
la mayoría de las tareas?: En mi novela exploro ese horizonte, pero
defiendo con firmeza que los valores humanos y filosóficos constituyen esa
inteligencia tradicional insustituible que nos hace lo que somos. En la
realidad actual se debe distinguir con claridad entre mímica y conciencia.
Quizás en la
próxima década se pueda ver una Inteligencia Artificial General que pueda
imitar el razonamiento humano en casi cualquier tarea intelectual. Sin embargo,
hay una barrera filosófica infranqueable que abordo y es la intencionalidad. La
IA puede escribir un poema, pero no siente la necesidad de hacerlo. No ama, no
sufre, no teme morir. Sin biología ni mortalidad puede tener conocimiento, pero
la conciencia y la sabiduría siguen siendo patrimonio humano.
Guatemala
y otros países en desarrollo suelen adoptar estas tecnologías sin marco
regulatorio sólido. ¿Cuáles deberían ser los primeros pasos para una política
pública responsable en IA?: No debemos copiar leyes europeas o de otros países.
Europa regula desde la abundancia; nosotros en Latinoamérica debemos regular
para el desarrollo. El primer paso no es prohibir, es construir
infraestructura. La conectividad no puede depender solo de empresas privadas
locales o extranjeras; el Estado no puede delegar toda la responsabilidad,
sería renunciar a la soberanía.
También
debemos asegurar la soberanía de datos. No podemos permitir que la información
de los ciudadanos sea materia prima barata para otros. La piedra angular es la
educación, desde la alfabetización digital, al pensamiento crítico, hasta la
ética y la filosofía.
Muchas
personas no entienden cómo funcionan estos modelos, pero los usan a diario.
¿Qué debería saber la gente —lo mínimo indispensable— para tomar decisiones
informadas ante sistemas de IA?: La IA es una máquina de
autocompletar muy sofisticada, no una enciclopedia infalible. Puede alucinar e
inventar datos con absoluta convicción. Verificar siempre es obligatorio.
Segundo, la
privacidad. Todo lo que se escribe en un chat gratuito puede ser usado para
entrenar modelos futuros. Nunca hay que introducir datos sensibles como
información financiera o íntima.
Tercero,
entender el sesgo. La IA tiene la voz de quienes la entrenaron. Por eso,
enseñar pensamiento crítico es más urgente hoy que enseñar herramientas
específicas. La verdadera protección es formar ciudadanos que duden, comparen y
cuestionen, que no acepten las respuestas como las únicas posibles.
¿Cómo
impactará la IA en la educación? ¿Estamos preparando a los estudiantes para
convivir con una tecnología que evoluciona más rápido que los planes de
estudio?: El
sistema educativo corre riesgo de quedarse obsoleto si sigue premiando la
memorización. La IA ya ganó ese concurso. La alfabetización digital es hoy tan
crucial como la alfabetización tradicional lo fue para nuestros bisabuelos.
Quien no domine los nuevos códigos quedará excluido del diálogo social y
económico.
La educación
debe girar hacia un neohumanismo tecnológico, reforzar filosofía, ética,
debate, negociación, pensamiento sistémico, todo lo que la máquina no puede
replicar.
Se debe educar
para que los jóvenes sepan abrazar y se adapten a un mundo cambiante. La
escuela debe dejar de ser fábrica de respuestas y convertirse en taller de
buenas preguntas.
¿Qué
mensaje le daría a quienes sienten miedo ante la IA y la ven como una amenaza
más que una herramienta y qué les diría a los que no miran los peligros que
encierra?: A quienes sienten miedo les diría que el temor
paraliza, y en este siglo quedarse quieto es retroceder. Lo esencial no es
temerle, sino aprender a manejarla. La tecnología por sí sola no nos quitará el
trabajo, sino que lo hará aquella persona que sepa utilizar mejor las nuevas
herramientas.
Para
cerrar… ¿Un comentario final?: Retomo el corazón de mi novela,
donde los personajes se debaten entre la verdad y la libertad. No son solo
recursos narrativos, son los pilares invisibles de toda democracia. En esta era
de IA debemos elegir si los afirmamos con más fuerza o si permitimos que se
desvanezcan entre la mentira y la manipulación.
La tecnología
puede inclinar la balanza en cualquier dirección. Mal usada, puede convertirse
en una maquinaria de desinformación que distorsione nuestra percepción de la
realidad. Bien orientada, puede ser una aliada de la democracia, capaz de
ampliar el acceso al conocimiento, transparentar decisiones públicas y
potenciar nuestra creatividad.
Al final, el
rumbo no lo marca la tecnología sino nuestras decisiones.

No hay comentarios:
Publicar un comentario