INTELIGENCIA ARTIFICIAL Y LA METAMORFOSIS DEL MUNDO Descarga aquí el artículo en PDF
Luis E. Echarte, MD, PhD
Todo el mundo persigue la felicidad, sin darse cuenta de que la felicidad está en sus talones.
Bertolt Brecht
¿Quién eres cuando nadie te mira?
- Campos de Porras
¿Qué hemos de esperar de la Inteligencia Artificial? Cuando Juan Carlos de la Riva tuvo la amabilidad de invitarme a escribir sobre el tema para la Revista de Pastoral Juvenil acepté encantado. Después de dos décadas dedicado al estudio de las tecnologías emergentes, estoy convencido de que los jóvenes son los mejores receptores de este tipo de discursos. Más aún si son cristianos, pues nosotros creemos que el futuro es de Dios, y Dios es bueno. Sin embargo, esta profunda creencia es compatible con la prudente preocupación que deben suscitarnos los tiempos de cambio. Y estamos a las puertas de grandes cambios.
El asunto a tratar sobre la ética de la IA es complejo, con muchas aristas y relieves y, como suele decirse, de esos en los que los árboles no dejan el ver el bosque. Ahí la dificultad. Así que apelo a vuestra curiosidad y paciencia. Si llegáis hasta el final entenderéis el principio.
La metamorfosis del mundo
Han pasado ya ocho años desde la publicación de La cuarta revolución industrial, de Klaus Schwab, fundador del Foro Davos, y donde se defiende que los avances tecnológicos desarrollados en las últimas dos décadas están dirigiéndonos hacia una nueva revolución en la transformación del modelo productivo. Sus tesis generaron gran controversia y fueron bastantes las voces que tacharon a Schwab de alarmista. Hoy estas críticas se están apagando y la principal razón es la introducción en el último lustro de dos nuevos y potentes catalizadores tecnológicos: los nuevos modelos computacionales de aprendizaje autónomo y las herramientas de procesamiento de lenguaje natural. Agruparé ambas bajo el término general de Inteligencia Artificial (IA) porque, de algún modo, es la etiqueta que utiliza la mayoría de la población para referirse indistintamente a estas tecnologías, y también porque en esta etiqueta reside el quid de la cuestión sobre el porvenir de la IA.
Los cambios son parte de la vida de los pueblos. No son solo inevitables sino además necesarios para el progreso humano. Sin embargo, pocos momentos en la historia de la humanidad ofrecen circunstancias similares a las que ahora nos encontramos. Y estas circunstancias están propiciando nuevos modos de relacionarnos con las personas y las cosas.
Allá por 1986, el sociólogo alemán Ulrich Beck postula el término «sociedad del riesgo» como el mejor descriptor para caracterizar la importancia que ha cobrado el futuro para el hombre contemporáneo. Porque los cambios están siendo de tal magnitud que es inevitable que se perciban como amenazantes: no son vientos que puedan impulsar barcos o molinos, sino que se antojan con la fuerza destructiva de los tornados. Tienen un gran potencial, sí, pero carecemos de los conocimientos que permitan su control. Así que, en el corto plazo, la previsión de riesgos es la respuesta secular de Occidente hacia el futuro. Porque los sistemas religiosos, filosóficos o políticos han dejado de ser el faro de guía a navegantes y, sobre todo, el bastión donde encontrar refugio en tiempos de oscuridad. Ahora es la ciencia la que pretende asegurar el futuro, y lo hace con la fuerza de la estadística de probabilidades para el registro de riesgos. Son estos los que captan toda nuestra atención, muchas veces morbosa, hacia la proximidad de un daño. Es decir, el costo de las acciones y proyectos están cobrando más y más preponderancia sobre sus beneficios.
El misterio, lo invisible, y lo intangible –el espíritu– es expulsado de los cálculos de los riesgos. Por tanto, es paradójico y no lo es que nunca como ahora el universo se muestre más oscuro, inhóspito y amenazante. Caed en la cuenta, por ejemplo, de que las utopías de antaño se están tornado en distopías. Y es que, como escribe Beck, el hombre moderno parece instalado en «un peculiar estado intermedio entre la seguridad y la destrucción». Ofrece remedios a los miedos que engendra, más que promesas de progreso, es decir, más una vida segura, a salvo de imprevistos, que una vida realizada en la aventura del vivir. Hay que reconocer que los órdagos de los últimos años son gigantescos: el mayor de todos, la promesa transhumanista de la inmortalidad. La otra cara de la moneda, sin embargo, se antoja más realista y destructiva: tecnología y calentamiento global, tecnología y fake news, tecnología y consumismo, tecnología y guerras a gran escala…
En cualquier sociedad, el miedo es el principal agente desestabilizador
Dieciocho años han transcurrido desde la publicación de La sociedad del riesgo y, como el propio Beck reconoce, su diagnóstico ya no es enteramente válido. Porque la comunidad científica está percatándose de la previsión de riesgos ya no es capaz de poner muros de contención a los peligros del cambio. Y este desvelamiento irá trasladándose al ciudadano de a pie. Entonces, el miedo se irá desatando en detrimento de la seguridad. Y en cualquier sociedad, el miedo es el principal agente desestabilizador. A esto precisamente se refiere en su último libro, La metamorfosis del mundo, publicado a título póstumo (por cierto, el mismo año que el trabajo de Schwab): «el cambio implica que algunas cosas cambian, pero otras siguen igual […] La metamorfosis implica una transformación mucho más radical, mediante la cual las viejas certezas de la sociedad moderna se desvanecen mientras surge algo completamente nuevo». El fino equilibrio entre la seguridad y la destrucción en el que habitábamos parece estar a punto de romperse en favor de la destrucción, esto es, de la sustitución de lo viejo por lo completamente nuevo. Y en este escenario próximo la estadística podrá operar aún menos su magia para marcar senderos seguros. Al menos, esto es lo presagia Beck en 2016, un momento en el que, recordad, el boom de la IA todavía no había tenido lugar.
Hoy, la gran pregunta no es ya si podremos controlar el cambio, surfear esa gran ola de radical novedad tecnológica que lo va a resignificar todo –no vamos a poder– sino si lograremos no ser aplastados por ella. Por el optimismo fundante esgrimido líneas arriba, mi respuesta es positiva. Pero no hemos de ser ingenuos, aun tomando las decisiones correctas, el coste va a ser alto. A continuación, explicaré por qué y cuál es el papel que guarda la IA en esta historia.
Herramienta de herramientas
Si los signos de tormenta ya estaban presentes antes de la revolución de la IA, ahora con ella podemos hablar de la última vuelta de tuerca en esta catarsis de la novedad.
Como la electricidad, la IA es una tecnología que sirve para todo y, por tanto, es de suponer que acabe afectando todos los aspectos de nuestras vidas. Sin embargo, a diferencia de la electricidad, la IA es capaz de producir nuevas tecnologías, es decir, de propiciar ella misma el progreso tecnológico. Si como dice Aristóteles, la mano es instrumento de instrumentos, ahora podemos decir que la IA va a ser la tecnología de tecnologías.
Entre otras cualidades, la inteligencia artificial adapta las respuestas de la máquina mediante algoritmos de aprendizaje, es decir, los datos obtenidos mediante feedback son capaces de realizar cambios en la programación. Dicho de manera sencilla, la nueva IA es ya capaz de nuevas cosas y, a la vez, ella misma es un potentísimo motor de novedad. Por eso se dice de la IA que, entre otras cosas, acelerará muy pronto la investigación médica. Y es que no solo no necesita la supervisión humana, sino que alcanza, en bastantes aspectos, donde los humanos no llegamos; entre las más importantes, procesar grandes cantidades de datos para detectar patrones habitualmente ocultos a la observación y el análisis.
La IA, entre otras cosas, acelerará muy pronto la investigación médica
Como botón de muestra, a principios de 2024, la Universidad de Michigan comunicó que había desarrollado un nuevo modelo de programación para que la IA realizara de forma autónoma hasta 10.000 experimentos con bacterias al día. No olvidemos que el cuerpo humano alberga billones de bacterias, algunas dañinas y otras vitales para la salud. De todas ellas, no se han estudiado ni un diez por ciento. El nuevo modelo creado puede empezar a estudiarlas sin conocimiento previo de ninguna especie concreta, crear sus propios conjuntos de datos, diseñar los experimentos de laboratorio, interpretar los resultados y destilar conclusiones operativas en la toma de decisiones, como, por ejemplo, realizar nuevas pruebas o pasar a la fase de generación del producto farmacéutico.
Otro caso iluminador que quiero traer aquí es el que he sacado del campo del neuromarketing. La IA puede analizar el comportamiento de mercados, pero también interactuar de forma natural con los humanos, es decir, de reconocer e interpretar emociones y de expresar ella misma emociones reconocibles. Esto está ya permitiendo transformar las experiencias del cliente o consumidor, incluso cuando el producto consista en algo tan humano como es el acompañamiento de ancianos que sufren soledad.
No es ciencia ficción. Son cada vez más los centros de la tercera edad que cuentan con robots cuidadores (care robots), máquinas con forma humanoide capaces de dar conversación y mostrar preocupación por el otro. Los propios gobiernos han mostrado interés y, uno de ellos, el nuestro. De 2017 a 2020 la Comisión Europea y Japón financiaron el proyecto Caresses para el diseño de lo que sus investigadores denominan «robots asistenciales con competencia cultural». Los resultados son incontestables: esta tecnología logra paliar la soledad e incluso generar vínculos de apego. El robot cuidador llega a lo que los seres humanos no siempre llegamos: valga la redundancia, dar un trato personal a las personas. Y si la soledad, como algunos alertan, es la epidemia del siglo XXI, este tipo de tecnologías acabarán introduciéndose en todos los hogares, pues no son tan caras.
Esta tecnología logra paliar la soledad e incluso generar vínculos de apego
¡Una solución a la soledad! Y la soledad es lo peor. Y con la soledad se está haciendo negocio. Según Markets & Markets se prevé que el sector de la inteligencia artificial emocional duplique su beneficio en 2026, pasando de los 19,000 millones de dólares actuales a los 37,100 millones. Los números hablan.
Ver la oportunidad
El pasado 12 de abril, en un foro de expertos sobre IA, Carmen Camuñas, directora del Hub de Innovación Digital de Acciona, afirmó que «hay que ver la herramienta como oportunidad, no como amenaza». Entendamos bien sus palabras. Los mensajes catastrofistas suelen estar alejados de la realidad y, además, ofrecen una pobre imagen de quienes los transmiten. Y no me importa repetirlo de nuevo, el mensaje del miedo tampoco va con nosotros, los cristianos. Sin embargo, esta sabia actitud no debe llevarnos al extremo opuesto, a caer en buenismos ingenuos que aumentarían el peligro que, de suyo, acompaña siempre toda tecnología.
Hay tecnologías más y menos peligrosas: la amenaza que acompañan los nuevos esquís eléctricos de Skwheel –que pueden acelerar hasta 80 kilómetros por hora no es idéntica a las últimas innovaciones en la producción de energía nuclear– recordad Hiroshima, recordad Chernóbil
Y recordando me vienen también a la memoria unas palabras del cardenal Jorge Medina Estévez, en 2005, sobre la necesidad de no ser ni pesimistas ni optimistas, sino realistas. «Ignorar la realidad o no aceptar su gravedad es algo muy dañoso y veo en ello uno de los frutos de la acción de Satanás, interesado en hacernos creer que lo que sucede es “normal”, o no es “tan nocivo”, o que no hay que preocuparse de ciertos hechos negativos porque hay otros peores». La realidad es lo que importa. Esto se aplica también para los que nos dedicamos a la bioética, que tratamos de navegar entre estas dos aguas para ofrecer unos primeros consejos con los que sacar partido a la tecnología de manera segura. Pero estos consejos son factibles solo si hablamos de las oportunidades, pero también de las amenazas.
Vayamos a lo concreto. ¿Qué riesgos trae la IA?
Vayamos a lo concreto. ¿Qué riesgos trae la IA? Entre los más importantes caben destacar los siguientes: 1) sobre la falta de transparencia, sobre todo en los modelos de aprendizaje profundo; 2) sobre los sesgos de las bases de datos que alimentan la IA y también sobre los sesgos en el propio algoritmo; 3) sobre la privacidad de los datos; 4) sobre su autoría; 4) problemas de seguridad (¿es posible que en un ciberataque perdamos el control de una IA que controla vehículos, sistemas armamentísticos, etc.?); 5) sobre la concentración de poder que favorece la IA; 6) sobre una población cada vez más dependiente de la IA; 7) sobre la pérdida de puestos de trabajo y la desigualdad económica; 8) sobre la utilización de la IA para la desinformación y manipulación social; 9) sobre la pérdida de conexión humana; y 10) sobre el antropomorfismo computacional.
Algunos de estos riesgos son generales a toda innovación tecnológica y las soluciones también similares. Así ocurre, por ejemplo, con el desplazamiento de los puestos de trabajo que, habitualmente, se resuelve en la transformación del sector y la creación de nuevos puestos. El quid de la cuestión está en que empresas y gobiernos posibiliten que los trabajadores puedan formarse lo suficientemente rápido para su reinserción en el mundo laboral. Con todo, hay algo original que trae la IA sobre este asunto: la velocidad de dicha transformación, que puede dejarnos sin margen de maniobra para lograr el reciclaje de los trabajadores.
Pero hay riesgos que son estrictamente específicos de la IA, lo que significa que no contamos con suficiente experiencia sobre las soluciones que suelen funcionar y las que no. A continuación, me voy a centrar en tres riesgos específicos que están asociados a cambios metamórficos y que, además, descubriremos íntimamente relacionados: la dependencia en educación, los sesgos en decisiones morales y la antropomorfización.
¿La rehumanización de las profesiones?
Desde hace ya casi un año, docentes de grado y pregrado de todo el mundo están siendo testigos de cómo los estudiantes se han familiarizado rápidamente con programas como Chat GPT –en la mayoría de casos, antes que los mismos profesores. Este tipo de nuevas herramientas digitales son capaces de responder específicamente a preguntas complejas, de ofrecer ejemplos para explicar las respuestas y de elaborar textos originales que, sin demasiada revisión, pueden alcanzar la calidad de un trabajo fin de máster. A su vez, existen programas gratuitos online capaces de parafrasear los textos generados de tal modo que el profesor no pueda averiguar si el trabajo ha sido elaborado por el alumnado o no.
No hace falta explicar por qué este tipo de softwares, si no se controla su uso, reducirá la capacidad de pensamiento crítico y la creatividad en unos jóvenes cuyas funciones cognitivas y afectivas todavía están formándose. Hay quienes justifican el uso de dicha tecnología justo por las razones opuestas: representan una oportunidad para que los estudiantes ahorren tiempo en tareas que ya no son necesarias (memorizar, sintetizar, correlacionar…) y puedan dedicarse a funciones humanas más elevadas –la intuición humana, la mayor de todas–. Y es que, no solo alumnos, también cada vez más y más padres y docentes se preguntan por qué aprender a redactar si la máquina puede hacerlo por ti. ¡Puede incluso hacerlo mejor! Si no ahora, no me cabe duda, que en el futuro así será, por lo menos en una gran parte de la población. ¿Qué responderles?
Las habilidades superiores humanas, en las que hay que incluir también el desarrollo de la conciencia moral y la libertad de acción, se asientan en tareas tan aparentemente desvinculadas como la memoria, la imaginación, el cómputo, la abstracción, etc., que a su vez se desarrollan e integran de manera óptima en la expresión lingüística. Ser capaz de pensar y expresar las ideas en un discurso articulado es el mejor entrenamiento y la base de las operaciones intelectuales más elevadas. Si la IA priva a los estudiantes de las tareas de base, difícilmente van a ser capaces de alcanzar las superiores. Sería tan absurdo como afirmar que un levantador de pesas levantaría más fácil y rápidamente 400 kilogramos si eliminase los entrenamientos previos que capacitan para levantar pesos inferiores.
La propia conciencia moral va a verse afectada en esta lógica perversa. Las acciones más importantes que toma un ser humano en su vida son las dirigidas al bien. Y para decidir cuál es la mejor decisión solemos tener en cuenta la dimensión total del problema: cuál el objeto o fin de la acción, quién el agente moral, cómo las circunstancias, etc. Dicho de otro modo, elegir lo mejor nos exige una visión integral del mundo, sin compartimentos estancos. Por esto suele decirse que la ética es la ciencia y el arte del todo. Educar en el bien es, en este sentido, justo lo contrario a lo que hace un fabricante de neumáticos cuando intenta enseñar su profesión. Él sí puede compartimentar sus clases. Un maestro del bien, y los hay de muchos tipos, no. Y la unidad del bien que se realiza remite a la unidad del ser que se es. Recordad que, en la antropología cristiana, el hombre es a la vez espíritu y materia, pero lo específicamente humano se revela solo en cuanto apelamos a su unidad. Y cuando no lo hacemos, lo desnaturalizamos.
Elegir lo mejor nos exige una visión integral del mundo, sin compartimentos estancos
Pero volvamos a la cuestión ética para resumir de nuevo el argumento. He dicho que no es posible hacer de dicha disciplina una especialidad –por mucho que yo mismo me presente como especialista en ética–. Y si esto es así, no tiene sentido afirmar que, el tiempo que la IA nos ahorra para integrar conocimientos en historia, matemática, derecho, biología, etc., podemos dedicarlo al estudio y persecución del bien. Y, cuidado, este error no solo afecta a los jóvenes, sino también a todos aquellos adultos que creen tener una conciencia moral madura, porque la visión integral no solo es un prerrequisito (el primer eslabón de la cadena) para alcanzar dicha conciencia plena sino también una condición de posibilidad de la acción moral. Y, cuidado, lo hasta aquí defendido son ideas clásicas, aunque suenen ahora como tesis trasgresoras. Y es que, en la era de los hiper-especialismos, el problema de la unidad cada vez se entiende menos.
¿Y qué tiene que ver esto con la IA? Mucho. Os pongo un ejemplo. Para el cardiólogo y genetista Eric Topol, dedicado desde hace años a la medicina digital, la IA va a permitir a los médicos dedicarse a la medicina profunda, esto es, a la dimensión más humana de la medicina, descargados ya de las cuestiones técnicas. En parte tiene razón, pues hay muchas tareas administrativas que los médicos realizan y que no son actividades inherentes a la profesión. Pero otras, sin embargo, sí son fundamentales –el paso de la anamnesis al diagnóstico, el más importante–. Delegar en la IA este tipo de funciones es socavar uno de los pilares en los que se sostiene lo más humano y personal –lo más cristiano– de la relación médico-paciente. Trasladad la misma argumentación al resto de profesiones y llegaréis a la misma conclusión, incluidos los fabricantes de neumáticos, al menos si buscan algo más que neumáticos. Si buscan el bien en su quehacer profesional.
Sesgos y materialismos
Estas consideraciones sobre la necesidad de una visión general, completa, del mundo, nos conducen directamente al problema de los sesgos.
La IA puede inducir de manera sistemática a decisiones erróneas o injustas por dos principales razones: 1) por un sesgo en el proceso de selección de los datos, que ofrecen un panorama que no refleja íntegramente la diversidad de la población o el fenómeno estudiado; y 2) por sesgos en el algoritmo mismo, debido a las suposiciones incorporadas en el diseño o a las métricas de rendimiento utilizadas para evaluarlos.
Por ejemplo, si un algoritmo de selección de candidatos para un trabajo está sesgado hacia ciertos criterios, como la edad, el género o la raza, discriminará injustamente a ciertos grupos de personas. Del mismo modo, si los datos utilizados para entrenar un modelo están sesgados hacia ciertas perspectivas o experiencias, el modelo puede producir resultados sesgados al hacer predicciones o tomar decisiones. Estos fallos en el sistema son especialmente difíciles de detectar si la IA utiliza los llamados algoritmos no transparentes (también denominados de caja negra), es decir, algoritmos en los que se conoce la entrada y la salida del algoritmo, pero en los que el proceso interno por el cual se llega de la entrada a la salida no es fácilmente comprensible o interpretable para un observador externo. El asunto está en que, pese a este problema, dichos algoritmos tienen mayor poder predictivo que los algoritmos transparentes. Así que la polémica está servida: funcionalidad, pero mayor riesgo de sesgos versus comprensibilidad, pero menor riesgo.
Dos son los principales modos con que contamos para evitar los sesgos
En coherencia, dos son también los principales modos con que contamos para evitar los sesgos: por un lado, hay que entrenar la IA con muchos datos y lo más diversificados posibles (aquí entra en juego todo el asunto del big data) y, por el otro, es necesario una evaluación constante de los outputs para identificar y corregir los datos.
Aquí encontramos dos obstáculos. En primer lugar, cuanto más complejo sea el objeto de estudio, más difícil va a ser cumplir con ambos objetivos. Y no hace falta explicar, de nuevo, por qué el bien es uno de los objetos de estudio más complejos. En segundo lugar, cuanto más obtuso (sesgo interno) sea el ojo del investigador, más difícil será detectar el sesgo externo. Este segundo obstáculo tiene que ver con la coyuntura actual en que se encuentran las ciencias y las humanidades. Porque, no me canso de repetirlo, el hiper-especialismo se ha hecho fuerte en el mundo académico. Cada vez sabemos más sobre las cosas, pero en compartimentos estancos. La gran imagen que proporciona la investigación interdisciplinar es cada día menos frecuente y, cuando se produce, no siempre genera imágenes reales. No ayuda quien quiere sino quien puede, y para integrar hay que saber. Hablaré más sobre esto algo más adelante, pero, ya lo adelanto, la IA va a ser de poca ayuda aquí.
No ayuda quien quiere sino quien puede, y para integrar hay que saber
Los problemas para alimentar la IA con los datos correctos y para identificar conclusiones partisanas es proporcional a este mundo cada vez más fracturado que la sociedad de los expertos alienta. En el paroxismo de este problema se encuentra el uso de la IA para la toma de decisiones con fuerte componente ético. Decisiones sobre el bien y el mal.
Volvamos al ejemplo de la IA en recursos humanos. ¿Qué criterios puede utilizar una empresa para decidir el número de trabajadores que conviene despedir? A un ser humano con conciencia moral le sería difícil decidir pensando solo en términos de dividendos. Pero una máquina está libre de semejantes escrúpulos. No es ciencia ficción, la empresa china NetDragon anunció a bombo y platillo el año pasado haber nombrado como CEO (siglas de Chief Executive Officer) al primer robot humanoide del mundo. Y no es casualidad que este hito se haya dado precisamente en el gigante asiático, donde el Estado educa a sus ciudadanos con el mensaje de que, si vales algo, es lo que vales para tu empresa o para tu país. Pero la conciencia humana se resiste a ser doblegada, aun con las medidas más coercitivas. Por eso no es extraño que quienes toman por dogma los supuestos materialistas (donde el bien está sesgado por la razón calculadora, y en donde el utilitarismo y el pragmatismo acampan a sus anchas) encuentren en la IA el esbirro perfecto, capaz de ejecutar lo que ni el líder supremo o el amadísimo partido jamás llevarían a efecto ellos mismos. Después de todo, por poco que se valore la dignidad humana, no es fácil vejar a un hombre con tus propias manos.
Occidente todavía está lejos de alcanzar la visión reduccionista de ser humano que practica el comunismo chino, pero desgraciadamente estamos sucumbiendo también a una deriva materialista que acabará conduciéndonos, si no lo evitamos, a puertos similares. Porque un capitalismo radicalmente materialista abre también las puertas a que sean los robots los que tomen las decisiones más graves, y lo hagan fríamente por mor de la maximización de los beneficios. Desde luego, esta deriva va a estar favorecida por ciudadanos con una educación cada vez más deficitaria, en la que el uso de programas como Chat GPT haya mermado no solo la capacidad para controlar la IA sino también el espíritu crítico necesario para oponerse a las decisiones supuestamente lógicas de los supercomputadores. La pregunta final que cabría hacerse en este escenario final es si, por entonces, a esos hombres y mujeres del futuro les importará ya mancharse las manos. Si no es así, la inversión amo y esbirro se habrá invertido.
Robots al mando
El bien es racional, lo que no significa que sea reducible a cómputos matemáticos. Arriba he defendido que para tomar la mejor de las decisiones, la decisión buena, es necesario conocer todo lo objetivo que involucra el principio, ejecución y el final de la acción. Pero habría que añadir que esto tampoco basta. Tenemos también que tener en cuenta la dimensión experiencial, fenoménica, de nuestras decisiones.
Los cristianos solemos utilizar distintas imágenes para expresar esta perspectiva no objetivista del bien: el corazón, la intimidad, la conciencia moral… Así por ejemplo escribe san Agustín en De Vera religione: «entra en tu alma porque en el hombre interior habita la verdad». Y la Verdad en mayúsculas. A Dios se le puede encontrar fuera, en los caminos, pero también dentro, en lo más hondo del ser. Y aquí la IA se topa con su principal carencia: no posee un dentro al que poder acudir para redimensionar sus conclusiones objetivas. Sin conciencia, sin corazón, es imposible que aporte el sentido a lo que, por sí solo, es información neutra –sin alma, que no mueve (anima) al bien–.
Otro modo de expresar lo mismo, pero enfatizando el carácter individual de la hondura humana, es apelar a la noción de persona. Sobre ella, Robert Spaemann escribe lo siguiente para explicar una de las tesis fundamentales del pensamiento de Santo Tomás de Aquino: «la persona designa la realidad divina y humana, no en tanto que en su relación con lo otro, sino en tanto que poseedora de una infinita profundidad activa por la que es lo que es. El sujeto adquiere valor no al compararse sino al sumergirnos en su misterio luminoso». En contraste, una máquina con IA no goza de la profundidad ni de la individualidad de las personas y, por eso mismo, está desconectada de lo real. Como poetiza el escritor francés Antoine de Saint-Exupéry en El Principito, «lo esencial es invisible a los ojos». Y sí, la IA está ciega.
Ser persona implica la capacidad para integrar lo externo y lo interno
Ser persona implica la capacidad para integrar lo externo y lo interno, lo objetivo y lo subjetivo, lo material y lo espiritual, lo superficial y lo profundo, lo limitado y lo infinito. Únicamente en esa integración la realidad deja atrás lo superficial, lo aparente, y se revela como lo que es. Las máquinas nos ayudan con la dimensión objetiva de la realidad, pero la información y conclusiones que proporcionan solo son verdades a medias si no hay un ser humano que complete el cuadro con lo que al cuadro le falta. Y las verdades a medias son las peores mentiras. Reducir la mente humana a IA –el conocimiento humano a objetivismo– es el peor de los sesgos en el que podemos caer, el más letal de los riesgos.
Estas son las principales razones por las que creo que una máquina nunca debiera tomar decisiones relevantes. Pero, ¿entenderán esto los jóvenes del futuro? ¿Serán capaz de ver que una máquina no es un ser humano, ni un ser humano una máquina? Quiero pensar que sí, pero solo si están avisados sobre los riesgos. Y todavía no he acabado de identificar el peor de todos. Vamos a continuación con él.
Simuladores y transferencia mental
Hablemos de la destrucción novísima que generará la antropomorfización de la IA. Y para explicar su conexión con los otros dos riesgos mencionados utilizaré una paradoja filosófica a la que denomino el reverso del test de Turing.
El matemático Alan Turing pone el nombre a esta prueba que es más bien una hipótesis: el día en que en una conversación hombre-máquina, el primero no consiga discernir si está hablando con una máquina o con otro ser humano, entonces la máquina habrá superado el famoso test. Pero ¿esto significa que la máquina tenga la inteligencia de un ser humano? El propio Turing niega esta posibilidad, le basta con identificar el hito tecnológico y las enormes repercusiones sociales que tendrá. No es esta la opinión de toda la comunidad científica. Son cada vez más los que creen que, llegado ese punto, no habrá diferencias esenciales entre el hombre y la IA. Encontraréis en el movimiento transhumanista muchos de los defensores de esta identificación. Hablaremos de esta corriente de pensamiento luego. Ahora solo quiero incidir en dos ideas.
¿Esto significa que la máquina tenga la inteligencia de un ser humano?
Primero. Creo, muy mi pesar y en contra de lo que opinan muchos de mis amigos, que, con el tiempo, los programadores sí van a conseguir que una máquina supere el test de Turing. Y me pesa porque, segundo, esta IA del futuro, que seguirá estando completamente vacía por dentro, generará fuertes espejismos antropomórficos: nos harán creer que son como nosotros. Si esto ocurre, será inevitable entonces que sean muchos los que comiencen a atribuir titularidad moral –derechos y deberes– a la IA.
Lo más probable es que la atribución identitaria cuaje bajo dos interpretaciones, las dos igualmente nefastas, pero una más que la otra. En la primera, se esgrimirá que estas máquinas han adquirido, por emergencia, «mágicamente», esa interioridad o infinitud en la que fundamentamos la dignidad humana. En la segunda, la peor, se interpretará que la hondura humana solo es un fenómeno de complejidad de la materia. Esta elevación de la máquina a condición humana no será, en realidad, sino la peor de las concesiones antropológicas: reconocer que, en último término, el ser humano no es sino una máquina, muy sofisticada, pero una máquina. La supuesta elevación de la máquina no es, en realidad, sino una degradación maquillada de la condición hombre, que ya no busca su reflejo en lo divino. La nueva imagen del hombre que ofrecerá la IA será la de un ser que es pura exterioridad y que, por tanto, ha de adoptar una interpretación objetivista para el auto-conocimiento y la auto-realización.
Todo esto ocurrirá en un futuro lejano (o no ocurrir nunca) y, sin embargo, ya contamos entre nosotros con personas tentadas a identificar la inteligencia humana con un tipo de computación. Prueba de ello son el creciente número de inversiones multimillonarias en investigación en trasferencia mental (mind uploading): el proyecto de lograr codificar la mente humana para su trasvase a un sustrato artificial.
Va en aumento el número de convencidos de que la trasferencia mental es el remedio definitivo contra el deterioro físico. La teoría es sencilla: todo consiste en lograr que la información puede ir saltando del cerebro al hardware y, después, de hardware en hardware. Y no es solo una idea. Empresas como Nectome ofrecen este servicio o, mejor dicho, cobran diez mil euros por la promesa de ofrecerlo a sus clientes… cuando sea posible. Por descabellado que suene, tienen lista de espera y, en ella, están incluidos influencers como el multimillonario de Silicon Valley, Sam Altman.
Nos topamos así con la promesa más importante del transhumanismo: será la ciencia y no la religión la que acabe concediendo la inmortalidad al ser humano. ¿Qué decimos los cristianos sobre este trasvase de información? La codificación total es imposible pues el espíritu humano no es completamente objetivable, reducible a ceros y unos. Con la trasferencia mental dejaríamos atrás la mitad de nosotros mismos: estaríamos fabricando solo una marioneta, puede que terriblemente convincente, que pasase el test de Turing incluso, pero solo eso, una marioneta –inerte como son las marionetas–. El sujeto habría quedado atrás, con su cuerpo.
¿Qué decimos los cristianos sobre este trasvase de información?
El reverso del test de Turing
No todo son promesas. Otros proyectos científicos, con los mismos supuestos antropológicos que los de la trasferencia mental, están siendo ya comercializados con gran éxito. Empresas como Replika, HereAfter y StoryFile han creado versiones digitales de individuos fallecidos para ofrecerlas a sus allegados vivos, ya sea a través de chat, voz o vídeo. Otra vez, es en China donde se está haciendo verdadero negocio pues la demanda de estos avatares fantasma ha superado todas las expectativas. ¿Creen realmente sus compradores que están hablando con sus queridos difuntos? Probablemente no, pero me temo que con el tiempo y el desarrollo tecnológico este tipo de artilugios acabarán transformando la percepción de la realidad de sus usuarios. Quién sabe incluso si terminarán ellos mismos soñando con convertirse en chatbots. Desde luego, estos consumidores de recuerdos no se diferencian demasiado de esos otros que aceptan la compañía de los robots cuidadores. Si ambos grupos alivian su soledad con la IA es porque, consciente o inconscientemente ya atribuyen un «quién» del que poder recibir afecto y aprecio. La realidad es bien distinta. Una cosa es sentirse acompañado y otra es estarlo verdaderamente. Y no hay situación existencial más penosa que la de estar solo y no saberlo.
Otro escenario contemporáneo me sirve para mostrar por qué el futuro metamórfico –que es un futuro antropomórfico– está aún más cerca de lo que suponemos. Vamos con ello.
Las reflexiones que suele suscitar el test de Turing giran en torno al desarrollo tecnológico de la IA. Y todavía queda mucha investigación por delante para que la IA pueda, en efecto, simular la conducta racional humana –simular, tan solo simular, no replicar–. Sin embargo, caed en la cuenta de que hay otro modo de enfocar dicho test: poned ahora la atención en el humano que va a ser sometido a la persuasión de la máquina. Si su inteligencia involuciona hasta hacerse cada vez más precaria, entonces será más fácil que la máquina pase el test de Turing, que nos engañe. Ahora bien, es más fácil y rápido crear ciudadanos más ingenuos que máquinas más inteligentes y, en esta involución, la IA también ejerce un papel.
Ya se ha dicho arriba, pero ahora el tema cobra nueva importancia en el contexto de los espejismos antropomórficos. La IA mal usada, especialmente en la docencia (alentada, además y como hemos dicho, por las cosmovisiones hiper-especialistas y objetivistas), inducirá una regresión de la educación intelectual y de la sensibilidad de los jóvenes que acabará afectando inevitablemente la propia percepción moral, que es imprescindible para entender por qué una IA no es un ser humano. Esta otra cara de la moneda, a la que denomino el reverso del test de Turing, debiera suscitarnos especial alarma, porque refiere a un mal real, del aquí y del ahora, y sobre el que todavía podemos hacer muchas cosas para evitarlo.
Ilustraré con un ejemplo, también cercano, el fenómeno del reverso del test de Turing. En octubre de 2023, un programador con el sobrenombre de FlowGPT utilizó la IA para componer NostalgIA, una canción original pero que imita voz y el estilo del músico y compositor Bad Bunny. La pieza alcanzó más de 885 mil visualizaciones en YouTube y cerca de un millón de audiciones en Spotify. ¿Cómo explicar este fenómeno?
Muchos de los seguidores del compositor encontraron un producto musical igual o mejor que lo que este era capaz de ofrecer. Por supuesto, el enojo del artista con sus fans fue mayúsculo. Sus palabras dentro de su canal de WhatsApp han hecho historia: «Si a ustedes les gusta esa mierda de canción que está viral en TikTok, sálganse de este grupo ahora mismo. Ustedes no merecen ser mis amigos». Entonces, ¿el arte también está en peligro? La respuesta ofrece sus luces y sombras. Empecemos por las segundas.
Entonces, ¿el arte también está en peligro?
La IA se ha utilizado recientemente y también de manera similar para generar nuevas composiciones de autores clásicos como Mozart, Beethoven o Schönberg. El éxito ha sido minúsculo. ¿Cambiarán las cosas en el futuro? Esa no es la cuestión, sino cómo la IA se asemeja más a nosotros (en este caso, respecto de la producción artística) cuanto más baja sea la capacidad creativa del artista y la sensibilidad de los oyentes. Si la música que más te gusta es la del autor portorriqueño, puede que NostalgIA te lleve a la conclusión de que la singularidad tecnológica ya está aquí, es decir, que las máquinas son capaces de las más altas cimas de la invención humana. Test de Turing superado. Si te gusta Gustav Mahler… las nubes de tormenta apenas se aprecian todavía en el horizonte.
Nota. Apenas conozco la música de Bad Bunny y no pretendo menospreciar su trabajo. Seguramente cuando yo era joven escuchaba músicos mucho peores. Quiero pensar que mi inteligencia y sensibilidad han crecido en las últimas tres décadas y que, en buena parte, por eso hoy me siento más inclinado a escuchar a músicos como Beethoven. Se empieza desde abajo y es bueno que así sea. Insisto, el problema aparece cuando la educación, por culpa del mal uso de las tecnologías emergentes, no favorece este crecimiento.
Terminemos ahora con las luces en los usos de la IA con fines artísticos. La IA nunca realizará obras de arte porque el arte no es la obra de arte. La obra de arte es al arte lo que el gol es al fútbol –un momento, una parte del juego, pero solo eso–. El arte es, ante todo, experiencia artística, y a esta se llega mediante el proceso creativo hacia la obra de arte. Ese es el camino. Y esta definición también incluye a los espectadores de la obra: contemplar una obra de arte es recrearla, ponerte en la piel de artista y volver a empezar, sin perder con ello la perspectiva propia. La adecuada tensión entre el yo-espectador y el otro-artista es la que suelen ejercitar los alumnos de Bellas Artes con los ejercicios de écfrasis. De este gremio podemos aprender todos y, en especial, a valorar los museos, las bibliotecas y los auditorios como páramos donde poder retirarse. Para entender esta última frase tengo que explicaros un poco más en qué consiste contemplar. Pero haré esto un par de epígrafes más adelante. Por el momento, cerremos el epígrafe volviendo al tema de la IA.
Las obras de arte realizadas por un programa de autoaprendizaje están exentas del proceso creativo
Las obras de arte realizadas por un programa de autoaprendizaje están exentas del proceso creativo, que siempre exige una experiencia, un dentro que transformar y, por tanto, en sentido estricto no son obras de arte. Son otra cosa, tan diferente como absurda. Comparadlo al hecho mismo del gol (pelota pasando una portería) aislado del partido, con sus dos tiempos, con los jugadores, etc. No solo carece de valor, sino que a eso no habría ni que llamarle gol. La IA puede servir como sirve un pincel, un lienzo, una técnica artística particular… pero nunca podrá ir más allá. Por eso, quienes compran obras de arte realizadas por IA no entienden de arte, aunque no niego que, como inversión, no puedan llegar a ganar mucho dinero. Porque la sensibilidad cultural está cambiando. Veamos este asunto más detenidamente.
La nueva sensibilidad posmoderna
Como señalé al inicio de estas páginas, el crecimiento de la novedad es positivo si esta fuerza puede transformarse en progreso personal y social. Y de nuevo la gran pregunta. ¿Sabremos surfear este gran tsunami que está por caer? Quiero terminar estas reflexiones mencionando tres grandes grupos de respuestas.
El primero engloba a los tecno-optimistas radicales, con los transhumanistas a la cabeza, que asumen una de las articulaciones del dogma del progreso inevitable: los avances tecnológicos siempre traen, más tarde o más temprano, la prosperidad social. El grupo transhumanista merece especial mención dentro de esta primera corriente de opiniones puesto que incluyen en la noción de prosperidad la posibilidad transformación completa del ser humano: la mutación de la propia naturaleza humana. Que la novedad metamórfica alcance también lo más definitorio humano no es un riesgo del que crean que haya que estar prevenido porque, para ellos, no hay nada definitorio, esencial en el ser humano. No hay naturaleza. Y si no hay tal, tampoco nada monstruoso o antinatural. Ambos términos no serían sino meras convenciones culturales que cambian con el tiempo.
El transhumanismo es hijo ilegítimo del humanismo ilustrado, movimiento que surge en el siglo XVII para defender que al hombre le basta la racionalidad para alcanzar la felicidad individual y la paz colaborativa de una sociedad constituida por hombres libres. Dios deja de tener un papel en el porvenir, y no es lo único que se deja atrás. Por un lado, la Ilustración redujo la racionalidad a razón matematizante y experimental y, por el otro, fundó el consenso social en la creencia en una naturaleza humana por la que todos parecíamos hermanados. Pero esta naturaleza ya no es la del pensamiento clásico (en mayúscula, autónoma… Naturaleza que, decía Tales de Miletes, se antojaba cargada de dioses), sino como barro inerte a merced del alfarero. Era inevitable que la fraternidad se fuera fracturando a golpe de voluntad y, con ello, que el humanismo mismo acabara mutando.
Dios deja de tener un papel en el porvenir, y no es lo único que se deja atrás
El transhumanismo acepta la primera cláusula (cientismo) pero no la segunda (humanismo). Esta corriente defiende que cada individuo ha de ser diferente a voluntad porque la razón ya no sirve para justificar caminos de transformación, ni mucho menos caminos comunes de progreso social. Exalta la libertad individual, pero a coste de hacer enormemente problemáticas la convivencia social y, en particular, las democracias. Recordad que dicho sistema político se funda en acuerdos fundados en la creencia de que hay una serie de horizontes compartidos que pueden ser conocidos por la razón –un destino humano–. Es en este contexto en el que Noah Harari escribe lo siguiente: «En retrospectiva, la Guerra Fría parece una locura […] ¿Cómo es posible que hace treinta años la gente estuviera dispuesta a arriesgarse a sufrir un holocausto nuclear por creer en un paraíso comunista? Dentro de cien años, nuestra creencia en la democracia y en los derechos humanos quizá les parezca igualmente incomprensible a nuestros descendientes». China también nos lleva la delantera en la profecía de Harari. Pero Occidente seguirá el mismo camino en la medida que el socavamiento de la idea de naturaleza vaya dejando de percibirse como un verdadero riesgo –uno de los más grandes sesgos concebibles–. De este cambio de percepción moral depende la forja de la nueva sensibilidad posmoderna.
Pasemos ahora a evaluar un segundo gran grupo de corrientes de opinión sobre el futuro que, probablemente, os será más afín: el que caracteriza al humanismo cristiano. Está presente a lo largo de toda la modernidad y, desarrollando la teología de la persona, también enfatiza en la dignidad humana y el valor de la libertad individual, pero sin, primero, hacerlo completamente autosuficiente; segundo, ni reducir la racionalidad a objetivismo; ni tercero, disolver la noción de naturaleza humana. Aquí, Dios, el misterio y lo dado siguen ocupando un importante espacio en el ser y las decisiones de los seres humanos. En este marco se despejan los espejismos del optimismo ilustrado: los riesgos existen, algunos son monstruosos (en especial, las tecnologías que puedan cegarnos a todo eso que importa pero que es invisible) y no bastan las solas fuerzas humanas para sortearlos. Sobrevuela de nuevo la idea de la necesidad de ser realistas y ver las oportunidades, pero también ser conscientes de las amenazas.
Avancemos. En este segundo grupo de corrientes de opinión identifico otros dos subgrupos, caracterizados por su actitud general ante los nuevos adelantos tecnológicos. El primer subgrupo integra a todos aquellos que, con toda su buena voluntad, defienden que la buena formación basta para lograr un uso responsable de la tecnología. Y este mensaje está calando en la sociedad. Basta contar cuántas universidades están ya ofreciendo cursos a profesores y alumnos sobre buenas prácticas en el manejo de la IA. Es una idea positiva que presenta, primero, una imagen benévola de la tecnología; segundo, gran optimismo sobre el futuro; y tercero, solo exige unas cuantas horas de sesiones de formación. He denominado a este grupo, no sin cierta ironía, como humanismo cool. Pero es entre los cristianos donde encuentra la mejor bienvenida, que nos sabemos amparados por un Dios protector, y que además tratamos de comunicar la alegría de la vida y de la nueva buena del Evangelio. Los seguidores de Cristo no podemos ser transmisores del miedo, ni individuos pesimistas con una actitud negativa hacia el progreso.
Los seguidores de Cristo no podemos ser transmisores del miedo
Sin embargo, hay quienes piensan que la formación reglada no es suficiente –yo mismo entre ellos–. Aquí encontramos al tercer subgrupo que quiero destacar aquí, al que denomino verdadero humanismo tecnológico, y desde el que se demandan medidas realmente substanciales sobre la gestión de las innovaciones tecnológicas. Porque… formación, sí, pero de un tipo distinto del que se propone en el humanismo cool, que cae en buenismos que no solo son ineficientes para prevenir los riesgos tecnológicos, sino que además blanquean dichos riesgos y, por ello mismo, acaban potenciándolos.
Dedicaré las páginas que quedan a explorar esta tercera propuesta. Aunque antes, para cerrar este epígrafe, quiero introducir otra nota teológica sobre ambos tipos de humanismos cristianos. En ellos se recoge un debate teológico muy antiguo sobre los distintos tiempos y modos en que Dios interviene en la historia. De manera paradigmática suelen contrastarse los que acontecen en las circunstancias del profeta Isaías con los que acontecen en las del profeta Ezequiel. Sobre esto no diré más. Prefiero que seáis vosotros mismos los que preguntéis a los exégetas bíblicos sobre por qué no deben confundirse estos dos tiempos de Dios.
Verdadero humanismo tecnológico
Las buenas intenciones no siempre son suficientes. Hay sustancias adictivas que, por muy fuerte que sea la voluntad de quien las prueba, acaba sucumbiendo a ellas. La heroína, por ejemplo. Otras veces, la fuerza del efecto adictivo tiene que ver menos con la sustancia en sí y más con el contexto cultural que envuelve al consumidor. Véase, por ejemplo, la perdición que supuso el whisky para los nativos americanos, que fue más decisiva para la conquista del Oeste que el Winchester de repetición.
¿Por qué saco este tema? Porque nuestra sociedad secularizada, incapaz de ofrecer discursos totalizantes –un sentido para la vida– se está transformando en el perfecto caldo de cultivo para generar adicciones estructurales, esto es, formas de evasión (químicas, de consumo, sexuales…) ante la angustia existencial de no saber de dónde venimos ni hacia dónde vamos. Y aquí el meollo de la cuestión, porque creo que este es precisamente el contexto en el que debemos analizar cómo lograr un uso responsable de la IA.
La tecnología digital no es neutra
Identifiquemos los componentes de este caldo. En primer lugar, los intereses económicos. La tecnología digital no es neutra. Numerosas apps y plataformas parecen diseñadas para enganchar a sus usuarios. En segundo lugar, los estilos de vida. La IA ofrece soluciones rápidas y cómodas para resolver infinidad de tareas en un mundo donde el frenesí vital es la tónica dominante. En tercer lugar, el optimismo tecnológico. Yo prefiero utilizar otra denominación para este componente: la indiferencia (probablemente por incomprensión) ante los profundos efectos que puede tener el abuso de esta tecnología en las capacidades de pensamiento crítico y autogobierno –sobre esto ya hemos hablado anteriormente–. En cuarto lugar, el relativismo existencial. Porque lo virtual se presenta de manera más y más atractiva como válvula de escape a la soledad, especialmente si esta te habla mirándote a los ojos –robots antropomórficos–.
¿A qué conclusión llegamos si introducimos todos estos elementos en el mismo crisol? Pensar que unos cursos de formación bastan para contrarrestar los cantos de sirena de la IA, es como creer que unas cuantas clases de kárate son suficientes para ganar los campeones mundiales. Quizá así sea en algún joven o adulto con capacidades extraordinarias, pero no en la inmensa mayoría. Creer, esperar y confiar en la humanidad –en la juventud– no es equivalente a pedir imposibles. Y si alguien guarda dudas, basta que eche la mirada veinte años atrás, porque ya hemos caído antes en el mismo error.
Por aquel entonces se discutía sobre la conveniencia de que los menores de edad poseyeran móviles. Antes como ahora, el humanismo cool se unió a la progresía en el discurso de la educación para un uso responsable. Hemos tardado veinte años en comprobar cuán idealistas eran esos discursos –a precio de infancias destruidas–. Hoy el tema de los teléfonos móviles vuelve a salir a la palestra, pero con medidas más taxativas que hablan de formación, pero también de prohibiciones. A determinadas edades la formación no es suficiente. Pero el mal ya está hecho, pues el hábito social ya está creado y va a ser bastante más difícil llevar a la práctica cualquier medida restrictiva. Todo hubiera sido más fácil al principio y, quizá entonces, los remedios no hubieran tenido que ser tan drásticos como los que ahora se proponen.
Contra la amnesia y la ceguera, un verdadero humanismo tecnológico (VHT). No es una corriente rupturista pues se siguen defendiendo y articulando las ideas de naturaleza y persona. Pero también es algo más, una llamada a contemplar al ser humano a la nueva luz de los hitos tecnológicos, esos que están concediendo al hombre un extraordinario poder transformador sobre el mundo y sobre sí mismo, y en la que se afectada nuestra propia autocomprensión. Necesitamos nuevos discursos en esta deriva hacia la singularidad tecnológica: porque nunca antes el ser humano tuvo al alcance de la mano destruir el planeta (armas nucleares, bacteriológicas…), ni fue más fácil para controlar a los ciudadanos (fake news, tecnologías de vigilancia…), ni fue capaz de diseñar robots que simularan tan perfectamente los sentimientos como para confundir al amor humano. Sobre esto último, no me resisto a mencionar el caso de Alicia Framis, la primera mujer española que ha anunciado que se casará en verano de 2024 con AiLex, un holograma que, según afirma ella misma, satisface todas sus necesidades emocionales. Veremos cómo acaba la relación. En todo caso, todos estos nuevos escenarios añaden información significativa a la pregunta sobre quién es el hombre y también exigen mejores enfoques sobre el lugar hacia dónde debiéramos dirigirnos como individuos, como sociedad y como Iglesia.
Ere Tech-Beg’
En los trabajos de Gilles Lipovetsky encontraréis excelentes reflexiones sobre la relación entre la sociedad del vacío y la sociedad tecnoconectada. ¿Cómo evitar que la tecnología nos desconecte de la realidad –en cuyo fondo late lo maravilloso–, de los otros –con quien poder compartir la intimidad, esa hondura misteriosa e infinita– y del propio timón de nuestras vidas? En una entrevista concedida al diario ABC este mismo abril, Lipovetsky niega que se pueda frenar el avanza de la IA. «En ningún momento se ha podido detener la potencia técnica. Deberíamos ser conscientes de ello e intentar controlarla sin demonizarla». Estoy con él. No debemos demonizar la tecnología, sería como demonizarnos a nosotros mismos, y es imposible detener el progreso tecnológico, que sería tan absurdo como pretender frenar el progreso humano. Ahora bien, ¿en qué puede consistir ese control en las circunstancias de extraordinaria indefensión en la que nos encontramos? Una de las respuestas que encontraremos dentro del VHT es la de los Principios Tecnológicos Eremíticos (PTE), en inglés, Eremitic Tech-Beginning). Termino este ensayo esbozando sus líneas maestras.
Necesitamos crear espacios donde poder contemplar la realidad de manera no mediada
Para salvaguardar nuestra naturaleza y nuestra persona –nuestra humanidad y nuestra libertad– necesitamos crear espacios donde poder contemplar la realidad de manera no mediada, no objetivada, no racionalizada, y no tecnificada. Toda tecnología es mediación, esto es, una herramienta que nos facilita algo, que nos acerca una meta. Es un puente entre el inicio que somos o en el que estamos y el fin al que aspiramos. Pero ¿cómo elegimos los fines hacia los que dirigirnos? Hay dos modos. En el primero, el modo sustancial, tenemos que dar un paso hacia atrás, hacia el momento pre-tecnológico, donde lo más esencial y definitorio se muestra en forma de ideal. Es lo que sucede cuando somos capaces de escuchar a nuestra conciencia hablarnos de la necesidad del cuidar al prójimo. En el segundo, el modo accidental, dejamos que la tecnología marque nuestro camino. Es cuando, por ejemplo, y perdonadme la caricatura, me regalan unos esquís y me siento obligado a practicar esquí.
Hemos de procurar que los modos accidentales no eclipsen los modos sustanciales de conducir nuestra vida. Las circunstancias no deben determinar nuestra conducta –y en el clima actual, las circunstancias son principalmente tecnológicas–.
¿Cómo devolvernos al modo sustancial, pre-tecnológico, para orientar la vida? Podéis extraer algunas espléndidas ideas del espíritu eremítico –término que deriva del griego ἔρημος, esto es, «del desierto»–. Tranquilos, no tenéis que convertidos en anacoretas ni habitar en cuevas. Basta con adaptar algunas prácticas fundamentales sobre el silencio y la contemplación, del que ellos son maestros.
No es fácil encontrar el silencio en nuestras vidas y, si algo saben los eremitas, es que ese silencio viene propiciado por un modo particular de estar en la realidad o, mejor, de estar ante la realidad. Estoy hablando del modo contemplativo –de ser, estar y pensar–.
La contemplación es un método de conocimiento en el que se integra lo objetivo y lo subjetivo
Empecemos por el pensar. La contemplación es, entre otras cosas, un método de conocimiento en el que se integra lo objetivo y lo subjetivo. Henri Bergson lo describe como el acceso privilegiado, en primera persona, a la realidad. Si el conocimiento objetivo gira en torno a la cosa, dice Bergson, la intuición a la que nos lleva la contemplación facilita una conexión directa con lo real. Entra en la cosa por medio de una mirada no invasiva, no analítica, receptiva y despojada de etiquetas, juicios y comparaciones –hasta alcanzar incluso lo absoluto–.
Son palabras de difícil comprensión, pero no hacen sino describir un tipo de conocimiento que todos los seres humanos debiéramos ejercitar diariamente. De hecho, consciente o inconscientemente, lo hacíamos hasta hace muy poco. Hasta que la tecnología empezó a dejarnos sin momentos de silencio. Porque la contemplación, no es un tema exclusivamente religioso, aunque por supuesto, los cristianos contemos con grandes maestros. Probablemente, uno de los más grandes sea san Juan de la Cruz, que supo dar a tal estado del alma la forma más perfecta, la de abandono en Dios. Pero como digo, no hace falta alcanzar tan altas cimas. Para empezar, ni siquiera es necesario entender la contemplación en clave religiosa. Eso viene después, cuando la práctica se convierte en virtud.
El espíritu eremítico es anterior a los eremitas, quienes, en sentido estricto, son personas consagradas a Dios. Pero el espíritu eremítico no reclamaba tanto. Tanto entre los judíos como en el cristianismo más temprano, se manifestaba en personas que libremente se retiraban al desierto y, cuando llegaba la hora, volvían al mundo, y lo hacían renovados –con una meta más clara de vida–. Pensad cuán numerosos son los grandes profetas que han experimentado su momento de preparación en el desierto. En el espíritu eremítico, el silencio es, por tanto, solo y nada menos que un principio… en el doble sentido de la palabra. Primero, principio cronológico: silencio en el que hacer una pausa para luego iniciar una vida más real; y segundo, principio ontológico, un silencio que cimenta los fines de esa vida –por eso, en inglés, es preferible el término beginning y no el más habitual de principle–.
Si buscáis autores recientes que, desde diferentes perspectivas, reflexionen sobre esta vía de conocimiento y vida me vienen a la memoria Nicholas Buxton (El silencio interior), Francesc Torralba (El arte de saber estar solo) o Byung-Chul Han (La desaparición de los rituales, y más recientemente, Vida contemplativa) y, por supuesto, Hans Urs von Balthasar (La oración contemplativa). Hay muchos más, pero estos, a pesar de sus diferencias, comparten y tratan de explicar dos ideas. Son las siguientes.
En primer lugar, la contemplación no es un acto de introspección solipsista sino todo lo contrario, una forma de salir de uno mismo. Hoy diríamos, de conectar. En segundo lugar, la contemplación no se presenta únicamente como una opción de vida –consagrados o no–, por legítima que sea, sino como una estrategia irrenunciable para la vida activa. Se le podrá dedicar más o menos tiempo, pero si no se le dedica ninguno entonces las acciones humanas pierden color, dejan de ser significativas para el agente que las realiza.
El silencio tecnológico es el que viene con la contemplación
Los PTE no son una invitación literal a abandonar este mundo sino únicamente a crear espacios, libres de tecnología (todo lo que sea posible, al menos), donde, y aquí lo importante, poder entrenarnos en sus prácticas. Por tanto, no hay que entender este silencio eremítico de manera literal, como ausencia total de sonido (u otros estímulos sensoriales) sino como un modo de mirar la realidad. Como es obvio, dicha contemplación es más fácil si nos habituamos a poner el móvil en «modo avión» una vez al día. Pero este el silencio tecnológico no es el que buscamos, sino aquel otro, hondo, que viene con la contemplación.
Dedicad unos minutos a contemplar, con mayúsculas, a todas esas personas que os rodean y que, a diferencia de nosotros en ese momento, posiblemente permanezcan absortas ante la pantalla. Puede incluso que tengáis más suerte y seáis testigos de una madre abrazando a su hijo a las puertas del colegio. También los pasillos de un hospital y los senderos campestres brindan grandes oportunidades para ejercitarse en el asombro. No olvidéis tampoco los espacios artísticos –ahora ya entendéis la afirmación epígrafes arriba sobre el arte y los desiertos–. Y, en nuestro tiempo, no es una obviedad recordar a los cristianos la posibilidad de la contemplación delante de un sagrario, leyendo los textos bíblicos o, simplemente, dirigiendo la mirada hacia una imagen de Cristo crucificado. Allí, el Metaverso, la Inteligencia Artificial o la inversión en criptomonedas se descubren bajo una nueva luz.
La contemplación nos abre a la inmanencia de las cosas reales
La contemplación nos abre a la inmanencia de las cosas reales y disuelve las que no lo son. Al mismo tiempo, hace visible esas relaciones trascendentes por las que todas las cosas están conectadas, personas incluidas, y cuyo impulso trasciende el mundo mismo y nos dirige a Dios. Pueden parecer palabras misteriosas, pero, insisto, solo refieren a una experiencia que ha sido siempre habitual entre los seres humanos, incluso para los no creyentes. Y lamentablemente, de esta mística de lo cotidiano, como a mí me gusta denominarla, nada se habla en los actuales cursos de formación para el uso responsable de la IA. Si acaso, se piden en ellos momentos de desconexión tecnológica. Pero ¿entonces qué? Entonces una angustia insoportable que es más destructiva que el mal que se pretende vencer. Las recaídas son inevitables.
En torno a las prácticas contemplativas
Vamos ahora con más consejos que favorezcan la actitud contemplativa. En primer lugar, y como ya he incoado, el mirar contemplativo se asienta en diversas capacidades intelectuales que no deben atrofiarse. Por eso no tendríamos que habituarnos a usar un computador para tareas que uno mismo puede resolver en un tiempo razonable, ni mucho menos para tomar decisiones profesionales o personales. Un buen criterio de actuación es no permitir que la IA reduzca la exigencia intelectual en nuestros quehaceres como humanos.
Los estudiantes pueden llevar a la práctica este consejo negándose a utilizar la IA para trabajos y tareas en las que se supone que no es necesaria, aun cuando la calidad del trabajo sea peor. La memoria, la imaginación, la abstracción se debilitan si uno se limita simplemente a ser el editor de los textos y cómputos elaborados por una máquina. En adultos, más dependientes de los estándares de calidad, implica un esfuerzo adicional por poner la cabeza donde quizá no sea ya necesario. Por ejemplo, si un software llegara a realizar mejores y más rápidos diagnósticos que un médico internista, el médico internista tendría que seguir esforzándose por memorizar y entender el proceso lógico que ha llevado a dicho diagnóstico, aunque eso no tuviera ninguna utilidad objetiva para los pacientes.
Otra buena práctica, más difícil que la anterior, consiste en aprender a entrever el mundo en su totalidad… en cada cosa contemplada. ¿Cómo? Podrían decirse muchas cosas, pero, la primera de todas tiene que ver con una educación integral. No es buena idea tener que elegir, desde muy pronto, un itinerario académico de letras o ciencias. Como arriba expliqué, es necesario conocer las claves de las grandes disciplinas: historia, biología, matemáticas, teología…
Este consejo sobre la formación integral no es impracticable pues requiere mucho menos tiempo del que parece. Porque no se trata de quitarse una chaqueta de especialista para ponerse otra, ni mucho menos de ponerse una chaqueta sobre otra. Si fuera así, la asfixia estaría asegurada. No. De lo que se trata es, precisamente, de quitarse las chaquetas. Solo así es posible dar con las claves del conocimiento del mundo. En esto tenemos a Sócrates como maestro de maestros. Id a la Apología (en el que, gracias a Platón, somos todavía capaces de asombrarnos sobre su pensamiento) y advertid cómo recorre Atenas para escuchar a los expertos sobre sus disciplinas. Sócrates es claro en este punto: ellos no poseen las claves, pues solo saben… de su especialidad. Recuerda las palabras del gran Richard Kipling: «¿Y qué saben de Inglaterra quienes solo conocen Inglaterra?». Las claves están veladas en las especialidades, y se desvelan a lo largo de los viajes, y por sus viajes. Y en efecto, Sócrates va topándose con dichas bisagras a lo largo de sus visitas a los distintos gremios de la ciudad de la democracia. Si le imitas, no pienses que el camino será fácil: te llamarán ácrata, diletantista, retrógrado… Haz como él. Sé cordial, invita con la mirada y no mires atrás.
Gracias a Dios no estamos en los tiempos de Sócrates y los tiempos de la cicuta han pasado. Pero que nadie se lleve a engaño. La cautela tecnológica que proponen los PTE tendrá un coste en el éxito laboral y social y, por supuesto, para el bienestar de quien lo practica. También en esto la imagen del eremita refleja muy bien la radicalidad de la propuesta, que es radical también en la aceptación de las consecuencias. Cierto ostracismo está asegurado. Ahora bien, siempre habrá alguien a tu lado y su compañía será auténtica –y eso compensa todo lo demás–. Pero ¿en qué quedamos? ¿Un eremita acompañado?
El tiempo de contemplación puede proveernos de la orientación y la motivación adecuadas
Recordad que estamos hablando del espíritu eremítico y no de la vida de los eremitas. Los PTE son una invitación a comprender que el inicio de la solución hay que buscarlo en lo más hondo de cada persona y esto exige una iniciativa personal a la que no es posible ofrecer demasiada asistencia. Esto no significa que, de manera accidental, puedas reunirte con otras personas que buscan lo mismo… como también los propios eremitas formaban y forman también comunidades sin perder por ello el espíritu del desierto.
Lo que quiero decir es que, para empezar, vas a estar solo, y es bueno que así sea. ¿Y qué viene después? Porque la solución es paradójicamente poco atractiva. ¿Me dice que, con el fin de remediar la soledad hiperconectiva, tengo que abrazar la soledad contemplativa? Así es. Primero, porque la soledad contemplativa ofrece en sí misma grandes deleites de los que la soledad hiperconectiva carece. Segundo, porque esta soledad es transitoria–preparatoria. Consiste solo en una forma de empezar o, si se prefiere, de recomenzar diariamente la vida activa. El tiempo de contemplación puede proveernos de la orientación y la motivación adecuadas para actuar en nuestras circunstancias personales. A estas capacidades naturales, los cristianos añadiríamos también las sobrenaturales, porque los momentos contemplativos son también oportunidades idóneas para pedir discernimiento y prudencia, dones que concede el Espíritu Santo a quien quiere. Por cierto, si la presciencia natural está vedada a la IA, qué decir de la presciencia sobrenatural.
Los momentos contemplativos son oportunidades idóneas para pedir discernimiento y prudencia
En resumen, esta visita al desierto que te propongo es de ida y vuelta: la soledad contemplativa para vencer la soledad hiperconectiva ha de terminar alcanzándonos un mundo real y sugerente, bastos horizontes de libertad y una comunidad auténtica que celebre tu llegada.
Últimas consideraciones. El poder de uno
Cerremos estas reflexiones considerando el camino de vuelta del desierto. Si los PTE están desprovistos de cuantiosos consejos y recetas para lidiar con las tecnologías emergentes es porque se asume que con las prácticas contemplativas cada individuo tendrá que ir encontrando las estrategias concretas para no sucumbir a la novedad metamórfica. El eremita tecnológico no lo va a tener fácil porque renunciar por completo al uso de la IA va a resultar imposible. Y aquí la gran dificultad. ¿Entonces qué?
«Si no sabes beber, no empieces». Todavía se puede leer este lema en los carteles de entrada a algunas de las reservas de los indios americanos. Y nosotros estamos ahora como estaban ellos antes. Solo que peor, pues los enemigos no son los colonos venidos de Europa sino somos nosotros mismos. Y para colmo, no tenemos posibilidad de ser abstemios. Por eso, no me cansaré de insistir, los cursillos cool para un uso responsable no van a bastar, como tampoco las últimas herramientas tecnológicas tipo «modo atento» o «bienestar digital». Por si no lo sabes, vienen instaladas ya de fábrica en casi todos los móviles. Bienvenidas sean, pero el tsunami pasará por encima de estos diques. El ingrediente esencial en los PTE es la contemplación. La tecnología que viene podrá ser controlada y aprovechada para el progreso humano solo desde la contemplación. Y me atrevo a imaginar incluso que, bien controlada, la tecnología pueda resultar útil para la contemplación misma, en todo lo que de material tienen sus prácticas. Pero eso ya es otra historia.
Los últimos tres párrafos quiero dedicarlos al mismo tema con el que empecé. El término alarmismo es definido por la RAE como la «tendencia a propagar rumores sobre peligros imaginarios o a exagerar los peligros reales». La alarma que siente una madre al percatarse de que su hijo ha salido al alféizar de la ventana no es alarmismo, ni falta de optimismo o sentido sobrenatural. Los psiquiatras definen las reacciones de alarma como los cambios fisiológicos que permiten que una persona pueda generar una respuesta rápida contra situaciones peligrosas. Es decir, las reacciones de alarma son buenas cuando la situación lo requiere. ¿Es este el caso de la IA? Creo que así es. ¿Por qué entonces no se actúa de manera más contundente? Como casi todo en estos tiempos, es un fenómeno que tiene que ver con una cuestión de evidencias y seguridades. Somos una sociedad que peca de cortoplacismo y que exige evidencias incontestables para cambiar su rumbo. Lo dicen también los defensores del cambio climático. Cuando sean innegables las consecuencias para el medioambiente que tienen la desforestación y la contaminación poco servirán ya las medidas que se quieran adoptar. Ambos discursos, el ecológico y el tecnológico, hablan de lo mismo, de cambios metamórficos cuyos efectos devastadores solo serán obvios cuando sean también inevitables. Por cierto, para refrigerar los procesadores de la IA se utilizan miles y miles de litros de agua al día.
Es ahora cuando la alarma tiene que jugar su papel
En conclusión, es ahora cuando la alarma tiene que jugar su papel. Sin histerias, con cabeza y sentido de la responsabilidad personal. Las acciones humanas, por aisladas que parezcan, pueden alcanzar mucho más de lo que ninguna IA podrá nunca prever. Todo lo que viene del desierto es nuevo, y de una novedad en el crecimiento contra la que la novedad del caos nada puede. Y esta preocupación es, a la vez, compatible con un espíritu alegre que celebre todo lo que de bueno hay en el mundo, que es mucho. Como escribe san Juan Pablo II en su carta sobre el tercer Milenio: «Es necesario que se estimen y profundicen los signos de esperanza… a pesar de las sombras que frecuentemente los esconden a nuestros ojos». Nota personal: en esa tarea a la que nos invita el santo, a mí me ayuda mucho la contemplación de El libro de los Salmos.
¿Se puede decir algo más sobre lo esencial a la ética de la IA? Por supuesto, pero esto les corresponde a otros, los que vienen detrás de los bioéticos. Nosotros únicamente hacemos de exploradores –de scouts– en las tierras inexploradas de las tecnologías emergentes. Son los especialistas los que convierten estas primeras luces en sólidos cuerpos teóricos con los que sentar cátedra. Así ha de ser… mientras sigan sabiendo cómo hacerlo. Pero aviso a navegantes, para cuando lleguen, muchos de nosotros ya habremos partido en busca de nuevas fronteras. Y es bueno que así sea –que el apuesto Aquiles pierda el resuello persiguiendo a la modesta tortuga–. Este otro espectáculo que nos brinda Zenón es también, sin duda, digno de contemplación.