Por Arturo González González
Un titular de CNN de hace unos días dice: “el 42% de los CEO afirma que la inteligencia artificial (IA) podría destruir a la humanidad de 5 a 10 años”. La noticia habla de un sondeo que la Universidad de Yale realizó entre 119 directores de empresas como Coca-Cola, Walmart, Xerox y Zoom. Visto superficialmente, el titular puede generar alarma hasta en el lector menos avezado. Que casi la mitad de una muestra de las personas más influyentes del planeta crea que la IA va a acabar con la especie humana en un lapso no mayor de 10 años es para, por lo menos, perturbar el sueño. Pero basta leer la noticia para matizar la preocupación, y no sólo por lo que explica, sino también por lo que omite. Por ejemplo, pasa por alto cuáles son los argumentos en los que se basan los directores entrevistados para considerar el riesgo de extinción que implica la IA para el ser humano. Y éste no es un detalle menor. Si alguien que ocupa una posición relevante en la estructura económica global cree en verdad que el mundo se va a acabar en máximo un decenio, lo menos que deberíamos saber es por qué lo cree. Lo más cercano a una explicación es una declaración que dio en mayo pasado Geoffrey Hinton, profesor emérito de la Universidad de Toronto conocido como “el padrino de la IA”, quien dijo: “sólo soy un científico que de repente se dio cuenta de que estas cosas se están volviendo más inteligentes que nosotros (y) quiero dar la voz de alarma y decir que deberíamos preocuparnos seriamente por cómo impedir que estas cosas nos controlen”. De este dicho se deduce que el temor principal radica en que un día la IA adquiera conciencia y autonomía y que, una vez conseguidas ambas, decida someter o exterminar a los seres humanos. Sí, parece el argumento de una película de ciencia ficción, como Terminator o Matrix.
Pero si revisamos la historia y la literatura, nos daremos cuenta de que el temor a que una máquina, es decir, un instrumento autónomo objetivo creado por el ingenio humano, atente contra su creador es mucho más viejo de lo que creemos. En Frankenstein o el moderno Prometeo, publicada en 1818, Mary Shelley cuenta que el doctor Víctor Frankenstein, tras años de obsesión con crear vida a partir de electricidad aplicada a materia orgánica inerte, queda horrorizado con su creación una vez que ésta se manifiesta viva y, al final, emprende una persecución para acabar con el monstruo. No lo consigue, ya que muere antes. El monstruo, que ha aprendido a hablar y en su contacto con el mundo ha asesinado a varias personas, adquiere conciencia de lo que es y termina por inmolarse en un lejano paraje para acabar con su mísera existencia. Pudiéramos decir que un sector de los desarrolladores actuales de IA padece el síndrome de Frankenstein: una vez que se han dado cuenta de lo que han creado, quieren detenerlo. Pero es más complejo que eso.
Vayamos más atrás. Los sabios de la Grecia Antigua se cuestionaron respecto a la naturaleza de los autómatas y otros productos del ingenio humano. Pitágoras, al que se le atribuyen numerosos avances, entre ellos la abstracción matemática, creía que los números existían de forma independiente a la mente humana, es decir, que ésta no los inventó sino que sólo los descubrió. Un claro ejemplo de alienación creativa que, por lo visto, se presenta aún hoy. Cuando Pitágoras y sus discípulos dieron con los números irracionales ocultaron su conocimiento, ya sea porque los consideraban impuros o sin armonía, lo cual rompía con su idea de la perfección unitaria del Cosmos o porque creyeran que se podía hacer mal uso de ese “descubrimiento”. Para Aristóteles, un esclavo era un “instrumento viviente”, igual a un autómata, y la diferencia sustancial con un hombre libre era que éste actuaba sólo bajo su propio mando, mientras que un autómata o esclavo lo hacía siguiendo las instrucciones de alguien más. El principal temor de los hombres libres de la antigüedad era que los “instrumentos vivientes” un día se rebelaran y actuaran bajo sus propios criterios en contra de sus amos. El mismo temor que hoy sienten quienes advierten de una IA independiente antihumana. En ¿Sueñan los androides con ovejas eléctricas?, novela de 1968 que fue adaptada al cine en 1982 como Blade Runner, Philip K. Dick narra la insubordinación de unos androides orgánicos que, conscientes de su esclavitud, escapan a las estructuras bajo las cuales lo someten los humanos, quienes los persiguen para exterminarlos.
De alguna u otra forma, el miedo tecnológico ha sobrevivido 25 siglos y está plasmado en la noticia con la que inicié este artículo. Entre las cosas que sí explica la nota de CNN destaca una categorización que hace Jeffrey Sonnenfeld, decano de liderazgo de Yale, sobre las distintas posturas que existen hoy frente a la IA, que pueden englobarse en cinco grupos: 1) curiosos creativos, que proponen explorar todas las posibilidades tecnológicas sin pensar en las consecuencias negativas; 2) creyentes entusiastas, que piensan que las nuevas tecnologías sólo traen consecuencias positivas; 3) especuladores comerciales, que no saben muy bien cómo funciona la nueva tecnología pero quieren sacarle provecho; 4) activistas alarmistas, que creen que la nueva tecnología conlleva un peligro inminente existencial para la humanidad, y 5) activistas moderados, que buscan un esquema de control y gobernanza para la nueva tecnología. Esta categorización es relevante ya que muestra la variedad de planteamientos respecto a la IA, es decir, que el debate no está agotado.
El problema con el alarmismo, que hoy gana reflectores, es que distrae de otras cuestiones de mayor importancia cuando no las oculta. Por ejemplo, se pasa por alto que todo avance tecnológico se da hoy dentro de un sistema económico que se reproduce gracias a la desigualdad y la alta concentración de recursos, y en el seno de una estructura política global de rivalidad entre potencias en donde la tecnología es un arma. Antes que una IA autónoma genocida, estos contextos vuelven mucho más real el riesgo de uso de los avances técnicos por parte de una empresa, grupo criminal o gobierno, todos formados por humanos, para manipular o dañar a otros humanos. Además, el miedo a la IA opaca otros problemas más urgentes y latentes como el calentamiento global, la amenaza nuclear y futuras pandemias, problemas que, por cierto, pueden verse agravados o mitigados con el uso humano de la nueva tecnología, lo cual depende de quienes la desarrollan y, sobre todo, del nivel de permisividad o exigencia de las sociedades democráticas en donde se desenvuelve la oligarquía tecnocrática. Una posible salida al dilema de la IA y otros avances puede ser ponerlos al servicio de la humanidad, bajo una estructura de gobernanza transparente y efectiva, y romper el modelo que hoy propicia la concentración y el beneficio de unos cuantos. No es fácil, pero hay que intentarlo.