Por *Alejandro Ramírez Lovering.- Sin embargo, así como ha sucedido con la incorporación de otras tecnologías, las bondades vienen acompañadas de riesgos. Hace poco leí el encabezado de una noticia que compartió un amigo, que afirmaba que el Pentágono pretendía dar rienda suelta a las armas autónomas para ser implementadas en conflictos bélicos. Armas con capacidad letal, capaces de tomar decisiones de manera independiente. Primero pensé que seguramente era una nota amarillista, y falsa, de esas que aparecen todos los días buscando captar la atención de los incautos. Pero no tardé en googlear el texto y confirmar que, de hecho, era una nota del NY Times, y que ciertamente, el Pentágono, así como los gobiernos de varios países, están impulsando la legalización del uso irrestricto de estas armas. Con frecuencia he leído declaraciones de líderes de la industria, como Elon Musk o Bill Gates, en que afirman que la inteligencia artificial, al alcanzar la autoconsciencia, representará un riesgo a la supervivencia de la raza humana igual o mayor que el cambio climático. Tales predicciones me parecen alarmistas, por lo menos dadas las circunstancias actuales de la tecnología. Pero la nota del NY Times era diferente; es tecnología real, que está entre nosotros, y la están usando los ejércitos de varios países, en este momento.
En 1936, el matemático inglés Alan Turing propuso el concepto y definió una “máquina universal”, conocida como la Máquina de Turing, capaz de resolver cualquier problema computable descrito mediante un algoritmo. La máquina de Turing nunca se materializó, quedándose sólo como un modelo matemático, pero es hasta el día de hoy el fundamento de las computadoras digitales. Turing era un visionario que, entre otros logros, descifró el código de la máquina Enigma usada por los nazis en la Segunda Guerra Mundial para encriptar mensajes, aportando una gran ventaja a la inteligencia de los aliados. También propuso el llamado “Test de Turing”, que establece que la inteligencia de una máquina se puede validar mediante la interacción a ciegas de una persona que conversa con la máquina y con otra persona. Cuando el sujeto de la prueba sea incapaz de determinar si está hablando con la máquina o con el humano, se podrá decir que la máquina es inteligente. En su tiempo no existía dicha máquina, pero él sabía que existiría en un futuro no muy lejano. Estas ideas fueron la base de lo que ahora entendemos por inteligencia artificial (IA).
Con la era de las computadoras digitales comenzó la búsqueda de la inteligencia artificial. A mediados de los años 60 fue creado en el MIT por Joseph Weizenbaum el chatbot (un programa que conversa) llamado Eliza. Este programa respondía a las frases escritas por una persona, aparentando razonar y seguir una conversación, asumiendo el papel de un terapeuta. Estaba programada para reconocer patrones y generar respuestas, pero su capacidad era muy limitada y después de un corto tiempo el usuario podía darse cuenta de que la computadora realmente no entendía lo que se estaba diciendo. El programa no tenía la capacidad de recordar el contexto de la conversación, por lo que era fácil determinar que no se trataba de un humano.
Poco después se crearon programas llamados “sistemas expertos”, que funcionaban a partir de árboles de decisión, y que asistían a las personas en disciplinas y tareas bien definidas, con cierto grado de éxito, pero sin alcanzar algo que pudiera parecer realmente inteligente. Una de las tecnologías, o paradigmas, que más han avanzado en los últimos años son las llamadas redes neurales, o redes neuronales, que comenzaron a desarrollarse a mediados de la década de 1950. Este tipo de programas contienen una estructura de datos interconectados, y están inspirados en la estructura neuronal del cerebro. A partir de una serie de datos iniciales (datos de entrada) se calculan los datos de salida después de ser procesados a través de varias capas, cada una formada por un conjunto de “neuronas”; cada neurona efectúa una operación sencilla sobre el valor que recibe para después pasarlo a otra neurona. Finalmente, los valores son propagados hasta la última capa, que arroja el resultado final.
Las redes neurales se pueden describir, en términos de su funcionamiento, como una herramienta de reconocimiento de patrones. Los patrones a reconocer pueden provenir de imágenes (rostros, radiografías, texto escrito a mano, o fotos en general), textos, sonidos, o representaciones numéricas de cualquier cosa, como moléculas, posiciones de ajedrez, precios de la bolsa de valores, o poblaciones de insectos. La tecnología de las redes neuronales siguió desarrollándose, pero todavía en la década de los 1980 no mostraba resultados más que mediocres, a pesar de que hubo ciertos logros en el reconocimiento de patrones de escritura, en el reconocimiento de voz, en los algoritmos genéticos y en la programación lógica. Ahora nos queda claro que lo que fallaba en ese momento de las redes neurales no era el planteamiento teórico del paradigma (aunque todavía quedaba bastante por resolver), sino que la infraestructura tecnológica era insuficiente, y que se requería de mucho más memoria y capacidad de procesamiento, así como el acceso a grandes cantidades de datos (datasets) para obtener verdaderos resultados. Muchos investigadores y científicos incluso llegaron a afirmar que la idea de imitar la estructura del cerebro en una computadora era inútil, y que nunca llevaría a resultados significativos. La ausencia de avances tangibles en el área de la inteligencia artificial durante este tiempo es conocido como la “AI Winter” (el invierno de la IA).
Uno de los hitos en la historia de la IA fue la victoria en el ajedrez de la computadora Deep Blue sobre el campeón mundial de ese momento, Garry Kaspárov, en 1997. La tecnología usada por esa computadora no era de redes neurales, sino más bien una combinación de técnicas como los árboles de decisión, en que se evalúan las posiciones posibles a partir de una configuración dada del tablero, minimizando al máximo el número de posiciones. Un factor decisivo fue el hardware usado, que era una poderosa mainframe de IBM con hardware especializado y procesamiento en paralelo, así como una gran base de datos de aperturas y de finales de juegos. La capacidad de la computadora para jugar ajedrez era impresionante, pero seguía estando lejos de una “inteligencia general”.
Es interesante comparar este hito de la IA, de la victoria de Deep Blue, con la que obtuvo AlphaGo contra Lee Sedol, el campeón mundial de Go, en 2016. El juego de Go es bastante más complejo que el ajedrez, y AlphaGo implementó la llamada “Deep learning” (aprendizaje profundo), que consiste en una red neuronal más avanzada, para aprender y dominar el juego, aunque se limitaba únicamente a ese campo de conocimiento. Pero el siguiente año, el programa AlphaZero, haciendo uso de una tecnología similar, demostró su capacidad para aprender a jugar ajedrez, y otros juegos complejos, a partir únicamente de las reglas. No tenía acceso a una base de datos de juegos ni estrategias predefinidas, lo cual lo hacía más general. En pocas horas AlphaZero no sólo aprendió a jugar ajedrez, sino que venció a Stockfish, el programa más poderoso de ajedrez en ese momento (que a su vez era mucho más poderoso que el mejor jugador humano). AlphaZero aprendió y perfeccionó su ajedrez jugando consigo mismo millones de juegos de ajedrez en el transcurso de unas pocas horas, para configurar su red neuronal.
Hemos sido testigos, a partir de ese momento, de muchos logros impresionantes en el campo de la IA (ahora más bien llamada Machine learning, o Aprendizaje automático). Aunque no hemos alcanzado la singularidad (el momento en que las máquinas toman el control de su propio desarrollo, alcanzando niveles de inteligencia sobrehumanos y, por ende, fuera de nuestro control) ni una IA consciente, los avances en este sentido se han generalizado y se han incorporado a nuestra vida diaria. Basta con mencionar algunas operaciones cotidianas que damos por sentadas, como el sacar del bolsillo una poderosa computadora, el celular, y desbloquearlo con sólo mirarlo. Podemos dar instrucciones habladas al mismo dispositivo para consultar el tipo de cambio del peso, o para obtener la mejor ruta a otro punto de la ciudad. Sentado a la computadora, o desde el mismo móvil, puedo entrar a un sitio de chat automatizado, como ChatGPT, y pedir una explicación detallada sobre algún aspecto específico del funcionamiento del cuerpo humano, o los pasos detallados a seguir para construir un refrigerador, por ejemplo. El programa entiende lo que le pregunto (o aparenta entender), y en menos de un segundo me ofrece un texto bastante completo, detallado y a la medida sobre algún tema.
Sin embargo, hay un importante detalle – la máquina se puede equivocar. El ChatGPT, y otros sistemas similares, son herederos de Eliza, el primitivo programa conversacional, con la diferencia de que estos nuevos chatbots sí pasarían la prueba de Turing. Y esto representa un problema; la información que presentan estos programas es presentada con un tono de absoluta autoridad, y una persona sin muchos conocimientos del tema en cuestión fácilmente podría pensar que no se equivocan. Al señalarle al programa que hay un error, éste inmediatamente se disculpa y lo corrige. Pero habrá quien, por desconocimiento, dé por buena la información, y quizás la utilice para tomar decisiones.
Destacan otras aplicaciones, como la generación automática de imágenes a partir de una breve descripción; la clasificación de imágenes, en que el usuario puede tomar una foto de un objeto, o una planta o un cuadro, y el sistema determina con un buen nivel de confianza de lo que se trata. En el entorno industrial y de investigación y desarrollo vemos ejemplos igualmente o más impresionantes. Los robots humanoides que pueden bailar, saltar, cargar y acomodar objetos y sortear obstáculos; los vehículos autónomos, que, a pesar de que siguen estando lejos de ser aprobados para su uso generalizado por cuestiones de seguridad, tienen un funcionamiento sorprendente. En el campo de la medicina, ha habido avances importantes con respecto al análisis de imágenes radiológicas para identificación de tumores y otros padecimientos, en el análisis de datos de pacientes para identificar riesgos de padecimientos cardiovasculares y diabetes, y en la síntesis de nuevos medicamentos y vacunas por medio de modelos generativos para el diseño molecular, entre otras. En el campo de la investigación y desarrollo de la fusión nuclear, la IA ha sido y será indispensable en el diseño de materiales y de los reactores para generar los campos magnéticos que estabilizan y controlan el plasma a temperaturas muy elevadas (100 millones de grados Kelvin, una temperatura seis veces más alta que la del núcleo solar).
Estos logros son increíbles; en muchos casos sería difícil distinguirlos de la magia. La IA es un campo que ha tenido resultados aplicables a la resolución de problemas reales y cotidianos. Y lo mejor está por venir. En algunos campos de investigación y problemáticas específicas, como lo es el cambio climático y el desarrollo e implementación de fuentes renovables de energía, o el desarrollo de computadoras cuánticas, la IA es una de las herramientas que prometen encontrar soluciones viables. Trabajando a la par de otras disciplinas, como la biología, la física, la química, la genética, la medicina, y un largo etcétera, es indiscutible que la IA es un elemento que va a acompañar al ser humano en el futuro para sortear los más complejos retos que tendrá que enfrentar.
Con todo y las grandes ventajas, esta tecnología tiene su lado oscuro. La IA no es infalible; no es difícil encontrar errores, quizá inocuos, en las respuestas que ofrece ChatGPT. Después de todo, es un sistema que hace uso de grandes cantidades de texto, que obtiene de internet, para generar un modelo de lenguaje basado en probabilidades. Sólo regresa lo que las personas ya hemos generado. Como dicen en inglés, “garbage in, garbage out” (si entra basura, sale basura). En las imágenes que arrojan los sistemas de generación de imágenes, como DALL-E, DreamStudio, Midjourney y otras, vemos que aparecen ocasionalmente cosas muy extrañas, como manos de seis dedos, o cuerpos deformes o imposibles. Son imágenes un tanto perturbadoras; parecen reales, pero algunas contienen elementos que las hace parecer alucinaciones, sueños o incluso pesadillas. Mientras los desarrolladores se esfuerzan por depurar estos errores, ya existen varios servicios comerciales de generación de imágenes por IA. No es en vano que algunos ilustradores, fotógrafos y artistas estén preocupados.
Los chatbots se encuentran todavía en fase de pruebas y desarrollo. Estos sistemas se revisan y corrigen continuamente para evitar que expresen cualquier contenido que pueda ser ofensivo, racista, misógino o políticamente incorrecto. Y, aunque son sistemas que “recuerdan” el contexto de la conversación, se han reportado casos en que el programa empieza a decir cosas extrañas. En un artículo de reciente publicación, el autor relata como el bot comenzó a cambiar el tono, y terminó declarando su amor por el usuario, a quien sugería que se divorciara de su esposa. Hay otros casos en que se reporta que el sistema muestra un sesgo o discriminación racial, de género o de religión, por mencionar algunos, en donde se reflejan ciertos prejuicios culturales con respecto a estos grupos.
Este tipo de situaciones se han documentado en varias instancias, y los creadores del sistema intentan ajustar los parámetros del programa para que éste se mantenga “cuerdo” y se sostenga el tono profesional e imparcial. La realidad es que, en muchos casos, estos sistemas son “cajas negras”– es decir, no se sabe exactamente cómo llegan a producir los resultados que arrojan. Se conoce el mecanismo, o la estructura por la que se filtra y procesa la información, pero no los detalles de cómo se llega a una respuesta dada. No es en vano el esfuerzo de complementar estos sistemas con procesos que sean capaces de dar explicaciones detalladas de la manera en que se llegó a un resultado específico.
Los contenidos producidos por estos sistemas pueden contener errores, o arrojar afirmaciones moralmente objetables. Pero, lo que es más preocupante: existen tecnologías de IA que tienen efectos físicos en el mundo físico, en que un error puede tener consecuencias graves, con pérdidas materiales o humanas.
Hace unos años, a fines de la década del 2000, empezaron a difundirse ampliamente, con bombo y platillo, los logros en la tecnología de conducción automática de vehículos. No mucho después nos enteramos de la muerte de una persona a causa de una colisión de un vehículo autónomo, y hasta la fecha ha habido quizás una veintena de accidentes, algunos fatales y otros con heridos graves. Aunque la proporción de víctimas mortales y heridos con respecto a la distancia recorrida es mucho menor para vehículos autónomos que para vehículos conducidos por humanos, no podemos hacer de lado el hecho de que los sistemas de conducción no son infalibles. El gran número de variables existentes en un entorno urbano, con vehículos de diferentes tipos, peatones y obstáculos, ha rebasado la capacidad actual de los sistemas de conducción para poder garantizar una operación completamente segura.
La responsabilidad moral de una persona que muere conduciendo su vehículo recae sobre la misma persona, o sobre el conductor de otro vehículo involucrado; pero en el caso de un vehículo autónomo, ésta recae finalmente sobre la compañía que desarrolla el sistema. Los vehículos de conducción autónoma siguen en etapa de pruebas; son varias las compañías que los están desarrollando, y al parecer faltan todavía años para que esta tecnología sea aprobada y usada de manera cotidiana.
Si un vehículo autónomo representa riesgos para la vida humana, no es difícil imaginar el peligro que podrían representar las armas autónomas. Imaginemos un dron capaz de disparar, por decisión propia, contra cualquier blanco que considere ser el enemigo. O un avión autónomo capaz de lanzar cohetes o bombas, a discreción. Hasta ahora ha habido consenso entre los miembros de la ONU para que los países que desarrollan esta tecnología – principalmente China, los Estados Unidos e Israel – restrinjan el alcance y autonomía de estas armas, requiriendo de la autorización humana para abrir fuego. Sin embargo, varios países, incluidos los Estados Unidos, Israel, Rusia y Australia, se han resistido a estas limitaciones, al proponer que la tecnología debe operar libremente. Hasta ahora estas armas no han sido usadas ampliamente, pero todo indica que cada vez más serán un elemento inseparable de la milicia, la policía, o de cualquier organización que usa la violencia, legítimamente o no.
Siendo que se trata de tecnologías en desarrollo, que distan mucho de ser infalibles, creo que sería una gran irresponsabilidad encomendarles tareas que, sin supervisión alguna, puedan tener consecuencias graves para la vida de las personas. Las controversias morales pueden ser múltiples y especialmente complejas, y me parece muy necesario considerarlas para establecer leyes internacionales que regulan las acciones en los conflictos bélicos. Así como Isaac Asimov, en sus historias de ficción, postula sus tres leyes de la robótica, que prohíben que los robots dañen a las personas, es necesario establecer los principios básicos que rijan el uso de este tipo de tecnología, de modo que se potencie el beneficio, y se reduzca el riesgo, que representa para a la humanidad. Pero la realidad es que los esfuerzos para lograr la legislación para el control de estos sistemas no han llegado lejos. La tecnología evoluciona a una gran velocidad, y la capacidad y alcance de estas herramientas aún no se conoce. Además se corre el riesgo de limitar en exceso la función de la IA, lo cual traería consecuencias muy negativas en el sentido económico y productivo.
La incredulidad que experimenté al leer el encabezado sobre las armas autónomas descansaba, por un lado, en el hecho de que hoy en día los medios llegan a publicar cualquier cosa que les asegure muchos “clicks” (por eso a ese tipo de encabezado se le llama ‘clickbait’, o carnada para clicks), y eso se traduce a una tendencia amarillista. Por otro lado, creo que sigo confiando en un mínimo de sentido común del ser humano, y, así como sería una enorme imprudencia darle una pistola cargada a un niño de primaria, me parece que lo mismo aplica para los robots y drones autónomos.
Aunque reconozco que existen riesgos asociados al uso de la IA, mi visión del tema es más bien optimista. Creo que la ciencia y tecnología van a ser el principal motor de la supervivencia humana. Esta será, en mi opinión, un elemento muy importante para encontrar la solución a problemas de orden técnico, como el cambio climático, la insuficiencia alimentaria o las enfermedades como el cáncer o la diabetes; pero también podrá ser de gran ayuda para atender asuntos de índole político, social o económico. Confío en que la capacidad de los sistemas de IA, en un plazo de quizás un par de décadas, va a crecer como para asumir un papel no sólo activo y propositivo, sino incluso de liderazgo y de toma de decisiones a nivel político, económico y social. Su evolución e incorporación a los procesos humanos, aunque acelerada, deberá ir a la par de que su eficacia y confiabilidad se compruebe, así como que se legisle y regule su uso y alcance conforme es adoptada en las diferentes esferas del quehacer humano. Por lo pronto, estos sistemas ya son usados por gobiernos de algunos países (Estados Unidos, Canadá, Singapur y la Unión Europea, entre otros) para algunas tareas administrativas en el ámbito político y social, como por ejemplo la formulación y análisis de políticas públicas, el diseño de estrategias de campañas políticas, la vigilancia y seguridad, los servicios sociales dirigidos a poblaciones vulnerables, la atención a víctimas de desastres naturales, etc.
La tendencia natural es que, conforme se comprueba la confiabilidad y eficacia de los sistemas de IA, el nivel de influencia de estas tecnologías sea cada vez más alto. Quizás llegue el día en que exista un sistema de IA con la función de gobernador de un estado, o de presidente de un país. No es difícil apreciar las ventajas que podría ofrecer: una entidad con inteligencia supra humana, sin agendas ni intereses personales, que aprende de sus errores (y de los errores de los humanos que le precedieron), que sea mejor administrador que cualquier persona, que sea imparcial ante cualquier grupo social, cuyo interés último sea el bienestar y la prosperidad de su pueblo, que sea absolutamente transparente, honesto y eficaz, y que (de alguna manera) siempre respete la voluntad de la mayoría, en un sistema perfectamente democrático.
Los riesgos de tal utopía hipotética llevarían a varias distopías posibles: una máquina o sistema que controla todos los aspectos de la vida humana. Detrás de una fachada de imparcialidad y neutralidad, acaba siendo manipulada y obedece sólo a algunos cuantos, de modo que termine todo en una oligarquía velada; o un sistema todopoderoso que acaba por decidir que el ser humano está de más, y que es necesario eliminarlo por el bien de las máquinas. Esos escenarios ya nos han sido ilustrados en películas como Odisea del espacio 2001, o en la serie Terminator. En estas narrativas, una computadora (HAL 9000, y Skynet, respectivamente) traiciona a sus creadores, los humanos, al llegar a la conclusión de que éstos son el enemigo. En el caso de HAL 9000, el sistema de inteligencia artificial a cargo de la nave Discovery One, la computadora decide eliminar a los pasajeros humanos de la misión debido a un conflicto en su programación. Percibe a los humanos como una amenaza a la misión, por lo que la única opción es matarlos. En cuanto a Skynet, es un sistema superinteligente que deduce que el ser humano representa un riesgo para su propia existencia; como tiene el control de los sistemas militares, incluidas armas nucleares, lanza un ataque contra la humanidad, llamado “el día del juicio final”.
¿Qué tanto de estas historias es fantasía, y qué tanto podría ocurrir en el mundo real? En la mitología griega, Talos nunca traiciona a sus amos, pero sí sucumbe ante el engaño de Medea que lo manipula para que se autodestruya; es decir, no es lo suficientemente inteligente para lograr su objetivo. Pero las máquinas de las películas que menciono son más suspicaces, o incluso paranoicas, y prevén que el humano las pueda destruir o poner en riesgo su misión. Después de hacer un cálculo que implica un juicio moral, éstas deciden que la mejor opción es deshacerse de la amenaza. ¿Será posible tener los beneficios de las máquinas inteligentes, sin poner en riesgo la supervivencia, la autodeterminación y la libertad de la raza humana? No lo sabemos; pero ciertamente, el uso de la IA, como el de cualquier herramienta poderosa y compleja, exigirá una constante y cercana supervisión. La distopía, que ya vislumbramos, se debe evitar a toda costa, porque el no hacerlo tendrá un costo demasiado alto. Y, al parecer, la opción de regresar a una condición tecnológica más primitiva no es viable, dados los retos que tenemos enfrente en este siglo 21, y los que están por venir.
La idea de una máquina inteligente autónoma existe desde la antigüedad. Dentro de la mitología griega, Talos era un gigantesco autómata creado por el dios de la herrería, Hefesto, cuya misión era proteger la isla de Creta de los invasores arrojando piedras a los barcos que se aproximaban. Dédalo, el inventor, padre de Ícaro, también creó varios autómatas. No muy lejos, en la tradición judía, se habla de los Gólems, unas criaturas animadas creadas a partir de materiales inanimados para proteger al pueblo judío. La mitología árabe habla de los bicornios, autómatas metálicos capaces de ejecutar tareas complejas para sus amos. La idea de un autómata, o robot, que trabaje o que proteja a las personas no es algo nuevo, y actualmente vemos claras muestras de que esa fantasía futurista se está materializando.
Sin embargo, así como ha sucedido con la incorporación de otras tecnologías, las bondades vienen acompañadas de riesgos. Hace poco leí el encabezado de una noticia que compartió un amigo, que afirmaba que el Pentágono pretendía dar rienda suelta a las armas autónomas para ser implementadas en conflictos bélicos. Armas con capacidad letal, capaces de tomar decisiones de manera independiente. Primero pensé que seguramente era una nota amarillista, y falsa, de esas que aparecen todos los días buscando captar la atención de los incautos. Pero no tardé en googlear el texto y confirmar que, de hecho, era una nota del NY Times, y que ciertamente, el Pentágono, así como los gobiernos de varios países, están impulsando la legalización del uso irrestricto de estas armas. Con frecuencia he leído declaraciones de líderes de la industria, como Elon Musk o Bill Gates, en que afirman que la inteligencia artificial, al alcanzar la autoconsciencia, representará un riesgo a la supervivencia de la raza humana igual o mayor que el cambio climático. Tales predicciones me parecen alarmistas, por lo menos dadas las circunstancias actuales de la tecnología. Pero la nota del NY Times era diferente; es tecnología real, que está entre nosotros, y la están usando los ejércitos de varios países, en este momento.
En 1936, el matemático inglés Alan Turing propuso el concepto y definió una “máquina universal”, conocida como la Máquina de Turing, capaz de resolver cualquier problema computable descrito mediante un algoritmo. La máquina de Turing nunca se materializó, quedándose sólo como un modelo matemático, pero es hasta el día de hoy el fundamento de las computadoras digitales. Turing era un visionario que, entre otros logros, descifró el código de la máquina Enigma usada por los nazis en la Segunda Guerra Mundial para encriptar mensajes, aportando una gran ventaja a la inteligencia de los aliados. También propuso el llamado “Test de Turing”, que establece que la inteligencia de una máquina se puede validar mediante la interacción a ciegas de una persona que conversa con la máquina y con otra persona. Cuando el sujeto de la prueba sea incapaz de determinar si está hablando con la máquina o con el humano, se podrá decir que la máquina es inteligente. En su tiempo no existía dicha máquina, pero él sabía que existiría en un futuro no muy lejano. Estas ideas fueron la base de lo que ahora entendemos por inteligencia artificial (IA).
Con la era de las computadoras digitales comenzó la búsqueda de la inteligencia artificial. A mediados de los años 60 fue creado en el MIT por Joseph Weizenbaum el chatbot (un programa que conversa) llamado Eliza. Este programa respondía a las frases escritas por una persona, aparentando razonar y seguir una conversación, asumiendo el papel de un terapeuta. Estaba programada para reconocer patrones y generar respuestas, pero su capacidad era muy limitada y después de un corto tiempo el usuario podía darse cuenta de que la computadora realmente no entendía lo que se estaba diciendo. El programa no tenía la capacidad de recordar el contexto de la conversación, por lo que era fácil determinar que no se trataba de un humano.
Poco después se crearon programas llamados “sistemas expertos”, que funcionaban a partir de árboles de decisión, y que asistían a las personas en disciplinas y tareas bien definidas, con cierto grado de éxito, pero sin alcanzar algo que pudiera parecer realmente inteligente. Una de las tecnologías, o paradigmas, que más han avanzado en los últimos años son las llamadas redes neurales, o redes neuronales, que comenzaron a desarrollarse a mediados de la década de 1950. Este tipo de programas contienen una estructura de datos interconectados, y están inspirados en la estructura neuronal del cerebro. A partir de una serie de datos iniciales (datos de entrada) se calculan los datos de salida después de ser procesados a través de varias capas, cada una formada por un conjunto de “neuronas”; cada neurona efectúa una operación sencilla sobre el valor que recibe para después pasarlo a otra neurona. Finalmente, los valores son propagados hasta la última capa, que arroja el resultado final.
Las redes neurales se pueden describir, en términos de su funcionamiento, como una herramienta de reconocimiento de patrones. Los patrones a reconocer pueden provenir de imágenes (rostros, radiografías, texto escrito a mano, o fotos en general), textos, sonidos, o representaciones numéricas de cualquier cosa, como moléculas, posiciones de ajedrez, precios de la bolsa de valores, o poblaciones de insectos. La tecnología de las redes neuronales siguió desarrollándose, pero todavía en la década de los 1980 no mostraba resultados más que mediocres, a pesar de que hubo ciertos logros en el reconocimiento de patrones de escritura, en el reconocimiento de voz, en los algoritmos genéticos y en la programación lógica. Ahora nos queda claro que lo que fallaba en ese momento de las redes neurales no era el planteamiento teórico del paradigma (aunque todavía quedaba bastante por resolver), sino que la infraestructura tecnológica era insuficiente, y que se requería de mucho más memoria y capacidad de procesamiento, así como el acceso a grandes cantidades de datos (datasets) para obtener verdaderos resultados. Muchos investigadores y científicos incluso llegaron a afirmar que la idea de imitar la estructura del cerebro en una computadora era inútil, y que nunca llevaría a resultados significativos. La ausencia de avances tangibles en el área de la inteligencia artificial durante este tiempo es conocido como la “AI Winter” (el invierno de la IA).
Uno de los hitos en la historia de la IA fue la victoria en el ajedrez de la computadora Deep Blue sobre el campeón mundial de ese momento, Garry Kaspárov, en 1997. La tecnología usada por esa computadora no era de redes neurales, sino más bien una combinación de técnicas como los árboles de decisión, en que se evalúan las posiciones posibles a partir de una configuración dada del tablero, minimizando al máximo el número de posiciones. Un factor decisivo fue el hardware usado, que era una poderosa mainframe de IBM con hardware especializado y procesamiento en paralelo, así como una gran base de datos de aperturas y de finales de juegos. La capacidad de la computadora para jugar ajedrez era impresionante, pero seguía estando lejos de una “inteligencia general”.
Es interesante comparar este hito de la IA, de la victoria de Deep Blue, con la que obtuvo AlphaGo contra Lee Sedol, el campeón mundial de Go, en 2016. El juego de Go es bastante más complejo que el ajedrez, y AlphaGo implementó la llamada “Deep learning” (aprendizaje profundo), que consiste en una red neuronal más avanzada, para aprender y dominar el juego, aunque se limitaba únicamente a ese campo de conocimiento. Pero el siguiente año, el programa AlphaZero, haciendo uso de una tecnología similar, demostró su capacidad para aprender a jugar ajedrez, y otros juegos complejos, a partir únicamente de las reglas. No tenía acceso a una base de datos de juegos ni estrategias predefinidas, lo cual lo hacía más general. En pocas horas AlphaZero no sólo aprendió a jugar ajedrez, sino que venció a Stockfish, el programa más poderoso de ajedrez en ese momento (que a su vez era mucho más poderoso que el mejor jugador humano). AlphaZero aprendió y perfeccionó su ajedrez jugando consigo mismo millones de juegos de ajedrez en el transcurso de unas pocas horas, para configurar su red neuronal.
Hemos sido testigos, a partir de ese momento, de muchos logros impresionantes en el campo de la IA (ahora más bien llamada Machine learning, o Aprendizaje automático). Aunque no hemos alcanzado la singularidad (el momento en que las máquinas toman el control de su propio desarrollo, alcanzando niveles de inteligencia sobrehumanos y, por ende, fuera de nuestro control) ni una IA consciente, los avances en este sentido se han generalizado y se han incorporado a nuestra vida diaria. Basta con mencionar algunas operaciones cotidianas que damos por sentadas, como el sacar del bolsillo una poderosa computadora, el celular, y desbloquearlo con sólo mirarlo. Podemos dar instrucciones habladas al mismo dispositivo para consultar el tipo de cambio del peso, o para obtener la mejor ruta a otro punto de la ciudad. Sentado a la computadora, o desde el mismo móvil, puedo entrar a un sitio de chat automatizado, como ChatGPT, y pedir una explicación detallada sobre algún aspecto específico del funcionamiento del cuerpo humano, o los pasos detallados a seguir para construir un refrigerador, por ejemplo. El programa entiende lo que le pregunto (o aparenta entender), y en menos de un segundo me ofrece un texto bastante completo, detallado y a la medida sobre algún tema.
Sin embargo, hay un importante detalle – la máquina se puede equivocar. El ChatGPT, y otros sistemas similares, son herederos de Eliza, el primitivo programa conversacional, con la diferencia de que estos nuevos chatbots sí pasarían la prueba de Turing. Y esto representa un problema; la información que presentan estos programas es presentada con un tono de absoluta autoridad, y una persona sin muchos conocimientos del tema en cuestión fácilmente podría pensar que no se equivocan. Al señalarle al programa que hay un error, éste inmediatamente se disculpa y lo corrige. Pero habrá quien, por desconocimiento, dé por buena la información, y quizás la utilice para tomar decisiones.
Destacan otras aplicaciones, como la generación automática de imágenes a partir de una breve descripción; la clasificación de imágenes, en que el usuario puede tomar una foto de un objeto, o una planta o un cuadro, y el sistema determina con un buen nivel de confianza de lo que se trata. En el entorno industrial y de investigación y desarrollo vemos ejemplos igualmente o más impresionantes. Los robots humanoides que pueden bailar, saltar, cargar y acomodar objetos y sortear obstáculos; los vehículos autónomos, que, a pesar de que siguen estando lejos de ser aprobados para su uso generalizado por cuestiones de seguridad, tienen un funcionamiento sorprendente. En el campo de la medicina, ha habido avances importantes con respecto al análisis de imágenes radiológicas para identificación de tumores y otros padecimientos, en el análisis de datos de pacientes para identificar riesgos de padecimientos cardiovasculares y diabetes, y en la síntesis de nuevos medicamentos y vacunas por medio de modelos generativos para el diseño molecular, entre otras. En el campo de la investigación y desarrollo de la fusión nuclear, la IA ha sido y será indispensable en el diseño de materiales y de los reactores para generar los campos magnéticos que estabilizan y controlan el plasma a temperaturas muy elevadas (100 millones de grados Kelvin, una temperatura seis veces más alta que la del núcleo solar).
Estos logros son increíbles; en muchos casos sería difícil distinguirlos de la magia. La IA es un campo que ha tenido resultados aplicables a la resolución de problemas reales y cotidianos. Y lo mejor está por venir. En algunos campos de investigación y problemáticas específicas, como lo es el cambio climático y el desarrollo e implementación de fuentes renovables de energía, o el desarrollo de computadoras cuánticas, la IA es una de las herramientas que prometen encontrar soluciones viables. Trabajando a la par de otras disciplinas, como la biología, la física, la química, la genética, la medicina, y un largo etcétera, es indiscutible que la IA es un elemento que va a acompañar al ser humano en el futuro para sortear los más complejos retos que tendrá que enfrentar.
Con todo y las grandes ventajas, esta tecnología tiene su lado oscuro. La IA no es infalible; no es difícil encontrar errores, quizá inocuos, en las respuestas que ofrece ChatGPT. Después de todo, es un sistema que hace uso de grandes cantidades de texto, que obtiene de internet, para generar un modelo de lenguaje basado en probabilidades. Sólo regresa lo que las personas ya hemos generado. Como dicen en inglés, “garbage in, garbage out” (si entra basura, sale basura). En las imágenes que arrojan los sistemas de generación de imágenes, como DALL-E, DreamStudio, Midjourney y otras, vemos que aparecen ocasionalmente cosas muy extrañas, como manos de seis dedos, o cuerpos deformes o imposibles. Son imágenes un tanto perturbadoras; parecen reales, pero algunas contienen elementos que las hace parecer alucinaciones, sueños o incluso pesadillas. Mientras los desarrolladores se esfuerzan por depurar estos errores, ya existen varios servicios comerciales de generación de imágenes por IA. No es en vano que algunos ilustradores, fotógrafos y artistas estén preocupados.
Los chatbots se encuentran todavía en fase de pruebas y desarrollo. Estos sistemas se revisan y corrigen continuamente para evitar que expresen cualquier contenido que pueda ser ofensivo, racista, misógino o políticamente incorrecto. Y, aunque son sistemas que “recuerdan” el contexto de la conversación, se han reportado casos en que el programa empieza a decir cosas extrañas. En un artículo de reciente publicación, el autor relata como el bot comenzó a cambiar el tono, y terminó declarando su amor por el usuario, a quien sugería que se divorciara de su esposa. Hay otros casos en que se reporta que el sistema muestra un sesgo o discriminación racial, de género o de religión, por mencionar algunos, en donde se reflejan ciertos prejuicios culturales con respecto a estos grupos.
Este tipo de situaciones se han documentado en varias instancias, y los creadores del sistema intentan ajustar los parámetros del programa para que éste se mantenga “cuerdo” y se sostenga el tono profesional e imparcial. La realidad es que, en muchos casos, estos sistemas son “cajas negras”– es decir, no se sabe exactamente cómo llegan a producir los resultados que arrojan. Se conoce el mecanismo, o la estructura por la que se filtra y procesa la información, pero no los detalles de cómo se llega a una respuesta dada. No es en vano el esfuerzo de complementar estos sistemas con procesos que sean capaces de dar explicaciones detalladas de la manera en que se llegó a un resultado específico.
Los contenidos producidos por estos sistemas pueden contener errores, o arrojar afirmaciones moralmente objetables. Pero, lo que es más preocupante: existen tecnologías de IA que tienen efectos físicos en el mundo físico, en que un error puede tener consecuencias graves, con pérdidas materiales o humanas.
Hace unos años, a fines de la década del 2000, empezaron a difundirse ampliamente, con bombo y platillo, los logros en la tecnología de conducción automática de vehículos. No mucho después nos enteramos de la muerte de una persona a causa de una colisión de un vehículo autónomo, y hasta la fecha ha habido quizás una veintena de accidentes, algunos fatales y otros con heridos graves. Aunque la proporción de víctimas mortales y heridos con respecto a la distancia recorrida es mucho menor para vehículos autónomos que para vehículos conducidos por humanos, no podemos hacer de lado el hecho de que los sistemas de conducción no son infalibles. El gran número de variables existentes en un entorno urbano, con vehículos de diferentes tipos, peatones y obstáculos, ha rebasado la capacidad actual de los sistemas de conducción para poder garantizar una operación completamente segura.
La responsabilidad moral de una persona que muere conduciendo su vehículo recae sobre la misma persona, o sobre el conductor de otro vehículo involucrado; pero en el caso de un vehículo autónomo, ésta recae finalmente sobre la compañía que desarrolla el sistema. Los vehículos de conducción autónoma siguen en etapa de pruebas; son varias las compañías que los están desarrollando, y al parecer faltan todavía años para que esta tecnología sea aprobada y usada de manera cotidiana.
Si un vehículo autónomo representa riesgos para la vida humana, no es difícil imaginar el peligro que podrían representar las armas autónomas. Imaginemos un dron capaz de disparar, por decisión propia, contra cualquier blanco que considere ser el enemigo. O un avión autónomo capaz de lanzar cohetes o bombas, a discreción. Hasta ahora ha habido consenso entre los miembros de la ONU para que los países que desarrollan esta tecnología – principalmente China, los Estados Unidos e Israel – restrinjan el alcance y autonomía de estas armas, requiriendo de la autorización humana para abrir fuego. Sin embargo, varios países, incluidos los Estados Unidos, Israel, Rusia y Australia, se han resistido a estas limitaciones, al proponer que la tecnología debe operar libremente. Hasta ahora estas armas no han sido usadas ampliamente, pero todo indica que cada vez más serán un elemento inseparable de la milicia, la policía, o de cualquier organización que usa la violencia, legítimamente o no.
Siendo que se trata de tecnologías en desarrollo, que distan mucho de ser infalibles, creo que sería una gran irresponsabilidad encomendarles tareas que, sin supervisión alguna, puedan tener consecuencias graves para la vida de las personas. Las controversias morales pueden ser múltiples y especialmente complejas, y me parece muy necesario considerarlas para establecer leyes internacionales que regulan las acciones en los conflictos bélicos. Así como Isaac Asimov, en sus historias de ficción, postula sus tres leyes de la robótica, que prohíben que los robots dañen a las personas, es necesario establecer los principios básicos que rijan el uso de este tipo de tecnología, de modo que se potencie el beneficio, y se reduzca el riesgo, que representa para a la humanidad. Pero la realidad es que los esfuerzos para lograr la legislación para el control de estos sistemas no han llegado lejos. La tecnología evoluciona a una gran velocidad, y la capacidad y alcance de estas herramientas aún no se conoce. Además se corre el riesgo de limitar en exceso la función de la IA, lo cual traería consecuencias muy negativas en el sentido económico y productivo.
La incredulidad que experimenté al leer el encabezado sobre las armas autónomas descansaba, por un lado, en el hecho de que hoy en día los medios llegan a publicar cualquier cosa que les asegure muchos “clicks” (por eso a ese tipo de encabezado se le llama ‘clickbait’, o carnada para clicks), y eso se traduce a una tendencia amarillista. Por otro lado, creo que sigo confiando en un mínimo de sentido común del ser humano, y, así como sería una enorme imprudencia darle una pistola cargada a un niño de primaria, me parece que lo mismo aplica para los robots y drones autónomos.
Aunque reconozco que existen riesgos asociados al uso de la IA, mi visión del tema es más bien optimista. Creo que la ciencia y tecnología van a ser el principal motor de la supervivencia humana. Esta será, en mi opinión, un elemento muy importante para encontrar la solución a problemas de orden técnico, como el cambio climático, la insuficiencia alimentaria o las enfermedades como el cáncer o la diabetes; pero también podrá ser de gran ayuda para atender asuntos de índole político, social o económico. Confío en que la capacidad de los sistemas de IA, en un plazo de quizás un par de décadas, va a crecer como para asumir un papel no sólo activo y propositivo, sino incluso de liderazgo y de toma de decisiones a nivel político, económico y social. Su evolución e incorporación a los procesos humanos, aunque acelerada, deberá ir a la par de que su eficacia y confiabilidad se compruebe, así como que se legisle y regule su uso y alcance conforme es adoptada en las diferentes esferas del quehacer humano. Por lo pronto, estos sistemas ya son usados por gobiernos de algunos países (Estados Unidos, Canadá, Singapur y la Unión Europea, entre otros) para algunas tareas administrativas en el ámbito político y social, como por ejemplo la formulación y análisis de políticas públicas, el diseño de estrategias de campañas políticas, la vigilancia y seguridad, los servicios sociales dirigidos a poblaciones vulnerables, la atención a víctimas de desastres naturales, etc.
La tendencia natural es que, conforme se comprueba la confiabilidad y eficacia de los sistemas de IA, el nivel de influencia de estas tecnologías sea cada vez más alto. Quizás llegue el día en que exista un sistema de IA con la función de gobernador de un estado, o de presidente de un país. No es difícil apreciar las ventajas que podría ofrecer: una entidad con inteligencia supra humana, sin agendas ni intereses personales, que aprende de sus errores (y de los errores de los humanos que le precedieron), que sea mejor administrador que cualquier persona, que sea imparcial ante cualquier grupo social, cuyo interés último sea el bienestar y la prosperidad de su pueblo, que sea absolutamente transparente, honesto y eficaz, y que (de alguna manera) siempre respete la voluntad de la mayoría, en un sistema perfectamente democrático.
Los riesgos de tal utopía hipotética llevarían a varias distopías posibles: una máquina o sistema que controla todos los aspectos de la vida humana. Detrás de una fachada de imparcialidad y neutralidad, acaba siendo manipulada y obedece sólo a algunos cuantos, de modo que termine todo en una oligarquía velada; o un sistema todopoderoso que acaba por decidir que el ser humano está de más, y que es necesario eliminarlo por el bien de las máquinas. Esos escenarios ya nos han sido ilustrados en películas como Odisea del espacio 2001, o en la serie Terminator. En estas narrativas, una computadora (HAL 9000, y Skynet, respectivamente) traiciona a sus creadores, los humanos, al llegar a la conclusión de que éstos son el enemigo. En el caso de HAL 9000, el sistema de inteligencia artificial a cargo de la nave Discovery One, la computadora decide eliminar a los pasajeros humanos de la misión debido a un conflicto en su programación. Percibe a los humanos como una amenaza a la misión, por lo que la única opción es matarlos. En cuanto a Skynet, es un sistema superinteligente que deduce que el ser humano representa un riesgo para su propia existencia; como tiene el control de los sistemas militares, incluidas armas nucleares, lanza un ataque contra la humanidad, llamado “el día del juicio final”.
¿Qué tanto de estas historias es fantasía, y qué tanto podría ocurrir en el mundo real? En la mitología griega, Talos nunca traiciona a sus amos, pero sí sucumbe ante el engaño de Medea que lo manipula para que se autodestruya; es decir, no es lo suficientemente inteligente para lograr su objetivo. Pero las máquinas de las películas que menciono son más suspicaces, o incluso paranoicas, y prevén que el humano las pueda destruir o poner en riesgo su misión. Después de hacer un cálculo que implica un juicio moral, éstas deciden que la mejor opción es deshacerse de la amenaza. ¿Será posible tener los beneficios de las máquinas inteligentes, sin poner en riesgo la supervivencia, la autodeterminación y la libertad de la raza humana? No lo sabemos; pero ciertamente, el uso de la IA, como el de cualquier herramienta poderosa y compleja, exigirá una constante y cercana supervisión. La distopía, que ya vislumbramos, se debe evitar a toda costa, porque el no hacerlo tendrá un costo demasiado alto. Y, al parecer, la opción de regresar a una condición tecnológica más primitiva no es viable, dados los retos que tenemos enfrente en este siglo 21, y los que están por venir.
*Alejandro Ramírez Lovering. Guadalajara, Jalisco, 1969.
Alejandro Ramírez Lovering estudió ingeniería en sistemas computacionales en el Instituto Tecnológico y de Estudios Superiores de Occidente, en Tlaquepaque, Jalisco, de donde se tituló en 2003. Desde entonces se ha desempeñado como desarrollador de software y profesor universitario. Es egresado de la carrera de artes visuales de Rhode Island School of Design, en Providence, Rhode Island, EE. UU., de la que se tituló especializado en pintura, en 1993. Ha participado en exposiciones individuales y colectivas en diversas galerías y museos de México.