Está en todos lados. Cuando ves actualizaciones en tu perfil en redes sociales, buscas información en Google o usas el traductor, cuando llamas un Uber, realizas compras en Amazon, buscas pareja en Tinder, ves series en Netflix, videos en Youtube, o consultas una dirección a Siri.
“Es el mundo que se ha puesto sobre tus ojos para cegarte de la verdad”. Las palabras pertenecen a Morpheus, el personaje de la película Matrix, dichas a Neo cuando toma la píldora roja y le es revelado que la realidad en la que vive no existe, sino que es una simulación creada por las máquinas.
Siguiendo con la trama de Matrix, Morpheus explica cómo principios del siglo XXI los humanos estaban maravillados con la creación de su magnificente invento: Inteligencia Artificial, la cual incorporaron a todas sus actividades. Al alcanzar la singularidad tecnológica, las máquinas cobraron consciencia y crearon otras máquinas.
No se sabe cómo inició el conflicto entre humanos y máquinas y quien atacó primero —continua Morpheus— pero las máquinas dependían de la energía solar y los humanos dañaron la atmósfera, lo que provocó el oscurecimiento de la Tierra e impidió el paso de los rayos solares. Las máquinas vieron amenazada su propia existencia, por ello crearon el mundo simulado, la Matrix, donde todos los humanos viven sin darse cuenta de que son dominados por los programas computacionales, y que son utilizados para extraer de ellos energía o bioelectricidad. Hasta aquí la trama de esta historia que se sitúa en el año 2199, pero el mundo simulado en la Matrix corresponde a 1999.
¿Realmente vivimos en un mundo simulado?
Por extraña que parezca la pregunta, algunos de los más prestigiados físicos se lo han planteado, e incluso existe la teoría de la simulación o hipótesis de la simulación, la cual sugiere que la Tierra y el universo son simulaciones computacionales, partiendo de la premisa de que la realidad es información y todo puede explicarse con modelos matemáticos. Por lo menos a nivel de la física cuántica se ha demostrado que la realidad no existe, hasta que ésta es medida y observada.
Nick Bostrom, profesor de la Universidad de Oxford, sostiene que la especie humana se extinguirá antes de alcanzar la era posthumana, cuando las computadoras habrán alcanzado un poder de procesamiento de datos capaz de simular universos imperceptibles para los humanos.
Más allá de la ciencia ficción y del escenario apocalíptico planteado en la Matrix, en el mundo real existen interrogantes para las cuales aún no hay respuestas. ¿Hasta dónde es posible que las máquinas construyan otras máquinas sin la intervención humana? ¿Cuáles serían las consecuencias de ello? ¿La Inteligencia Artificial será el último invento de la Humanidad?
Stephen Hawking, uno de los astrofísicos más destacados de la historia, fallecido en 2018, en una de sus últimas apariciones públicas hizo un llamado a la sociedad global para que seamos precavidos con el uso de IA.
“Cada aspecto de nuestras vidas se transformará, en resumen, el éxito en la creación de una IA efectiva podría ser el evento más grande en la historia de nuestra civilización, o el peor. Simplemente no lo sabemos. Por lo tanto, no podemos saber si la IA nos ayudará infinitamente, si nos ignorará y nos arrinconará, o si es posible que nos destruya», advirtió Hawking en su discurso para el Web Summit 2017.
En su libro Breves respuestas a las grandes preguntas (2018) Hawking abunda en estas ideas. Considera que, bajo el principio de la Ley de Moore, —el cual refiere que cada 18 meses las computadoras incrementan al doble su capacidad de memoria y procesamiento— es probable que en 100 años las máquinas emulen y superen la inteligencia humana, cuando la inteligencia artificial aprenda a mejorar sus capacidades sin la intervención del hombre.
“Cuando eso suceda, tendremos que asegurarnos de que las computadoras tengan objetivos alineados con los nuestros. Es tentador descartar la noción de máquinas altamente inteligentes como mera ciencia ficción, pero esto sería un error y potencialmente nuestro peor error», advierte Hawking.
Katherine Maher, directora ejecutiva de la Fundación Wikimedia —la organización sin fines de lucro que opera Wikipedia— en un artículo publicado en The New York Times, a propósito del 30 aniversario de la creación de la World Wide Web, pidió humanizar los avances tecnológicos y no dejar que la IA tome las riendas de nuestra organización social.
“Con demasiada frecuencia la Inteligencia Artificial se presenta como una solución todopoderosa para nuestros problemas, un reemplazo escalable para las personas. Las empresas están automatizando casi todos los aspectos de sus interfaces sociales, desde la creación hasta la moderación y la personalización del contenido. En su peor momento, la IA puede poner a la sociedad en piloto automático y no considerar nuestros valores más preciados”.
El valor más importante de la web —considera Maher— es la gente y el conocimiento colectivo que generamos entre todos. Las personas, en lugar de ser reemplazadas por máquinas, deben ser consideradas por las plataformas en el desarrollo de sus interfaces.
Dejar en manos de la Inteligencia Artificial nuestras vidas puede traer resultados inesperados, como cuando Amazon lanzó un software de recursos humanos con la idea de reclutar a los mejores trabajadores. El programa concluyó que los hombres eran mejores que las mujeres. En otros términos, la máquina recomendó no contratar a mujeres. El software llegó a este resultado porque fue programado con datos de viejos currículums, que en su mayoría eran de varones.
Se supone que el uso de Inteligencia Artificial debería hacer nuestra vida más fácil y eficiente, sin duda lo ha hecho, pero es preocupante el número de casos en los que se han diseñado algoritmos que arrojan resultados racistas y sexistas y que están siendo utilizados tanto por entidades públicas como privadas. Algunos ejemplos:
- COMPAS, un algoritmo empleado en los EE. UU. para predecir la probabilidad de reincidencia criminal, determinó que es más probable que exconvictos de origen afroamericano reincidan en actos delictivos, en comparación con los de origen anglosajón. Propública comprobó que el algoritmo otorgó una baja puntuación de reincidencia a un exconvicto de origen blanco, pese a que tenía varios ingresos en la cárcel, a diferencia de dos jóvenes de origen afroamericano que sólo habían cometido un delito, pero su puntuación de reincidencia fue más alta.
- PredPol, un algoritmo diseñado para predecir cuándo y dónde ocurrirán delitos, con el objetivo de reducir el sesgo humano en la vigilancia policial, determinó que en los barrios donde viven minorías étnicas es más probable que ocurran delitos relacionados con drogas, aun cuando las estadísticas muestran lo contrario. El sistema se alimentó con datos que ingresaron los propios policías, no con las estadísticas, lo que refuerza los prejuicios raciales, ya que los oficiales tienden a detener con mayor frecuencia a personas de minorías étnicas como afroamericanos e hispanos en comparación con los de origen blanco.
- El algoritmo diseñado por Google para detectar lenguaje de odio consideró que las personas afroamericanas eran quienes utilizaban este tipo de lenguaje, cuando en realidad el contenido de sus conversaciones era positivo, sólo que se expresaban con palabras del argot informal, según comprobó un estudio de la Universidad de Washington.
- Los sistemas de reconocimiento facial de IBM Microsoft y de la empresa china, Megvii fueron capaces de reconocer hasta el 99% de los rostros de hombres blancos, pero cuando las personas eran de tez morena, el índice de efectividad se redujo a un 35%, según comprobó en un estudio el Instituto Tecnológico de Massachusetts (MIT).
El MIT ha documentado cómo la gran mayoría de las aplicaciones de IA basadas en algoritmos conocidos como de aprendizaje profundo y patrones de datos, afectan la vida de las personas y pueden perpetuar actos de injusticia en la contratación de personal, en el comercio, la seguridad, y es posible que ya lo estén haciendo en el sistema legal penal.
Karen Hao, especialista en temas del IA del MIT Technology Review, explica que el sesgo y la parcialidad en el desarrollo de los algoritmos inicia desde el momento en que los científicos computacionales los diseñan y seleccionan los datos con los que operan estos sistemas.
Hao identifica tres etapas en las que debe ponerse atención y que son claves para evitar que los algoritmos repitan los prejuicios de los humanos.
- Delimitación del problema. Al diseñar un modelo de aprendizaje automatizado, lo primero que hacen los científicos informáticos es decidir qué es lo que realmente quieren lograr. Si los algoritmos se desarrollan con fines comerciales, es probable que privilegien ciertos patrones en lugar de otros.
- Recopilación de los datos. Existen dos formas en las que los algoritmos sesgan sus resultados, una es cuando los datos que recopilan no son representativos de la realidad, la otra es cuando los datos reflejan prejuicios existentes. Se repiten los estereotipos sociales en la automatización.
- Preparación de los datos. Es posible introducir sesgos durante la etapa de preparación de datos cuando se determina qué atributos debe considerar primero el algoritmo. En el ejemplo de Amazon, el algoritmo consideró el sexo de los solicitantes en primer lugar y esto generó que se privilegiara la contratación de hombres, por el hecho de que había más datos de varones que de mujeres.
Sin embargo, el sesgo más grande se encuentra en las empresas que están construyendo el ecosistema de Inteligencia Artificial en el cual vivimos y viviremos. Son los Nueve Gigantes y sólo pertenecen a dos países: Estados Unidos y China.

Este selecto grupo está compuesto por Microsoft, Apple, Facebook, Alphabet Google, Amazon, IBM, y por parte de China, Tencent, Baidu y Alibaba.
En opinión de Amy Webb, los líderes y desarrolladores de estás compañías conforman una tribu que comparte los mismos valores porque sus ingenieros y científicos computacionales son egresados de las mismas universidades, tienen la misma visión sobre dónde debe dirigirse la Inteligencia Artificial, que se enfoca principalmente a desarrollos para obtener ganancias comerciales, excluyendo al resto de las personas que no comparten la misma forma de ver el mundo.
“El futuro de la IA está siendo construido por relativamente pocas personas con ideas afines dentro de pequeños grupos aislados. (…) creo que estas personas tienen buenas intenciones, pero como todos los grupos aislados que trabajan en estrecha colaboración, sus prejuicios inconscientes y su miopía tiende a convertir nuevos sistemas de creencias y comportamientos que son aceptados con el tiempo», refiere Amy Webb en su libro The Big Nine: How the Tech Titans and Their Thinking Machines Could Warp Humanity (2019).
La autora señala que cuando se habla de la falta de diversidad entre los tecnólogos, el debate suele enfocarse en su origen racial y su género (la mayoría de los científicos computacionales son hombres de origen blanco, seguidos de hombres asiáticos y en menor proporción personas de origen negro, latino o hispanos), pero se pierde de vista su ideología política y su religión. En otras palabras, los diseñadores de la Inteligencia Artificial son miembros de una pequeña minoría, pero sus sistemas son creados para emular el pensamiento de la gran mayoría, y esta falta de diversidad se traduce en sesgos tecnológicos.
La mejor forma de construir sistemas de Inteligencia Artificial inclusivos es democratizar el conocimiento.
Fuera de estos círculos de expertos computacionales, el entendimiento del público sobre la Inteligencia Artificial se ha construido entre una mezcla de mitos y realidades, aderezado con historias de Hollywood, como Matrix.
Está de moda hablar de la Inteligencia Artificial, pero pocos se detienen para preguntarse qué es, cuáles son sus alcances y sus limitaciones, cuál es el estado del arte en su desarrollo y cómo está afectando nuestras vidas. Es difícil encontrar explicaciones sin escuchar la estridencia de quienes prometen un mundo mejor, ni de quienes vislumbran un escenario fatal.
En las narrativas mediáticas existe la tendencia de antropomorfizar a la Inteligencia Artificial, es decir, darle características humanas con el fin de contar historias. Se magnifican las potencialidades de los robots, por ejemplo, cuando muchos de los diseños sólo son prototipos.
¿Qué se entiende por Inteligencia Artificial? Antes de responder es preciso acotar que no existe una sola definición, sino diversas aproximaciones conceptuales para dar un sentido al fenómeno tecnológico.
Alan Turing fue uno de los pioneros en plantear la pregunta sobre la capacidad de las máquinas para pensar como los humanos, en un artículo publicado en 1950 titulado Computing Machinery and Intelligence. En términos simples, el llamado Test de Turing se refiere a la capacidad de las máquinas para simular el pensamiento humano, al grado de que los humanos no puedan detectar que se trata de una máquina. Si ello ocurre, entonces se puede decir que las máquinas también piensan.
En 1956, un grupo de científicos encabezados por Marvin Minsky (matemático y neurólogo) y John McCarthy (matemático) entre otros, propuso realizar un taller por dos meses y reunir a científicos de al menos 47 disciplinas para trabajar en las ideas de Turing sobre la capacidad de aprendizaje de las máquinas. El taller buscaba dar respuestas a preguntas como ¿Qué se entiende por pensamiento?¿Cómo trabajan nuestras mentes? ¿Cómo se puede enseñar a las máquinas para que aprendan como lo hacen los humanos?
El grupo se reunió en el Departamento de Matemáticas de la Universidad de Dartmouth, por ello se conoció como el Taller de Dartmouth. Se considera que este fue el primer evento académico que dio inicio a la investigación de la Inteligencia Artificial como una disciplina. De hecho, a McCarthy se atribuye que dio el nombre de Inteligencia Artificial.
La Inteligencia Artificial, como una nueva disciplina, no nació por un acuerdo entre los investigadores sobre la metodología, la elección de problemas o una teoría general, sino por la visión compartida de que se pueden construir computadoras para que realicen tareas inteligentes. El grupo coincidió en tres prácticas que serían definitorias para el desarrollo de la Inteligencia Artificial:
1. La Inteligencia Artificial sería teorizada, construida, probada y desarrollada por grandes compañías de tecnología e investigadores académicos que trabajan en conjunto.
2. El avance de la Inteligencia Artificial requerirá mucho dinero, por lo que se necesitará comercializar el trabajo de alguna manera, ya sea a través de asociaciones con agencias gubernamentales o militares o construyendo productos y sistemas que puedan venderse.
3. Investigar y construir Inteligencia Artificial requiere de una red de investigadores interdisciplinarios, lo que significa establecer un nuevo campo académico desde cero.
Tras este taller, el entusiasmo por la investigación sobre IA llevó a organismos gubernamentales a financiar diversos proyectos. Las altas expectativas por construir máquinas inteligentes se vieron opacadas por la realidad. Existía más literatura de ciencia ficción que hablaba de las potencialidades de las máquinas, pero los avances en el campo eran magros. Los fondos para la investigación dejaron de fluir.
Sería hasta 1990 cuando las investigaciones registrarían un avance acelerado, teniendo como un hito el desarrollo de la computadora Deep Blue de IBM, que en 1997 derrotó al campeón mundial de ajedrez, Garry Kasparov.
Otro hito ocurrió en el año 2000, cuando Watson, la computadora también desarrollada por IBM, venció a los competidores humanos en el concurso de televisión Jeopardy. En este periodo también iniciaron los primeros prototipos de computadoras capaces de conducir un vehículo sin la intervención humana.
El siguiente hito fue en 2014 cuando DeepMind, la computadora desarrollada por Google, compitió por primera vez en el juego de estrategia go, considerado más complejo que el ajedrez, porque predecir los movimientos de los jugadores es casi imposible.
En 2017, DeepMind se enfrentó al campeón mundial Ke Jie, y le derrotó 3-0. DeepMind aprendió de sus anteriores competencias y mejoró su técnica de juego, ralizando movimientos que ningún humano había pensado antes.
Dados estos avances, en los últimos años, y con mayor intensidad en la primera década del siglo XXI, hemos oído hablar frecuentemente sobre la Inteligencia Artificial, ya no como una aplicación para el futuro, sino como algo cotidiano en nuestras vidas gracias a tres factores:
1.- La disposición de grandes cantidades de datos digitales en imágenes, texto, video o audio (big data).
2.- El mejoramiento en el diseño de las máquinas con la capacidad de aprender de forma autónoma gracias al uso de algoritmos.
3.- El mayor poder de procesamiento y almacenamiento de las computadoras.
En la medida en que hemos digitalizado prácticamente todos los campos de nuestras actividades, por un mayor uso informático en sectores como economía, negocios, educación, política, gobierno, ciencia, medios de comunicación, entre otros, hemos generado una gran cantidad de datos digitales que antes no estaban disponibles.
Estos datos son la materia prima que alimenta a los programas computacionales utilizados para desarrollar algoritmos con la capacidad de aprender patrones, conocido como aprendizaje automático (machine learning).
Lo anterior, aunado al avance en el poder de cómputo ha permitido el desarrollo de programas basados en Inteligencia Artificial, la cual ha pasado de su fase experimental en laboratorios computacionales a tener aplicaciones prácticas en tareas cotidianas en diferentes industrias, transformando nuestras actividades con consecuencias que aún desconocemos.
Tomando la definición de Dave Gershgorn, con las ideas de Lasse Rouhiainen, por Inteligencia Artificial entendemos:
la capacidad de las máquinas (un programa computacional o un sistema inteligente) que utilizan algoritmos para aprender de los datos que les son ingresados (imágenes, texto, video o audio) y utilizan ese conocimiento aprendido para tomar decisiones de forma autónoma en situaciones determinadas para resolver ciertas tareas como lo harían los humanos.
Los expertos difieren sobre la taxonomía de la Inteligencia Artificial. De acuerdo con Sachin Ramar existen dos grandes tipos: la IA limitada. Es la que utilizamos en la actualidad y se limita a resolver una tarea. La encontramos en nuestros dispositivos móviles. Las máquinas son capaces de aprender juegos de estrategia (ajedrez, go), traducir, manejar vehículos, reconocer patrones de imágenes, voz, texto, por mencionar algunas aplicaciones.
El otro tipo es la IA general, la cual tendría la capacidad de superar la inteligencia del ser humano. Ello aún no ocurre y se debate si algún día se logrará tal desarrollo.
Otra forma de clasificar la IA es considerando los tipos de problemas y soluciones que cada sistema opera, de este modo existirían cuatro tipos:
- Sistemas que piensan como los humanos (redes neuronales).
- Sistemas que actúan como los humanos (procesamiento de lenguaje. Los chatbots como ejemplo).
- Sistemas que piensan racionalmente (resoluciones lógicas, inferencias y optimización de respuestas).
- Sistemas que actúan racionalmente (robots que pueden conseguir sus metas a través del razonamiento, aprendizaje, comunicación y toma de decisiones autónomas).
Huawei, la compañía tecnológica china, divide la inteligencia artificial en cuatro grupos.
1. Máquinas reactivas, inteligencia artificial en su forma más básica
Son las máquinas que más se acercan al funcionamiento tradicional de una computadora porque se les proporciona una serie de datos que deben procesar para obtener un resultado satisfactorio. El ejemplo de Deep Blue y Watson de IBM.
2. Inteligencia Artificial con memoria limitada
Es el tipo de IA que más se ha expandido en usos comerciales. Su nombre no se refiere a la cantidad de memoria física que utilizan, sino a la capacidad de la IA para registrar o «recordar» experiencias pasadas y aplicarlas en decisiones autónomas. El caso de DeepMind de Google.
3. Máquinas basadas en la teoría de la mente
La teoría de la mente es el principio psicológico que sostiene que el comportamiento y las decisiones de los seres vivos están influidas por sus emociones y pensamientos. Siguiendo este principio, las máquinas tendrían la capacidad de procesar emociones y exponerlas en el entorno. En este desarrollo, el agente de Inteligencia Artificial debería ser capaz de comprender las emociones de su interlocutor y adaptarse a éstas. Por el momento, este tipo de IA sólo existe en forma experimental. La empresa Affectiva asegura que ha desarrollado un algoritmo capaz de reconocer la emociones expresadas en el rostro humano, utilizando técnicas de codificación y reconocimiento facial, sin embargo, la máquina no genera expresiones propias para emular emociones.
4. Inteligencia artificial con conciencia de sí misma
Aún nos encontramos lejos de alcanzar este desarrollo, que sería el máximo nivel de Inteligencia Artificial y el más próximo a los seres vivos. Este tipo de IA sólo es realidad en la teoría. Las máquinas serían capaces de reconocer y comprender sentimientos y ponerlos en un contexto con una perspectiva de sí mismas. En su aprendizaje, las máquinas no necesitarían de la intervención humana de ningún tipo. Esta forma de IA ha inspirado novelas de ciencia ficción y guiones de todo tipo de películas, como Matrix.
Se estima que el desarrollo de un sistema de Inteligencia Artificial General con conciencia de sí misma podría ser realidad entre los años 2040 o 2050, pero las probabilidades de lograrlo se incrementan en un 90% hacia el año 2075. Para esta fecha, se habría desarrollado una máquina superinteligente que superará las capacidades cognitivas del ser humano, según arrojó una encuesta entre los expertos en el campo de IA realizada en 2013 por los investigadores Nick Bostrom, Vincent C Müllet.
Otros investigadores ponen en duda el hecho mismo de que la máquinas superen la capacidad del cerebro humano por la simple razón de que incluso los seres humanos desconocemos cómo funciona nuestro cerebro al 100%.
Los científicos han derribado el mito de que sólo utilizamos el 10% de nuestra capacidad cerebral, como se ha dicho en repetidas ocasiones. La realidad es que sólo comprendemos el 10% de su funcionamiento. De todas las células del cerebro, sólo el 10% son neuronas, el 90 restante son células gliales que encapsulan y apoyan a las neuronas. La ciencia aún no ha podido explicar cómo funciona ese 90%. Entonces, si desconocemos todas las capacidades del cerebro humano, no podría crearse una máquina que lo emule y mucho menos que lo supere.
Es un hecho es que el desarrollo de la Inteligencia Artificial no se detendrá, pero contrario a lo que se piensa, las máquinas no cobrarán consciencia de forma repentina. La evolución de los agentes de Inteligencia Artificial supertintelingentes será paulatino y sus efectos se darán casi sin que los notemos, como el hecho de que hoy vemos como algo «natural» el que nuestras interacciones humanas sean digitales.
El primer paso para visualizar nuestro futuro es entender nuestro presente. ¿Qué papel jugará el ser humano ante estos desarrollos? En la era del individualismo global, es preciso pensarnos de nuevo como una colectividad, más que como grupos identitarios definidos etnicidad, género, nacionalidad, etc.
La clave es posicionar al ser humano al centro de los desarrollos tecnológicos. Sólo así las máquinas estarán al servicio de la Humanidad. De lo contrario, los temores de los apocalípticos podrían ser reales.