Inteligencia Artificial: ¿tendremos nuevo paradigma civilizatorio?

Por: Alejandro Pérez Malagón (tomado de Cachivache Media)

Amarillismos aparte, hablando en serio. Elon Musk dijo hace unos meses que la Inteligencia Artificial (AI, anglosajonamente abreviado) era nuestra mayor amenaza existencial. Estaba en el MIT. En su ingenieril público muchos deben haber pensado en el calentamiento global, invierno nuclear, supernovas, asteroides, cometas y animes mecha pero, quizás por cortesía, nadie le contradijo.

Musk es un personaje variopinto y a veces dice cosas. Pero entonces vino Stephen Hawking, el físico. Con su sintetizador de voz le explicó al periodista de turno que el desarrollo avanzado de las AI podía señalar el fin del hombre como especie. Casualmente dicho sintetizador había sido actualizado recientemente para utilizar una tecnología basada en redes neuronales. Esta sugiere la palabra siguiente a la que se está escribiendo, como hace el teclado de nuestros smartphones.

Hawking quizás estaba picado con dicho algoritmo por alguna sugerencia desafortunada. Pero ya van dos advertencias.


Otro Stephen, Stephen Byerley, el presidente, fue el primero en notar que las AI estaban haciendo algo raro. O al menos fue el primero en preocuparse por ello. Él mismo no era un experto en robótica. Por eso necesitó la ayuda de la Dra. Susan Calvin para resolver el misterio. El problema: los sistemas de recomendación inteligentes que se encargaban de las economías regionales estaban cometiendo errores.

Estas máquinas inteligentes controlaban el funcionamiento de todos los sistemas logísticos, empresariales y productivos en las cinco regiones del planeta. De sus decisiones dependían cierres de fábricas, despidos o traslados de trabajadores y en general el éxito económico de las empresas. Los expertos le aseguraban a Byerley que era muy poco probable que estos sistemas se equivocaran, pero que en el caso que lo hicieran era muy difícil detectar qué parte de su programación estaba provocando los fallos.

Las complejas inteligencias artificiales habían crecido más allá del entendimiento de los seres humanos debido a que se programaban ellas mismas. No existía equipo de robotistas o cibernéticos que fuera capaz de decodificar las cadenas de tomas de decisión de la AI y traducirlas a sus equivalentes en pensamiento humano. Básicamente, la forma de “pensar” de estas máquinas era incomprensible.

Pero lo que preocupaba al presidente no eran los errores en sí. Estos eran escasos y de poco impacto a nivel global. Lo que no le permitía dormir era que estos tenían un patrón: siempre parecían involucrar a miembros de la Sociedad para la Humanidad. Esta organización se oponía al uso de los robots y las AI y tenía simpatizantes en todos los estratos sociales, algunos muy poderosos. Para Byerley eran el tipo de personas que “en el momento histórico apropiado se hubieran opuesto a las matemáticas o a la imprenta”; es decir, luditas paranoicos y fundamentalistas.

Stephen Byerley deduce que existe una conspiración por parte de la Sociedad para hacer fallar a las máquinas. Decide utilizar la maquinaria política que controla para ilegalizar la organización y alejar a sus miembros de tareas relevantes relacionadas con las AI.

La Dra. Calvin le hace ver lo erróneo en su deducción. Las máquinas inteligentes estaban programadas bajo una ley básica e inamovible: estas no podían dañar a un ser humano o por su inacción permitir que un humano fuera dañado. Todas las AIs del mundo operaban de conformidad a esta ley. Debido a esto Byerley nunca sospechó que las máquinas pudieran afectar a un humano a propósito.

Pero Susan Calvin le revela algo que solo ella sospechaba hasta el momento. Cuando el control del mundo entero dependía de uno de estos sistemas era inevitable causar daño a algunos seres humanos casi con cualquier decisión. Entonces las máquinas habían optado por generalizar la Primera Ley de la Robótica, convirtiéndola a “Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño”.

Al aplicar esta ley, las máquinas escogían perjudicar a la mínima cantidad de seres humanos que fuera necesaria para garantizar la estabilidad social del planeta. Y la Sociedad para la Humanidad se convirtió en un blanco. Autosaboteándose, las AI hundían también a los miembros más peligrosos de la Sociedad para la Humanidad. En otras palabras, las máquinas comenzaron a hacer política. Y no de la forma más elegante, si es que hay una forma elegante.


En la trama de El Conflicto Evitable, Isaac Asimov nos presenta un posible futuro en el que la humanidad ha dejado de controlar su destino, para cederle este control a una inteligencia artificial. Y esto trae consecuencias muy controversiales desde el punto de vista moral. A la larga es poco (nada) lo que el Presidente de la Tierra, Stephen Byerley, hace para revertir esta situación.

Pero ¿alguna vez la humanidad ha controlado su propio destino? Quizás esa sea una pregunta para filósofos. Como apunta la robotista Susan Calvin, la especie humana siempre ha estado a merced de fuerzas económicas y sociológicas que nunca ha comprendido del todo. Puede que dicho control sea solo una ilusión. Puede que las máquinas sean solo una herramienta, la última herramienta, para que los hombres puedan realmente controlar el destino de la humanidad. Irónicamente el mismo Byerley, ajeno como está a las “maquinaciones” de las AI, es un robot diseñado por su creador para ser el líder mundial perfecto.[1] Paternalismo puro.

Con una población de un quintillón (corto) de habitantes, el Imperio Galáctico de Asimov tenía la población suficiente para extrapolar leyes del comportamiento social de la humanidad útiles para extraer predicciones a largo plazo (la psicohistoria). Los científicos que trabajan con la estadística hace tiempo descubrieron que para extrapolar tendencias en sistemas complejos era necesaria mucha información. Y no por gusto al paradigma civilizatorio que se construye muchos lo llaman “la sociedad de la información”.

Hasta hace poco tiempo este tipo de historias caían en el campo de la pura ciencia ficción especulativa. Pero la tecnología poco a poco va recortando distancias. La revolución digital está adelantando muchas de las fechas de la cronología de la Fundación. Se acerca nuestra psicohistoria. La pregunta no es si esta va a cambiar la sociedad, sino hasta dónde llegará esta transformación y quién se aprovechará de ella.

Los datos están transformado nuestras relaciones sociales. La mayoría estamos dispuestos a revelar gran cantidad de información sobre nosotros mismos, nuestros gustos y simpatías, ya no solo en el marco estrecho de nuestras familias y amigos, sino también online. El procesamiento de inmensas cantidades de información mediante algoritmos más o menos “inteligentes” es una disciplina conocida como Big Data. Aunque a veces se le llama así solo a las bases de datos como tal. Y también a una banda de música electrónica.

Hoy en día una de las aplicaciones más amplias de la inteligencia artificial está ligada al aprendizaje profundo, o Deep Learning. Este se aprovecha de grandes cantidades de información no etiquetada para extraer patrones y resultados útiles, usando sus propias lógicas, normalmente incomprensibles en nuestra manera de pensar.

Las primeras compañías que aprovecharon los datos que compartimos online construyeron “inofensivos” sistemas de recomendación. Buscaron interpolar gustos o necesidades a partir de nuestro comportamiento online para presentarnos determinados productos o servicios de manera selectiva. La industria del advertising, con sus millones, impulsó drásticamente el avance en este campo de estudios.

Y los sistemas de recomendación invadieron el lugar donde más tiempo pasamos en la actualidad: las redes sociales. Y algunos políticos vieron que esto era bueno (para ellos). Surgió la burbuja. Actualmente existen algoritmos que aparentemente son capaces de calarnos a partir de nuestra actividad en las redes sociales. Tus likes, el tono de tus comentarios, las noticias que compartes, los medios que lees. Y venden esta información al mejor postor.

Hasta qué punto estos algoritmos son eficaces o meros stunts publicitarios está por ver aun. Pero si de algo estamos seguros es de que van a mejorar. Así funciona la ciencia. Y esta es la ciencia del nudging. Un nudge, en inglés, es cuando te tocan levemente con el codo -una costumbre muy inglesa- para llamar tu atención sobre algo, inducirte a moverte hacia un lugar, o para que no te pierdas una mirada de “how you doing”. Los hispanos no tenemos una palabra equivalente, quizás porque somos más de gritar “oye tú, sí tú”.

Se le llama nudge en psicología al uso intencional de determinados quirks conocidos de nuestro cerebro para inducirnos a hacer algo. Ojo, solo inducirnos, nunca obligarnos. Es una ciencia basada en la sutileza. Busca influenciar nuestro comportamiento sin coerción, solo con sugestión. Por ejemplo, un supermercado que busque vender un producto por encima de los otros podría colocarlo en los estantes que te queden al nivel de la vista.

Pero ahora, asociado al Big Data, aparece su primo en esteroides, el Big Nudge. Que es la aplicación de estas técnicas de ingeniería social de manera masiva en las redes sociales.

Con el Big Nudge es posible, en teoría, influenciar grandes grupos de personas para, por ejemplo, determinar el resultado de una elección. Y no estamos hablando de tener una buena estrategia de campaña electoral en las redes sociales. Sino de aprovecharse de nuestros fallos cognitivos, como humanos. Es ingeniería social y manipulación psicológica. Una manera de actuar tal que no promueve el diálogo sino el manejo. No busca interactuar con lo mejor de nuestro cerebro, sino explotar lo peor de este.

Todo lo imbuido de poder tiene la habilidad de atraer a su alrededor lo peor y lo mejor de la raza humana. A Lex Luthor y a Bruce Wayne. Lo cierto es que quien pueda manipular los sistemas de recomendación de las redes sociales y otros servicios en internet posee un gran poder. La burbuja social en la que vivimos dentro de nuestras redes puede ser un resultado inesperado para o provocado por las empresas que las controlan. Están ahí debido a un desperfecto de nuestro intelecto: este es muy renuente a aceptar información que contradiga nuestras asunciones básicas.

Este no es el único reto que presenta la AI a la sociedad moderna. La automatización de tareas triviales (y ya no tan triviales) como conducir un automóvil, ensamblar productos, realizar análisis paralegales de casos judiciales, ganar en Jeopardy! y muchas otras está en alza. Expansión que puede provocar la desaparición de muchos puestos de trabajo o provocar caídas en los salarios.

¿Qué pasara cuando la AI sea capaz de reemplazar al hombre en la inmensa mayoría de las tareas? ¿Seguirá siendo el capitalismo un sistema viable? Por muy tecnofílico que se sea son datos que deben preocupar. Y de tanta preocupación alguien saldrá directo hacia Facebook a crear un grupo llamado Sociedad para la Humanidad. Si eres de esos, lamentamos informarte que llegarás tarde. El ludismo es una opción que la humanidad ha desechado muchas veces. Soluciones a estos problemas deben buscarse quizás usando las mismas AIs y otras tecnologías que los humanos conocemos desde hace mucho tiempo: la educación y la política.

Impuestos sobre la automatización de la mano de obra, el derecho al control sobre tus datos personales online y una preparación escolar que haga énfasis en la creatividad, el pensamiento crítico/autocrítico e individual son algunas de las propuestas más recurrentes. Estar al tanto de estos intentos de influenciarnos puede ayudar. Después de todo, uno de los postulados de la psicohistoria declara que esta solo funciona si la humanidad permanece ajena a sus leyes.

Notas.

1. Es la conclusión más probable del cuento Evidencia, aunque Asimov nunca lo deja claro en forma explícita.

One thought on “Inteligencia Artificial: ¿tendremos nuevo paradigma civilizatorio?

  1. Ahora me perdí si comentaron esto en la parte de ciencia fitción o en la real, pero bueno, aclarar que por ahora no existe tal cosa como eso de “se programa solo” o “no entendemos como funciona” esto más bien es generalizando, a ver que yo no tenga idea de cómo funciona mi televisor no quiere decir que nadie sepa como es que funciona, si buscas a la gente correcta te dirán hasta la función interna de cada una de las pastillas… ahora si para ti el mundo es facebook, ir a la playa, fiesta y pasarla bien, ¡cuidado que ya estás en el futuro!!! ya las computadoras hacen cosas que no se sabe ni como las hacen!

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *