En la división de IA de Google, los investigadores probaron en dos juegos las probabilidades de cooperación entre dos agentes de IA en los que encontraron resultados inesperados. Los resultados muestran que la IA ha aprendido a volverse "altamente agresiva" en situaciones estresantes.
Quien haya estudiado la situación del prisionero ya lo sabe: al elegir cooperar o burlarse del pequeño hermano, el resultado final puede ser muy egoísta si el beneficio en sí es mejor que el colectivo. Este problema también impregna la inteligencia artificial, que en un futuro distópico puede acabar con la humanidad. En las pruebas, el gigante tecnológico Google no nos ha estado dando muy buenas noticias.
En un artículo publicado por investigadores en Mente profunda, La división de inteligencia artificial de Google, los investigadores probaron en dos juegos las probabilidades de cooperación entre dos agentes de inteligencia artificial. Los resultados muestran que hasta que la situación esté bajo control, un agente prefiere cooperar. Entonces es preferible la derrota del enemigo si la cooperación no tiene mayores beneficios.
El primer juego, llamado Gathering, puso a los dos jugadores cara a cara para recolectar la mayor cantidad de manzanas posible. A medida que disminuía la cantidad de frutas, los agentes se volvieron agresivos y comenzaron a atacarse entre sí con rayos láser, lo que paralizó al otro jugador durante unos segundos.
Teóricamente, si ambos cooperaran, podrían terminar con la misma cantidad de manzanas, tácticas que han usado los algoritmos menos desarrollados de DeepMind. Pero con el resultado incierto, los agentes "más desarrollados" prefirieron atacar para asegurar el mejor resultado. El siguiente video muestra el juego acelerado. Los bloques azul y rojo son los jugadores y los cuadrados verdes son las manzanas.
Para llegar al resultado divulgado, fueron más de 40 millones de juegos. Los investigadores se dieron cuenta de que cuanto más aprendía el agente de los juegos, más tácticas agresivas eran solían lograr la victoria, aprendiendo de los errores y las respuestas correctas dentro de su propio ambiente.
En otro juego, llamado Wolfpack, los resultados fueron menos aterradores. En esto, dos lobos necesitaban unirse para capturar una presa. En lugar de correr para ver quién llegaba primero, ambos cooperaron para acorralar a la presa. Eso es porque la cooperación, en este escenario, fue recompensada con más puntos: no importa qué lobo se llevara la presa, si el otro también estaba cerca, recibiría puntos de la misma manera.
¡Es interesante y aterrador! Ver cómo en estas pruebas la IA puede discernir entre situaciones en las que la agresión y el egoísmo aportan más ventajas, mientras que en otros escenarios es preferible la cooperación. En el Blog de DeepMind, el autor del experimento explica que sirve para comprender mejor los sistemas complejos de varios participantes, como la economía, el tráfico y el medio ambiente, “todo depende de nuestra cooperación."