![Apple массово удаляет устаревшие приложения из App Store](/f/59584c8e653271268c1751a1d5827b23.jpg?width=100&height=100)
Подразделение искусственного интеллекта Google, исследователи проверили в двух играх вероятность сотрудничества между двумя агентами искусственного интеллекта, в которых они обнаружили неожиданные результаты. Результаты показывают, что ИИ научился становиться «очень агрессивным» в стрессовых ситуациях.
Тот, кто изучал затруднительное положение заключенного, уже знает: в выборе сотрудничества или поддразнивания братан, конечный результат может быть очень эгоистичным, если сама выгода лучше, чем коллектив. Эта проблема также пронизывает искусственный интеллект, который в мрачном будущем может закончиться человечеством. В ходе тестов технический гигант Google не сообщил нам очень хороших новостей.
В статье, опубликованной исследователями DeepMindИз подразделения искусственного интеллекта Google, исследователи проверили в двух играх вероятность сотрудничества между двумя агентами ИИ. Результаты показывают, что до тех пор, пока ситуация не окажется под контролем, агент предпочитает сотрудничать. Тогда поражение врага предпочтительнее, если сотрудничество не приносит большей выгоды.
В первой игре под названием Gathering два игрока встречаются лицом к лицу, чтобы собрать как можно больше яблок. Когда количество фруктов уменьшилось, агенты стали агрессивными и начали атаковать друг друга лазерными лучами, которые парализовали другого игрока на несколько секунд.
Теоретически, если они оба будут сотрудничать, у них может получиться одинаковое количество яблок - тактика, которую использовали менее развитые алгоритмы DeepMind. Но с неопределенным исходом «более развитые» агенты предпочли атаковать, чтобы обеспечить лучший результат. На видео ниже показана ускоренная игра. Синие и красные блоки - это игроки, а зеленые квадраты - яблоки.
Чтобы достичь раскрытого результата, было проведено более 40 миллионов игр. Исследователи поняли, что чем больше агент узнал из игр, тем более агрессивная тактика. они привыкли добиваться победы, извлекая уроки из ошибок и находя правильные ответы в своих собственных среда.
В другой игре, названной Wolfpack, результаты были менее пугающими. В этом случае двум волкам нужно было объединиться, чтобы поймать добычу. Вместо того, чтобы бежать посмотреть, кто прибыл первым, они оба вместе загнали добычу в угол. Это потому, что в этом сценарии сотрудничество было вознаграждено большим количеством очков: независимо от того, какой волк брал добычу, если другой был также рядом, он получал очки таким же образом.
Это интересно и страшно! Чтобы увидеть, как в этих тестах ИИ может различать ситуации, в которых агрессия и эгоизм приносят больше преимуществ, в то время как в других сценариях предпочтительнее сотрудничество. в Блог DeepMind, автор эксперимента поясняет, что он служит для лучшего понимания сложных систем различных участников, таких как экономика, дорожное движение и окружающая среда, «все зависит от того, сотрудничество ».