Иван Филипов
Опубликовано: 01:40, 20 октябрь 2017
По материалам: newsler
Другие новости

AlphaGo больше не нужны люди, чтобы улучшать мастерство в игре Го

AlphaGo больше не нужны люди, чтобы улучшать мастерство в игре Го

Обновленная версия алгоритма AlphaGo Zero для игры в го, разработанная подразделением Google DeepMind, способна к самообучению без анализа партий, сыгранных человеком. В частности, система самостоятельно выучила правила игры го за три дня, при всем этом возможности AlphaGo Zero можно воплотить и за пределами игрового мира. Они добавили, что программа AlphaGo Zero одолела старую версию, которая одержала победу над китайским мастером игры го.

Отметим, что прошлые версии AlphaGo обучались играя тысячи партий с специалистами игры го. Обновленная версия алгоритма, получившая приставку Zero к наименованию, не оставляет людям ни малейших шансов на победу. После 40 дней она в 90 процентах случаев выигрывала у более совершенной версии необычного AlphaGo, который обучается на основе сыгранных человеком партий. Нейросеть очень быстро превзошла уровень среднего игрока-человека, а через три дня выиграла с разгромным счетом у прошлой чемпионской версии. Из сотни игр, сыгранных с предшественником, AlphaGo Zero не проиграл ни одной. Новоиспеченной версии ПО больше не нужны примеры партий настоящих игроков, чтобы оттачивать мастерство, информирует Engadget. «Во время млн игр нейросеть поэтапно учила игру с нуля, накапливая тысячелетия человеческих знаний за несколько дней», — разъяснил уполномоченный Deepmind. Новые нейросети, обучающиеся самостоятельно, могут совершить научные прорывы, считают в Deepmind. Задача игроков — занять большую, чем у конкурента территорию.

Группа исследователей из компании DeepMind обнародовала доклад о программе AlphaGo Zero в британском научном журнале «Nature».

Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+Enter
Обсудить (0)
Другие материалы рубрики: