Naukowcy z DeepMind opracowali sztuczną inteligencję zdolną do gry w wirtualną piłkę nożną.
Coordination is key to human intelligence, yet it's difficult to learn using hand-crafted rewards. New research in @SciRobotics describes how coordination can emerge, even with a complex embodiment.
— DeepMind (@DeepMind) August 31, 2022
Blog: https://t.co/YcotJLaxIs
Paper: https://t.co/mDIB9b1ZET 1/ pic.twitter.com/lOS9oNMxha
Według inżynierów, AI była szkolona do gry praktycznie od zera. Wirtualne roboty najpierw nauczyły się chodzić, potem biegać i kopać piłkę.
Na każdym nowym etapie systemom sztucznej inteligencji pokazywano filmy z prawdziwymi piłkarzami. Dzięki temu mogli nauczyć się podstaw gry i naśladować ruchy profesjonalnych sportowców, uczestnicząc jednocześnie w prawdziwych zawodach na wysokim poziomie.
Gdy tylko robot nauczył się grać sam, został sparowany z innym. Wraz z poprawą umiejętności wirtualnych graczy, rosła ich liczba.
Ostatecznie badacze utworzyli małe grupy rywalizujące ze sobą.
Rezultatem był zespół skoordynowanych humanoidalnych piłkarzy wykazujących złożone zachowanie w różnych skalach, skwantyfikowane przez szereg analiz i statystyk, w tym tych stosowanych w analityce sportowej w świecie rzeczywistym.
Według inżynierów, każdy piłkarz-robot podejmuje własne decyzje podczas gry. Uznały jednak pewne uproszczenia w przepisach. Na przykład system nie uwzględnia fauli, a wokół boiska jest niewidzialna granica, która ma zapobiec wyjściu piłki poza granice boiska.
Badacze zauważyli również, że szkolenie robotów trwało długo. To może utrudnić skalowanie technologii na fizyczne roboty.
Co jeszcze słychać w DeepMind?
Przypomnijmy, że algorytm AlphaFold firmy DeepMind przewidział w lipcu prawie każde znane nauce białko.
W sierpniu 2021 roku laboratorium odsłoniło uniwersalną architekturę do tworzenia sztucznej inteligencji.
W czerwcu naukowcy z DeepMind ogłosili, że uczenie wzmacniające jest wystarczające do osiągnięcia ogólnej sztucznej inteligencji.