naukanews

Sztuczna inteligencja Google potrafi zachowywać się agresywnie

Technologia sztucznej inteligencji jest bez wątpienia jedną z tych rzeczy, które maja największy potencjał, by w najbliższej przyszłości zrewolucjonizować wiele dziedzin naszego życia. Z resztą, od jakiegoś czasu to już się dzieje, tym bardziej warto śledzić postępy w badaniach nad AI. A dzięki najnowszym badaniom przeprowadzonym przez zespół DeepMind wiemy już, że sztuczna inteligencja potrafi też być agresywna.

Spokojnie, nie jest to jeszcze poziom porównywalny do tego, co znamy z serii Terminator. Naukowcy z należącego do Google DeepMind chcieli sprawdzić, jak sztuczna inteligencja zachowa się, jeśli będzie mogła podjąć współpracę lub zacząć działać na niekorzyść innej jednostki.

W tym celu stworzyli dwie proste gry, w których dwie wersje sieci neuronowej DeepMind sterowały swoimi postaciami. Pierwsza gra, nazwana „Gathering” polegała na tym, że postacie sterowane przez dwie różne AI, zbierały jabłka, za co nagradzane były punktami. Postacie miały jednak także możliwość strzelania do siebie, co powodowało chwilowe wykluczenie przeciwnika, jednak nie dawało żadnych bezpośrednich korzyści.

Po kilku tysięcy symulacji okazało się, że AI miały tendencje do tego, by początkowo zupełnie ignorować konkurenta i skupiać się na zbieraniu jabłek. Jednak kiedy surowców było coraz mniej, ważniejsze od zbierania jabłek, stawało się wyeliminowanie przeciwnika – sztuczne inteligencje zaczynały więc do siebie strzelać. Ponadto, im większą mocą obliczeniową dysponowały AI, tym działały bardziej agresywnie.

Druga gra, nazwana „Wolfpack”, polegała na łapaniu uciekającej ofiary. W tej sytuacji okazało się, że AI dość szybko opracowywały metody współpracy, dzięki czemu obie mogły zyskać więcej punktów. W tym wypadku, im „inteligentniejsze” były jednostki, tym chętniej ze sobą współpracowały.

Brzmi znajomo? Oczywiście, ponieważ ludzie, jak i inne zwierzęta, zachowują się podobnie. Eksperyment dowiódł więc, że AI DeepMind dochodzi do wniosku, że jeśli chodzi o złapanie ofiary, współpraca jest bardziej opłacalna, ale jeśli zasoby są ograniczone, czasami zdrada i agresja mogą przynieść wymierne korzyści. Naukowcy z DeepMind nie chcą jednak skupiać się na tym drugim aspekcie i zapewniają, że symulacja ta dała im podstawy do rozwijania modeli współpracy pomiędzy sztucznymi inteligencjami.

Zdjęcie: Flickr/Gwydion M. Williams


podobne treści