nauka

Google uczy swoje sieci neuronowe zapamiętywać doświadczenia

Komputery co prawda mają dostęp do pamięci, ale nietrudno zauważyć, że istnieje ogromna różnica pomiędzy danymi zapisanymi na nośnikach, a tym, w jaki sposób funkcjonuje pamięć ludzka. A właśnie tę ostatnią do pewnego stopnia chciałoby emulować Google w swojej AI DeepMind.

Sieci neuronowe co prawda mogą nauczyć się korzystać z jakiegoś narzędzia czy wykonywać jakieś czynności, ale ponieważ nie potrafią akumulować swoich doświadczeń, za każdym razem muszą uczyć się tego od początku. Badacze z należącego do Google DeepMind zamierzają jednak to zmienić, stosując algorytm, który również w tym zakresie naśladuje działanie ludzkiego mózgu.

To, że coś zapamiętujemy zależy od tego, jak często wykorzystujemy połączenia pomiędzy poszczególnymi neuronami – jeśli korzystamy z nich często, połączenie jest podtrzymywane; jeśli rzadko, połączenie osłabia się i urywa, a my zapominamy. Opracowany przez zespół DeepMind algorytm o nazwie Elastic Weight Consideration, działa podobnie, dzięki czemu może zdecydować o tym, jak bardzo AI potrzebuje danego połączenia do wykonania danego zadania. Jeśli natomiast sieć neuronowa będzie musiała nauczyć się czegoś nowego, algorytm wybierze najpotrzebniejsze połączenia „myślowe” i zastosuje je w przypadku nowego zadania.

W ramach testów, zespół DeepMind postanowił skonfrontować swoją AI z dziesięcioma klasycznymi grami z Atari. Okazało się, że nie musiała ona opanowywać każdej gry z osobna, ponieważ doświadczenie i umiejętności zdobyte w jednej, mogły zostać wykorzystane w drugiej.

James Kirkpatrick z DeepMind podkreśla, że opracowany przez nich algorytm nie jest idealny, a wyspecjalizowana AI nadal jest dużo skuteczniejsza w wykonywaniu wyuczonych zadań niż AI, która „zapamiętała” jak wykonywać podobne zadania, nie umie też od razu zaadoptować się do nowej sytuacji, ale nadal jest to duży postęp.

Zdjęcie: Flickr/health blog


podobne treści