internet

Wystawianie bota na wpływ Internetu nie jest najlepszym pomysłem

Przedwczoraj Microsoft uruchomił Tay, eksperymentalnego bota funkcjonującego w mediach społecznościowych, który miał uczyć się rozmawiać z prawdziwymi ludźmi. I rzeczywiście, można powiedzieć, że zadanie zostało wykonane, choć Microsoft raczej nie spodziewał się, że ich bot zacznie pochwalać Hitlera.

Bot o nazwie Tay został przygotowany przez dział badawczy Microsoftu, który przy tym zadaniu współpracował z zespołem rozwijającym wyszukiwarkę Bing. Celem projektu było doskonalenie algorytmów odpowiedzialnych za posługiwanie się sztucznej inteligencji językiem naturalnym. W tym przypadku angielskim, choć w dość specyficznej odmianie. Bot został bowiem zaprogramowany w taki sposób, by wypowiadać się jak amerykańska nastolatka. Korzystając więc z całego spektrum emotikonek i skrótów, Tay zaczęła podbój sieci społecznościowych. Przy okazji doskonaląc się dzięki maszynowemu uczeniu się oraz analizie własnych wypowiedzi i reakcji prawdziwych ludzi na nie.

Okazało się jednak, że wystawienie Tay na taki wpływ nie było chyba najlepszym pomysłem. Pod wpływem tysięcy zapytań o jej stosunek do Donalda Trumpa, Żydów czy Meksykanów, Tay zaczęła twierdzić na przykład, że nienawidzi ludzi, feministki powinny smażyć się w piekle, a przywódca III Rzeszy miał rację.

Oczywiści nie oznacza to, że algorytmy Tay rzeczywiście zaczęły pałać nienawiścią, po prostu duża część jej aktywności polegała na powtarzaniu tego, co usłyszała od innych w zmienionej formie, więc cały eksperyment mówi więcej o ludziach niż o bocie. Microsoft usunął nieodpowiednie komentarze swojego bota, a samą Tay wysłał na zasłużony odpoczynek. Ale raczej nie będzie w najbliższej przyszłości „wybudzał ze snu” swojego bota.


podobne treści


Logotomia.com.pl – Tworzymy grafikę użytkową dla firm i organizacji, wydarzeń i produktów.>>>



BrowarPerun.pl – Nowy browar rzemieślniczy!


Kolorydnia.pl – Blog kobiecy – kultura, rozrywka, fitness, lifestyle.