news

GPT2: sztuczna inteligencja zbyt niebezpieczna, by udostępnić ją publicznie

 

Elon Musk nie od dziś twierdzi, że sztuczna inteligencja jest niebezpieczna. Takie nastawienie podziela też najwyraźniej fundacja OpenAI, która zapowiedziała już, że nie udostępni swojego najnowszego dzieła publicznie, ponieważ jej zdaniem jest ona zbyt niebezpieczna.

Musk pojawił się w tym kontekście nieprzypadkowo, ponieważ jest on jednym ze współzałożycieli fundacji non-profi OpenAI, której głównym zadaniem jest takie prowadzenie badań nad sztuczną inteligencją, by badania te przyczyniły się do jak największych pożytków dla ludzkości, a nie były tylko motywowane chęcią zysku. Z tą decyzją zaangażowanych w badania naukowców nie miał jednak wiele wspólnego, ponieważ rok temu opuścił radę fundacji.

W tym wypadku jednak jej badacze skręcili w ślepy zaułek badań nad sztuczną inteligencją. A przynajmniej w ciemną uliczkę, którą nie zamierzają iść dalej i nie chcieliby, by ktokolwiek nią kroczył w przyszłości. Opracowana przez nich sztuczna GPT2 jest ich zdaniem zbyt niebezpieczna, by można było opublikować wyniki badań nad nią.

Podobno pióro jest silniejsze od miecza. A właśnie pisaniem zajmować się miała GPT2. I robiła to doskonale. Po tym, jak poda się jej początek tekstu, sama dopisze resztę z zachowaniem sensu i angielskiej gramatyki. Według zapewnień twórców, ich model jest dużo lepszy od istniejących, które gubiły wątek lub tworzyły zdania niepoprawne gramatycznie. W ramach swojego „szkolenia” GPT2 przejrzała w sumie ponad 10 milionów artykułów i potrafi też w pewnym stopniu tłumaczyć wygenerowane przez siebie teksty.

Podczas prezentacji, którą opisuje Guardian, sztuczna inteligencja, po tym jak otrzymała początek artykułu o brexicie, stworzyła dalszą część tekstu, odnosząc się do problemu granicy w Irlandii Północnej i cytując między innymi słowa Jeremy’ego Corbyna czy rzecznika Theresy May.

Co w tym takiego niebezpiecznego? Według badaczy z OpenAI, jeśli ich sztuczna inteligencja byłaby dostępna publicznie, żadnego pożytku z niej by nie było. Co gorsza, istnieje bardzo duże ryzyko, że zostałaby ona wykorzystana na przykład do masowej produkcji bardzo realistycznie brzmiących fake newsów.

Ilustracja: Flickr/a health blog

podobne treści