internetWiadomości promowane

Internet bez serwerów? Brytyjscy naukowcy twierdzą, że jest to możliwe

Internet jest duży. Niewyobrażalnie duży i odporny na wszelkiego rodzaju fizyczne uszkodzenia. Jednak architektura, która pozwoliła na stworzenie praktycznie niezniszczalnej sieci, która oplata praktycznie całą Ziemię, też ma swoje ograniczenia. Naukowcy z Cambridge mają nadzieję, że uda im się je przezwyciężyć dzięki projektowi o nazwie Pursuit.

Jednym z głównych ograniczeń dzisiejszego Internetu jest to, że aby uzyskać dostęp do zasobów, każdy użytkownik musi połączyć się z serwerem, na którym są one przechowywane. Naukowcy z University of Cambridge Computer Lab postulują jednak wprowadzenie zupełnie innej infrastruktury. Takiej, w której każde urządzenie udostępniałoby treści, do jakich dotarło, innym użytkownikom. Dzięki temu inne urządzenia miałyby jednocześnie dostęp do danych z wielu niezależnych od siebie źródeł. Rezultatem miałby być szybki, niezawodny Internet, który do działania nie potrzebowałby centralnych serwerów przechowujących dane.

Jeśli przypomina wam to działanie sieci P2P, nic dziwnego. Brytyjscy naukowcy nie ukrywają, że tym właśnie się inspirowali. Różnica polega na tym, że chcieliby oni wprowadzenia takiego rozwiązania na niespotykaną wcześniej skalę.

„Nasz system skupia się na tym, w jaki sposób społeczeństwo używa Internetu do zdobywania treści. Najważniejsze są informacje. Jeden z moich kolegów zapytał mnie, w jaki sposób, wykorzystując naszą architekturę, można dotrzeć do serwera. Odpowiedź brzmi – nie trzeba. Jedynym powodem, dla którego przejmujemy się domenami i serwerami jest to, że ludzie, którzy projektowali Internet, mówią, że powinniśmy. Ale tak naprawdę interesują nas treści i informacje,” tłumaczy Dirk Trossen, jeden z badaczy pracujących nad projektem Pursuit w University of Cambridge Computer Lab.

Jednym z założeń projektu Pursiut jest pozbycie się koncepcji URL. Uniform Resource Locator to ujednolicony format służący do identyfikowania wszelkich zasobów dostępnych w Internecie. URL z zasady powiązany jest z lokalizacją danego zasobu. Naukowcy z Cambridge proponują w zamian promowanie URI, czyli Uniform Resource Identifiers. W ich projekcie wyszukiwarki miałyby poszukiwać konkretnych zasobów ponieważ dla użytkownika nie jest istotne z jakiego źródła one pochodzą.

„W naszym systemie jeśli ktoś w twojej okolicy obejrzał już jakieś nagranie czy program, w trakcie pobierania go na swój komputer lub platformę, udostępni jednocześnie te treści. Dzięki temu będzie można pobrać treść z jego sieci oraz z serwera, który pierwszy to opublikował (…). Szeroko rozpowszechniona treść, której domaga się wielu użytkowników, będzie ostatecznie rozproszona w całej sieci. Uzyskać ją będzie można w całości, lub w części, od każdego, kto ją udostępnił. Zasadniczo dedykowane serwery stałyby się zbędne.”

Dodatkową zaletą takiego podejścia jest to, że użytkownicy mogliby kontrolować dane publikowane przez siebie w Internecie. W projekcie Pursuit do niektórych zasobów, którymi dzielą się użytkownicy, dostęp mogliby mieć wszyscy, a do niektórych jedynie określone osoby.

Jakie są szanse na wprowadzenie takiego rozwiązania w życie? Nie jest to niemożliwe, ale na pewno spotka się z oporem. Na przykład organizacji zbiorowego zarządzania prawami autorskimi, które dojdą do wniosku, ze Pursuit nie różni się niczym od piractwa. Brak centralnych serwerów to także brak możliwości inwigilowania wielu użytkowników jednocześnie, więc nie można raczej liczyć na entuzjazm rządów. Natomiast po swojej stronie brytyjscy naukowcy mają Unię Europejską, która finansuje ich badania. Jeśli jakimś cudem udałoby się wprowadzić system w życie, zmieniłby on całkowicie sposób, w jaki korzystamy z Internetu.

Zdjęcie: Flickr/DennisR


podobne treści