Idea zdecentralizowanej sieci społecznościowej nowej generacji

Idea zdecentralizowanej sieci społecznościowej nowej generacji
W tym artykule przedstawiam Państwu moje przemyślenia na temat historii i perspektyw rozwoju Internetu, sieci scentralizowanych i zdecentralizowanych, a w efekcie możliwej architektury zdecentralizowanej sieci nowej generacji.

Coś jest nie tak z internetem

Z Internetem zetknąłem się po raz pierwszy w 2000 roku. Oczywiście jest to dalekie od samego początku – Sieć istniała już wcześniej, ale ten czas można nazwać pierwszym rozkwitem Internetu. Sieć WWW to genialny wynalazek Tima Bernersa-Lee, web 1.0 w jego klasycznej, kanonicznej formie. Wiele witryn i stron łączy się ze sobą za pomocą hiperłączy. Na pierwszy rzut oka architektura jest prosta, jak wszystkie genialne rzeczy: zdecentralizowany i darmowy. Chcę - odwiedzam strony innych osób, korzystając z hiperłączy; Chcę stworzyć własną stronę internetową, na której publikuję to, co mnie interesuje - na przykład moje artykuły, zdjęcia, programy, hiperłącza do stron, które mnie interesują. Inni zamieszczają do mnie linki.

Wydawałoby się, że to idylliczny obraz? Ale już wiesz, jak to się wszystko skończyło.

Stron jest zbyt wiele, a wyszukiwanie informacji stało się zadaniem bardzo nietrywialnym. Hiperłącza zalecane przez autorów po prostu nie były w stanie uporządkować tak ogromnej ilości informacji. Najpierw pojawiły się ręcznie wypełniane katalogi, a potem gigantyczne wyszukiwarki, które zaczęły wykorzystywać genialne heurystyczne algorytmy rankingowe. Strony internetowe były tworzone i porzucane, informacje powielane i zniekształcane. Internet szybko się komercjalizował i oddalał się od idealnej sieci akademickiej. Język znaczników szybko stał się językiem formatowania. Pojawiły się reklamy, paskudne irytujące banery oraz technologia promowania i oszukiwania wyszukiwarek – SEO. Sieć szybko zapełniała się śmieciami informacyjnymi. Hiperłącza przestały być narzędziem logicznej komunikacji, a stały się narzędziem promocji. Strony internetowe zamknęły się w sobie, zmieniły się z otwartych „stron” w zapieczętowane „aplikacje” i stały się jedynie sposobem na generowanie dochodu.

Już wtedy towarzyszyła mi pewna myśl, że „coś tu jest nie tak”. Mnóstwo różnych witryn, począwszy od prymitywnych stron głównych o wyłupiastym wyglądzie, po „megaportale” przeładowane migającymi banerami. Nawet jeśli strony dotyczą tej samej tematyki, nie są ze sobą w żaden sposób powiązane, każda ma swój własny projekt, własną strukturę, irytujące banery, słabo działającą wyszukiwarkę, problemy z pobieraniem (tak, chciałem mieć informacje offline). Już wtedy Internet zaczął przekształcać się w swego rodzaju telewizję, w której do przydatnych treści przybijano wszelkiego rodzaju świecidełka.
Decentralizacja stała się koszmarem.

Co chcesz?

To paradoksalne, ale nawet wtedy, nie wiedząc jeszcze o web 2.0 czy p2p, jako użytkownik nie potrzebowałem decentralizacji! Wspominając bezchmurne myśli z tamtych czasów, dochodzę do wniosku, że potrzebowałam... ujednolicona baza danych! Takie zapytanie, dla którego zwróci wszystkie wyniki, a nie te, które najbardziej pasują do algorytmu rankingowego. Takiego, w którym wszystkie te rezultaty zostałyby zaprojektowane w jednolity sposób i stylizowane według mojego własnego jednolitego projektu, a nie przykuwających wzrok, własnoręcznie wykonanych projektów licznych Vasyi Pupkins. Taki, który można zapisać w trybie offline i nie bać się, że jutro strona zniknie, a informacje zostaną utracone na zawsze. Taki, w którym mógłbym wpisać swoje dane, takie jak komentarze i tagi. Takiego, w którym mógłbym wyszukiwać, sortować i filtrować za pomocą własnych, osobistych algorytmów.

Web 2.0 i sieci społecznościowe

W międzyczasie na arenę wkroczyła koncepcja Web 2.0. Sformułowany w 2005 roku przez Tima O'Reilly'ego jako „technika projektowania systemów, które biorąc pod uwagę interakcje sieciowe, stają się lepsze, im więcej osób z nich korzysta” – i zakłada aktywne zaangażowanie użytkowników we wspólne tworzenie i edytowanie treści internetowych. Bez przesady, szczytem i triumfem tej koncepcji były sieci społecznościowe. Gigantyczne platformy, które łączą miliardy użytkowników i przechowują setki petabajtów danych.

Co dostaliśmy w sieciach społecznościowych?

  • ujednolicenie interfejsu; okazało się, że użytkownicy nie potrzebują wszystkich możliwości, aby tworzyć różnorodne, przyciągające wzrok projekty; wszystkie strony wszystkich użytkowników mają ten sam wygląd, co każdemu odpowiada, a nawet jest wygodne; Różni się tylko treścią.
  • ujednolicenie funkcjonalności; cała mnogość skryptów okazała się zbędna. „Kanał”, przyjaciele, albumy… podczas istnienia sieci społecznościowych ich funkcjonalność mniej więcej ustabilizowała się i jest mało prawdopodobne, aby się zmieniła: w końcu funkcjonalność zależy od rodzaju działań ludzi, a ludzie praktycznie się nie zmieniają .
  • pojedyncza baza danych; praca z taką bazą danych okazała się znacznie wygodniejsza niż z wieloma różnymi witrynami; wyszukiwanie stało się znacznie łatwiejsze. Zamiast ciągłego skanowania różnych luźno powiązanych stron, buforowania wszystkiego i rankingu przy użyciu skomplikowanych algorytmów heurystycznych - stosunkowo proste, ujednolicone zapytanie do pojedynczej bazy danych o znanej strukturze.
  • interfejs opinii - polubienia i reposty; w zwykłej sieci ten sam Google nie mógł uzyskać opinii od użytkowników po kliknięciu linku w wynikach wyszukiwania. W sieciach społecznościowych to połączenie okazało się proste i naturalne.

Co straciliśmy? Straciliśmy decentralizację, która oznacza wolność. Uważa się, że nasze dane nie należą już do nas. Jeśli wcześniej mogliśmy umieścić stronę główną nawet na własnym komputerze, teraz wszystkie nasze dane oddajemy internetowym gigantom.

Ponadto wraz z rozwojem Internetu zainteresowały się nim rządy i korporacje, co wywołało problemy cenzury politycznej i ograniczeń praw autorskich. Nasze strony w sieciach społecznościowych mogą zostać zablokowane i usunięte, jeśli ich treść nie jest zgodna z żadnymi zasadami sieci społecznościowej; za nieostrożny post - pociągnąć do odpowiedzialności administracyjnej, a nawet karnej.

A teraz znów myślimy: czy nie powinniśmy przywrócić decentralizacji? Ale w innej formie, pozbawionej mankamentów pierwszej próby?

Sieci peer-to-peer

Pierwsze sieci p2p pojawiły się na długo przed web 2.0 i rozwijały się równolegle z rozwojem sieci. Głównym klasycznym zastosowaniem p2p jest udostępnianie plików; powstały pierwsze sieci wymiany muzyki. Pierwsze sieci (takie jak Napster) były zasadniczo scentralizowane i dlatego szybko zostały zamknięte przez właścicieli praw autorskich. Zwolennicy podążali ścieżką decentralizacji. W 2000 roku pojawił się protokół ED2K (pierwszy klient eDokney) i Gnutella, w 2001 - protokół FastTrack (klient KaZaA). Stopniowo wzrastał stopień decentralizacji, ulepszano technologie. Systemy „kolejki pobierania” zostały zastąpione przez torrenty i pojawiła się koncepcja rozproszonych tablic mieszających (DHT). W miarę jak państwa dokręcają śrubę, anonimowość uczestników staje się coraz bardziej pożądana. Sieć Freenet rozwijana jest od 2000 roku, I2003P od 2 roku, a projekt RetroShare uruchomiony w 2006 roku. Możemy wymienić liczne sieci p2p, zarówno istniejące wcześniej, jak i już zaniknięte, a obecnie działające: WASTE, MUTE, TurtleF2F, RShare, PerfectDark, ARES, Gnutella2, GNUNet, IPFS, ZeroNet, Tribbler i wiele innych. Dużo ich. Oni są różni. Bardzo różne - zarówno pod względem przeznaczenia, jak i designu... Pewnie wielu z Was nawet nie zna tych wszystkich nazw. A to nie wszystko.

Sieci p2p mają jednak wiele wad. Oprócz niedociągnięć technicznych nieodłącznie związanych z każdym konkretnym protokołem i implementacją klienta, możemy na przykład zauważyć dość ogólną wadę - złożoność wyszukiwania (czyli wszystko, co napotkał Web 1.0, ale w jeszcze bardziej złożonej wersji). Nie ma tu Google'a z wszechobecną i natychmiastową wyszukiwarką. A jeśli w sieciach udostępniania plików nadal można korzystać z wyszukiwania według nazwy pliku lub metainformacji, to znalezienie czegoś, powiedzmy, w sieciach cebulowych lub nakładkowych i2p jest bardzo trudne, jeśli nie niemożliwe.

Ogólnie rzecz biorąc, jeśli poszukamy analogii z klasycznym Internetem, to większość zdecentralizowanych sieci utknie gdzieś na poziomie FTP. Wyobraźcie sobie Internet, w którym nie ma nic poza FTP: żadnych nowoczesnych witryn, żadnego web2.0, żadnego Youtube’a… Tak mniej więcej wygląda sytuacja w sieciach zdecentralizowanych. I mimo indywidualnych prób, aby coś zmienić, zmian na razie jest niewiele.

Zawartość

Przejdźmy do innego ważnego elementu tej układanki – treści. Treść jest głównym problemem każdego zasobu internetowego, a zwłaszcza zdecentralizowanego. Skąd to wziąć? Oczywiście można polegać na garstce pasjonatów (jak to ma miejsce w przypadku istniejących sieci p2p), ale wtedy rozwój sieci będzie dość długi i treści będzie tam niewiele.

Praca w zwykłym Internecie oznacza wyszukiwanie i studiowanie treści. Czasami - zapisywanie (jeśli treść jest interesująca i przydatna, to wielu, zwłaszcza tych, którzy przyszli do Internetu w czasach dial-upu - w tym ja - ostrożnie zapisuje ją w trybie offline, aby się nie zgubić; bo Internet to rzecz poza naszą kontrolą, dzisiaj strona istnieje, jutro nie ma, dziś jest film na YouTube - jutro zostanie usunięty itp.

A w przypadku torrentów (które postrzegamy bardziej jako środek dostarczania niż sieć p2p) ogólnie zakłada się oszczędzanie. A tak na marginesie, to jest jeden z problemów z torrentami: raz pobrany plik trudno przenieść tam, gdzie jest wygodniejszy w użyciu (z reguły trzeba ręcznie zregenerować dystrybucję) i absolutnie nie można zmienić jego nazwy ( można go na stałe połączyć, ale bardzo niewiele osób o tym wie).

Ogólnie rzecz biorąc, wiele osób zapisuje treści w taki czy inny sposób. Jakie są jego przyszłe losy? Zazwyczaj zapisane pliki lądują gdzieś na dysku, w folderze takim jak Pobrane, na ogólnej stercie i leżą tam wraz z wieloma tysiącami innych plików. To jest złe – i złe dla samego użytkownika. Jeśli Internet ma wyszukiwarki, to lokalny komputer użytkownika nie ma niczego podobnego. Dobrze, jeśli użytkownik jest schludny i przyzwyczajony do sortowania „przychodzących” pobranych plików. Ale nie każdy taki jest...

W rzeczywistości jest obecnie wielu, którzy niczego nie oszczędzają, ale polegają wyłącznie na Internecie. Natomiast w sieciach p2p zakłada się, że treść jest przechowywana lokalnie na urządzeniu użytkownika i rozpowszechniana wśród innych uczestników. Czy można znaleźć rozwiązanie, które umożliwi obu kategoriom użytkowników włączenie się w zdecentralizowaną sieć bez zmiany ich przyzwyczajeń, a co więcej, ułatwi im życie?

Pomysł jest dość prosty: a co jeśli stworzymy sposób na zapisywanie treści ze zwykłego Internetu, wygodny i przejrzysty dla użytkownika oraz inteligentne zapisywanie – z metainformacjami semantycznymi, a nie na wspólnej stercie, ale w określonej strukturze z możliwość dalszego strukturyzacji i jednoczesnej dystrybucji zapisanych treści w zdecentralizowanej sieci?

Zacznijmy od oszczędzania

Nie będziemy rozważać utylitarnego wykorzystania Internetu do przeglądania prognoz pogody lub rozkładów lotów. Nas bardziej interesują samowystarczalne i mniej lub bardziej niezmienne obiekty - artykuły (od tweetów/postów z portali społecznościowych po duże artykuły, jak tutaj na Habré), książki, obrazy, programy, nagrania audio i wideo. Skąd najczęściej pochodzą informacje? Zwykle to

  • sieci społecznościowe (różne wiadomości, drobne notatki - „tweety”, zdjęcia, audio i wideo)
  • artykuły dotyczące zasobów tematycznych (takich jak Habr); Nie ma wielu dobrych zasobów, zwykle te zasoby są również zbudowane na zasadzie sieci społecznościowych
  • serwisy informacyjne

Z reguły istnieją standardowe funkcje: „polub”, „repost”, „udostępnij w sieciach społecznościowych” itp.

Wyobraźmy sobie kilka wtyczka do przeglądarki, który specjalnie zapisze wszystko, co nam się spodobało, ponownie opublikujemy, zapiszemy w „ulubionych” (lub klikniemy specjalny przycisk wtyczki wyświetlany w menu przeglądarki - w przypadku, gdy strona nie ma funkcji polubienia/repostu/zakładki). Główną ideą jest to, że po prostu ci się podoba – tak jak robiłeś to już milion razy, a system zapisuje artykuł, zdjęcie lub film w specjalnym magazynie offline, a ten artykuł lub zdjęcie staje się dostępne – i dla ciebie do przeglądania offline za pośrednictwem zdecentralizowany interfejs klienta i w najbardziej zdecentralizowanej sieci! Moim zdaniem jest to bardzo wygodne. Nie ma zbędnych działań, a wiele problemów rozwiązujemy na raz:

  • Zachowywanie cennych treści, które mogą zostać utracone lub usunięte
  • szybkie zapełnianie zdecentralizowanej sieci
  • agregacja treści z różnych źródeł (możesz zarejestrować się w kilkudziesięciu zasobach Internetu, a wszystkie polubienia/reposty będą spływać do jednej lokalnej bazy danych)
  • konstruowanie treści, które Cię interesują, według Twój zasady

Oczywiście wtyczkę przeglądarki należy skonfigurować pod kątem struktury każdej witryny (jest to całkiem realistyczne - istnieją już wtyczki do zapisywania treści z Youtube, Twittera, VK itp.). Nie ma zbyt wielu witryn, dla których tworzenie osobistych wtyczek ma sens. Z reguły są to popularne sieci społecznościowe (jest ich niewiele niż kilkanaście) i szereg wysokiej jakości witryn tematycznych, takich jak Habr (jest ich też kilka). Dzięki otwartemu kodowi źródłowemu i specyfikacjom opracowanie nowej wtyczki w oparciu o szablon nie powinno zająć dużo czasu. W przypadku innych witryn możesz użyć uniwersalnego przycisku zapisu, który zapisze całą stronę w formacie mhtml - być może po pierwszym wyczyszczeniu strony z reklam.

Teraz o strukturyzacji

Przez „inteligentne” oszczędzanie mam na myśli przynajmniej zapisywanie z metainformacjami: źródłem treści (URL), zestawem wcześniej ustawionych polubień, tagów, komentarzy, ich identyfikatorów itp. W końcu podczas normalnego zapisywania informacja ta zostaje utracona... Źródło można rozumieć nie tylko jako bezpośredni adres URL, ale także jako element semantyczny: na przykład grupa w sieci społecznościowej lub użytkownik, który dokonał repostu. Wtyczka może być na tyle inteligentna, aby wykorzystać te informacje do automatycznego strukturyzacji i tagowania. Należy też rozumieć, że użytkownik zawsze może sam dodać do zapisywanej treści jakieś metainformacje, w tym celu należy zapewnić najwygodniejsze narzędzia interfejsu (pomysłów mam całkiem sporo, jak to zrobić).

W ten sposób rozwiązano problem strukturyzacji i organizacji lokalnych plików użytkownika. Jest to gotowa korzyść, z której można korzystać nawet bez p2p. Po prostu jakaś baza danych offline, która wie, co, gdzie i w jakim kontekście zapisaliśmy, i pozwala nam przeprowadzić małe badania. Na przykład znajdź użytkowników zewnętrznej sieci społecznościowej, którzy najbardziej lubili te same posty co Ty. Ile sieci społecznościowych wyraźnie na to pozwala?

Warto już tutaj wspomnieć, że jedna wtyczka do przeglądarki z pewnością nie wystarczy. Drugim najważniejszym elementem systemu jest zdecentralizowana usługa sieciowa, która działa w tle i obsługuje zarówno samą sieć p2p (żądania z sieci i żądania od klienta), jak i zapisywanie nowych treści za pomocą wtyczki. Usługa współpracując z wtyczką umieści treść we właściwym miejscu, obliczy hashe (i ewentualnie ustali, że taka treść została już wcześniej zapisana) oraz doda niezbędne metainformacje do lokalnej bazy danych.

Co ciekawe, system przydałby się już w tej formie, bez p2p. Wiele osób korzysta na przykład z narzędzi do strzyżenia sieci, które dodają ciekawe treści z Internetu do Evernote. Proponowana architektura jest rozszerzoną wersją takiego maszynki do strzyżenia.

I wreszcie wymiana p2p

Najlepsze jest to, że można wymieniać informacje i metainformacje (zarówno te pobrane z Internetu, jak i Twoje własne). Koncepcja sieci społecznościowej doskonale przenosi się na architekturę p2p. Można powiedzieć, że sieć społecznościowa i p2p wydają się być dla siebie stworzone. Idealnie, każda zdecentralizowana sieć powinna być zbudowana jako sieć społecznościowa, tylko wtedy będzie działać skutecznie. „Przyjaciele”, „Grupy” - to ci sami rówieśnicy, z którymi powinny istnieć stabilne połączenia, a te czerpią z naturalnego źródła - wspólnych zainteresowań użytkowników.

Zasady zapisywania i rozpowszechniania treści w zdecentralizowanej sieci są całkowicie identyczne z zasadami zapisywania (przechwytywania) treści ze zwykłego Internetu. Jeśli korzystasz z jakiejś treści z sieci (i w związku z tym ją zapisałeś), to każdy może skorzystać z Twoich zasobów (dysku i kanału) niezbędnych do odbioru tej konkretnej treści.

Lubi — najprostsze narzędzie do zapisywania i udostępniania. Jeśli mi się podobało – czy to w zewnętrznym Internecie, czy w zdecentralizowanej sieci – oznacza to, że treść mi się podoba, a jeśli tak, to jestem gotowy przechowywać ją lokalnie i rozpowszechniać wśród innych uczestników zdecentralizowanej sieci.

  • Treść nie zostanie „utracona”; jest teraz zapisany lokalnie, mogę do niego później w każdej chwili wrócić, nie martwiąc się, że ktoś go usunie lub zablokuje
  • Mogę (natychmiast lub później) kategoryzować, oznaczać, komentować, wiązać z innymi treściami i ogólnie robić z nimi coś znaczącego – nazwijmy to „generowaniem metainformacji”.
  • Mogę udostępniać te metainformacje innym członkom sieci
  • Mogę synchronizować moje metadane z metainformacjami innych członków

Prawdopodobnie rezygnacja z niechęci również wydaje się logiczna: jeśli nie podoba mi się treść, to całkiem logiczne jest, że nie chcę marnować miejsca na dysku na przechowywanie i mojego kanału internetowego na dystrybucję tych treści. Dlatego niechęć nie pasuje organicznie do decentralizacji (chociaż czasami tak jest). może się przydać).

Czasami musisz zatrzymać to, czego „nie lubisz”. Jest takie słowo jak "muszę" :)
«Udział” (lub „Ulubione”) – nie wyrażam pokrewieństwa z treścią, ale zapisuję ją w mojej lokalnej bazie zakładek. Słowo „ulubione” nie jest całkiem odpowiednie w znaczeniu (w tym celu istnieją polubienia i ich późniejsza kategoryzacja), ale „zakładki” są całkiem odpowiednie. Treści w „zakładkach” są również dystrybuowane - jeśli ich „potrzebujesz” (to znaczy „używasz” ich w taki czy inny sposób), logiczne jest, że ktoś inny może ich „potrzebować”. Dlaczego nie wykorzystać do tego swoich zasobów?

Funkcja "друзья„. Są to rówieśnicy, osoby o podobnych zainteresowaniach, a zatem ci, którzy mają największe szanse na posiadanie interesujących treści. W zdecentralizowanej sieci oznacza to przede wszystkim subskrybowanie kanałów informacyjnych od znajomych i uzyskiwanie dostępu do ich katalogów (albumów) z zapisanymi przez nich treściami.

Podobna do funkcji „grupy„- jakiś rodzaj zbiorczych kanałów, forów lub czegoś, co można również subskrybować - a to oznacza akceptowanie wszystkich materiałów grupy i ich rozpowszechnianie. Być może „grupy”, podobnie jak duże fora, powinny być hierarchiczne - pozwoli to na lepsze uporządkowanie treści grupy, a także ograniczenie przepływu informacji i nieprzyjmowanie/rozpowszechnianie tego, co Cię nie interesuje.

Cała reszta

Należy zauważyć, że zdecentralizowana architektura jest zawsze bardziej złożona niż scentralizowana. W przypadku zasobów scentralizowanych istnieje ścisły dyktat kodu serwera. W zdecentralizowanych istnieje potrzeba negocjacji pomiędzy wieloma równymi uczestnikami. Oczywiście nie da się tego zrobić bez kryptografii, blockchainów i innych osiągnięć opracowanych głównie na kryptowalutach.

Zakładam, że może być wymagany jakiś rodzaj kryptograficznych ocen wzajemnego zaufania utworzonych dla siebie przez uczestników sieci. Architektura powinna umożliwiać skuteczną walkę z botnetami, które istniejące w danej chmurze mogą np. wzajemnie podnosić swoje własne oceny. Naprawdę chcę, aby korporacje i farmy botnetów, przy całej ich przewadze technologicznej, nie przejmowały kontroli nad tak zdecentralizowaną siecią; tak aby jego głównym zasobem byli żywi ludzie zdolni do tworzenia i porządkowania treści interesujących i przydatnych dla innych żyjących ludzi.

Ja też chcę, żeby taka sieć popychała cywilizację w stronę postępu. Mam na ten temat całą masę pomysłów, które jednak nie mieszczą się w ramach tego artykułu. Powiem tylko, że w pewien sposób naukowy, techniczny, medyczny itp. treść powinna mieć pierwszeństwo przed rozrywką, a to będzie wymagało pewnego rodzaju umiaru. Moderacja zdecentralizowanej sieci sama w sobie jest zadaniem nietrywialnym, ale da się je rozwiązać (jednak słowo „moderacja” jest tutaj całkowicie błędne i w ogóle nie oddaje istoty procesu – ani zewnętrznie, ani wewnętrznie… i Nie mogłem nawet pomyśleć, jak można nazwać ten proces).

Chyba nie trzeba byłoby wspominać o konieczności zapewnienia anonimowości, zarówno za pomocą wbudowanych środków (jak w i2p czy Retroshare), jak i przepuszczania całego ruchu przez TOR lub VPN.

I na koniec architektura oprogramowania (schematycznie narysowana na obrazku do artykułu). Jak już wspomniano, pierwszym elementem systemu jest wtyczka do przeglądarki, która przechwytuje treści z metainformacjami. Drugim najważniejszym komponentem jest usługa p2p, która działa w tle („backend”). Działanie sieci nie powinno oczywiście zależeć od tego, czy przeglądarka jest uruchomiona. Trzecim komponentem jest oprogramowanie klienckie – frontend. Może to być lokalny serwis WWW (w tym przypadku użytkownik będzie mógł pracować w zdecentralizowanej sieci bez opuszczania swojej ulubionej przeglądarki) lub osobna aplikacja GUI dla konkretnego systemu operacyjnego (Windows, Linux, MacOS, Andriod, iOS, itp.). Podoba mi się pomysł, aby wszystkie opcje frontendu istniały jednocześnie. Jednocześnie będzie to wymagało bardziej rygorystycznej architektury backendowej.

Jest wiele innych aspektów, które nie zostały ujęte w tym artykule. Podłączenie się do dystrybucji istniejących magazynów plików (tzn. gdy masz już kilka terabajtów pompowanych danych i pozwalasz klientowi je przeskanować, pobrać hasze, porównać je z tym, co jest w sieci i dołączyć do dystrybucji, a przy tym czas uzyskać metainformacje o własnych plikach - normalne nazwy, opisy, oceny, recenzje itp.), podłączenie zewnętrznych źródeł metainformacji (takich jak baza danych Libgen), opcjonalne wykorzystanie miejsca na dysku do przechowywania zaszyfrowanych treści innych osób (jak we Freenet ), architekturę integracji z istniejącymi sieciami zdecentralizowanymi (to zupełnie ciemny las), ideę hashowania mediów (wykorzystanie specjalnych skrótów percepcyjnych dla treści multimedialnych – zdjęć, audio i wideo, które pozwolą na porównywanie plików multimedialnych to samo znaczenie, różniące się rozmiarem, rozdzielczością itp.) i wiele więcej.

Krótkie podsumowanie artykułu

1. W zdecentralizowanych sieciach nie ma Google'a z jego wyszukiwaniem i rankingiem - jest natomiast Społeczność prawdziwych ludzi. Sieć społecznościowa z mechanizmami informacji zwrotnej (polubienia, reposty...) i wykresem społecznościowym (znajomi, społeczności...) to idealny model warstwy aplikacji dla zdecentralizowanej sieci
2. Główną ideą, którą przynoszę w tym artykule, jest automatyczne zapisywanie interesujących treści ze zwykłego Internetu po ustawieniu polubienia/repostu; może to być przydatne bez p2p, po prostu utrzymując osobiste archiwum interesujących informacji
3. Ta treść może również automatycznie wypełnić zdecentralizowaną sieć
4. Zasada automatycznego zapisywania ciekawych treści działa również w przypadku polubień/repostów w najbardziej zdecentralizowanej sieci

Źródło: www.habr.com

Dodaj komentarz