Die Idee eines dezentralen sozialen Netzwerks der nächsten Generation

Die Idee eines dezentralen sozialen Netzwerks der nächsten Generation
In diesem Artikel präsentiere ich Ihnen meine Gedanken zur Geschichte und den Aussichten für die Entwicklung des Internets, zentraler und dezentraler Netzwerke und als Ergebnis der möglichen Architektur des dezentralen Netzwerks der nächsten Generation.

Mit dem Internet stimmt etwas nicht

Mit dem Internet bin ich erstmals im Jahr 2000 in Berührung gekommen. Natürlich ist das noch lange nicht der Anfang – das Netzwerk existierte schon vorher, aber diese Zeit kann man als die erste Blütezeit des Internets bezeichnen. Das World Wide Web ist die geniale Erfindung von Tim Berners-Lee, web1.0 in seiner klassischen kanonischen Form. Viele Websites und Seiten sind über Hyperlinks miteinander verknüpft. Die Architektur ist auf den ersten Blick einfach, wie alle genialen Dinge: dezentral und kostenlos. Ich möchte – Ich reise zu den Websites anderer Personen, indem ich Hyperlinks folge; Ich möchte – ich erstelle meine eigene Website, auf der ich veröffentliche, was für mich interessant ist – zum Beispiel meine Artikel, Fotos, Programme, Hyperlinks zu Seiten, die für mich interessant sind. Und andere posten Links zu mir.

Es scheint ein idyllisches Bild zu sein? Aber Sie wissen bereits, wie alles endete.

Es gibt zu viele Seiten und die Suche nach Informationen ist zu einer nicht trivialen Aufgabe geworden. Die von den Autoren vorgeschriebenen Hyperlinks konnten diese riesige Menge an Informationen einfach nicht strukturieren. Zuerst gab es manuell gefüllte Verzeichnisse und dann riesige Suchmaschinen, die begannen, ausgeklügelte heuristische Ranking-Algorithmen zu verwenden. Websites wurden erstellt und aufgegeben, Informationen wurden dupliziert und verfälscht. Das Internet wurde schnell kommerzialisiert und entfernte sich immer mehr vom idealen akademischen Netzwerk. Die Auszeichnungssprache wurde schnell zu einer Formatierungssprache. Es erschienen Werbung, fiese, nervige Banner und eine Technologie zur Förderung und Täuschung von Suchmaschinen – SEO. Das Netzwerk wurde schnell mit Informationsmüll verstopft. Hyperlinks sind kein Werkzeug mehr zur logischen Kommunikation, sondern ein Werkzeug zur Werbung. Websites schlossen sich zusammen, verwandelten sich von offenen „Seiten“ in versiegelte „Anwendungen“ und wurden nur noch zu Mitteln zur Erzielung von Einkommen.

Schon damals hatte ich den gewissen Gedanken, dass „hier etwas nicht stimmt“. Eine Reihe verschiedener Websites, von primitiven Homepages mit googelndem Aussehen bis hin zu „Mega-Portalen“, die mit blinkenden Bannern überladen sind. Auch wenn die Seiten zum gleichen Thema gehören, haben sie überhaupt keinen Zusammenhang, jede hat ihr eigenes Design, ihre eigene Struktur, nervige Banner, schlecht funktionierende Suche, Probleme beim Herunterladen (ja, ich wollte Informationen offline haben). Schon damals begann sich das Internet in eine Art Fernsehen zu verwandeln, in dem allerlei Flitter auf nützliche Inhalte geheftet wurde.
Die Dezentralisierung ist zu einem Albtraum geworden.

Was willst du?

Es ist paradox, aber selbst dann, da ich noch keine Ahnung von Web 2.0 oder P2P hatte, brauchte ich als Benutzer keine Dezentralisierung! Wenn ich mich an meine ungetrübten Gedanken aus dieser Zeit erinnere, komme ich zu dem Schluss, dass ich … einheitliche Datenbank! Eine solche Abfrage würde alle Ergebnisse zurückgeben und nicht diejenigen, die für den Ranking-Algorithmus am besten geeignet sind. Eines, in dem alle diese Ergebnisse einheitlich gestaltet und durch mein eigenes einheitliches Design stilisiert würden und nicht durch die augenrollenden selbstgemachten Designs zahlreicher Vasya Pupkins. Eines, das offline gespeichert werden kann und bei dem Sie keine Angst haben müssen, dass die Website morgen verschwindet und die Informationen für immer verloren gehen. Eines, in das ich meine Informationen wie Kommentare und Tags eingeben kann. Eines, in dem ich mit meinen ganz persönlichen Algorithmen suchen, sortieren und filtern konnte.

Web 2.0 und soziale Netzwerke

Mittlerweile hat das Konzept des Web 2.0 Einzug gehalten. 2005 von Tim O'Reilly als „eine Technik zum Entwerfen von Systemen formuliert, die durch die Berücksichtigung von Netzwerkinteraktionen umso besser werden, je mehr Menschen sie nutzen“ – und impliziert die aktive Beteiligung von Benutzern an der kollektiven Erstellung und Bearbeitung von Webinhalten. Der Höhepunkt und Triumph dieses Konzepts waren ohne Übertreibung die sozialen Netzwerke. Riesige Plattformen, die Milliarden von Benutzern verbinden und Hunderte Petabyte an Daten speichern.

Was haben wir in den sozialen Netzwerken gesehen?

  • Schnittstellenvereinheitlichung; Es stellte sich heraus, dass Benutzer nicht alle Möglichkeiten benötigen, um eine Vielzahl auffälliger Designs zu erstellen. alle Seiten aller Benutzer haben das gleiche Design und das passt zu jedem und ist sogar praktisch; Nur der Inhalt ist anders.
  • Vereinheitlichung der Funktionalität; Die ganze Vielfalt an Skripten erwies sich als unnötig. „Feed“, Freunde, Alben ... Während der Existenz sozialer Netzwerke hat sich ihre Funktionalität mehr oder weniger stabilisiert und wird sich wahrscheinlich nicht ändern: Schließlich wird die Funktionalität durch die Art der Aktivitäten der Menschen bestimmt, und die Menschen ändern sich praktisch nicht .
  • einzelne Datenbank; Es stellte sich heraus, dass es viel bequemer war, mit einer solchen Datenbank zu arbeiten als mit vielen unterschiedlichen Websites. Die Suche ist viel einfacher geworden. Anstatt kontinuierlich eine Vielzahl lose zusammenhängender Seiten zu scannen, alles zwischenzuspeichern und mithilfe komplexer heuristischer Algorithmen eine Rangfolge zu erstellen – eine relativ einfache einheitliche Abfrage an eine einzelne Datenbank mit bekannter Struktur.
  • Feedback-Schnittstelle – Likes und Reposts; Im regulären Web konnte Google kein Feedback von Nutzern erhalten, nachdem sie einem Link in den Suchergebnissen gefolgt waren. In sozialen Netzwerken erwies sich diese Verbindung als einfach und natürlich.

Was haben wir verloren? Wir haben die Dezentralisierung verloren, was Freiheit bedeutet. Es wird angenommen, dass unsere Daten jetzt nicht uns gehören. Konnten wir früher sogar auf unserem eigenen Computer eine Homepage platzieren, geben wir heute alle unsere Daten an Internetgiganten weiter.

Darüber hinaus interessierten sich Regierungen und Unternehmen mit der Entwicklung des Internets dafür, was zu Problemen der politischen Zensur und Urheberrechtsbeschränkungen führte. Unsere Seiten in sozialen Netzwerken können gesperrt und gelöscht werden, wenn der Inhalt nicht den Regeln des sozialen Netzwerks entspricht; für einen nachlässigen Beitrag - verwaltungs- und sogar strafrechtliche Haftung nach sich ziehen.

Und jetzt denken wir wieder: Sollten wir nicht zur Dezentralisierung zurückkehren? Aber in einer anderen Form, ohne die Mängel des ersten Versuchs?

Peer-to-Peer-Netzwerke

Die ersten P2P-Netzwerke entstanden lange vor Web 2.0 und entwickelten sich parallel zur Entwicklung des Webs. Die wichtigste klassische Anwendung von P2P ist die Dateifreigabe. Es entstanden die ersten Netzwerke zum Austausch von Musik. Die ersten Netzwerke (wie Napster) waren im Wesentlichen zentralisiert und wurden daher von Urheberrechtsinhabern schnell geschlossen. Die Anhänger folgten dem Weg der Dezentralisierung. Im Jahr 2000 erschienen die Protokolle ED2K (der erste eDokney-Client) und Gnutella, im Jahr 2001 das FastTrack-Protokoll (KaZaA-Client). Allmählich nahm der Grad der Dezentralisierung zu und die Technologien verbesserten sich. „Download-Queue“-Systeme wurden durch Torrents ersetzt und das Konzept der verteilten Hash-Tabellen (DHT) entstand. Während die Staaten die Schrauben anziehen, ist die Anonymität der Teilnehmer immer gefragter geworden. Das Freenet-Netzwerk wird seit 2000 entwickelt, I2003P seit 2 und das RetroShare-Projekt wurde 2006 gestartet. Wir können zahlreiche P2P-Netzwerke erwähnen, die sowohl früher existierten als auch bereits verschwunden sind und derzeit in Betrieb sind: WASTE, MUTE, TurtleF2F, RShare, PerfectDark, ARES, Gnutella2, GNUNet, IPFS, ZeroNet, Tribbler und viele andere. Es gibt viele davon. Sie sind anders. Sehr unterschiedlich – sowohl im Zweck als auch im Design... Wahrscheinlich kennen viele von Ihnen nicht einmal alle diese Namen. Und das ist noch nicht alles.

Allerdings haben P2P-Netzwerke viele Nachteile. Zusätzlich zu den technischen Mängeln, die jedem spezifischen Protokoll und jeder Client-Implementierung innewohnen, können wir beispielsweise einen ziemlich allgemeinen Nachteil feststellen – die Komplexität der Suche (d. h. alles, was Web 1.0 angetroffen hat, aber in einer noch komplexeren Version). Hier gibt es kein Google mit seiner allgegenwärtigen und sofortigen Suche. Und wenn Sie für Filesharing-Netzwerke immer noch eine Suche nach Dateinamen oder Metainformationen verwenden können, ist es sehr schwierig, wenn nicht sogar unmöglich, etwas zu finden, beispielsweise in Onion- oder I2P-Overlay-Netzwerken.

Wenn wir im Allgemeinen Analogien zum klassischen Internet ziehen, dann stecken die meisten dezentralen Netzwerke irgendwo auf der FTP-Ebene fest. Stellen Sie sich ein Internet vor, in dem es nichts außer FTP gibt: keine modernen Websites, kein Web2.0, kein Youtube... Das ist ungefähr der Zustand dezentraler Netzwerke. Und trotz einzelner Versuche, etwas zu verändern, gibt es bislang kaum Veränderungen.

Inhalt

Wenden wir uns einem weiteren wichtigen Teil dieses Puzzles zu – dem Inhalt. Der Inhalt ist das Hauptproblem jeder Internetressource, insbesondere einer dezentralen. Woher bekommt man es? Natürlich können Sie sich auf eine Handvoll Enthusiasten verlassen (wie es bei bestehenden P2P-Netzwerken der Fall ist), aber dann wird die Entwicklung des Netzwerks ziemlich langwierig sein und es wird dort wenig Inhalt geben.

Mit dem regulären Internet zu arbeiten bedeutet, Inhalte zu suchen und zu studieren. Manchmal - Speichern (wenn der Inhalt interessant und nützlich ist, dann speichern viele, insbesondere diejenigen, die in den Tagen der Einwahl ins Internet kamen - mich eingeschlossen - ihn mit Bedacht offline, um nicht verloren zu gehen; denn das Internet ist eine Sache außerhalb unserer Kontrolle, heute ist die Seite da, morgen gibt es keine, heute gibt es ein Video auf YouTube – morgen wird es gelöscht usw.

Und bei Torrents (die wir eher als bloßes Übermittlungsmittel denn als P2P-Netzwerk wahrnehmen) ist Sparen im Allgemeinen impliziert. Und das ist übrigens eines der Probleme bei Torrents: Eine einmal heruntergeladene Datei lässt sich nur schwer an einen bequemeren Ort verschieben (in der Regel muss die Distribution manuell neu generiert werden) und kann auf keinen Fall umbenannt werden ( Sie können es fest verlinken, aber nur sehr wenige Leute wissen davon).

Im Allgemeinen speichern viele Menschen Inhalte auf die eine oder andere Weise. Was ist sein zukünftiges Schicksal? Normalerweise landen gespeicherte Dateien irgendwo auf der Festplatte, in einem Ordner wie „Downloads“, im allgemeinen Heap, und liegen dort zusammen mit vielen Tausend anderen Dateien. Das ist schlecht – und schlecht für den Nutzer selbst. Wenn es im Internet Suchmaschinen gibt, gibt es auf dem lokalen Computer des Benutzers nichts Vergleichbares. Es ist gut, wenn der Benutzer ordentlich ist und es gewohnt ist, „eingehende“ heruntergeladene Dateien zu sortieren. Aber nicht jeder ist so...

Tatsächlich gibt es mittlerweile viele, die gar nichts sparen, sondern komplett auf das Internet setzen. In P2P-Netzwerken wird jedoch davon ausgegangen, dass die Inhalte lokal auf dem Gerät des Benutzers gespeichert und an andere Teilnehmer verteilt werden. Ist es möglich, eine Lösung zu finden, die es beiden Benutzerkategorien ermöglicht, sich an einem dezentralen Netzwerk zu beteiligen, ohne ihre Gewohnheiten zu ändern und ihnen darüber hinaus das Leben zu erleichtern?

Die Idee ist ganz einfach: Was wäre, wenn wir eine Möglichkeit schaffen würden, Inhalte aus dem regulären Internet bequem und transparent für den Benutzer zu speichern und intelligent zu speichern – mit semantischen Metainformationen und nicht in einem gemeinsamen Heap, sondern in einer bestimmten Struktur mit die Möglichkeit, die gespeicherten Inhalte weiter zu strukturieren und gleichzeitig in ein dezentrales Netz zu verteilen?

Beginnen wir mit dem Sparen

Wir werden die nützliche Nutzung des Internets zum Anzeigen von Wettervorhersagen oder Flugplänen nicht in Betracht ziehen. Wir interessieren uns mehr für autarke und mehr oder weniger unveränderliche Objekte – Artikel (von Tweets/Posts aus sozialen Netzwerken bis hin zu großen Artikeln, wie hier auf Habré), Bücher, Bilder, Programme, Audio- und Videoaufzeichnungen. Woher kommen die Informationen hauptsächlich? Normalerweise das

  • soziale Netzwerke (verschiedene Nachrichten, kleine Notizen – „Tweets“, Bilder, Audio und Video)
  • Artikel zu thematischen Ressourcen (wie Habr); Es gibt nicht viele gute Ressourcen. Normalerweise basieren diese Ressourcen auch auf dem Prinzip sozialer Netzwerke
  • Nachrichtenseiten

In der Regel gibt es Standardfunktionen: „Gefällt mir“, „Repost“, „Teilen in sozialen Netzwerken“ usw.

Stellen wir uns einige vor Browser-Plugin, wodurch speziell alles gespeichert wird, was uns gefallen, erneut gepostet oder in den „Favoriten“ gespeichert wurde (oder auf eine spezielle Plugin-Schaltfläche geklickt hat, die im Browsermenü angezeigt wird – falls die Website keine Like-/Repost-/Lesezeichenfunktion hat). Die Grundidee besteht darin, dass es Ihnen einfach gefällt – wie Sie es schon eine Million Mal getan haben – und das System den Artikel, das Bild oder das Video in einem speziellen Offline-Speicher speichert und dieser Artikel oder das Bild verfügbar wird – und für Sie zur Offline-Ansicht über den dezentrale Client-Schnittstelle und im dezentralsten Netzwerk! Meiner Meinung nach ist es sehr praktisch. Es gibt keine unnötigen Maßnahmen und wir lösen viele Probleme auf einmal:

  • Bewahrung wertvoller Inhalte, die verloren gehen oder gelöscht werden könnten
  • schnelle Befüllung des dezentralen Netzwerks
  • Aggregation von Inhalten aus verschiedenen Quellen (Sie können in Dutzenden von Internetressourcen registriert werden und alle Likes/Reposts fließen in eine einzige lokale Datenbank)
  • Inhalte, die Sie interessieren, entsprechend strukturieren вашим die Regeln

Natürlich muss das Browser-Plugin für die Struktur jeder Site konfiguriert werden (das ist durchaus realistisch – es gibt bereits Plugins zum Speichern von Inhalten von Youtube, Twitter, VK usw.). Es gibt nicht so viele Websites, für die es sinnvoll ist, persönliche Plugins zu erstellen. In der Regel handelt es sich dabei um gängige soziale Netzwerke (davon gibt es kaum mehr als ein Dutzend) und eine Reihe hochwertiger Themenseiten wie Habr (davon gibt es auch einige). Da der Quellcode und die Spezifikationen offen sind, sollte die Entwicklung eines neuen Plugins auf Basis einer Vorlage nicht viel Zeit in Anspruch nehmen. Für andere Websites können Sie eine universelle Schaltfläche zum Speichern verwenden, die die gesamte Seite in mhtml speichert – möglicherweise nachdem Sie die Seite zunächst von Werbung befreit haben.

Nun zur Strukturierung

Mit „intelligentem“ Speichern meine ich zumindest das Speichern mit Metainformationen: der Quelle des Inhalts (URL), einer Reihe zuvor festgelegter „Gefällt mir“-Angaben, Tags, Kommentaren, deren Kennungen usw. Denn beim normalen Speichern gehen diese Informationen verloren... Die Quelle kann nicht nur als direkte URL, sondern auch als semantische Komponente verstanden werden: zum Beispiel eine Gruppe in einem sozialen Netzwerk oder ein Benutzer, der einen Repost gemacht hat. Das Plugin kann intelligent genug sein, diese Informationen für die automatische Strukturierung und Kennzeichnung zu verwenden. Es sollte auch klar sein, dass der Benutzer selbst jederzeit einige Metainformationen zu den gespeicherten Inhalten hinzufügen kann, wofür die bequemsten Schnittstellentools bereitgestellt werden sollten (ich habe ziemlich viele Ideen, wie das geht).

Damit ist das Problem der Strukturierung und Organisation der lokalen Dateien des Benutzers gelöst. Dies ist ein vorgefertigter Vorteil, der auch ohne P2P genutzt werden kann. Nur eine Art Offline-Datenbank, die weiß, was, wo und in welchem ​​Kontext wir gespeichert haben, und die es uns ermöglicht, kleine Studien durchzuführen. Finden Sie beispielsweise Benutzer eines externen sozialen Netzwerks, denen die gleichen Beiträge wie Sie am meisten gefallen haben. Wie viele soziale Netzwerke erlauben dies explizit?

An dieser Stelle sei bereits erwähnt, dass ein Browser-Plugin sicherlich nicht ausreicht. Die zweitwichtigste Komponente des Systems ist der dezentrale Netzwerkdienst, der im Hintergrund läuft und sowohl das P2P-Netzwerk selbst (Anfragen vom Netzwerk und Anfragen vom Client) als auch das Speichern neuer Inhalte mithilfe des Plugins bedient. In Zusammenarbeit mit dem Plugin platziert der Dienst den Inhalt an der richtigen Stelle, berechnet Hashes (und stellt möglicherweise fest, dass dieser Inhalt bereits zuvor gespeichert wurde) und fügt der lokalen Datenbank die erforderlichen Metainformationen hinzu.

Interessant ist, dass das System bereits in dieser Form ohne P2P nützlich wäre. Viele Menschen verwenden Web-Clipper, die beispielsweise interessante Inhalte aus dem Web zu Evernote hinzufügen. Die vorgeschlagene Architektur ist eine erweiterte Version eines solchen Clippers.

Und schließlich der P2P-Austausch

Das Beste daran ist, dass Informationen und Metainformationen (sowohl aus dem Web als auch aus Ihrem eigenen) ausgetauscht werden können. Das Konzept eines sozialen Netzwerks lässt sich perfekt auf die P2P-Architektur übertragen. Wir können sagen, dass das soziale Netzwerk und P2P wie füreinander geschaffen zu sein scheinen. Jedes dezentrale Netzwerk sollte idealerweise als soziales Netzwerk aufgebaut sein, nur dann wird es effektiv funktionieren. „Freunde“, „Gruppen“ – das sind die gleichen Peers, mit denen stabile Verbindungen bestehen sollten, und diese stammen aus einer natürlichen Quelle – den gemeinsamen Interessen der Nutzer.

Die Prinzipien zum Speichern und Verteilen von Inhalten in einem dezentralen Netzwerk sind völlig identisch mit den Prinzipien zum Speichern (Erfassen) von Inhalten aus dem regulären Internet. Wenn Sie Inhalte aus dem Netzwerk verwenden (und diese daher gespeichert haben), kann jeder Ihre Ressourcen (Festplatte und Kanal) nutzen, die für den Empfang dieser bestimmten Inhalte erforderlich sind.

Huskies – das einfachste Tool zum Speichern und Teilen. Wenn es mir gefallen hat – egal ob im externen Internet oder innerhalb des dezentralen Netzwerks – bedeutet das, dass mir der Inhalt gefällt, und wenn ja, dann bin ich bereit, ihn lokal aufzubewahren und an andere Teilnehmer im dezentralen Netzwerk zu verteilen.

  • Inhalte gehen nicht „verloren“; Es ist jetzt lokal gespeichert, ich kann später jederzeit darauf zurückgreifen, ohne mir Sorgen machen zu müssen, dass jemand es löscht oder blockiert
  • Ich kann es (sofort oder später) kategorisieren, markieren, kommentieren, mit anderen Inhalten verknüpfen und im Allgemeinen etwas Sinnvolles damit machen – nennen wir es „Metainformationsgenerierung“.
  • Ich kann diese Metainformationen mit anderen Netzwerkmitgliedern teilen
  • Ich kann meine Metainformationen mit den Metainformationen anderer Mitglieder synchronisieren

Wahrscheinlich scheint es auch logisch, auf Abneigungen zu verzichten: Wenn mir der Inhalt nicht gefällt, dann ist es ganz logisch, dass ich meinen Speicherplatz nicht für die Speicherung und meinen Internetkanal für die Verbreitung dieser Inhalte verschwenden möchte. Daher passen Abneigungen nicht ganz organisch in die Dezentralisierung (obwohl dies manchmal der Fall ist). kann nützlich sein).

Manchmal muss man behalten, was einem „nicht gefällt“. Es gibt so ein Wort wie „muss“ :)
«Lesezeichen” (oder „Favoriten“) – Ich bekunde keine Affinität zu dem Inhalt, speichere ihn jedoch in meiner lokalen Lesezeichendatenbank. Das Wort „Favoriten“ ist in der Bedeutung nicht ganz passend (dafür gibt es Likes und deren anschließende Kategorisierung), aber „Lesezeichen“ sind durchaus passend. Inhalte in „Lesezeichen“ werden ebenfalls verteilt – wenn Sie sie „brauchen“ (das heißt, Sie „verwenden“ sie auf die eine oder andere Weise), dann ist es logisch, dass jemand anderes sie „braucht“. Warum nutzen Sie dafür nicht Ihre Ressourcen?

Die Funktion "друзья". Das sind Gleichgesinnte, Menschen mit ähnlichen Interessen und daher diejenigen, die am wahrscheinlichsten über interessante Inhalte verfügen. In einem dezentralen Netzwerk bedeutet dies in erster Linie, Newsfeeds von Freunden zu abonnieren und auf deren Kataloge (Alben) mit gespeicherten Inhalten zuzugreifen.

Ähnlich der Funktion „Gruppen„– eine Art kollektiver Feed oder Forum oder etwas, das man auch abonnieren kann – und das bedeutet, dass man alle Materialien der Gruppe annimmt und verteilt. Vielleicht sollten „Gruppen“ wie große Foren hierarchisch aufgebaut sein – dies ermöglicht eine bessere Strukturierung der Gruppeninhalte, begrenzt den Informationsfluss und verhindert die Annahme/Verbreitung von Dingen, die für Sie nicht sehr interessant sind.

Alles andere

Es ist zu beachten, dass eine dezentrale Architektur immer komplexer ist als eine zentralisierte. Bei zentralisierten Ressourcen gibt es eine strikte Vorgabe des Servercodes. Bei dezentralen Verfahren besteht die Notwendigkeit, zwischen vielen gleichberechtigten Teilnehmern zu verhandeln. Dies geht natürlich nicht ohne Kryptographie, Blockchains und andere Errungenschaften, die hauptsächlich auf Kryptowährungen entwickelt wurden.

Ich gehe davon aus, dass möglicherweise eine Art kryptografischer gegenseitiger Vertrauensbewertungen erforderlich ist, die von den Netzwerkteilnehmern füreinander erstellt werden. Die Architektur soll es ermöglichen, Botnetze effektiv zu bekämpfen, die beispielsweise in einer bestimmten Cloud vorhanden sind und ihre eigenen Bewertungen gegenseitig erhöhen können. Ich möchte wirklich, dass Konzerne und Botnet-Farmen bei aller technologischen Überlegenheit nicht die Kontrolle über ein solch dezentrales Netzwerk übernehmen; Die wichtigste Ressource sind lebende Menschen, die in der Lage sind, Inhalte zu produzieren und zu strukturieren, die für andere lebende Menschen interessant und nützlich sind.

Ich möchte auch, dass ein solches Netzwerk die Zivilisation in Richtung Fortschritt bringt. Ich habe eine ganze Reihe von Ideen zu diesem Thema, die jedoch nicht in den Rahmen dieses Artikels passen. Ich möchte nur sagen, dass es in gewisser Weise wissenschaftlich, technisch, medizinisch usw. ist. Der Inhalt sollte Vorrang vor der Unterhaltung haben, und dies erfordert eine gewisse Moderation. Die Moderation eines dezentralen Netzwerks selbst ist keine triviale Aufgabe, aber lösbar (allerdings ist das Wort „Moderation“ hier völlig falsch und spiegelt überhaupt nicht das Wesen des Prozesses wider – weder äußerlich noch intern... und Ich konnte mir nicht einmal vorstellen, wie dieser Prozess heißen könnte.

Es wäre wahrscheinlich überflüssig, die Notwendigkeit zu erwähnen, die Anonymität sicherzustellen, sowohl durch integrierte Mittel (wie in i2p oder Retroshare) als auch durch die Weiterleitung des gesamten Datenverkehrs über TOR oder VPN.

Und schließlich die Softwarearchitektur (schematisch dargestellt im Bild zum Artikel). Wie bereits erwähnt, ist die erste Komponente des Systems ein Browser-Plugin, das Inhalte mit Metainformationen erfasst. Die zweitwichtigste Komponente ist der P2P-Dienst, der im Hintergrund („Backend“) läuft. Der Betrieb des Netzwerks sollte natürlich nicht davon abhängen, ob der Browser läuft. Die dritte Komponente ist die Client-Software – Frontend. Dies kann ein lokaler Webdienst sein (in diesem Fall kann der Benutzer mit einem dezentralen Netzwerk arbeiten, ohne seinen Lieblingsbrowser zu verlassen) oder eine separate GUI-Anwendung für ein bestimmtes Betriebssystem (Windows, Linux, MacOS, Andriod, iOS, usw.). Mir gefällt die Idee, dass alle Frontend-Optionen gleichzeitig existieren. Gleichzeitig wird dies eine strengere Backend-Architektur erfordern.

Es gibt noch viele weitere Aspekte, die in diesem Artikel nicht behandelt werden. Herstellen einer Verbindung zur Verteilung bestehender Dateispeicher (d. h. wenn Sie bereits über ein paar Terabyte an gepumpten Daten verfügen und Sie den Client diese scannen lassen, Hashes abrufen, sie mit dem vergleichen, was sich im Netzwerk befindet, und der Verteilung beitreten, und zwar gleichzeitig Zeit, Metainformationen über ihre eigenen Dateien zu erhalten – normale Namen, Beschreibungen, Bewertungen, Rezensionen usw.), Anbindung externer Metainformationsquellen (wie der Libgen-Datenbank), optionale Nutzung von Speicherplatz zum Speichern verschlüsselter Inhalte anderer Personen (wie in Freenet). ), Integrationsarchitektur mit bestehenden dezentralen Netzwerken (dies ist ein völlig dunkler Wald), die Idee des Medien-Hashings (die Verwendung spezieller Wahrnehmungs-Hashes für Medieninhalte – Bilder, Audio und Video, die es Ihnen ermöglichen, Mediendateien von zu vergleichen gleiche Bedeutung, unterschiedlich in Größe, Auflösung usw.) und vieles mehr.

Kurze Zusammenfassung des Artikels

1. In dezentralen Netzwerken gibt es kein Google mit seiner Suche und seinem Ranking – sondern eine Community aus echten Menschen. Ein soziales Netzwerk mit seinen Feedback-Mechanismen (Likes, Reposts...) und Social Graph (Freunde, Communities...) ist ein ideales Anwendungsschichtmodell für ein dezentrales Netzwerk
2. Die Hauptidee, die ich mit diesem Artikel einbringe, ist das automatische Speichern interessanter Inhalte aus dem regulären Internet, wenn Sie ein „Gefällt mir“/einen „Repost“ setzen; Dies kann ohne P2P nützlich sein, da lediglich ein persönliches Archiv mit interessanten Informationen verwaltet wird
3. Dieser Inhalt kann auch automatisch das dezentrale Netzwerk füllen
4. Das Prinzip der automatischen Speicherung interessanter Inhalte funktioniert auch bei Likes/Reposts im dezentralesten Netzwerk

Source: habr.com

Kommentar hinzufügen