Wednesday, May 6, 2020
File Sharing Systems Essay Example For Students
File Sharing Systems Essay Universit?t St. Gallen Hochschule f?r Wirtschafts- Rechts- und Sozialwissenschaften ITM / MCMWahlteil Neue Medien / MedienarchitekturProf. Dr. Beat SchmidFILE SHARING SYSTEMEP2PVon Philipp BrunnerHans GeiserRoman H?ggStefan KressBeat MeierOlivier SalaminAbgabetermin: 5. Dezember 2000InhaltsverzeichnisEinf?hrung Seite 31. Theoretische Grundlagen 31.1. Netzarchitekturen 31.1.1. Client Server 31.1.2. Peer to Peer 41.1.3. Verzeichnisserver 41.2. Netzwerkprotokolle / TCP/IP 41.2.1. Transmission Internet Protocoll 41.2.2. Internet Protocoll 51.2.3. TCP/IP ist das Internet 61.2.4. IP ? Adressierung 61.3. Proxyserver 72. Fallbeispiele 82.1. MP3 82.1.1. Allgemeine Aspekte 82.1.2. Technische Aspekte 82.1.3. Wirtschaftliche Aspekte 92.1.4. Konklusion / Extrapolation 92.2. Napster 102.2.1. Allgemeine Aspekte 102.2.2. Technische Aspekte 102.2.3. Wirtschaftliche Aspekte 112.2.4. Konklusion / Extrapolation 122.3. Gnutella 132.3.1. Allgemeine Aspekte 132.3.2. Technische Aspekte 132.3.3. Wirtschaftli che Aspekte 142.3.4. Konklusion / Extrapolation 142.4. Freenet 152.4.1. Allgemeine Aspekte 152.4.2. Technische Aspekte 152.4.3. Wirtschaftliche Aspekte 162.4.4. Konklusion / Extrapolation 162.5. Mojonation 172.5.1. Allgemeine Aspekte 172.5.2. Technische Aspekte 172.5.3. Wirtschaftliche Aspekte 182.5.4. Konklusion / Extrapolation 193. Neue Problematiken / Denkanst?sse 193.1. Staat 193.2. Juristik 203.3. Kriminalit?t / Cyber Terrorismus 203.4. Vom gl?sernen B?rger zum gl?sernen Kunden 204. Konklusion / Extrapolation 214.1. Ausblick: Groovenet 214.2. P2P Prognosen 214.3. Trendabsch?tzung 22Anhang ILiteraturverzeichnis IAbbildungsverzeichnis IURLs ICD ? Rom IEinf?hrung Die als weitgehend institutionalisiert geglaubten, auf Client ? Server ? Modellen basierenden Kommunikationsstrukturen des Internet unterziehen sich zurzeit einem rasanten Wandel, dessen Konsequenzen das Internet und seine Community wieder zu ihren Wurzeln archaischer wie auch basisdemokratischer Verst?ndigung f?hren k?nn te. Client ? Server ? Modelle, synonym f?r kostenintensive Infrastruktur, Wartung und Bedienung wie aber auch f?r leichte Kontrolle und somit problemlose Einbindung in bestehende Gesch?ftsmodelle der Old Economy, scheinen zurzeit vom Organismus Internet wie ein systemfremdes Bakterium abgestossen zu werden. Tats?chlich liess der als zentral zu wertende Bereich der Kommunikationsformen als Basis jedweder Verst?ndigung bisher stark Attribute wie Innovationskraft, wie Wandel und Dynamik vermissen. Innovative File ? Sharing ? Systeme wie namentlich Peer to Peer Modelle (P2P) beginnen zunehmend am althergebrachten Diktat der Client ? Server ?Systeme zu r?tteln, werden wom?glich diese Mauern innerhalb k?rzester Zeit zum Einsturz bringen. Begleitet vom Hauch des Illegalen, des Subversiven, haben sich diese Modelle mittels einiger Protagonisten dieser Entwicklung (Napster, Gnutella etc.) einen breiten Zuspruch der Internet Community erk?mpft. Peer ? gleichgestellt; ungleich der hierarchischen (und somit der Grundideologie des Internet quasi systemfremden) Ordnung der Client ? Server ? Systeme agieren bei der P2P Kommunikation alle teilnehmenden Rechner als Client wie auch als Server. Dieses relativ trivial anmutende Prinzip erm?glicht somit die effizente (effizienteste?!) Aufteilung aller technischen Ressourcen wie Speicherkapazit?t, Rechnerleistung und Bandbreite. Es erstaunt nicht, dass die Exponenten der Old Economy mit einer auf Tausch (sprich: geben und nehmen) basierenden Kommunikationsform M?he bekunden, zumal es noch nicht gelungen ist, dieses Konzept ungeachtet seines Erfolges in bestehende Business ? Modelle einbinden zu k?nnen. Die vorliegende Arbeit verfolgt die Zielsetzung, dem unkundigen Leser mittels eines deduktiven und ganzheitlichen Ansatzes ein Bild der aktuellen Kommunikationsformen des Internet zu vermitteln. Gem?ss dieser Motivation sollen in einem ersten Schritt die theoretischen Grundlagen f?r ein besseres Verst?ndnis der in einem zweiten Schritt folgenden Fallbeispiele geschaffen werden. Um dem angedeuteten ganzheitlichen Ansatz Rechnung zu tragen, werden in einem dritten Schritt im Sinne von Denkanst?ssen soziale, wirtschaftliche, juristische etc. Aspekte diskutiert. Die Arbeit m?ndet schliesslich in einer Konklusion, einer Beurteilung und m?glichen Extrapolation der Gegenwart seitens der Autoren. Es wurde bewusst auf eine intensive Illustrierung der Arbeit verzichtet, um eine h?chstm?gliche Informationsdichte und somit einen inhaltlich maximalen Mehrwert zugunsten des Lesers zu gew?hren. In Bezug auf eine detaillierte Illustrierung sei an dieser Stelle auf die der Arbeit im Sinne eines Anhangs beigelegten CD ? Rom verwiesen, welche nebst den zitierten Quellen eine umfangreiche Daten- und Programmsammlung beinhaltet. 1. Theoretische Grundlagen1.1. Netzarchitekturen 1.1.1. Client-Server Zu Beginn der Computer?ra war sowohl Rechenleistung als auch Speicherplatz stark beschr?nkt und sehr teuer. Gerade aber diese beiden Faktoren machten den Vorteil maschineller Informationsverarbeitung aus und deswegen wurden verschiedene Konzepte entwickelt, die vorhandenen Ressourcen m?glichst effizient zu nutzen. Man ging in der Regel von einer zentralen Rechenmaschine aus, welche sowohl die Berechnungen ausf?hrte als auch alle Informationen speicherte. Daneben existierten ?dumme? Terminals, welche auf diese Ressourcen zur?ckgreifen konnten. Aus dieser hierarchischen Struktur wurde die Bezeichnung des Client-Server-Modells abgeleitet, welche somit das ?klassische? Netzwerkmodel darstellt. 1.1.2. Peer-to-Peer Mit zunehmender Weiterentwicklung der Computer wurde es nun aber auch m?glich, die Terminals intelligenter werden zu lassen und schlussendlich ganz von ihren Servern zu l?sen. Daraus entstand der klassische Desktop-Computer, welcher als Einzelarbeitsplatzsystem dem Benutzer nun alle Vorteile der maschinellen Informationsverarbeitung direkt bieten konnte, so dass dieser nicht mehr darauf angewiesen war, eine Verbindung zu einem Server zu haben. F?r kleinere Arbeitsstrukturen war es aber sinnvoll, die einzelnen Desktops miteinander zu verbinden. Daraus leitete sich das Peer-to-Peer (P2P)-Mo dell ab. 1.1.3. Verzeichnisserver In der zunehmenden Informationsflut sowie einer enorm wachsenden Zahl von Peers wurde es aber immer schwieriger, alle spezifischen Informationen auf allen angeschlossenen Netzteilnehmern zu suchen. Die L?sung f?r dieses Problem fand sich in der Idee der Verzeichnisserver, welche ausschliesslich als ?Inhaltsverzeichnis? des grossen Netzverbundes fungierten. Diese drei Modelle dienen als Grundlage und k?nnen beschr?nkt beliebig skaliert werden. Auf der tiefsten Ebene befindet sich ein LAN (Local Area Network), welches i.d.R. Computer innerhalb eines Geb?udes oder Geb?udekomplexes miteinander verbindet. Die n?chst h?here Stufe ist das WAN (Wide Area Network), welches verschiedene lokale Netze zu einem grossen Ganzen verbindet. Schlussendlich findet sich das GAN (Global Area Network), wie es das Internet darstellt. 1.2. Netzwerkprotokolle / TCP/IP TCP/IP ist eine Gruppe von zwei unterschiedlichen Protokollen auf unterschiedlichen Ebenen des OSI-Referenzmodelles. TCP (Transmission Control Protocol) ist ein Protokoll der 4. Schicht (Transportschicht), IP (Internet Protocol) befindet sich in der 3. Schicht (Vermittlungsschicht). TCP/IP gew?hrleistet den Auf- und Abbau der Verbindung zwischen Sender und Empf?nger und sorgt f?r die korrekte Adressierung der Information und deren Aufteilung in einzelne Datenpakete. 1.2.1. Transmission Control Protocol TCP ist eines der Hauptprotokolle des Internet. Es vereinfacht solch hochsensible Aufgaben wie die ?bertragung von Dateien und entfernte Arbeitssitzungen. Die Arbeitsweise von TCP wird als zuverl?ssige ?bertragung bezeichnet. In dieser Hinsicht unterscheidet sich TCP von anderen Protokollen der Protokollfamilie, die als unzuverl?ssig gelten und keine Garantie ?bernehmen, dass die Daten in der gleichen Reihenfolge und dem gleichen Zustand ankommen, in der bzw. dem sie abgesandt wurden. Das TCP-System verl?sst sich auf eine virtuelle Verbindung, die zwischen dem anfragenden und dem Ziel-Rechner etabliert wird. Diese Verbindung wird durch einen dreiteiligen Prozess ge?ffnet, der oft auch als ?three-part-handshake? bezeichnet wird. In der Regel folgt der Prozess dem in Abbildung 4 gezeigten Muster. Nach ?ffnen der Verbindung k?nnen die Daten simultan in beide Richtungen reisen, was auch als Vollduplex-?bertragung bezeichnet wird. So k?nnen auch w?hrend einer Daten?bertragung (oder einer anderen entfernten Arbeitssitzung) eventuell auftretende Fehler an den anfragenden Rechner ?bertragen werden. TCP stellt umfangreiche Funktionen zur Fehler?berpr?fung zur Verf?gung. F?r jedes gesendete Datenpaket wird ein numerischer Wert generiert. Die zwei Rechner identifizieren jedes ?bertragene Datenpaket anhand dieses numerischen Wertes. F?r jedes erfolgreich ?bertragene Paket sendet der Empf?nger eine Nachricht an den Absender, dass die ?bertragung erfolgreich war. Im Gegensatz dazu k?nnen bei nicht erfolgreicher ?bertragung zwei Dinge passieren: Der anfragende Rechner erh?lt eine Fehlermeldung Der anfragende Rechner erh?lt nichts Nach Empfang einer Fehlermeldung werden die Daten erneut ?bertragen, ausser wenn es sich um einen schweren Fehler handelt. In diesem Fall wird die ?bertragung gew?hnlich unterbrochen. Ein typisches Beispiel f?r einen schweren Fehler ist z. B. ein Zusammenbrechen der Verbindung. Ganz ?hnlich dazu werden die Daten ebenfalls erneut ?bertragen, wenn innerhalb eines bestimmten Zeitraums keine Best?tigung empfangen wird. Dieser Prozess wird solange wiederholt, bis die ?bertragung oder die entfernte Arbeitssitzung abgeschlossen ist. 1.2.2. Internet Protocol IP geh?rt zur Netzwerkschicht und ist f?r die ?bertragung von Datenpaketen f?r alle Protokolle der TCP/IP-Protokollfamilie verantwortlich. IP stellt damit das Herz dieses unglaublichen Prozesses dar, mit dem Daten das Internet durchqueren. Abbildung 5 zeigt ein kleines Modell eines IP-Datagramms, das diesen Prozess erkl?rt. Wie in der Abbildung gezeigt, besteht ein IP-Datagramm aus mehreren Teilen. Der erste Teil, der Reader (Kopfzeile), besteht aus verschiedenen Elementen, u.a. den IP-Adressen des Absenders und des Empf?ngers. Zusammen formen diese Elemente einen kompletten Reader. Der restliche Teil des Datagramms enth?lt die jeweils zu versendenden Daten. Das erstaunliche am Internet Protocol ist folgendes: Datagramme k?nnen w?hrend ihrer Reise fragmentiert und sp?ter beim Empf?nger wieder zusammengesetzt werden (auch wenn sie nicht in der gleichen Reihenfolge ankommen, in der sie abgesandt wurden). Ein IP-Datagramm enth?lt noch weitere Informationen, z.B. die Identit?t des gerade benutzten Protokolls, eine Reader-Pr?fsumme und eine Time-to-Live-Spezifikation. Diese Spezifikation ist ein numerischer Wert. W?hrend das Datagramm durch das Internet reist, wird dieser numerische Wert st?ndig vermindert. Wenn er schliesslich null erreicht, wird das Datagramm verworfen. Viele Paket-Typen haben Time-to-Live-Limitationen. Einige Netzwerk-Utilities (wie Traceroute) benutzen das Time-to-Live-Feld als eine Markierung f?r Diagnose-Routinen. Zusammenfassend kann die Funktion von IP auf folgendes reduziert werden: Es dient der ?bertragung von Datenpaketen ?ber das Internet. 1.2.3. TCP/IP ist das Internet Inzwischen sollte es offensichtlich sein, dass TCP/IP im Grunde genommen das Internet selbst umfasst. Es ist eine komplexe Sammlung von Protokollen, viele davon f?r den Benutzer unsichtbar. Auf den meisten Internet-Servern k?nnen alle der folgenden Netzwerkprotokolle laufen: Transmission Control Protocol (TCP) Internet Protocol (IP) Internet Control Message Protocol (ICMP) Address Resolution Protocol (ARP)In der Anwendungsebene gelten die folgenden Protokolle als Standard: File Transfer Protocol (FTP) Telnet Protocol (Telnet) Gopher Protocol Network News Transfer Protocol (NNTP) Simple Mail Transfer Protocol (SMTP) Hypertext Transfer Protocol (HTTP)Dies ist nur eine Handvoll der Protokolle, die im Internet laufen. Tats?chlich gibt es Hunderte dieser Protokolle. Mehr als die H?lfte der Implementierungen der wichtigsten Protokolle hatten schon ein oder mehrere Sicherheitsl?cher. Folgender Punkt ist wesentlich: Das Internet wurde als ein System mit vielfachen Kommunikationswegen entwickelt. Jedes Protokoll stellt einen dieser Wege dar. An sich gibt es also hunderte von Wegen, um Daten ?ber das Internet zu bewegen. 1.2.4. IP-Adressierung Grunds?tzlich werden beim Internet Protocol nur Computer (Hosts) adressiert. M?glicherweise mag das Datenpaket zwar weitere Angaben, wie z. B. den Adressaten einer E-Mail, enthalten das interessiert die IP-Schicht jedoch nicht. Diese ist nur daf?r zust?ndig, Datenpakete von einer Maschine im Netz zu einer anderen zu schaffen. Normalerweise wird die Zielmaschine das Paket dann genauer untersuchen, um herausfinden, was im einzelnen zu tun ist (und die Nutzdaten z. B. als Nachricht in der Mailbox eines bestimmten Benutzers abzulegen). Eine Analogie: Wenn Sie die zentrale Telefonnummer einer grossen Firma w?hlen, dann erreichen Sie gew?hnlich nicht direkt die Person, mit der Sie sprechen wollen. Das Gespr?ch kann aber von der Gegenstelle leicht an die korrekte Nebenstelle weitervermittelt werden. Wichtig ist, dass Sie unter einer zentralen Nummer, wenn auch indirekt, jeden Mitarbeiter erreichen k?nnen. Jeder einzelne Host im Internet (man sch?tzt ?brigens, dass Ende 1996 ?ber 10 Millionen Computer online waren) erh?lt als IP-Adresse einen eindeutigen Zahlenwert, sozusagen seine Hausnummer in der Internet-Strasse. Diese Nummer l?sst sich entweder als eine etwas l?ngliche 32-Bit-Zahl ausdr?cken, oder, f?r uns Normalsterbliche etwas ?bersichtlicher, als vier separate Werte zwischen 0 und 255 (also vier Byte a acht Bit, diese Einheit wird im Internet manchmal auch als Oktett bezeichnet). Diese zweite Schreibweise hat sich im Net durchgesetzt, so dass eine IP-Adresse etwa so aussehen kann: 194.23.45.127. Die vier Byte werden einfach durch Punkte voneinander getrennt. (Im IP-Header taucht die Adresse nat?rlich als Folge von 32 Bit auf). Wenn nun Host A ein Paket an Host B mit der Adresse 194.23.45.127 senden will, dann reicht es vollkommen aus, einen IP-Header mit dieser Adressangabe zu versehen und ihn mitsamt den Nutzdaten ins Netz zu entlassen. Da jeder Rechner im Netz seine eigene, u nverwechselbare Hausnummer hat, kann er von jeder anderen Maschine im Netz adressiert werden. Und durch das automatische Routing findet das Paket quasi selbstst?ndig seinen Weg und kommt ordnungsgem?ss bei Host 194.23.45.127 an (meistens). Nat?rlich gibt es dabei noch einige Feinheiten zu beachten, aber im Grossen und Ganzen ist dieses Verfahren wirklich so genial einfach. Zwei Fragen dr?ngen sich nun aber sofort auf: Erstens, wer vergibt denn diese eindeutigen IP-Adressen, wenn es im Netz angeblich keine zentrale Autorit?t gibt? Und zweitens: Warum sieht man diese Ziffernfolgen so gut wie nie als Internet-Adressen, sondern meist Klartextnamen wie http://www.microsoft.com oder ?Zuerst die Vergabe der Adressen: Diese wird geregelt durch die sogenannten Network Information Center (NIC). Bis vor wenigen Jahren gab es nur das NIC schlechthin in den USA. Mit der steigenden Verbreitung des Internet und der explosionsartigen Zunahme der Hosts wurde es jedoch erforderlich, diese Aufgabe auf mehrere Schultern zu verteilen. Daher wurden in den wichtigsten L?ndern Non-Profit-Organisationen damit beauftragt, die Host-Registrierung und Adressvergabe durchzuf?hren oder wenigstens zu kontrollieren. Diese erhalten einen gr?sseren Block von IP-Adressen, die sie nach eigenem Gutd?nken an lokale Interessenten verteilen. In der Schweiz ist daf?r Switch in Z?rich zust?ndig. Dieses ist eine Vereinigung der wichtigsten Internet-Provider. Die Registrierung dort ist kostenpflichtig, der Betrag ist allerdings relativ niedrig. Mit einer 32-Bit-Adresse lassen sich theoretisch ?ber 4 Milliarden Hosts ansprechen, das scheint vorderhand eine ausreichend grosse Zahl zu sein. Eine genauere Betrachtung der Struktur von IP-Adressen zeigt allerdings, dass es mit der Theorie (wie ?blich) nicht allzuweit her ist. Eine Internet Adresse wird n?mlich einer von f?nf Gruppen zugeordnet, die von A bis E klassifiziert sind (die Gruppen D und E werden zurzeit allerdings nicht allgemein verwendet). Die Gruppen A bis C sind bitweise je nach Netzwerk ? Gr?sse definiert. Dazu wird die Tatsache herangezogen, dass fast alle Hosts Bestandteil eines eigenst?ndigen Subnetzes im Internet sind. Die 32 Bit der Adresse verteilen sich f?r die drei Gruppen wie folgt: ? Die Gruppe A beschreibt sehr umfangreiche Netze: 0aaaaaaa hhhhhhhh hhhhhhhh hhhhhhhh? Gruppe B ist f?r mittelgrosse Netze gedacht: 10bbbbbb bbbbbbbb hhhhhhhh hhhhhhhh ? w?hrend Gruppe C kleine Netze abdeckt: 110CCCCC cccccccc cccccccc hhhhhhhh Dieses Bit-Kauderwelsch heisst im Klartext folgendes: Ein bestimmtes Teil ? Netzwerk in Gruppe A wird durch 7 Bit (aaaaaaa) identifiziert (das h?chstwertige Bit im ersten Byte ist in diesem Fall grunds?tzlich gleich 0). Innerhalb eines solchen Netzwerks sind maximal 24 Bit (hhhhhhhh hhhhhhhh hhhhhhhh) f?r die Host-Numerierung reserviert. Mit anderen Worten: Es kann weltweit maximal nur 128 (wegen der 7 Bit) grosse Netzwerke geben, die allerdings jeweils bis zu 16777216 separate Hosts enthalten k?nnten. Gruppe-A-Netze bleiben daher sehr grossen Organisationen vorbehalten; sie sind leicht daran zu erkennen, dass der erste der vier Adresswerte kleiner als 128 ist. Da allerdings nicht jedes dieser Netze tats?chlich die m?glichen ?ber 16 Millionen Hosts umfasst, werden sehr viele m?gliche Adressen verschwendet. Gruppe-B-Adressen sind ?hnlich aufgebaut, allerdings sind hier 14 Bit (bbbbbb bbbbbbbb) f?r das Netzwerk (die obersten beiden Bit sind immer 10) und 16 Bit (hhhhhhhh hhhhhhhh) f?r den Host reserviert. Damit k?nnen also bis zu 16384 Netze mit jeweils maximal 65536 Computern adressiert werden. Diese mittlere Gr?sse wird von vielen gr?sseren Firmen genutzt. Das erste Byte der Adresse liegt bei Gruppe-B-Adressen immer zwischen 128 und 191. Auch hier werden nat?rlich nicht belegte HostAdressen verschwendet. Die Gruppe C schliesslich erm?glicht bis zu 2097152 kleine Netze (21-Bit-Netzadresse, immer mit 110 beginnend) mit jeweils bis zu 256 Rechnern (8 Bit f?r den Host). Gruppe-C-Netze erkennt man am Wert 192 bis 223 im ersten Byte. Alle Werte dar?ber sind entweder Gruppe ? D oder ?E ? Netze, auf die ich hier nicht weiter eingehe. Der Grund f?r diese merkw?rdige Aufteilung in Teilnetze ist die h?here Effizienz des IP-Routings: Die Router m?ssen nicht die Wege zu allen Hosts eines Netzes in ihren Tabellen speichern; es reicht vollkommen aus, nur die Route bis zum betreffenden Subnetz zu vermerken. Das Routing zum korrekten Host kann dann dort lokal erledigt werden. Dieser Vorteil wird heutzutage durch die schon angesprochene Verschwendung ungenutzter Host-Nummern jedoch wieder wettgemacht; sp?testens zur Jahrtausendwende ist leider der Punkt erreicht, an dem die IP-Adressen knapp werden. Zu den Zeiten, als diese Strukturen ersonnen wurden, konnte sich eben niemand vorstellen, dass das Netz einmal so umfangreich werden w?rde. Die IETF versucht allerdings seit geraumer Zeit, diesem Problem mittels eines erweiterten Schemas zur IP-Adressierung beizukommen. Dies ist aber leichter gesagt als getan, denn die 32-Bit-IP Adressen sind so eng mit den TCP/IP ? Protokollen verkn?pft, dass es gar nicht so einfach ist, ein v erbessertes Verfahren zu finden, das dennoch zum jetzigen Standard r?ckw?rtskompatibel bleibt. 1.3. Proxyserver Ein Proxyserver ist zur Hauptsache ein Sicherheitswerkzeug. Er steht an der Schnittstelle eines lokalen PCs, bzw. eines lokalen Netzes und ?berwacht permanent den Datenfluss. Daraus entstehen nun verschiedenste M?glichkeiten, den Zugang zum Internet zu optimieren, bzw. anonymisieren. Zwischenspeichern h?ufig nachgefragter Inhalte Firewall Filterung b?sartiger Inhalte Zugangsbeschr?nkungen f?r Adressbereiche, bzw. Ports Verbergen eines PC oder ganzer Netze vor dem InternetInsbesondere die Anonymisierungsfunktion wird in den vorgestellten Filesharing Programmen durch sogenannte ?Transparente Proxies? benutzt. Dies bedeutet f?r den Benutzer folgendes:Aus der Struktur eines TCP/IP ? Netzes folgt, dass ein solcher Proxy einerseits den lokalen Rechner ?ber TCP/IP erreichen k?nnen muss und dies ist an einem Einzelarbeitsplatz die lokale Standardadresse 127.0.0.1. Nach aussen (remote) erh?lt der Proxy die Adresse, welche ihm vom ISP (Internet Service Provider) dynamisch zugewiesen wurde. Will man nun die Spur zur?ckverfolgen, auf welcher Route ein Datenpaket an seinen Speicherort gelangt ist, erreicht man irgendeinmal den entsprechenden Proxy. Nach aussen hin ist er derjenige, welcher das Datenpaket abgesandt hat und das ganze lokale Netz dahinter ist vom Rest der Welt abgeschirmt. Transparent nennt man den Proxy, da andere Anfragen (wie z.B. http requests) durch den Proxy hindurchgelassen werden und eine direkte Kommunikation auf diesem Weg nicht verunm?glicht wird. Personal Experience Argumentative Essay2.3.2. Technische AspekteBenutzung Der Kern der Gnutella ? Technologie besteht aus dem sogenannten Gnutella ? Client, eine Software, welche einerseits als Suchmaschine wie aber auch als Server der angebotenen Dateien agiert.. Gnutella grenzt sich nun gegen?ber anderen P2P Modellen dadurch ab, dass kein eigentlicher Server existiert. Die Verbindung mit dem eigentlichen Dienst erfordert als weiteres zus?tzliches Element nur noch die Kenntnis der IP ? Nummer eines weiteren Gnutella Users, welche auf speziellen Servern zur Verf?gung steht. Der eigentliche Suchprozess ist sogenannt rekursiv gestaltet. Die Anfrage des Users gelangt zu seinem Verbindungspartner, welche seine Datenbest?nde auf die gew?nschte Datei hin untersucht. Im Falle eines negativen Suchergebnisses wird die Anfrage nach einem exponentiellen Prinzip auf weitere User ausgedehnt, bis schliesslich ein m?gliche Quelle der gew?nschten Information identifiziert ist. Dies bedingt, das zwischenzeitlich eine hohe Anzahl von Usern in die Suche nach der gew?nschten Information involviert ist. Der eigentliche Datentransfer wird abschliessend direkt, d.h. ohne Umwege ?ber Dritte, mittels des Gnutella ? Clients durchgef?hrt. Daten Infolge Ermangelung eines eigentlichen zentralen Servers befinden sich die vorhandenen Daten innerhalb der Systeme der Gnutella ? User. Dies hat implizit zur Folge, dass als weiteres Element zur Teilnahme an der Gnutella Community die Kenntnis der IP ? Nummer zumindest eines weiteren Gnutella ? Users notwendig ist. Diese IP ? Nummern sind auf spezifischen Servern, in Newsgroups oder durch IRC in Erfahrung zu bringen. Der Gnutella User bestimmt eigenverantwortlich welche seiner Daten er Drittpersonen zug?nglich machen will. Das eigentliche Gnutella ? Net wird nur f?r den Suchprozess benutzt, der Datentransfer wird ?ber das http ? Protokoll abgewickelt. W?rde der Datentransfer beispielsweise ?ber die selben Stationen laufen wie der vorgelagerte Suchprozess, so h?tte dies eine massive Einschr?nkung der Bandbreite aller beteiligten User zur Folge. Trotzdem jedoch absorbiert Gnutella hohe Kapazit?ten der eigenen Bandbreite. Werden Suchanfragen ?ber das Netz geleitet oder Dateien vom eigenen System downgeloadet, so steht nur noch ein relativer kleiner Teil der Bandbreite f?r eigene Aktivit?ten zur Verf?gung, wobei auch Informationspakete, welche durch Gnutella selbst verschickt werden, abgebremst werden. Um der Gefahr eines Systemzusammenbruchs zu begegnen, werden Datenpakete, die infolge ?berlastung eines Systems nicht mehr aufgenommen werden k?nnen, fallengelassen (?dropped?). Falls bei der Verbindung mit einem anderen User sehr viele Datenpakete fallengelassen werden und somit der Datentransfer erschwert wie auch das Netz ?berlastet wird, so muss die bestehende Verbindung abgebrochen und eine neue aufgebaut werden. Sicherheit / Anonymit?t Der Schutz der eigenen Person ist w?hrend der Informationssuche nahezu perfekt, da durch das System der rekursiven Suche der Anfang des Suchprozesses respektive die Identit?t des Suchenden quasi unidentifizierbar wird. Beim anschliessenden Download ?ber das http ? Protokoll wird diese Anonymit?t jedoch aufgehoben, der Partner des stattfindenden Datentransfers wird bestimmbar. Analog wird auch beim zum Suchprozess gegengerichteten Angebotsprozess von eigenen Daten die IP ? Adresse des pers?nlichen Systems der Allgemeinheit offenbart. 2.3.3. Wirtschaftliche AspekteGnutella pr?sentiert sich in seiner Ideologie als absolut nicht gewinnorientiertes Unternehmen, die Einbettung oder Entwicklung von profitbringenden Gesch?ftsmodellen ist nicht intendiert. Vielmehr hat sich Gnutella der Open Source Idee verpflichtet, was zu einer weiten Verbreitung von Open Source Clients wie auch Spezifikationen des Gnutella ? Protokolls gef?hrt hat und somit eine kommerzielle Nutzung dieses Dienstes praktisch verunm?glicht. Einzig die Firma GoneSilent.com ist gegenw?rtig bem?ht, durch die Entwicklung auf Gnutella basierender, system?bergreifender Search ? Engine ? Software eine kommerzielle Nutzung des Gnutella Projekts zu realisieren. 2.3.4. Konklusion / ExtrapolationSt?rken Die drei zentralen Erfolgsfaktoren von Gnutella bestehen aus der de facto Unzerst?rbarkeit des Systems, aus der schnellen Informationssuche und dem hohen Grad an gew?hrter Anonymit?t. Schw?chen Aus der technischen Perspektive ist haupts?chlich der Kapazit?tsverlust eigener Bandbreite zu bedauern, der durch die Benutzung von Gnutella entsteht, wie aber auch unter dem Aspekt der Sicherheit der Verlust der eigenen Anonymit?t beim Downloadprozess. Im Gegensatz zu Systemen wie Mojonation verf?gt Gnutella ?ber keine Mechanismen um der Freerider Problematik effizient begegnen zu k?nnen, was weiter ein klarer Nachteil gegen?ber konkurrierenden Technologien ist. Schlussbetrachtung Trotz des grossen aktuellen Erfolges der Gnutella Software sieht sich diese Technologie einer ungewissen Zukunft gegen?ber. Wie jede auf P2P Architekturen beruhende Kommunikation ohne wirksame Mechanismen gegen Freeriding ist Gnutella stark abh?ngig von positiven Netzwerkeffekten, respektive der Gr?sse seiner Community. Sollte die Benutzerzahl infolge technischer Schw?chen (namentlich die Absorbierung von Bandbreitenkapazit?t) oder Abwandern zu konkurrierenden Systemen (beispielsweise Mojonation, Groovenet) unter die kritische Masse fallen, so w?re somit das Schicksal von Gnutella besiegelt. Um diesen Gefahren entgegenzuwirken und die bestehenden M?ngel der Gnutella Software zu beheben hat sich mittlerweile eine Gruppe um den 18 j?hrigen Studenten Sebastian Lambla gebildet, welche das sogenannte ?Next Generation Protocol? (oder auch ?General Purpose Localization Protocol = gPulp?) entwickeln will. Ziel dieses Projekts sind haupts?chlich Verbesserungen in den Bereichen Anonymit?t, Geheimhaltung und Routing. Da die Ergebnisse des Projekts jedoch vom Konsens mit der breiten Gnutella Community getragen werden sollen, wird der Erfolgsfaktor Zeit hier stark vernachl?ssigt. Die Vision besteht aus einem Protokoll, welches von allen Gnutella ? Clients verwendet wird. Ansonsten w?re eine Zersplitterung der Gnutella Community in unz?hlige Teilfragmente, die sich unterschiedlicher Gnutella ? Clients bedienen, vorstellbar. 2.4. Freenet / www.freenetproject.org 2.4.1. Allgemeine AspekteFacts ; Figures Das urspr?ngliche Design von Freenet wurde von Ian Clarke als Abschlussprojekt in KI und Computerwissenschaft an der Universit?t Edinburgh erstellt. Im Juni 1999 wurde das Projekt beendet und auf dem Internet implementiert. Ian Clarke ist nach wie vor der Projektmanager und wird von Zeit zu Zeit von freiwilligen Entwicklern unterst?tzt. Philosophie der Firma / Software Freenet ist ein verteiltes Informationsspeichersystem, welches vor allem den Userbed?rfnissen in den Bereichen Privacy und Verf?gbarkeit Rechnung tragen soll. Das System arbeitet als ortsunabh?ngiges Dateisystem ?ber viele an das Internet angeschlossene Rechner und erlaubt Dateien anonym zu speichern und abzurufen. Die f?nf Hauptziele des Architekturdesigns sind:? Anonymit?t f?r Produzenten und Konsumenten von Information? Sicherstellung, dass der Weg, auf welchem Informationen gespeichert wurden, nicht festgestellt werden kann ? Deniability? Widerstandsf?higkeit gegen?ber Dritten, welche versuchen, das Abrufen von Information zu verhindern? Effiziente dynamische Speicherung und Informationsrouting? Dezentralisierung aller NetzwerkfunktionenDas System wurde entwickelt um adaptiv auf Benutzerbed?rfnisse reagieren zu k?nnen und transparent Dateien zu verschieben, zu replizieren und zu l?schen, um einen effizienten Dienst anbieten zu k?nnen, welcher ohne Suchmaschinen oder zentrale Index-Server auskommt. Es ist nicht beabsichtigt, permanente Speicherung zu garantieren, obwohl gehofft wird, dass gen?gend ?Knoten? teilnehmen, um gen?gend Speicherkapazit?t zur Verf?gung zu stellen. Zus?tzlich arbeitet das System auf dem Application-Layer und nimmt an, dass eine sicherer Transport-Layer existiert, obw ohl es damit nicht verkn?pft ist. Es will nicht Anonymit?t f?r ein generelles Netzwerk, sondern f?r die Freenet Dateioperationen. 2.4.2. Technische AspekteBenutzung Freenet wird als File heruntergeladen und ben?tigt zus?tzlich ein Java Runtime Environment JRE 1.1 oder h?her. Die Installation erfolgt rasch und problemlos ? der Benutzer kann die Konfiguration des Proxy ? Servers mit den Standardeinstellungen ?bernehmen. Die Bedienung f?llt relativ einfach aus: ein File von der Festplatte wird ausgew?hlt und mit einer zus?tzlichen Beschreibung versehen. Ein Klick auf den Button ?Insert? sendet das File nun zun?chst an den lokalen Freenet ? Knoten, wo das File ins Netz gesandt wird. Der Abschluss des Speicherns meldet dem Benutzer nun noch, unter welchem definitiven Schl?ssel sein File abgelegt ist. Das Herunterladen desselben Files gestaltet sich so, dass der Benutzer den entsprechenden Schl?ssel eingibt und eine Anfrage startet. Das System sucht nun selbst?ndig, wo dieses File abgelegt wurde und liefert es zur?ck. Daten Freenet ist als Peer ? to ? Peer Netzwerk implementiert, mit Knoten, welche einander gegenseitig abfragen um Daten zu speichern und abzurufen, welche mit ortsunabh?ngigen Schl?sseln gespeichert sind. Jeder Knoten unterh?lt seine eigenes Dateisystem, welches dem Netzwerk Schreiben und Lesen erm?glicht, sowie als dynamische Routing-Tabelle mit den Adressen und Schl?sseln anderer Knoten agiert. Es ist beabsichtigt dass die meisten Benutzer des Systems Knoten betreiben um einerseits Sicherheit gegen unbeabsichtigtes Benutzen eines b?sartigen fremden Knotens zu garantieren, wie auch die Speicherkapazit?t des Netzes als Ganzes zu erh?hen. Das System kann als kooperatives verteiltes Dateisystem betrachtet werden, welches als ortsunabh?ngiger und transparenter Tr?ger der Replizierung arbeitet. Genau wie Systeme wie z.B. distributed.net, welches Benutzern freie CPU-Kapazit?t vermittelt, erm?glicht Freenet den Usern freien Speicherplatz zu vermitteln. Im Gegensatz zu distributed.net, welches die CPU-Kapazit?t f?r sich selber nutzt, stellt Freenet den Speicherplatz anderen Usern sozusagen als Harddiskerweiterung zur Verf?gung. Das Basismodel behandelt Dateianfragen so, dass es sie von Knoten zu Knoten weitergibt, wobei jeder Knoten selbstst?ndig entscheidet, wohin er die Anfrage weiterleitet (Dies ?ndert mit jeder Anfrage). Knoten kennen nur ihre unmittelbaren Nachbarn im ganzen Datenfluss. Jeder Anfrage wird ein ?hops-to-live?-Z?hler mitgegeben welcher bei jedem Knoten dekrementiert wird, um Endlosschleifen zu verhindern. Jeder Anfrage ist auch ein Identifier zugeordnet, so dass Knoten eine Anfrage abweisen k?nnen, sofern sie ihn schon einmal passiert hatte. Wenn dies geschieht, w?hlt der letzte Knoten einfach einen anderen Knoten aus, um die Anfrage weiterzuleiten. Dieser Prozess setzt sich fort, bis entweder die Anfrage befriedigt wurde, oder dann das ?hops-to-live?-Limit erreicht wurde. Das Resultat wird dann entlang der ganzen Kette zur?ckgesendet. Kein Knoten ist privilegiert, somit existiert auch keine Hierarchie oder eine Achillesferse. Dem Netzwerk beizutreten heisst lediglich, einen oder mehrere Knoten zu lokalisieren und dann mit diesem Kontakt aufzunehmen. Files k?nnen nicht ge?ndert werden, trotzdem ist die Updatef?higkeit als ein Entwicklungsziel vorgesehen. Zus?tzlich ist der Namespace gegenw?rtig flach ? eine Erweiterung hat hohe Priorit?t in der Entwicklung. 2.4.3. Wirtschaftliche AspekteDas Freenet-Projekt ist von der Funktionsweise ?hnlich aufgebaut wie Napster, jedoch mit dem Unterschied, dass jegliche Arten von Dateitypen gespeichert werden k?nnen. Das Internet soll sozusagen als ?ffentliche Festplattenerweiterung fungieren. Dieses Prinzip findet sich auf einer philosophisch weniger weit entwickelten, jedoch f?r Benutzer einfacher zu bedienenden Ebene bereits als Anwendung wieder (z.B. Myfiles.de, wo gratis bis zu 300MB Speicherplatz angeboten und gespeicherte Information auch quasi?ffentlich zur Verf?gung gestellt werden kann). Freenet befindet sich jedoch noch sehr stark in einem Entwicklungsprozess, welcher aber fast ausschliesslich von seinem Gr?nder gef?hrt wird, und wird deshalb in der aktuell vorliegenden Version kaum Zuspruch durch eine breite Benutzerschicht finden, da die Bedienung noch recht umst?ndlich ist und auch keine brauchbaren Suchmechanismen existieren. Des weiteren ist das System nicht f?r dauerhafte Daten konzipiert, so dass eine Speicherung dem Aussenden einer Sonde ins Weltall gleichkommt; Ziel ist die Hoffnung, eines Tages ans Ziel zu kommen. Aus diesen Gr?nden ? kleiner Entwicklerkreis, keine brauchbare Benutzerschnittstelle, keine effiziente Suche m?glich ? erscheint eine wirtschaftliche Nutzung von Freenet ?usserst fraglich. Gewisse Teilaspekte und Organisationsprinzipien d?rften aber dennoch f?r andere Architekturen weiterentwickelt werden. 2.4.4. Konklusion / ExtrapolationSt?rken Die Strukturen des Freenet zeichnen sich analog denjenigen ?hnlicher Dienste durch ihre quasi Unzerst?rbarkeit aus. Als weitaus zentralere St?rke kann jedoch die Java ? Basis genannt werden, welche einen Einsatz auf allen Arten von Plattformen erm?glicht und somit einen extrem vielseitigen Einsatz erm?glicht, was ein klarer Erfolgsfaktor zuk?nftiger Kommunikationstechnologien darstellt. Des weiteren handelt es sich bei Freenet um ein erfreulich simples Prinzip, welches jedermann kostenlos zur Verf?gung steht und unabh?ngig eingesetzt werden kann. Schw?chen Die durch den stark limitierten Entwicklerkreis bedingte langsame Entwicklung des Freenet ist hier sehr skeptisch zu beurteilen, da speziell im Internetbereich Geschwindigkeit als wesentlicher Erfolgsfaktor gewertet werden kann. Die Erschliessung weiter Benutzerkreise, das Erreichen einer kritischen Masse von Usern kann bei den gegenw?rtig bestehenden Defiziten, bei den weitgehend unstrukturierten Suchmaschinen, welche treffend den gesamten Entwicklungsstand des Projekts widerspiegeln (Alpha Phase), als noch weit entfernt eingeordnet werden. Schlussbetrachtung Das Freenet-Projekt befindet sich noch sehr in der Alpha-Phase (reine Entwicklungsstufe). Der Vergleich mit ?hnlich aufgebauten Netzen (z.B. Mojonation) zeigt, dass es viele andere Projekte gibt, welche seit Beginn 1999 entstanden und zum heutigen Zeitpunkt viel weiter entwickelt sind. Das Prinzip eines lokalen Proxy-Servers zur Knotenbildung ist nicht nur bei Freenet die Grundlage, und damit zeigt es einzig eine weitere technische Variante auf, welche sich irgendwo zwischen Mojonation und Napster bewegt. Um eine tragende Rolle in der Entwicklung zuk?nftiger Systeme spielen zu k?nnen, m?sste Freenet zum heutigen Zeitpunkt viel st?rker verbreitet sein, bzw. sich bereits in der Beta-Phase befinden. Aus diesem Grund werden wohl h?chstens technische Aspekte aus dem Bereich Benutzerschutz in bestehende Projekte einfliessen, oder das ganze Projekt in ein bestehendes integriert. 2.5. Mojonation / www.mojonation.net2.5.1. Allgemeine AspekteFacts ; Figures Mojonation wird produziert, respektive entwickelt durch die Firma AZI (Autonomous Zone Industries), welche eine hundertprozentige Tochterunternehmung der Evil Geniuses for a better Tomorrow Inc. darstellt. Der Hauptsitz der Evil Geniuses befindet sich in Mountain View / CA / USA. Als Gr?nder und CEO der Firma AZI fungiert Jim McCoy, welcher vor seiner T?tigkeit bei AZI w?hrend 14 Jahren bei Large ? Scale ? Internet ? Services operativ t?tig war. McCoys eigene Gr?ndermentalit?t wiederspiegelt sich weiter in seinen nebenamtlichen T?tigkeiten bei Start Ups wie Yahoo, Four11, Communities.com und IO.com. Nebst diesen kommerziell orientierten T?tigkeiten zeichnete er sich verantwortlich f?r die universit?ren Information Services der Texas Austin University sowie der Northwestern University. Philosophie der Firma / der Software Der in allen File ? Sharing ? Systemen grunds?tzlich intendierte Gedanke des Tausches, des Leistungs- Gegenleistungs ? Prinzips, wird durch Mojonation reell. Der allgemeinen Free ? Rider ? Problematik, dem allgegenw?rtig parasit?ren Verhalten einer Mehrzahl der Internet User wird durch die Schaffung einer virtuellen W?hrung, des Mojos, begegnet. Mojos k?nnen einerseits durch die Einbringung von Texten, Filmen oder anderem digitalen Material (in der Regel wohl zweifelhaften Ursprungs unter dem Aspekt der Urheberrechte) wie auch durch die zur Verf?gungstellung von Ressourcen, namentlich Rechnerkapazit?t, Bandbreite oder Speicherplatz erworben und anschliessend in der Mojonation ? World wieder ausgegeben werden. Interessant und nicht zuletzt auch lukrativ erscheint dies speziell unter dem Aspekt der Konvertierbarkeit digitaler in reelle W?hrung, ein Bereich, der bereits diverse faszinierende Entwicklungen hervorgebracht hat . Innerhalb der Mojonation wird somit jegliches Free ? Riding ausgeschlossen; der Grundgedanke des Tausches wird erzwungen und vollzogen. Ein sogenannter Overload des Systems, die Situation, in der mehr Ressourcen beansprucht als zur Verf?gung gestellt werden, kann somit vermieden werden. Im Gegensatz zu Napster wird somit der nutzenoptimierende User an einer Teilung seiner eigenen Ressourcen interessiert sein, und nicht seinen Nutzen dadurch optimieren k?nnen, indem er sich als reiner Freerider profiliert. 2.5.2. Technische AspekteBenutzung Der Kern von Mojonation konstituiert sich aus einer einem Broker ? Software ? Applet, welches von Interessierten kostenlos heruntergeladen werden kann . Nach erfolgtem Download und Installation wirkt der Broker als stiller Client, welcher im Hintergrund des Systems permanent auf Abruf ist. Wird er mittels Aufruf durch den Browser aktiviert, kann via des erscheinenden Interface auf die Mojonation Ressourcen zugegriffen werden. Daten / Verzeichnisse Durch den Broker wird dem User der Zugang zu einer (wie im Internet ?blich) un?berblickbaren Anzahl an MP3 ? Files, Video Clips, Share- und Freeware Programmen etc. bis hin zu kompletten Websites er?ffnet. Die jeweiligen Files sind durch eine spezifische URL ? Kennung versehen, so dass sie durch den Broker entsprechend identifiziert, gesucht und als m?gliche Suchergebnisse ausgegeben werden k?nnen; hierbei ist anzumerken, dass der Broker nicht die eigentliche interne Search Engine darstellt, sondern diese lediglich kontaktiert und ihre Ergebnisse visuell auswertet. Vor allem die Perspektive der internen Organisation der Daten ist bei Mojonation ?usserst bemerkenswert, wiederspiegelt sie doch in treffender Weise die sicherlich nicht unbegr?ndeten paranoiden Vorstellungen vieler Softwareentwickler. Jedwedes ?ber Mojonation editierte File wird in einer ersten Phase in mehrere Teile aufgebrochen, um die somit entstandenen Fragmente in einer zweiten Phase erneut in weitere acht St?ck zu unterteilen. Die nun entstandenen Blocks werden codiert und zur Gew?hrleistung der Zuverl?ssigkeit doppelt abgelegt, wobei der Aufenthaltsort der einzelnen Blocks nur mittels des Brokers durch eine eigens erstellt Sharemap ausfindig gemacht werden kann. Um ein Missbrauch durch eine Manipulation der Sharemaps zu verhindern, werden auch diese fragmentiert und codiert. Die Teilfragmente der Sharemaps werden in der Mojonation Terminologie als Dinoden bezeichnet; sie stellen die eigentliche Kerninformation dar, ohne welche eine Reproduzierung der vollst?ndigen Sharemaps nicht m?glich ist. Dinoden ? Referenzen erscheinen im Mojonation Interface in der Gestalt von MojoIDs (lesbare URLs). Somit kann vor dem eigentlichen Download nicht zwischen Mojonation Files und anderen Files differenziert werden. Eine m?glichst effiziente Verteilung der Daten auf bestehende Speicherkapazit?ten wird durch ein eigentliches Marktprinzip gew?hrleistet. Durch Zuhilfenahme dieses Prinzips k?nnen ?berm?ssige Zugriffe auf die Systeme einzelner User vermieden und somit die Risiken von Stauungen oder Systemzusammenbr?chen eliminiert werden. Sicherheit / Anonymit?t Die dezentrale Architektur von Mojonation garantiert den jeweiligen Usern ein Maximum nicht nur an Sicherheit im Hinblick auf ihre Datenbest?nde, sondern auch an Anonymit?t im Hinblick auf die eigene Person. Einmal publizierte Daten k?nnen infolge ihrer extrem vielf?ltigen Verteilung und Codierung weder gel?scht noch kontrolliert werden. Diese Tatsache mag auf den ersten Blick durchaus faszinierend wirken, wirft bei einer vertiefteren Betrachtung doch vor allem schwerwiegende Fragen im Bereich der Internet ? Kriminalit?t auf. Seit Bestehen des Internets z?hlten zu den Protagonisten seiner rasanten Entwicklung nicht zuletzt auch kriminelle Elemente, welche sich nun mittels Mojonation in bisher unerreichter Perfektion der Beobachtung durch die Augen der ?ffentlichkeit entziehen k?nnen. 2.5.3. Wirtschaftliche AspekteIn einem bestechend freien Ansatz ist es den Mojonation Entwicklern gelungen, den gordischen Knoten wirtschaftlicher Renditem?glichkeiten und archaischer Kommunikationsformen durch die Etablierung einer eigenen W?hrung zu durchtrennen. Der Mojo als digitale W?hrung der Mojonation kann wie eingehend bereits ausgef?hrt durch die User mittels zur Verf?gungstellung von Ressourcen erworben werden. Der somit erworbene Bestand an Mojos (?virtuelle Token?) kann f?r den eigenen ?Einkauf? in der Mojonation genutzt werden. Als extrem marktwirtschaftliches wie auch basisdemokratisches Element ist die eigene Preisgestaltung der User zu nennen, welche den Preis von Ressourcen und angebotenen Contents rein nach dem Nachfrage ? Angebot ? Prinzip bestimmen. Sind die eigenen Guthaben an Mojos aufgebraucht, muss der Community neuer Content angeboten werden, um am Markt wieder partizipieren zu k?nnen. Cheating und Freeloading werden somit vermieden. Wieweit der virtuelle, auf micro Zahlungssystemen aufbauende Zahlungsverkehr bereits eine erfolgreiche Adaption der realen Welt verk?r
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment
Note: Only a member of this blog may post a comment.