Das Netz vermüllt!

Die primitiven Protokolle aus den Gründerzeiten des Internet führen heute durch Spam und Wachstum zur Datenverstopfung

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Als die Schlüsselkomponenten des heutigen Internet entwickelt wurden, war es als rudimentäres Kommunikationsnetz geplant, das auch mit technik- oder kriegsbedingten Löchern stabil bleiben sollte. Auf seine heutige Verwendung war es nie ausgelegt, was zum Kollaps durch Datenmüll führen kann: Neben Spam sind notorische Broadcasts ein Problem.

Das Packet-Radio-Netz der Funkamateure ist mit seiner Paket-Datenübertragung das drahtlose Äquivalent zu Ethernet und Internet, allerdings mit wesentlich geringerer Bandbreite, da die Funkamateure nur schmale Frequenzbänder zur Datenübertragung zur Verfügung haben. Anfangs, als es nur wenige Packet-Radio-Stationen gab, wurden diese nicht strukturiert verlinkt und vernetzt, sondern ähnlich dem nur theoretisch gut funktionierenden DIRC-Telefonsystem Peer-to-Peer vernetzt: Jede Station konnte als Repeater dienen und Pakete anderer Stationen weiterreichen. Damit einer Station bekannt ist, welche andere in ihren Empfangsbereich sind und als Repeater benutzt werden können, gibt es die Bakenfunktion: Jede Packet-Radio-Station sendet ihren Kennung in regelmäßigen Abständen in den Äther - eine echte Broadcast-Funktion also.

Peer to Peer: Einfach, doch unorganisiert

Als Packet-Radio immer beliebter wurde, brach dieses System jedoch zusammen: Schon die immer zahlreicheren Baken-Aussendungen blockierten das Netz und Repeats über mehrere Stationen kamen nicht mehr heil beim Empfänger an. Heute sind Bakenaussendungen daher tabu und statt Peer-to-Peer von User zu User wird längst unsymmetrisch von den einzelnen privaten Stationen direkt zu dedizierten Repeatern verbunden, die dann ihre Daten auf anderen Frequenzen außerhalb des Arbeitsbereichs der Einzelstationen miteinander austauschen.

Auch das Internet war ursprünglich auf gleichberechtigte Rechner ausgelegt, die direkt mit festen IP-Adressen miteinander kommunizieren. Auch hier gibt es folglich Broadcasts, anhand derer die vernetzten Computer überprüfen, welche anderen Rechner auch im Netz sind. Schließlich können diese ja abgeschaltet werden - oder im militärischen ARPA-Net vom Atomschlag getroffen worden sein - und dann hängt das Routing.

Geschwätzige Rechner

Im Gegensatz zu der Zustellung normaler Briefpost, bei welcher der Briefträger zunächst einmal davon ausgeht, dass Herr Maier, der gestern in der Müllerstraße 12 wohnte, auch heute noch dort ist und damit auch jahrelang gut zurechtkommt, plagt ein Computernetzwerk die ständige Paranoia: Teils im Minutenabstand wird nachgeschaut, ob die Partner noch da sind. So werden Netzlücken zwar schnell entdeckt und umgangen, bevor plötzlich eine große Anzahl Datenpakete auf der Matte stehen und nicht mehr weiter wissen, weil ein Linkpartner verschwunden ist. Doch ist das ständige Geplappere der Rechner miteinander auch störender Datenverkehr. Für den einzelnen PC handelt es sich nur um ein paar Bytes in der Sekunde, doch in einem Backbone summiert es sich erheblich.

Insbesondere die gewöhnlichen Windows-PCs sind in ihren eigenen Windows-Netzen auf Peer-to-Peer-Vernetzung mit zahlreichen Broadcasts ausgelegt: Wenn Herr Maier in der Früh seinen Büro-PC einschaltet, soll Kollege Müller diesen ja nicht erst nach 30 Minuten erreichen können. Diese Netbios-Broadcasts im firmeneigenen Ethernet stören ja auch nicht weiter. Doch mit den inzwischen üblichen direkten Internet-Verbindungen gelangen diese für Außenstehende völlig nutzlosen oder sogar gefährliche Informationen preisgebenden Pakete nun auch ins Internet, wenn die Firewalls der Unternehmen nicht korrekt konfiguriert sind und der Provider muss sie stattdessen ausfiltern. Dabei können erhebliche Trafficwerte auf den Backbones auflaufen.

Auch Tote haben keine Ruhe

Tatsächlich konnte Andrew Orlowski in San Franzisco an einem bereits seit Monaten stillgelegten Internetanschluss immer noch ein Hintergrundrauschen von etwa 20 Bit/s feststellen von anderen Rechnern, die den Dahingeschiedenen anpingen wollten. Am Wochenende sank diese Zahl, was eher auf typische Büro-PCs als Ursache schließen lässt denn beispielsweise auf Portscans von Hackern oder Würmern wie Blaster, obwohl diese bereits ein Viertel des nutzlosen Datenverkehrs ausmachen. Nach Reaktivierung des toten Rechner stieg die Zahl durch dessen Antworten sofort aufs Dreifache, ohne dass dieser selbst irgendeine eigene Datenverbindung ins Internet aufbaute.

Das Internet-Hintergrundrauschen an einem abgeschalteten Knoten

Doch auch Portscans tragen zum steigenden Hintergrundrauschen bei, ebenso wie Würmer und Spam, die mit ihren gefälschten Absenderadressen das Netz gleich mehrfach belasten und eben auch inaktive Anschlüsse mit einbeziehen - im Extremfall entsteht so ein DDOS-Angriff. Wollen sich geplagte Provider und Unternehmen hiergegen mit Blacklists schützen, so verschwinden ganze IP-Adressbereiche aus dem Netz, was ebenfalls wieder zu Paketverlusten, Paketwiederholungen und somit weiterem Trafficanstieg führt.

Das Netz: Paranoiker mit Elefantengedächtnis

Karl Auerbach sieht deshalb bereits das Internet in der heutigen Form sterben, denn auch wenn die Rechner ihren Nachbarn zu Recht nicht abnehmen, dass diese nach 5 Minuten auch noch da sein könnten, haben sie gleichzeitig ein Elefantengedächtnis: Tote Links sind noch nach Monaten in Suchmaschinen und jahrelang auf alten Websites, längst vergessene, aufgegebene oder von missgünstigen Firmen verbotene oder eingeklagte Web- und Mailadressen werden auch noch nach Jahrzehnten von ehemaligen Arbeitskollegen, Freunden, Fremden, Würmern und Spammern vergeblich angesurft und angeschrieben und mit den Bounces und Fehlverbindungen das Netz nochmals belastet.

Selbst mit den relativ günstigen amerikanischen Preisen für Internet-Traffic erzeugt ein Netz aus 64.000 abgeschalteten Computern bereits Traffic für 1300 Dollar, dieselbe Menge Computer eingeschaltet und am Netz erzeugen bereits 4000 Dollar Traffic. Intelligentere Algorithmen sind notwendig, denn das bisherige Allheilmittel der Bandbreitenerhöhung kann das steigende Daten-Müll-Problem nicht mehr auffangen.