Im folgenden Kapitel werden die Aussagen der Interviewten zusammengefasst, die das Internet und die zu untersuchenden Phänomene der Internet-Tsunamis unter einer technischen Perspektive betrachten. Im Wesentlichen geht es dabei um technologiebedingte Mechanismen und Gesetzmäßigkeiten, die sich durch die Infrastruktur des Internets und die Kommunikation in Netzwerken ergeben.
Das Internet ist ein Netzwerk
Das Internet als permanentes Netzwerk ermöglicht es Menschen miteinander zu kommunizieren. Wollte man in Zeiten vor dem Internet Menschen zusammenbringen, zu unterschiedlichen Zwecken, um Geschäfte zu tätigen, Erfahrungen und Wissen auszutauschen oder Proteste zu organisieren, so war man in einem Defizit. Das Defizit nicht zu wissen, wer und wo die entsprechenden gleichgesinnten Interessenten sind und über welche kommunikativen Instrumente man diese erreichen kann. Die breitenwirksame Kommunikation war zwar möglich, aber kostenintensiv und von Gatekeepern versehen (Massenmedien) oder in Reichweite und Skalierung stark begrenzt (Marktplatz). Das Internet als permanente Kommunikationsinfrastruktur dreht diesen Prozess um. Ein Großteil der Bevölkerung ist über dieses Netzwerk miteinander verbunden, soziale Kontakte und Verbindungen bekommen so eine technisch-infrastrukturelle Entsprechung. War früher die einfachste Möglichkeit zur politischen Partizipation eine Partei zu gründen, zu suchen oder einzutreten, so ergeben sich heute weitere vielfältige Beteiligungsformen.
Schon vor den Zeiten des Internets stellte der Wissenschaftler Stanley Milgram in seinem „Kleine-Welt-Phänomen“ die These auf, dass über eine Kette von sechs persönlichen Kontakten zwei x-beliebige Menschen in den USA miteinander verbunden werden können.[1] Diese latenten Mensch-zu-Mensch-Verbindungen werden durch das Internet potenziell nutzbar gemacht. Vorbedingung für die Massentauglichkeit des Internets war die Senkung der technischen Barrieren. Einen Schlüsselschritt bei dieser Entwicklung stellt der Internet-Browser dar. Heute ist es für Internetnutzer selbstverständlich über MS Internet Explorer, Mozilla Firefox, Google Chrome oder Apple Safari das Internet anzusteuern. Die Macht der Oberfläche kommt zum Tragen, da nur wenige Menschen Maschinensprachen beherrschen, kommuniziert die breite Masse über sog. Interfaces, die durch Einfachheit bestechen und Zugangshürden senken – man denke nur an die Eingabemaske von Google. Eine tiefere technische Expertise ist nicht notwendig, einfache Klienten machen es Jedermann möglich, unterschiedlichste Dienste im Internet zu nutzen.
Einen weiteren entscheidenden Entwicklungsschritt stellt die Einführung und breite gesellschaftliche Durchdringung durch soziale Netzwerke dar. Eine Entwicklungsstufe die unter das Stichwort Web 2.0 fällt. Muster menschlichen Verhaltens und menschlicher Kommunikation, die vorher unsichtbar erschienen, werden sichtbar und öffentlich. Darunter fällt allerdings jegliche Form menschlicher Kommunikation, eben auch Klatsch und Tratsch oder das Flurgespräch mit dem Nachbarn (Informationen, auf die der eine oder andere auch gerne verzichten würde). Mensch-zu-Mensch-Verbindungen und soziale Kontakte sind heute durch das Internet in einer nie dagewesenen Breite nutzbar. Das Internet als Netzwerkinfrastruktur verkürzt Kommunikationswege und reduziert Kommunikationskosten.
Soziale Medien oder besser Internetkommunikationssysteme
Im Gegensatz zum Fernsehen, bei dem es sich um ein Konsummedium handelt, ist das Internet hauptsächlich ein Aktivitätsmedium. Im Internet müssen Informationen aktiv gesucht werden. Die Hyperlink-Struktur des Internets eröffnete gegenüber den bis dahin gängigen hierarchischen Ordnungssystemen völlig neue Wege, um gezielt an Informationen zu gelangen. War das Verschriftlichte im Vorinternetzeitalter linear mit einer klaren Hierarchie im Text, nach Textfluss, Seiten, Kapiteln und Fußnoten durch den Autor organisiert, so navigieren sich Nutzer (engl. User) nach ihrer eigenen nichtlinearen Textlogik durch das Internet. Geschuldet ist dies der Netzwerkstruktur des Internets und der damit verbundenen nichtlineraren Organisation. Mehr noch werden Nutzer selbst vielfach zu Produzenten, Autoren und Herausgebern. Sogenannter „User Generated Content“ oder kurz UGC füllt insbesondere die sozialen Medien mit Inhalten.
Ein wertvoller Beitrag bezüglich der Begrifflichkeit soziale Medien kam von einem Interviewten, der anmerkte, dass Medien per se nicht sozial seien. Im Gegenteil würde Facebook, aus seiner Sicht, eher „asoziale“ Mechanismen ausbilden, in dem gruppendynamische Zwänge und Datenoffenlegung als etwas grundlegend Gutes verherrlicht werden, wobei gleichzeitig die Nutzer Facebook-intern als Target bezeichnet würden und Menschen als Bedarfsträger an Werbekunden, Regierungen und Gemeindienste verkauft werden. Als begriffliche und präzisere Alternative schlug er daher die Terminologie Internetkommunikationssysteme vor. Zweck und Anbieter unterscheiden sich dabei erheblich. Softwareanwendungen unterliegen zunächst den gleichen Gesichtspunkten wie alle anderen zu betrachtenden Kulturräume. Die grundlegende Fragestellung lautet daher, in welchem strukturellen Umfeld man sein Anliegen verarbeiten möchte?
Facebook ist bezüglich der Reichweite das tragfähigste soziale Netzwerk. Dabei stellt es vor allem eine niedrigschwellige Kontaktmöglichkeit her und schafft soziale Nähe, eine Einschätzung die nicht alle Interviewten teilten. Google Plus (google+) wurde dagegen als bisher noch elitär eingestuft. Einigkeit herrscht über die Einschätzung von Twitter, als Beschleunigungssystem dient es der Weiterleitung von Informationen, allerdings weniger der Diskussion.
Eine andere Perspektive auf diese Internetkommunikationssysteme ist die Möglichkeit des Profiling’s von Nutzerkonten bei Facebook, Twitter und Co. In repressiven Staaten und durch Nachrichtendienste werden Protagonisten über Mustererkennung und Beziehungsstrukturen, teilweise in Echtzeit identifiziert. Gerade westliche Firmen machen mit Spionagetechnolgien ethisch fragwürdige Geschäfte. Dies ist die Kehrseite des Hypes, um die „revolutionären“ Potenziale sozialer Medien. Ein Medium bleibt ein Medium, was damit getan wird, hängt alleine vom Nutzer ab. Ein Interviewter machte die treffende Bemerkung: „Twitter- oder Facebook-Revolution macht so viel Sinn, wie zu sagen es war eine Telefon-Revolution“.
Dennoch verändern die Potenziale von UGC die Medienmacht. Massenmedien als Filter von Informationen verlieren ihr Alleinstellungsmerkmal. Gerade die Möglichkeit, durch Handyvideos Geschehnisse zu dokumentieren, bricht bei den Rezipienten die Distanz und kreiert eine Nähe zum Sachverhalt. Die Verbreitung von Smartphones und Flatrates vergrößern diesen Trend weiter. Der Bürgerjournalist kann heute direkt vor Ort Bericht erstatten und YouTube wird potenziell zum neuen Nachrichtenportal.
Etablierte Machtstrukturen scheinen sich aufzuweichen, denn das Internet gibt Menschen eine Stimme, die vorher keine hatten, oder mit einer Durchschlagkraft, wie dies vorher nicht möglich war. In Echtzeit mit 10 – 10.000 Menschen zu sprechen, ist heute möglich, allerdings ein zweischneidiges Schwert, denn es kann auch immer für manipulierende, negative Effekte ausgenutzt werden, wie im weiteren Verlauf der Studie genauer erläutert werden soll.
Multiplikation
Durch die Digitalisierung werden Daten bei gleichbleibender Qualität beliebig replizierbar. Sind Daten einmal veröffentlicht, können sie nicht mehr zurückgeholt oder kontrolliert werden. Das Rausnehmen oder Löschen verliert die intendierte Wirkung, ganz im Gegenteil bewirkt sie oft Gegenläufiges: weitere Vervielfältigung und dadurch mehr Aufmerksamkeit. Prominentes Beispiel ist hier die Greenpeace-Kampagne gegen Nestlé. Ein von Greenpeace hergestellter Werbespot für den Schokoriegel Kitkat macht dabei auf die Verwendung von Palmölen aufmerksam, die aus Bezugsquellen stammen, die zur Urwaldzerstörung beitragen. Als Nestlé den Werbespot von YouTube löschen ließ, war dieser bereits vielfach multipliziert und die Löschung löste einen negativen Aufschrei im Internet und einen damit verbundenen Imageverlust für Nestlè aus.
Das revolutionäre Potenzial des Internet speist sich aus der beliebigen Multiplizierbarkeit von Daten gepaart mit einem globalen Verteilungsnetzwerk. Neben dieser Grundkonfiguration gibt es weitere Merkmale des Internets und der Netzwerkkommunikation, die im Folgenden beschrieben werden.Datenbereitstellung und Verfügbarkeit
Im Internet stehen viele Daten zeitgleich, parallel zur Verfügung. Vorstellen kann man sich dies, wie Akustik im Raum, Geräusche sind permanent zugegen, dennoch kann man sich auf bestimmte einzelne Töne, wie eine Stimme fokussieren. Ebenso ist man im Internet von einer Flut von Informationen umgeben, entscheidend ist aber die Information, die wir suchen und wahrnehmen.
Informationen stehen im Internet sofort nach Erfassung bzw. Änderung zur Verfügung. Dabei spielt es keine Rolle, in welcher Form die Speicherung erfolgt – analog wie auch erzeugte Geräusche sofort von jeder sich im Raum befindenden Person wahrgenommen werden können. Im Internet gespeicherte Informationen können grundsätzlich sofort von jeder im Internet befindlichen („surfenden“) Person „wahrgenommen“(gefunden) werden.
Im Gegensatz dazu können die traditionellen Medien (Radio, Fernsehen, Zeitung) von der Politik zensiert werden. Traditionelle Medien werden über eine zentrale Stelle verbreitet (Radio- oder Fernsehanstalt, Zeitungsverlag etc.). Hier gibt es die Möglichkeit vor der Verteilung einzugreifen und die Verteilung von Informationen zu verhindern. Das Internet ist ohne zentralen Punkt konzeptioniert, es bestehen viele Informationsverteilungsknoten, die permanent online sind. Dementsprechend ist es nicht vorhersehbar, wo und wann neue Informationen im Internet bereitgestellt werden. Frei publizierte Informationen im Internet sind immer sofort für alle sichtbar. Es kann also immer erst nach der Verteilung der Information durch die Politik reagiert werden.
Allerdings kann die damit erzeugte Geschwindigkeit der Informationsverbreitung auch negative Auswirkungen auf Qualität und Durchdringungstiefe haben. Die Möglichkeit, schnell an Informationen zu kommen, erzeugt auch den Zwang, schnell an Informationen zu kommen. Symptome die sich unter anderem im Mediensystem bemerkbar machen (siehe Teil Mediensystem).
Die Geschwindigkeit des Mediums und der Verteilungscharakter machen entscheidende Differenzen: Die Verteilung von Flugblättern stößt zum Beispiel schnell an Kapazitätsgrenzen und kann regional eingegrenzt bzw. kontrolliert werden. Live-Übertragungen vergrößern den Spielraum, lassen sich aber letztlich durch zentralisierte Sendestationen und minimale Zeitdifferenzen der Signale weiterhin kontrollieren. Die Internet-Echtzeit [3] hingegen verändert die Bedingungen radikal.
Die Gegenwart wird durch das Online-Sein zu einer erweiterten Gegenwart. Online heißt, in einem zugleich elektrifizierten und mathematisierten, weil auf Algorithmen basierenden, Raum zu sein. Zu jeder Zeit, an jedem Ort steht im Prinzip jede Art von Information zur Verfügung. Zensur ist kaum möglich, denn Informationen suchen sich im Internet andere Wege. Das Eintreten und Dokumentieren von Ereignissen benötigt nicht mehr den Transmissionsriehmen klassischer Medien. Der Nachrichtenfluss ist permanent vorhanden, unabhängig von den Absendern, die man noch vor 20 Jahren als die Absender für gesellschaftlich relevante Information betrachtetet hätte.
Echtzeit ist damit in der Theorie zutiefst demokratisch, denn es gibt keinen Wissensvorsprung durch Zeit oder durch eine zeitliche Begrenzung. Allerdings wird damit auch klar, dass Systemarchitektur, Verfügbarkeit und Zugang zu Bandbreiten, Stichwort Netzneutralität, zu einem hoch politischen Thema werden.
Viralität
Viralität beschreibt das Phänomen der exponentiellen Verbreitung von Nachrichten im Internet. Die Wissenschaft ist bisher in der Lage die Verbreitung von Nachrichten im Internet zu visualisieren, allerdings kann sie nicht erklären wie und warum bestimmte Meldungen so und nicht anders verbreitet werden. Ein Erklärungsmuster lautet wie folgt, Nachrichten treffen auf ein vorhandenes Kommunikationsnetzwerk, in Verbindung mit den Möglichkeiten der Multiplikation, der Geschwindigkeit des Mediums und dem Mechanismus der Echtzeit kann sich ein virales Verbreitungsmuster ergeben, d. h. Nachrichten werden, vergleichbar wie bei einem biologischen Virus, von Mensch zu Mensch weitergetragen. Warum sich spezielle Nachrichten exponentiell verbreiten, ist allerdings noch schwer fassbar. Zwar sind grundlegende Mechanismen bekannt [4] (vergl. Kapitel 4.2), aber die Wahrscheinlichkeit des Wirkens sind aktuell nicht kalkulierbar. Grund für die Schwierigkeiten der Vorhersagbarkeit ist u. a. der Schmetterlingseffekt, bekannt aus der Chaostheorie.
Im Prinzip ist die Grundbedingung für die Viralität eines Themas, dass dieses in irgendeiner Weise den Nerv der Zeit trifft und damit auf einen Resonanzboden stößt. Warum gerade dieses Thema und kein anderes, ist entweder dem Zufall geschuldet oder wurde durch Kampagnenmechanismen bewusst angestoßen. Den Garant für eine erfolgreiche Kampagne gibt es allerdings aus beschriebenen Gründen nicht. Wie solche Kampagnen vonstattengehen, wird im Kapitel zu Social Campaigning genauer beschrieben.
Eine bedeutende Rolle in diesem Zusammenhang wird Twitter zuteil. Twitter etabliert das Prinzip des Folgens (engl. follow), man folgt einer bestimmten Person auf Twitter, d. h., man abonniert dessen persönlichen Nachrichtenstrom, unabhängig davon, ob man diese Person persönlich kennt oder nicht. Menschen, die sich noch nie außerhalb des Internets getroffen haben und sich auch nie treffen werden, können so miteinander verbunden werden. Durch die Überbrückung von Freundes- und Bekanntenkreisen erhöht Twitter die soziale Reichweite (engl. social reach) und begünstigt Viralität. Nebenbei entstehen hierdurch neue Machtstrukturen, Personen mit vielen „Follower“ bekommen Einfluss und werden sog. Influencer.
zurück / weiter / Inhalt
________________
[1] vergl. Wikipedia (o. V.) 2012: Kleine-Welt-Phänomen. (07.05.2012)
[2] YouTube (GreenpeaceDE) 17.03.2010: Nestlé, kein Palmöl aus Urwaldzerstörung. (07.05.2012)
[3] „Der Begriff Echtzeit legt lediglich fest, dass ein System auf ein Ereignis innerhalb eines vorgegebenen Zeitrahmens reagieren muss. Der Begriff sagt nichts über die Geschwindigkeit oder Verarbeitungsleistung eines Systems aus.“ In: Wikipedia (o. V.) 2012: Echtzeit. (07.05.2012)
[4] vergl. Pixelmeachnics (Rohrmüller, Michael) 10.09.2010: Viralität im Internet – ein kleiner Stein schlägt grosse Wellen. (09.05.2012)