Martin Andree
Timo Thomsen

ATLAS DER DIGITALEN WELT

Campus Verlag
Frankfurt/New York

Vita

Dr. Martin Andree unterrichtet digitale Medien an der Universität Köln und ist CEO von AMP Digital Ventures. Er ist habilitierter Medienwissenschaftler und besitzt darüber hinaus 20-jährige Erfahrung im digitalen Marketing, unter anderem als Corporate Vice President bei Henkel (2012 bis 2018). Von ihm sind vier weitere Bücher über verschiedene Aspekte der Mediennutzung und Medienwirkung erschienen.

Timo Thomsen ist Global Head of Product & Innovation bei der GfK SE und besitzt mehr als 15 Jahre Expertise in den Bereichen digitale Medien und Cross-Media-Verhaltensmessung, Datenanalyse und -interpretation sowie Marketingberatung. Er leitet den Produktbereich Media Measurement & Consumer Panels.

Verena Bönniger ist Diplom-Kommunikationsdesignerin und seit 2008 Creative Director bei Delicious Layouts Visuelle Kommunikation. Sie hat dem Atlas der digitalen Welt seine Gestalt verliehen.

Inhalt

Einleitung: Warum wissen wir so wenig über die digitale Welt?

Wie groß ist eigentlich das Internet?

I. Die Vermessung des digitalen Universums

1. Das digitale Universum als Ganzes: Aufteilung und Konzentration

2. Digitale Medien: Wie stark hat sich die Nutzung durchgesetzt?

3. Markt: Wie wächst das digitale Universum?

4. Endgeräte: Zugänge in die digitale Welt

II. Aktivitäten: Was tun Menschen in der digitalen Welt?

1. Übersicht der verschiedenen Aktivitäten in digitalen Medien

2. Bewegtbild- und Audionutzung

3. Gaming

4. Kommunikation und Soziales Netzwerken

5. Nachrichten, Informationen; Web-Search; On-Site-Search

6. Einkaufen, Auktionen; Banking, Geld; Produkt-/Preisvergleich; Filesharing, Webspace

7. Pornografische Inhalte; Glücksspiel, Wetten

8. Fazit: Aktivitäten im Überblick

III. Die Sphäre der Social Media

1. Übersicht: Die Dimensionen

2. Facebook und Instagram

- Facebook

- Instagram

3. YouTube als Hybrid

4. Die Territorien der Challenger

- Pinterest

- Twitter

- Reddit

5. Disruptive Plattformen für junge Zielgruppen

- Snapchat

- TikTok

- Tumblr

- Jodel

6. Karriere-Netzwerke

- XING

- LinkedIn

7. Instant-Messenger-Dienste

- WhatsApp

- Facebook Messenger

8. Fazit: Social Media im Überblick

IV. Deep Dives: Gebiete von besonderem Interesse

1. Die »Big 4: Facebook, Alphabet, Apple, Amazon

- Der Facebook-Konzern (Facebook, Instagram, WhatsApp)

- Der Alphabet-Konzern (Google, YouTube)

- Der Apple-Konzern

- Der Amazon-Konzern

- Fazit: Die »Big 4« im Überblick

2. Die Sphäre der Blogs

3. Wie politisch interessiert ist die GenZ?

4. Große Marken im Netz

5. Liebe im Netz? Dating-Plattformen

Das Wichtigste zum Schluss: Unser digitales Weltwissen

Wie die digitalen Medien unsere Welt konstruieren

Anhang

1. Methode, Vorgehen und Grenzen dieser Untersuchung

2. Anmerkungen, Referenzen, weiterführende Literatur

Wie groß ist eigentlich das Internet?

Kennen Sie die Geschichte von der totalen Transparenz digitaler Medien? Vom Segen des Internet, durch das jede beliebige Information sofort per Mausklick in Millisekunden verfügbar ist? Und von der Kehrseite der Medaille: Dass jede unserer Bewegungen im Netz ständig überwacht und in Form von Big Data überall sofort verfügbar gemacht wird? Dass wir im Zeitalter der totalen Transparenz leben? Hört sich das für Sie irgendwie bekannt an?

Aber irgendetwas stimmt hier nicht.

Denn wie ist es dann erklärbar, dass wir über das Internet VIEL ZU WENIG wissen?

Egal, wie viele Daten im Netz produziert werden – wir wissen zu wenig über die digitale Welt

Möglicherweise schütteln Sie jetzt den Kopf. Die meisten Menschen verweisen an dieser Stelle darauf, dass es ja unglaublich viele Informationen über das Internet und digitale Medien gibt – nicht zuletzt im Netz selbst, das vollgepfropft ist mit Facts und Listicles und Studien. Gibt man bei Google etwa »Internet Statistics« ein, werden einem knapp zwei Milliarden Ergebnisse angeboten. Da könnte man sich ja schon mal informieren, nicht wahr?

Dennoch wiederholen wir unsere Frage noch einmal. Und behaupten erneut, dass Laien wie Experten über viele grundlegende Fragen digitaler Medien weitgehend im Dunkeln tappen.

Was wissen wir, was wissen wir nicht?

Vergessen Sie jetzt mal die ganzen Mikro-Informationen, die Sie kennen (Post X von Y hat wie viele Likes bekommen, Kylie Jenner hat soundsoviele Follower auf Instagram etc.).

Stellen wir probeweise einmal ein paar grundsätzlichere Fragen:

Gerade wenn es um einfache Fragen geht, gibt es kaum Antworten

Denken wir dann an die Netzgiganten wie Google, Facebook, Amazon. Wir wissen, dass sie groß sind. Aber wie groß sind sie eigentlich genau? Nicht in Bezug auf ihre Umsätze (klar, die kennen wir), sondern auf ihre spezifische Rolle innerhalb des digitalen Universums. Denken wir einmal an Google: Wie groß ist eigentlich die Suchmaschine von Google im Verhältnis zu Google Maps im Verhältnis zu Gmail?

Wir kennen aus dem Fernsehen etwa die gute alte Einschaltquote. Was wäre denn zum Beispiel die »Einschaltquote« von Facebook verglichen mit Google oder Amazon?

Sicher können Sie jetzt anfangen zu googeln, und sicher werden Sie irgendwelche ziemlich beliebigen Informationen herausbekommen. Sie werden vielleicht einen Marktanteil finden von Google, aber eben nur im Markt der Suchmaschinen (Maps? Gmail?), ohne zu wissen, wie der sich nun zum gesamten Netz verhält. Der Marktanteil wird meist auf Befragungen basieren (deren Zuverlässigkeit häufig schlecht ist) oder bestenfalls Reichweiten zugrunde legen, ohne dass die tatsächlichen Nutzungsweisen bekannt sind.

Sie werden auf eine Unmenge von Studien und Statistiken treffen, bei denen oft nicht erklärt wird, auf welche Weise die Daten überhaupt gewonnen wurden. Noch schlimmer sind die millionenfach produzierten Listicles, die mittlerweile als Clickbait das Netz fluten: »135 insane Social Media Stats that Marketeers will have to know in 2020!« Alles wird mit allem verglichen, auch wenn die Daten aus völlig unvergleichbaren und häufig fadenscheinigen Quellen stammen.

Wir sehen den Wald vor lauter Bäumen nicht

Fragwürdige Faktenflut vs. Mangel an Grundlagenstudien

Und klar können Sie zu all diesen Fragen Detailstudien finden. Stellen wir uns nun vor, Sie hätten genau dies versucht und zur Beantwortung unserer allgemeinen Fragen alles herausgesucht, was sie irgendwie und irgendwo ermittelt hätten. Und stellen wir uns vor, dass wir auch vorläufig die Zweifel an der Qualität ignorieren. Dann stellt sich immer noch das eigentliche Problem:

Wie soll man diese Millionen winziger Mikro-Informationssplitter dann in einen Zusammenhang bringen? Sie wissen meist nicht einmal, auf welche Weise die Informationen gemessen wurden. Sie haben keine Möglichkeit, die vollständig unterschiedlich erhobenen Daten und Zahlen irgendwie in ein Verhältnis zueinander zu setzen. Oft sind sogar die Werte hinter den einzelnen Parametern gar nicht miteinander vergleichbar, obwohl dieselben Begriffe verwendet werden (»Sessions«, »Impressions« etc.).

Ist das nicht ein erstaunlicher Befund? Vergleichen wir das einmal mit der Vermessung der »echten« Welt: Stellen Sie sich vor, Sie wüssten zum Beispiel, dass Asien irgendwie »groß« ist und auch, dass im Osten »sehr viele Menschen leben«. Dass es da noch einen Kontinent gibt, im Süden irgendwo, auch sehr groß, Afrika genannt. Sie hätten auch ein paar sehr spezifische Informationen, wie etwa, dass Kairo 30° 3‘ nördlicher Breite und 31° 14‘ östlicher Länge liegt, nur dass Sie leider keine Ahnung haben, wie viele Menschen da eigentlich wohnen und in welchem Land sich diese Stadt überhaupt befindet (irgendwo in Afrika).

Dafür wüssten Sie aber zum Beispiel von der Stadt Fulda (und zu vielen anderen einzelnen, aber thematisch unzusammenhängenden Gegenständen) nicht nur die Postleitzahl und die Vorwahl, sondern auch die Tiefe des Flusses Fulda – und zwar für 27 Messstellen auf den Millimeter genau, ebenso wie die Wassertemperatur, zudem noch die Windgeschwindigkeit über Wasser, und das in Echtzeit, auf drei Stellen hinter dem Komma genau (diese Daten werden Ihnen natürlich zehntelsekundengenau real time über ein Dashboard vermittelt).

Ist es nicht seltsam, dass wir uns im Falle von digitalen Medien mit einer solchen Datenlage zufriedengeben, wenn man bedenkt, dass die digitale Transformation ein Thema mit allerhöchster gesellschaftlicher Relevanz ist?

Wir geben uns mit einer erstaunlich schwachen Datenlage zufrieden

Jeder, der sich in irgendeiner Form mit digitalen Medien beschäftigt, lebt also in einer paradoxen Welt. Sicher, zu keinem Feld existieren mehr Daten, Informationen und Statistiken. Aber es fehlen Antworten auf die grundsätzlichen Fragen, und wir verstehen die Zusammenhänge nicht mehr.

Erstaunlich ist, dass dieser Befund für alle gilt: Für interessierte Laien, für Schüler und Studenten. Für kleine und große Unternehmen. Für Politiker oder politisch Interessierte. Für digitale Nerds. Für Menschen, die sich Sorgen um Datenschutz oder die Smartphone-Nutzung ihrer Kinder machen, für Social-Media-Experten, Marketingprofis, Mediaplaner oder CDOs der Unternehmen.

Wir benötigen einen allgemeinen Referenzrahmen, um die digitale Welt zu verstehen

Nur durch einen »ganzheitlichen Kompass« lassen sich alle Fakten einordnen

Dieses Buch ist aus der Erkenntnis entstanden, dass uns ein allgemeiner Referenzrahmen fehlt, der uns helfen könnte, die Unzahl digitaler Einzeldaten zu kontextualisieren. Die Notwendigkeit eines solchen Projekts hat sich einerseits über langjährige Erfahrung im digitalen Management ergeben, aber auch und vor allem bei der universitären Lehre. Wie soll man Studierende auf dem Feld der digitalen Medien hervorragend ausbilden, wenn ein solides und belastbares Datenfundament fehlt?

Das ist übrigens eine unbefriedigende Situation für uns alle, aber insbesondere für ein universitäres Fach wie etwa die Medienwissenschaft. Die Menge an Informationen, die Wissenschaftlern zur Verfügung steht, ist ja nur ein Bruchteil der Daten, die große Digital-Unternehmen wie Google, Amazon, Facebook besitzen. Diese Unternehmen eröffnen präzise und belastbare Informationen aber nur ihren Kunden, und das sind dann eben auch kundenspezifische Daten (sicherlich auch aus Datenschutzgründen). Dagegen stellen sie ihre Informationen kaum der wissenschaftlichen Forschung und der Öffentlichkeit zur Verfügung.

Das Resultat ist ein typisches Symptom des oben beschriebenen Paradoxes: Digitale Großunternehmen wissen quasi alles über das digitale Universum im Kompetenzfeld des eigenen Konzerns. Digitale Experten in der Wirtschaft wissen sicherlich ungeheuer viel, aber meist über recht kleine Ausschnitte. Ein Beispiel: Wenn ein Unternehmen etwa eine große Webseite unterhält, weiß es beispielsweise ganz genau, wie viele User an welchem Tage wie viele Sekunden auf dieser Plattform waren etc. Aber es fehlt auch hier den Profis häufig der Kontext und der Abgleich mit dem großen Ganzen, etwa ein Gefühl für die Verteilung des gesamten Traffic im digitalen Universum.

Zielsetzung dieses Buchs ist, eine solche 360°-Vermessung für das digitale Universum in Deutschland vorzulegen. Zu diesem Zweck wurden sämtliche im Markt befindliche Datenlösungen geprüft, wobei sich das Crossmedia Link Panel der GfK (Gesellschaft für Konsumforschung) als eine wissenschaftlich und qualitativ besonders hochwertige Datenbasis erwies.

Wichtige Fachbegriffe – einfach erklärt

Panel

Im Gegensatz zu der typischen Form einmaliger Befragungen beruhen Panels darauf, dass bei einer repräsentativen Zahl von Panel-Teilnehmern in wiederkehrenden Abständen immer dieselben Daten erhoben werden. Aus diesem Grund handelt es sich bei Panels um besonders hochwertige, aber auch sehr kosten- und arbeitsintensive wissenschaftliche Datenerhebungen.

Für diese Einschätzung gibt es einen einfachen Grund: Das Panel der GfK misst im Gegensatz zu anderen Erhebungen keine subjektiven Selbstbeschreibungen der Nutzer, sondern dokumentiert reale Mediennutzung bei einer repräsentativen Stichprobe von 16.000 Usern. Diese Erfassung des echten Nutzungsverhaltens erfolgt sekundengenau, URL-spezifisch, lässt sich trennscharf über die verschiedenen Endgerätekategorien (Desktop, Smartphone, Tablet) auflösen, hochgranular auswerten und über die verschiedenen Zeitperioden vergleichen.

Die Daten und Informationen, auf denen dieses Buch basiert, werden der Öffentlichkeit hier erstmals zugänglich gemacht

Der Ursprungspunkt des Projekts war eine Bitte der Universität Köln an die GfK, diese bislang unveröffentlichten Daten für Forschungszwecke unentgeltlich zur Verfügung zu stellen. Erfreulicherweise hat sich die GfK schnell, flexibel und uneigennützig dazu bereit erklärt, was das Ergebnis dieser Kooperation und Partnerschaft überhaupt erst ermöglicht hat. Timo Thomsen hat zusätzlich seine Data-Analytics-Expertise als Co-Autor eingebracht.

Die in diesem Buch aufbereiteten Daten basieren auf einem außerordentlich leistungsstarken Panel. Es ist überhaupt erst durch diesen enorm hohen Aufwand dieser Panel-Messungen möglich, dass eine ganzheitliche Beschreibung digitaler Medien auf der Grundlage ein und desselben zusammenhängenden Datensatzes überhaupt realisierbar wurde.

Fangen wir also an –

mit dem Versuch einer ganzheitlichen Kartografierung der digitalen Welt.

Hinweis:

Die Struktur der von uns genutzten Daten erlaubt leider keine Auswertung für nichtbinäre Gender-Identitäten – hier ergeben sich wichtige Desiderate für zukünftige Studien. Aus ähnlichen Gründen wird im Folgenden auf die gleichzeitige Verwendung weiblicher und männlicher Sprachformen verzichtet und die generische männliche Form verwendet – womit keine Zufriedenheit, sondern ein Mangel ausgedrückt ist.

I 1 Das digitale Universum als Ganzes:
Aufteilung und Konzentration

Wie teilt sich das digitale Universum auf?

Stellen Sie sich vor, Astronomen würden ein unbekanntes Sonnensystem entdecken – dann würde man sofort anfangen, es zu vermessen und zu klassifizieren: Wie viele Planeten besitzt es? Wie groß sind die einzelnen Planeten, und wie weit entfernt stehen sie zu ihrer Sonne? Welche davon haben wie viele Monde und so fort.

Wir müssen die Aufteilung der digitalen Welt als Ganzes verstehen

Es ist erstaunlich, dass uns zur digitalen Welt so wenig einfällt, was sie als Ganzes beschreibt und zugänglich macht – und genau deshalb wollen wir mit dieser scheinbar einfachsten aller Fragen beginnen. Aus welchen großen und kleinen Planeten besteht sie? Wir möchten herausfinden, auf welche Weise sie sich in die verschiedenen Anbieter und ihre Angebote aufteilt – von den ganz großen (z. B. Facebook) bis zu den ganz kleinen (z. B. der Homepage Ihres Optikerladens). Und das erreichen wir am besten über eine Analyse der Konzentration.

Vermögen und Traffic

Wenigen gehört viel – vielen gehört wenig

Angenommen, in Deutschland würden den reichsten drei Personen 28,5 % des gesamten nationalen Vermögens gehören. Die reichsten sieben Menschen besäßen zusammengenommen 50,3 %, die wohlhabendsten 500 besäßen alle zusammen 85,8 %. Da bliebe nicht mehr viel übrig – nämlich nur noch 14,2 % für die ganze Bevölkerung. Diese 14,2 % des gesamten Vermögens müssten sich die restlichen 83 Millionen Bürger untereinander aufteilen.

Wir haben es in diesem Beispiel mit einer hohen Konzentration zu tun, das heißt mit einer extremen Ungleichverteilung von Vermögen. Sie entspricht exakt der Konzentration des Internet-Traffic im Netz.

Wie konzentriert ist das digitale Universum?

Um das ungeheure Ausmaß dieser Konzentration zu veranschaulichen, sei erwähnt, dass »in Wirklichkeit« die reichsten 10 % in Deutschland (also nicht wie oben nur 7 Personen, sondern immerhin mehrere Millionen Menschen!) mehr als die Hälfte des Vermögens besitzen. Das finden die einen ungerecht, die anderen stört es weniger. Wir wissen jedenfalls ganz genau, wie sich das Vermögen in der deutschen Gesellschaft verteilt, sodass man sich auf der Grundlage von Fakten konstruktiv darüber streiten kann, ob es zu stark konzentriert ist oder nicht.

Der Grad der Konzentration ist entscheidend

Anders verhält es sich mit den unterschiedlichen Angeboten in der digitalen Welt. Ihre Bedeutung ist nicht bekannt. Sicher vermutet man irgendwie, dass digitale Unternehmen wie Google, Facebook, Amazon etc. sehr groß sind – aber niemand kann momentan genau sagen, wie groß der Anteil der starken Anbieter etwa in Relation zum Gesamtmarkt ist.

Natürlich ist die digitale Konzentration auch in den Medien und der Politik als Thema sehr präsent, etwa unter dem Stichwort Monopolbildung – allerdings sind belastbare und genaue vergleichende Studien rar gesät. Dies aber ist gefährlich, weil sich Debatten über Netzkultur dann nur auf der Grundlage von diffusen Bauchgefühlen führen lassen – weswegen sie oft verebben, weil man es eben nicht genau weiß. Und deshalb widmen wir den Einstieg in unsere Vermessung der digitalen Welt einer genauen Beschreibung der Verteilung des gesamten digitalen Traffic.

Bringt die digitale Revolution Empowerment?

Hoodie, Garage, Beanbag und Graffiti als Symbole einer Underdog-Kultur

Übrigens widerspricht diese Konzentration unserer intuitiven Wahrnehmung der Netzkultur – die wir als eine wunderbare, bunte, diverse und dynamische Welt erleben. Da ergibt sich ein extremer Mismatch. Denn von Beginn an hat sich die digitale Szene eigentlich ganz anders, nämlich als Robin-Hood-Kultur verstanden, die den Reichen nimmt, um den Armen zu geben. Das Netz, so der Traum, liefere Empowerment für die Kleinen im Kampf gegen die Großen. Und viele demokratisierende Elemente der digitalen Medien sind ja offensichtlich. Schon die Hyperlink-Struktur brach mit alten Top-down-Hierarchien. Die Rückkanalfähigkeit gab den Nutzern eine Stimme, emanzipierte sie, erlaubte User-Generated-Content, der heute über Social Media die Normalität im Netzalltag darstellt.

Vom Consumer zum Prosumer

Vielleicht besteht genau darin der teuflische schöne Schein des Internet. Denn diese »digitale Befreiung« lässt sich in den verschiedenen Märkten ja gar nicht wegdiskutieren, sie ist völlig offensichtlich:

Die Emanzipation der Kleinen?

Diese unendliche Vervielfältigung des Angebots im Netz wurde von Chris Anderson in seinem Modell des Long Tail beschrieben.

Das Internet formatiert die Gesellschaft neu

Anderson verglich das Angebot etwa von Amazon mit demjenigen eines Buchladens, dessen Regalfläche immer räumlich limitiert bleibt. Deswegen sah er in der digitalen Transformation eine Chance für die Kleinen – am Beispiel des Buchmarkts: Nicht nur Autoren von Bestsellern und Blockbustern, die in die Regale der Buchhändler gelangen, sondern auch schwach nachgefragte Nischenprodukte können sich im Long Tail verkaufen. Deswegen lautete der Untertitel seines Buchs auch: Why the Future of Business is selling less of more.

Das sollte nun für alle Angebote im Netz gelten. Denn egal um welche Branche es sich handelt – stets sind ja die Einstiegsbarrieren gesunken. Wer früher eine Zeitschrift gründen wollte, brauchte Infrastrukturen, Papier, eine Druckerei und so fort – jetzt setzt man einfach eine Domain auf, fertig. Wer früher ein Geschäft gründen wollte, musste Gebäude mieten, Personal einstellen – jetzt baut man kurzum einen virtuellen Online-Shop. Das Prinzip ist immer dasselbe, egal ob es sich um Spiele handelt oder um Banking: Überall sollten die Einstiegsbarrieren dramatisch gesunken sein, was umgekehrt die Diversität des Angebots und des Wettbewerbs erhöht haben müsste.

Wie viele Anbieter gibt es überhaupt?

Demokratische Verteilung oder aristokratische Konzentration?

Wir haben nun anhand realen User-Verhaltens diese Diversität im Internet gemessen, um herauszufinden: Wie genau ordnet sich denn der Traffic im Netz? Sind Andersons Hoffnungen in Erfüllung gegangen – handelt es sich also um eine besonders »demokratische« Verteilung, in der viele Player ein vergleichbares Auskommen finden, oder finden wir eine eher »aristokratische« Struktur (wenige besitzen viel, viele besitzen wenig)?

Die erste Herausforderung besteht darin, überhaupt herauszufinden, wie groß das Angebot aller Domains im Netz ist. So wird etwa die Anzahl aller aktiven Registrierungen für die Top-Level-Domain ».de« tagesgenau registriert und liegt aktuell (1. Mai 2020) bei 16.417.216. Sicherlich wäre es fahrlässig, unbekümmert mit dieser Zahl zu rechnen – denn trotz kostenpflichtiger Registrierung und Aufrechterhaltung ist davon auszugehen, dass ein Teil dieser Domains nicht aktiv genutzt wird. Andererseits nutzen User im Netz eine Menge anderer Top-Level-Domains (wie etwa .org, .com, Domains anderer Länder etc.), die in diesen 16 Millionen gar nicht enthalten sind.

Wie lässt sich dann aber unser Ziel erreichen, eine ganzheitliche Aufteilung des gesamten digitalen Traffic herzustellen? Hierfür mussten wir einen sehr umständlichen Weg der Vermessung einschlagen. Wir haben tatsächlich jede einzelne Webseite, die von den 16.000 Nutzern aus unserer Stichprobe über einen Zeitraum von 3 Monaten aufgerufen wurde, einzeln (!) registriert (über alle Endgerätekategorien hinweg).

Um eine Vorstellung von der Komplexität solcher Analysen zu geben, sei dies kurz veranschaulicht: Ausgewertet wurden hier nicht weniger als 223 Millionen (!) einzelner Impressions in der Stichprobe, die im Verhältnis zur Größe der deutschen Bevölkerung einer Zahl von etwa 814 Milliarden (!) Impressions entspricht. Gezählt wurde stets nur die höchste Ebene (um es am Beispiel YouTube zu veranschaulichen: das Anklicken unterschiedlicher untergeordneter Inhalte, Subdomains oder dergleichen ebenso wie wiederkehrende Besuche werden dabei immer wieder der höchsten Domain, hier also YouTube, zugerechnet).

Wir haben 131.993 verschiedene Domains vermessen

Die Gesamtzahl der von uns gezählten verschiedenen Destinationen der User beträgt für diesen 3-monatigen Zeitraum 131.993 Websites bzw. Apps. Das gibt uns eine erste gute Näherungsgröße, mit der wir weiter rechnen können.

Wir merken zugleich, dass diese Zahl (ca. 132.000) weniger als 1 % (!) der 16 Millionen registrierten Domains in Deutschland ausmacht. Das heißt aber umgekehrt nicht, dass die restlichen 99 % inaktiv sind (zumal die Inhaber für die Aufrechterhaltung der Domain Gebühren zahlen!). Aber diese 132.000 liefern uns einen präzisen und belastbaren Vergleichswert. Denn innerhalb unserer Stichprobe erfasst diese Zahl jedes genutzte Angebot, völlig unabhängig davon, wie mikroskopisch unbedeutend es ist. Auf dieser Grundlage können wir anfangen, die Konzentration des Traffic im Netz zu berechnen, und zwar einfach, indem wir pro Angebot die gesamte Nutzungsdauer in Relation zur gesamten Nutzungszeit prozentual angeben.

Aus allen genutzten Webseiten haben wir die 500 Angebote mit der stärksten Performance in Bezug auf die gesamte gebundene Aufmerksamkeit ausgewählt, was in Bezug auf die Gesamtzahl von 16 Millionen nur 0,003 % (in Worten: drei tausendstel Prozent!) entspricht. Und auch in Bezug auf alle aktiv genutzten Webseiten in diesem Zeitraum (131.993) stellen diese 500 stärksten Plattformen ebenfalls bloß 0,38 % dar.

Wie stark ist die Konzentration im Netz?

Das Ergebnis hat uns in seiner Eindeutigkeit und Radikalität verblüfft. Im unendlich großen Kosmos der digitalen Angebote ist unsere Auswahl der 500 stärksten Sites und Apps eigentlich extrem klein. Aber erstaunlich ist: Diese mikroskopisch winzige Auswahl zieht 85,8 % des gesamten digitalen Traffic auf sich.

Den Top-3-Playern gehören 28,5 % des digitalen Universums

Verblüffend ist auch die Analyse der genaueren Verteilung der Top-Sites und -Apps. Allein die größten drei Brands (YouTube, Apple, Facebook) ziehen 28,5 % aller Aufmerksamkeit auf sich, die Top 10 machen insgesamt schon über 50 % des gesamten Web-Traffic aus.

Besonders interessant ist auch der drastische, umgekehrt exponentielle Rückgang, wenn man eine Clusterung in Pakete à jeweils 100 Anbieter durchführt: Die Top 100 kommen bereits auf knapp 72 % des gesamten Web-Traffic, das letzte Cluster (401–500) schafft dagegen insgesamt nur noch etwa 1,6 % des Gesamtmarkts.

Es sei nur der Vollständigkeit halber ergänzt, dass die Angebote 501 bis 1.000 etwa 4 % des Traffic entsprechen, Angebote 1.001 bis 10.000 etwa 8 %. Alle Angebote nach Rang 10.000 (in unserer Stichprobe knapp 122.000 verschiedene Domains!) ziehen insgesamt nur etwa 2 % des gesamten Traffic auf sich.

Die realistischste visuelle Darstellung dieses Sachverhalts liefert deshalb ein Diagramm, bei dem wir gänzlich auf Verzerrungen verzichten und auf der x-Achse konsequent alle 132.000 Domains darstellen – die Darstellung kollabiert dabei insofern, weil fast der gesamte Traffic auf dem ersten Millimeter der Darstellung stattfindet (wir haben hier die Linie etwas verdickt, damit man sie überhaupt erkennen kann).

Ist der Long Tail in Wirklichkeit ein Friedhof?

Man sieht daran, dass es eigentlich auch recht müßig ist, darüber zu spekulieren, ob die Gesamtzahl der im Netz befindlichen und »aktiv« genutzten Webangebote nun bei 3, 10 oder 16 Millionen liegt. Es kommt eigentlich gar nicht wirklich darauf an, weil jenseits der Top-10.000-Domains so gut wie gar kein Traffic mehr vorhanden ist.

Es wird durch diese erstaunlichen Ergebnisse auch nachvollziehbar, warum viele Domains früherer Zeiten kaum noch genutzt werden – sie liegen einfach millionenfach ungenutzt im Friedhof nicht nachgefragter Content-Angebote.

Im Klartext: Aus Sicht des Content-Anbieters (bzw. Domain-Inhabers) ist es völlig egal, ob man z. B. auf einer nicht erfolgreichen Website noch etwas einstellt, da man weiß, dass sich sowieso kein User dorthin verirrt. Es spielt keine wirkliche Rolle, ob auf solchen Domains noch Content abrufbar ist oder ob eine Fehlermeldung erscheint bzw. die Domain inaktiv ist. Die große Menge nicht (mehr) genutzter Angebote ist nämlich erst das Ergebnis dieser extremen Konzentration des digitalen Kosmos.

Den Top-7-Konzernen gehört mehr als 50 % des digitalen Universums

Was darüber hinaus berücksichtigt werden muss, ist, dass unsere Darstellung lediglich die für Nutzer sichtbare Markeneinteilung abbildet. Mehrere der Top-10-Brands gehören aber zu ein und demselben Konzern. Würde man die Darstellung nach diesen Konzernen ordnen, hätte man statt den Top 10 nur noch 7 Angebote vorliegen. Zusammenfassen müsste man Facebook (bestehend aus Facebook, Instagram und WhatsApp) bei insgesamt 15,6 % und Alphabet (YouTube plus Google) bei insgesamt 18,6 %. Die Top-7-Konzerne binden mehr als 50 % des gesamten Web-Traffic (s. Illustration links).

Lässt sich das Ausmaß der digitalen Konzentration in einer einzigen Zahl ausdrücken?

Weil uns das extreme Ergebnis dieser Analysen so verblüfft hat, haben wir abschließend eine Berechnung durchgeführt, mit der sich der Grad der Konzentration exakt quantifizieren lässt.

Das Maß der (Un-)Gleichheit:
der Gini-Koeffizient

Dies leistet der sogenannte Gini-Koeffizient, der stets einen Wert einnimmt zwischen 0 (Gleichverteilung: Alle Menschen besitzen dasselbe Vermögen) und 1 (eine Person besitzt alles, alle anderen besitzen nichts).

Um unser Ergebnis zu veranschaulichen, benötigen wir einen guten Vergleichsmaßstab. Dafür gehen wir zurück auf unser Beispiel der Vermögensverteilung. Stellen Sie sich modellhaft ein Land vor, in dem das Vermögen wie folgt verteilt ist:

1 Person besitzt 1.000.000 Euro.

10 Personen besitzen 100.000 Euro.

100 Personen besitzen 10.000 Euro.

1.000 Personen besitzen 1.000 Euro.

10.000 Personen besitzen 100 Euro.

100.000 Personen besitzen 10 Euro.

1.000.000 Personen besitzen 1 Euro.

Die meisten Menschen sind der Meinung, dass es sich hier um ein Land handelt, in dem das Vermögen sehr ungleich verteilt ist – und tatsächlich beträgt der Gini-Koeffizient für dieses Beispiel 0,825.

Erinnern wir uns: Ein Gini-Koeffizient von 1,0 würde bedeuten, dass 1 Person das gesamte Vermögen dieses Landes besäße (in unserem Beispiel: 7 Millionen Euro), die gesamte restliche Bevölkerung (etwa 1,1 Millionen Menschen) würde komplett leer ausgehen und 0 Euro besitzen.

Wir haben nun aus der Verteilung der gesamten gemessenen Aufmerksamkeit auf unser gesamtes Spektrum von 131.993 Angeboten die Konzentration errechnet. Der Gini-Koeffizient beträgt tatsächlich erstaunliche 0,988 – es handelt sich um ein Ausmaß von digitaler Konzentration, das wir vor Beginn dieser Analysen für unvorstellbar gehalten hätten.

Es ist erstaunlich, dass man als Nutzer dieses ungeheure Ausmaß an Konzentration offenbar nicht wahrnimmt – vermutlich liegt es an der unübersehbaren Menge der Angebote im Netz, die uns eine Vielfalt suggeriert, obwohl diese gar nicht bei der Verwendung realisiert wird.

Digitale Vielfalt existiert nicht, wenn sie in der Nutzung nicht realisiert wird

Wenn Google uns zu einer Suchanfrage mehrere Millionen Treffer liefert, ist das insofern weitgehend bedeutungslos, wenn die meisten User stets auf die ersten Treffer klicken. Vielfalt ist nämlich nur dann bedeutsam, wenn diese auch genutzt wird.

Oder umgekehrt formuliert: Es ist egal, wenn es ein Angebot von Millionen Produkten gibt, wenn kein User diese Angebote verwendet und alle nur immer dasselbe konsumieren.

Deswegen existiert diese Vielfalt aus der Perspektive der digitalen Nutzung nicht. Im Gegenteil: Rein mathematisch betrachtet befinden wir uns schon erstaunlich nahe an dem Maximalwert von 1,0. In diesem Zustand des digitalen Universums würde dann die gesamte Aufmerksamkeit aller Nutzer nur noch von einem einzigen Anbieter abgedeckt werden.

Dieses Giga-Unternehmen wäre gewissermaßen wie ein schwarzes Loch, welches alle existierende Aufmerksamkeit aller existierenden Nutzer zu 100 % in sich aufsaugt. Alle anderen Anbieter wären nicht nur bildlich, sondern wörtlich »tot« im Friedhof des Tail End – ihre Webseiten, Domains und Apps würden zwar existieren, aber ihre Nutzung würde null betragen.

Das digitale Universum als Ganzes: Netzwerkstrukturen

Netzwerkstrukturen zeigen die Interaktion der verschiedenen Angebote

Bis hierhin haben wir die verschiedenen Angebote der digitalen Welt als statische Größen vermessen. Man kann in den Daten aber auch Netzwerkstrukturen analysieren, um herauszufinden, auf welche Weise die einzelnen Anbieter miteinander in Beziehung stehen.

Das stellt zugleich eine besondere Herausforderung dar. Warum? Weil jeder einzelne Player im Netz prinzipiell mit jedem anderen ein solches Beziehungsnetzwerk unterhält. Es handelt sich um Größenordnungen von Komplexität, die sich nur sehr schwer darstellen und verstehen lassen. Deswegen werden wir dies in diesem Buch nur für die größten vier Konzerne vertiefen und in Kapitel IV ausführlich behandeln.

Hier geben wir jedoch schon eine erste Kostprobe und stellen die Interaktionen der Top-500-Plattformen nach Nutzungsdauer dar (diese wird durch die Größe der Blasen markiert, die allerdings für fast alle kleineren deutlich verstärkt wurden, damit sie überhaupt sichtbar sind).

Um überhaupt Strukturen herausarbeiten zu können, beschränken wir uns hier auf die wichtigsten 2.290 Beziehungen (also weniger als 3 % der für diese Analyse gemessenen 82.232 Verbindungen) – aber auch so erscheint ein Wirrwarr an Interaktionen.

Die Verbindungslinien zeigen Nutzungsflüsse, die auf die Verwendung des ursprünglichen Angebots (der einzelnen Bubbles) folgen. Wer genau hinschaut, entdeckt durchaus inhaltliche »Wolkenbildungen«, die zeigen, dass User in bestimmten Bereichen affine Angebote nacheinander ansteuern – etwa bei Gaming (links unten), Bewegtbild und Informationen (rechts unten), es lässt sich auch etwa für Bank- und Versicherungsservices (oben rechts) sowie für Shopping und Preisvergleich (rechts) erahnen.

Sofort ins Auge springen natürlich die wichtigsten Player, die auch die relevantesten Knoten bei der Weitergabe von Traffic sind. Im Einzelnen verteilen sie Nutzungsdauer folgenden Ausmaßes: Google Search 8 %, YouTube 8 %, Facebook 10 %, Instagram 3 %, WhatsApp 17 % (bedingt durch die starke mobile Nutzungsintensität), Amazon 3 %, eBay 3 %.

Man erkennt in der Grafik die Bedeutung der »Big 4«-Konzerne auch bei der Abgabe von Nutzungsintensität an den eingefärbten Linien (Alphabet = grün, Facebook = blau, Amazon = orange, Apple = lila).

Alphabet (Google Search und Maps, YouTube, Gmail) verteilt 18 %, Facebook (inklusive WhatsApp und Instagram) 30 %, Apple 4 %, Amazon 3 % der Nutzeranteile auf die weiteren 500 Marken oder die eigenen Angebote im Internet. Das heißt: Nicht nur in Bezug auf die auf ihren Plattformen verbrachte Nutzungszeit dominieren die vier größten Konzerne das Feld – sie verteilen auch 45 % der nachfolgenden Nutzungsdauer. Wir werden später sehen, dass erhebliche Teile dieser Folgenutzungen wieder auf Angeboten der konzerneigenen Ökosysteme landen. Wir kommen in Kapitel IV ausführlich darauf zurück.

Was sind die Gründe für die digitale Konzentration?

Wir können als Zwischenfazit festhalten: Der gesamte Traffic aller digitalen Inhalte ist auf geradezu unvorstellbare Weise konzentriert. Sicherlich gibt es viele existierende Erklärungen, was die Gründe dafür sein könnten – wir wollen hier die wichtigsten drei erläutern:

Grund 1:

Grundlegende Arbeiten zu den starken Konzentrationstendenzen des digitalen Traffic stammen von Matthew Hindman, der zeigen kann, dass die digitale Navigation über große Gatekeeper und Aggregatoren, vor allem aber Suchmaschinen eine Begünstigung starker Marktführer zuungunsten der kleinen Anbieter bewirkt. Es entsteht ein sich selbst verstärkender Sog hin zu Winner-takes-all-Märkten.

Ferner erschweren Netzwerkeffekte einen Wechsel zur Konkurrenz, übrigens auch durch ein »kognitives Lock-in« (wenn die Nutzung eines Angebots zur Gewohnheit wird und dadurch ein Wechsel überproportionalen Aufwand bedeutet).

Außerdem räumt er auf mit dem Mythos der angeblich niedrigen Eintrittsbarrieren digitaler Märkte und belegt, dass große Player gigantische Summen in ihre technologischen Infrastrukturen investieren, was den Markteintritt potenzieller Wettbewerber häufig aufgrund schwer einholbarer Vorsprünge im Keim erstickt.

Suchmaschinen und Aggregatoren erzeugen Winner-takes-all-Märkte

Alle diese Faktoren verstärken sich gegenseitig und erzeugen die »Stickiness« digitaler Angebote – verstanden als Kraft eines Angebots, die Aufmerksamkeit der Nutzer immer häufiger und länger zu binden.

Grund 2:

Ein weiterer Grund für Konzentration besteht darin, dass die digitale Welt noch in den 1980er und 1990er Jahren stark über sogenannte offene Standards geformt wurde, wohingegen vor allem in den letzten etwa 15 Jahren zunehmend geschlossene Standards üblich wurden.

Felix Stalder hat dies sehr anschaulich durch den Vergleich zwischen E-Mail und Social Media illustriert. Im Falle der E-Mail hatte man sich bereits Anfang der 1980er Jahre auf ein sogenanntes offenes Protokoll geeinigt, und zwar das SMTP (Simple Mail Transfer Protocol).