Off The Grid – Wie man die digitalen Erstwähler (nicht) erreicht

Einen Begriff aus dem US-Wahlkampf 2012 werden wir uns auch in Deutschland merken müssen: Off the Grid. So bezeichnet Zac Moffatt, der Chefwissenschaftler von Mitt Romney, diejenigen Wähler, die man nicht mehr über die klassische Kommunikation – in erster Linie TV – erreichen kann. Seine These: Gerade bei einem Kopf-an-Kopf-Rennen kann die Mobilisierung dieser Wählergruppe wahlentscheidend werden.

Das wichtigste Rezept von Moffatt: Onlinewerbung, insbesondere auf Grundlage eines thematisch ausgerichteten Targetings. Das heißt: Den Wählern wird nicht wie im Fernsehen immer dieselbe Botschaft vorgesetzt, die eine möglichst große Schnittmenge der individuellen Interessen darstellt, also bei möglichst vielen Wählern funktioniert,
sondern jede Wählergruppe bekommt auf sie zugeschnittene Botschaften. Wie das funktioniert, erklärt dieses PBS-Video sehr gut:

Menschen, die sich besonders stark für Außenpolitik interessieren – was zum Beispiel daran festgemacht werden kann, dass sie bestimmte außenpolitische Webseiten häufig besuchen – erhalten Informationen darüber, was der Kandidat in diesem Politikfeld vorhat. Familien erfahren, wie der Kandidat sich für Kinder und Jugendliche einsetzt. Und reichen WählerInnen wird die Angst vor Steuererhöhungen genommen.

Welche Bedeutung hat das Phänomen in Deutschland? Gibt es in Deutschland ein vergleichbares Phänomen von Wählern, die durch das klassische Medienraster fallen? Oder klappt Politik hier nach wie vor mit “Bild, Bams und Glotze”? Wenn man sich zum Beispiel die Internetdurchdringung des Bayerischen Landtags ansieht und einfach durchzählt, wie viele der Abgeordneten der dort vertretenen Fraktionen eine Webseite haben (ich spreche gar nicht von Facebook oder Twitter), dann bekommt man den Eindruck, digitale Kommunikation ist für viele Parteien nach wie vor ein Fremdwort. So hat jeder vierte Landtagsabgeordnete der Freien Wähler und immerhin 20% der FDP- und CSU-Abgeordneten keine eigene Webseite. Warum auch. Es gibt ja die Presse und Fernsehen.

Meiner Prognose nach wird es nicht lange dauern, bis die Analog-Politiker das schwer bereuen werden. Das Zauberwort heißt: Erstwähler. In der nächsten Bundestagswahl 2013 werden ca. 4 Mio Menschen das erste Mal an die Wahlurnen treten, die dann zwischen 18 und 22 Jahre alt sein werden. Wenn man auf das Mediennutzungsverhalten dieser jungen Erwachsenen blickt, wird schnell klar: Ein großer Teil dieser Menschen sind Off-the-Grid. Nur noch 48% von ihnen geben eine mittlere bzw. hohe TV-Nutzung an, während 80% von ihnen für eine mittlere bzw. hohe Online-Nutzung stehen (Quelle: TdW 2012).

Das heißt: knapp über die Hälfte der Erstwähler sind über TV-Wahlwerbung und -Talkshowauftritte nur noch schwer erreichbar. Tendenz steigend. Die politische Mobilisierungsaufgabe für die Parteien lautet also: Wie schafft man es, diese 3,5 Prozent der Wähler zu mobilisieren, die man nur noch über das Internet erreicht.



Verwandte Artikel:
  • Wolkige Semantik – Clouds und Grids
  • Der Bayerische Landtag auf Twitter

    Angeregt durch diese Visualisierung der Twittergespräche im Berliner Abgeordnetenhaus habe ich mir einmal unsere Bayerischen Landtagsabgeordneten näher angesehen. Zum einen einmal die Verteilung der Twitter-Accounts: Hier liegt die FDP vorne: 53% der Abgeordneten haben einen Twitter-Account mit mindestens einem Tweet. Danach kommen die Grünen mit 39%, die Freien Wähler mit immerhin noch 21% und abgeschlagen dann die CSU (15%) und SPD (13%).

    Doch das einfache Vorhandensein eines Twitter-Accounts allein ist noch kein Maß für die Twitter-Nutzung. Sehr viel interessanter ist die Aktivität der Accounts – welche Abgeordneten nutzen ihre Twitter-Accounts tatsächlich regelmäßig für die Kommunikation und wer hat nur der Form halber einen Account eröffnet und 1-2 Probetweets darüber verschickt? Die CSU liegt hier mit 43% aller Tweets deutlich vorne (obwohl sie nur 36% aller Accounts besitzt). Danach folgen mit deutlichem Abstand die Freien Wähler mit 18% der Tweets (10% der Accounts), die FDP mit 15% der Tweets (23% der Accounts) und die Grünen mit 14% aller Landtagstweets (18% der Accounts). Ganz hinten liegt wieder die SPD mit knapp 10% der Tweets (13% der Accounts).

    Im Zentrum der politischen Kommunikation über Social Media steht der Dialog. Deshalb habe ich mich für diese Auswertung auf die Gespräche der Politiker mit anderen Personen konzentriert. Interessiert hat mich also vor allem das “Relevant Network”, wie ich es hier bereits des öfteren gesprochen habe. Zählt man die Dialoge, also wie oft die Abgeordneten andere Twitternutzer erwähnt haben, so entfallen auf die CSU 58% der Erwähnungen, auf die Grünen 22%, auf die Freien Wähler nur noch 15%. Weit abgeschlagen dann die SPD mit knapp 3% und die FDP mit 2%. In den letzteren beiden Parteien scheint Dialog zumindest auf Twitter ein Fremdwort zu sein.

    Visualisiert man die Daten aller Replies der Bayerischen Landtagsabgeordneten, so erhält man schließlich die folgende Grafik (hier noch einmal in interaktiv und groß):



    Verwandte Artikel:
  • Der twitternde Bundestag
  • Münchener Medientage auf Twitter
  • Off The Grid – Wie man die digitalen Erstwähler (nicht) erreicht
  • Netzwerkanalyse von Hashtaglagern

    Twitter-Netzwerkanalysen aus den USA kommen regelmäßig zu dem Ergebnis einer unglaublichen Polarisierung zwischen den Lagern. Demokraten folgen Demokraten. Republikaner folgen Republikanern. Kommunikation zwischen den beiden ist auf das ironische Verwenden der “gegnerischen” Hashtags reduziert.

    Ich gehe schon länger der Frage nach, ob sich diese Beobachtungen auch in der digitalen politischen Kommunikation nachvollziehen lässt. Sehr schnell spricht man ja von “politischen Filterblasen”, die dazu führen, dass man nur Botschaften mitbekommt, die zu der eigenen politischen Einstellung passen.

    Heute war ein guter Tag für die politische Twitter-Kommunikation. Drei politische Ereignisse liefen gleichzeitig ab, die jeweils ziemlich eindeutige Hashtags hatten:

    • der Netzpolitische Kongress der Grünen in Berlin (Hashtag: #nk12)
    • der Parteitag der CSU in München (Hashtag: #csupt12)
    • der deutschlandweite (bzw. europaweite) Aktionstag gegen das EU-Überwachungsprojekt INDECT (Hashtag: #indect)

    Zu diesen drei Hashtags wurden alle relevanten Tweets des 20. Oktober erfasst und ausgewertet. Die folgende Visualisierung zeigt die Twitter-Accounts, die zu einen der drei Hashtags verwendet haben sowie die Follower-Beziehungen zwischen ihnen. Die Einfärbung erfolgt nach den Löwener Modularitätsalgorithmus von Blondel et al. Der Algorithmus analysiert und identifiziert Sub-Communities in großen sozialen Netzwerken.

    Follower network for #nk12 #csupt12 and #indect

    Zwar lassen sich deutliche Cluster zu den untersuchten Hashtags identifizieren, aber trotzdem sind die Twitterer, die sich zu den drei Themen äußern, durch ihre Follower-Netzwerke sehr eng mit auch mit den Personen aus den anderen “Hashtag-Lagern” verbunden. Interessanterweise scheinen viele dieser “lagerübergreifenden” Kontakte über regionale Netzwerke zu lassen: Zum einen hat die piratisch orientierte Anti-Indect-Szene gerade in Berlin viele Verbindungen zu Grünen Netzpolitikern. Zum anderen sind einige bayerischen Politiker der Grünen sehr gut mit ihren Kollegen der CSU verbunden.



    Verwandte Artikel:
  • Spickzettel Netzwerkanalyse (SNA)?
  • Netzwerkanalyse der metaroll
  • Der Aufstieg der Datenwissenschaftler
  • Europa, Bayern und Eisbären – Eine Netzwerkanalyse der Grünen LDK in Rosenheim

    Dieses Wochenende fand in Rosenheim die Landesdelegiertenkonferenz der Bayerischen Grünen statt. Aber natürlich wurde nicht nur in Rosenheim vor Ort gewählt und diskutiert, sondern auch auf Twitter. Ich habe mir alle Posts auf Twitter, die zu dem Hashtag #ldkby12 geschrieben wurden, heruntergeladen und ausgewertet.

    In der folgenden Grafik sieht man, welche Twitter-Accounts am häufigsten zitiert, erwähnt oder retweetet wurden:

    LDKBY12 Netzwerk

    Man sieht sehr deutlich, dass wie zu erwarten der Account @gruene_bayern sehr häufig genannt wurde, aber auch der alte und neue Landesvorsitzende Dieter Janecek (@DJanecek) gehört zu den am häufigsten erwähnten Twitter-Nutzern. Sehr häufig genannt wurden auch Ekin Deligöz (@ekindeligoez), die am zweiten Tag eine Rede hielt, Katharina Schulze (@KathaSchulze), die in den Parteirat gewählt wurde und Theresa Schopper, die Landesvorsitzende. Fritz Kuhn, der an diesem Wochenende als Oberbürgermeisterkandidat in Stuttgart angetreten ist, schaffte es aus der Ferne auch in das Twitter-Netzwerk der LDK. Eine wichtige Rolle spielte auch die Netzbegrünung, die für die technische Infrastruktur von WLAN bis Livestream zuständig war.

    Der Blick auf die am häufigsten verwendeten Begriffe (ohne Twitter-Accounts und Links) zeigt folgendes Bild:

    LPTBY12 Themen

    Hier spielen dann auf einmal Margarete Bause, die frisch gekürte Spitzenkandidatin, und Sylvia Löhrmann eine große Rolle. Da beide keine aktiven Twitter-Nutzerinnen sind, tauchen sie trotz ihrer inhaltlichen Bedeutung in dem oben abgebildeten Netzwerk nicht auf. In der Tagcloud erkennt man auch einige Begriffe, die auf zentrale Themen der LDK verweisen: Europa (das klare Bekenntnis zu Europa und dem Euro), CSU (das Ziel der Ablösung der bayerischen Regierungspartei), Sozialpolitik und allen voran Bayern. Aber die große Bedeutung der Begriffe “Parteirat”, “Landesvorsitzender”, “Spitzenkandidatin” legt nahe, das zumindest auf Twitter die organisatorischen die inhaltlichen Themen dominiert haben. Nach “Bildung”, “Verbraucherschutz” und “Tierschutz” muss man hier mit der Lupe suchen.

    Auch die Analyse der semantischen Netzwerke, die nicht nur die Worthäufigkeiten, sondern auch die Verbindungen zwischen den Wörtern berücksichtigt, bestätigt dieses Bild:
    LPTBY12 Semantisches Netz

    Hier findet man dann immerhin auch die diskutierten Inhalte wieder: eine “andere Bildungspolitik”, die “Startbahnheldinnen”, die “Beschneidungs-Debatte”, “Tierschutz” und “Verbraucherschutz”, eine “moderne Sozialpolitik” und schließlich auch die Eisbären von Günther Oettinger.



    Verwandte Artikel:
  • Spickzettel Netzwerkanalyse (SNA)?
  • Politik in 140 Zeichen
  • GPS-Empfänger und Lederhosen – Bayerns Online-Informationssysteme
  • Der passive Wahlomat – Textmining mit politischen Programmen und Konversationen (Teil 1)

    Als ich auf der Big-Data-Konferenz “Strata” in Santa Clara einigen Vorträgen zum Thema Textmining in Datenströmen zugehört habe, ist mir die Idee gekommen, das doch einmal mit politischen Kommunikationen auszuprobieren. Vielleicht ist es möglich, anhand der Wörter, die jemand besonders häufig in seinen Twitternachrichten oder Blogposts verwendet, festzustellen, welcher Partei er oder sie am nächsten steht. Wahrscheinlich kennt jeder die Wahlomaten und politischen Tests, die regelmäßig zu jeder Landtags- oder Bundestagswahl heißlaufen und Wahlempfehlungen ausspucken. Ich frage mich, ob man nicht auch schon aufgrund der öffentlichen Äußerungen auf Twitter solche Empfehlungen aussprechen könnte.

    Dazu ist zunächst ein Referenzkorpus notwendig, der die unterschiedlichen Parteiideen repräsentiert. Das könnte man natürlich manuell erstellen und z.B. festlegen, dass das Wort “Eigenverantwortung” für eine gewisse FDP-Nähe spricht, “Solidarität” einem SPD-Profil entspricht und “Open Access” eher einen piratischen Wert darstellt. Das dauert zum einen sehr lange und ist zum anderen eine subjektive Einschätzung. Ein sehr viel schnellerer, weil fast vollständig automatisierbarer, Weg ist die Auswertung der entsprechenden Parteiprogramme. Wenn hier die Werte nicht vorkommen, wo sonst. Also habe ich einmal die 2010er Wahlprogramme für NRW verwendet, um daraus die Worthäufigkeitsvektoren zu errechnen. Ein einfaches Python-Script liest die Parteiprogramme ein (die ich vorher um Seitenzahlen, Inhaltsverzeichnisse und Seitentitel bereinigt habe) und errechnet, wie oft jedes einzelne Wort darin vorkommt.

    Dabei kann man schon einen deutlichen Unterschied zwischen den Programmen feststellen: Sie sind unterschiedlich lang …

    Grüne 60.347
    FDP 39.376
    Linke 37.635
    SPD 23.904
    Piraten 21.800
    CDU 8.775
    

    … und sie unterscheiden sich auch in ihrer lexikalischen Vielfalt, d.h. dem Verhältnis von unterschiedlichen Wörtern und der Gesamtzahl der Wörter:

    CDU 27,79%
    Piraten 26,00%
    SPD 23,11%
    Linke 21,07%
    FDP 20,36%
    Grüne 17,38%
    

    Die Rangordnung ist hier genau umgekehrt – logisch: Wer einen so langen Text schreibt wie die Grünen ihr Wahlprogramm, dem gehen irgendwann einmal die neuen Wörter aus und man muss auf einen der schon verwendeten 10.486 Begriffe zurückgreifen.

    Jetzt aber zu den Vektoren. Diese sehen in etwa so aus:
    piraten_2010.txt,36,2,2,0,0,0,1,0,0,
    0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0,
    0,0,0,0,1,0,1,0,0,1,0,0,1,0,0,0 ...

    Jede Zahl steht für die Häufigkeit eines bestimmten Wortes. Mit dem Cosinus-Ähnlichkeitsmaß kann man nun berechnen, wie nah zwei Vektoren beieinander liegen (oder genauer: Wie groß der Winkel zwischen ihnen ist).

    Hier das Ergebnis der Berechnungen:

              CDU       FDP       GRU
    CDU 0.0000000 0.8736595 0.8847022
    FDP 0.8736595 0.0000000 0.9146393
    GRU 0.8847022 0.9146393 0.0000000
    LIN 0.6898869 0.8065468 0.8468190
    PIR 0.6653087 0.8090312 0.8215914
    SPD 0.9170037 0.9047183 0.9548909
    
              LIN       PIR       SPD
    CDU 0.6898869 0.6653087 0.9170037
    FDP 0.8065468 0.8090312 0.9047183
    GRU 0.8468190 0.8215914 0.9548909
    LIN 0.0000000 0.8882453 0.8122456
    PIR 0.8882453 0.0000000 0.7855856
    SPD 0.8122456 0.7855856 0.0000000
    

    Der R-Code dazu lautet:

    library(lsa)
    e <- as.dist(cosine(t(vectors)),diag=TRUE,upper=TRUE)

    Zwei interessante Zahlen aus der Tabelle: Die beiden Programme, die sich gemessen an den Worthäufigkeiten am ähnlichsten sind, sind die Programme von SPD und Grünen. Die beiden unähnlichsten Programme sind die der CDU und der Piraten. Aber auch CDU und Linke liegen nicht wirklich auf einer Linie. Aber das war auch so zu erwarten.

    Im nächsten Schritt habe ich die Ähnlichkeitsmatrix in eine Distanzmatrix verwandelt und die Ergebnisse visualisiert:

    Die Parteien haben aber natürlich nicht nur ein Wahlprogramm für die NRW-Wahl 2010, sondern auch Programme für die Wahlen in Berlin 2011 und im Saarland 2012. Diese habe ich, sofern verfügbar, auch noch in die Distanzmatrix genommen. Das Ergebnis sieht wie folgt aus:

    Man sieht sofort, dass die Wahlkampfprogramme von unterschiedlichen Parteien zu einer einzelnen Landtagswahlen einander zum Teil ähnlicher sind als die Programme einer Partei in unterschiedlichen Landtagswahlen. Die y-Achse beschreibt hier eindeutig das Bundesland. Oben sind die Berliner Programme, in der Mitte die NRW-Programme und unten die Saarland-Programme.

    Schwieriger ist es, die x-Achse inhaltlich zu beschreiben. In NRW könnte diese Achse durchaus als "Piratizität" beschrieben werden - mit den Piraten am einen extremen Pol und der CDU am anderen. Interessanterweise scheint dies in Berlin nicht zu gelten. Hier liegt die CDU "piratiger" als die Grünen.



    Verwandte Artikel:
  • Die Feed-Malaise
  • Internationale Diplomatie auf Twitter
  • Politik in 140 Zeichen
  • Digitale Stadtentwicklung oder Warum Code for America die Zukunft des digitalen Ehrenamts ist

    Auf Twitter erlebe ich immer wieder merkwürdige Koinzidenzien. Heute Abend zum Beispiel waren zwei meiner Twitter-Freunde in München auf einer Stadtentwicklungsveranstaltung. Unter dem Motto “MitDenken” sind hier die Bürger aufgefordert, sich Gedanken über die Zukunft der Stadt zu machen. Also ein klassischer Bürgerdialog – immerhin mit Onlinefragebogen.

    Parallel dazu wurden auf der US-Konferenz SXSW in Austin, Texas die ersten Ergebnisse des Projekts “Code for America” vorgestellt. Nur ein paar Tweets von den Münchener MitDenkern entfernt, aber trotzdem liegen Welten zwischen den Projekten. Code for America ist eine Initiative mit dem Ziel, ganz praktische Aufgaben und Herausforderungen von Städten auf digitalem Weg zu lösen – mit Hilfe von Apps.

    Das Vorhaben setzt dabei vor allem auf das freiwillige Engagement der digitalen Bürger. Diese werden nicht zum Schneeschippen aufgerufen, aber dazu, eine Crowdsourcing-App zu programmieren “Adopt-a-Hydrant“, die das Freischaufeln von Hydranten intelligent unter den Bürgern verteilt. Eine andere App verzeichnet alle Street-Art-Werke in Philadelphia, könnte aber sehr schnell an andere Zwecke angepasst werden, zum Beispiel wenn es darum geht, die Kunst im Öffentlichen Raum erfahrbar und erlebbar zu machen. DataCouch ist eine Anwendung, die es zum Beispiel Stadtverwaltungen wie auch Bürgern ermöglicht, Datensätze über das Netz zu teilen und in standardisierten Formaten abzurufen, um daraus zum Beispiel weitere Anwendungen zu bauen.

    Hinter dem Vorhaben stecken drei sehr spannende Grundannahmen:

    • Wiederverwertung: Gerade unter kommunalen Sparzwängen (und dies ist eigentlich der Normalzustand) ist es unverantwortlich, dass jede Stadt, jede Gemeinde ihre eigenen Apps bastelt bzw. für viel Geld bei IT-Dienstleistern in Auftrag gibt. Allein, wenn man sich die Webseiten der Kommunen betrachtet, wird schnell deutlich, dass die Vielfalt im Erscheinungsbild der Städte im Web viel größer ist als das immergleiche physische Stadtbild aus “großzügigen Villen im Landhausstil”, 1950er-Jahre-Überbleibseln mit Deutschem Dach gepaart mit brutistischer Dienstgebäudearchitektur. Natürlich ist Vielfalt hübsch, aber nicht wenn sie auf Kosten von Funktionalität, Wartbarkeit und vor allem wichtiger kommunaler Aufgaben geht. Hier kann eine freie und wiederverwertbare Anwendungsinfrastruktur wie “Code for America” sehr sinnvoll sein.
    • Interfacegestaltung: Diesen Punkt hat die Gründerin Jennifer Pahlka vorhin auf ihrem Vortrag in sehr schönen Zitat angebracht: “I believe that interfaces to government can be simple, beautiful, and easy to use.” Warum nicht einmal den Programmiererblick auf die Kommunalpolitik richten. Die städtischen Webseiten, Formulare, Broschüren etc. sind nichts anderes als eine mehr oder weniger gelungene Benutzerschnittstelle für die Politik. Damit bedienen wir die städtischen Funktionen. Warum nicht diesem Aspekt eine Generalüberholung gönnen und dafür sorgen, dass Bürgerbeteiligung sich ähnlich anfühlt wie das Blättern bei Flipboard auf dem iPad? Oder so viel Spaß macht wie das Kommentieren und Posten von Bildern auf Instagram? Oder so produktiv sind wie das gemeinsame Arbeiten an Dokumenten über Dropbox?
    • Digitales Ehrenamt: Ich weiß, Ehrenamt klingt immer viel zu abgedroschen und altmodisch. Man denkt gleich an Rasenmähen im Kindergarten, Kuchenbacken für den Kirchenkaffee oder das Freischaufeln von Hydranten (moment mal?). Bitte nicht falsch verstehen, diese Dinge sind sehr wichtig. Aber warum gibt es so wenige Versuche, den kommenden Generationen der digital natives Möglichkeiten für ein digitales Ehrenamt zu geben? Warum lassen wir die Wikipedianer nicht eine neue Plattform für Ortschroniken schreiben? Warum nicht die jungen Ruby-on-Rails- und Python-Hacker in kommunalen Hackathons eine wiederverwertbare Infrastruktur für kommunale Open-Data-Initiativen entwickeln? Warum nicht die Nachwuchsdesigner und UI-Startups ein elegantes und benutzerfreundliches Interface für die Kommunalpolitik entwickeln?

    Workshops und Ortsbegehungen zur Planung und Verbesserung von Fahrradwegen sind nicht schlecht, sind aber Bürgerbeteiligung im Stil der 1960er/70er Jahre. Wir leben längst in einer digitalen Gesellschaft, also sollten wir auch auf die Fähigkeiten und Kompetenzen ihrer Bewohner zurückgreifen.



    Verwandte Artikel:
  • Quick Response in Spex und Welt
  • Interessante Kriminalprozesse gefällig? Die digitale Bibliothek als Open Content
  • Wenn Social Networks Bundesländer wären …
  • Wie man Shitstorms erkennt und bewertet

    In der letzten Zeit wurde sehr viel über Shitstorms im Web geschrieben und diskutiert. Die zentralen Fragen in den meisten Debatten lauten dabei:

    • Wie gefährlich ist die Flut an kritischen Social-Media-Posts tatsächlich für die betroffenen Marken und Unternehmen?
    • Welchen ökonomischen Schaden nehmen Marken und Unternehmen durch diese verschärfte und oft virale Konsumentenkritik?
    • Wie unterscheidet man einen ausgewachsenen und bedrohlichen Shitstorm von einem Sturm im Wasserglas?
    • Wie erkennt man einen Shitstorm in der Anfangsphase?

    Ich möchte die meteorologische Analogie nicht zu weit treiben. Aber gerade für die ersten beiden Fragen läuft die Debatte viel zu oft in die falsche Richtung. Da hilft der Blick auf Naturkatastrophen: Das schlimmste Erdbeben oder der stärkste Orkan können entweder verheerende Schäden anrichten oder aber spurlos vorübergehen – je nachdem in welcher Gegend sie sich ereignen. Die Versicherer wissen, dass die größten Naturkatastrophen nicht auch die größten Versicherungsschäden zur Folge haben.

    Ganz ähnlich ist es mit den Internet-Shitstorms: Die Indikatoren, die wir hier für die Messung verwenden (z.B. den Viralitätskoeffizienten, den Fail-Quotienten oder dann aggregiert den Krisenindex) beziehen sich nicht auf die Schadenspotentiale für Marke und Umsatz, sondern erst einmal nur auf die “Stärke” der Katastrophe.

    In dem Twittertracking-Tool Brandtweet gibt es seit letzter Woche für das PR-Risikomanagement eine “Shitstorm”-Warnleiste, in der die Marken mit dem höchten Fail-Quotienten abgebildet sind. In Zusammenhang mit dem Buzzverlauf der Sparklines und den Trends lässt sich sehr gut erkennen, ob sich über einer der erfassten 200 wichtigsten Marken in Deutschland gerade ein Internet-Unwetter zusammenbraut: Wenn sowohl der Fail-Quotient als auch das Gesprächsvolumen stark anwachsen, sollten in den PR-Abteilungen die Warnglocken klingeln:

    Ob ein starker Shitstorm auch starke Schäden hervorruft, hängt von vielen Faktoren ab:

    • Verwundbarkeit des Unternehmens
    • Reaktion des Unternehmens
    • Gegenstand der Kritik
    • Involvierte Personen
    • Rechtslage
    • Wirtschaftliche Lage
    • Marktposition
    • Unternehmenskultur

    Während die objektive Stärke von Shitstorms sich mit darauf spezialisierten Methoden und Tools sehr gut beurteilen lässt, steckt die Modellierung und Kartierung der Schadenspotentiale von Shitstorms noch in den Kinderschuhen.



    Verwandte Artikel:
  • Wer vertraut wem? Firmenblogs genießen besonders wenig Vertrauen
  • Deathmatch – das öffentlich-rechtliche Endspiel
  • Virale Kampagnen aus handlungstheoretischer Perspektive
  • Networking auf dem DLD

    Nebenan bei im hübschen Datenblog habe ich mir einmal die Twitter-Diskussionen zur diesjährigen DLD-Konferenz vom Kongressvorabend bis zum heutigen Montag angesehen. Man sieht sehr schön, wie sich die Aufmerksamkeit von Tag zu Tag im Netzwerk verschiebt. Ich bin gespannt, wie sich das zum letzten Tag noch einmal ändert. Außerdem werde ich abschließend auch noch einmal die Twitternachrichten selbst betrachten, um Muster herauszufinden. Das zum Beispiel war der Montag:

    Hier geht’s zum Artikel.



    Verwandte Artikel:
  • Typen digitaler sozialer Netzwerke (Robert Peck)
  • Let’s Mash (Yahoo!)
  • Fugly is the new beautiful (Yahoo! Mash)
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen

    Why then the world’s mine network
    Which I with software will open.

    Der Vorteil einer abstrakten Methode wie der Social Network Analysis ist es, dass sich fast alle Daten, die irgendwie zusammenhängen, als Netzwerk betrachten und analysieren lassen. Das Paradebeispiel sind natürlich die Empfehlungsalgorithmen, die Nutzern von Google, Youtube oder Amazon erzählen, was sie sonst noch interessieren könnte. Überall dort, wo es empfohlene Produkte oder Produkte, die andere Kunden auch gekauft haben, gibt, kann man sehr einfach mit den Methoden der Netzwerkanalyse angreifen. Auf diese Weise wird aus den isolierten Paaren oder Mengen verwandter Produkte eine große Verwandtschaftskarte, auf der nicht nur Beziehungen, sondern auch Muster und Schwerpunkte erkennbar sind.

    Ich habe mir einmal den iTunes-Appstore vorgenommen. Auf jeder (bzw. fast jeder) Downloadseite einer App sind weitere fünf Apps verzeichnet, die überdurchschnittlich häufig gemeinsam mit dieser App heruntergeladen oder gekauft werden. Das Netzwerk springt einem hier förmlich entgegen. Wenn man die 240 beliebtesten Apps der Kategorie Nachrichten auf diese Beziehungen hin erfasst, erhält man folgendes Netzwerk der Nachrichten-Applandschaft (Klick zum Vergrößern):

    Social network visualization of app downloads

    Die Größe der Knoten steht für die Anzahl der Bewertungen der Apps – solange es keinen Zugriff auf die Downloadzahlen der Apps gibt, könnte das eine Annäherung an die Bedeutung oder Verbreitung einer App sein. Die Farbe zeigt die unterschiedlichen Cluster von Apps, die besonders eng miteinander verbunden sind: Links in Hellblau und rechts in Dunkelblau sind zwei Cluster von Nachrichtenapps. Rechts findet man die Zeitungsapps von FAZ, Bild, Süddeutsche, Abendzeitung, Weserkurier etc., während links eher die iPad-Varianten von Onlineportalen wie Spiegel, Focus Online, Süddeutsche.de zu finden sind. Oben in Violett ist ein kleines Cluster von redaktionsunabhängigen Newsaggregatoren wie Pulse, Flipboard oder Reeder. Ganz rechts liegt Österreich, während im Süden die Türkei zu finden ist. Dazwischen ein Applecluster mit Apfeltech und Macwelt. Ganz im Norden ist das Review-stärkste Cluster von Nachrichtenaggregatoren und App-Nachrichten-Apps, das von MeinProspekt dominiert wird.

    Die Apps mit den meisten Reviews in dieser Karte sind:

    1. Mein Prospekt XL – 39.382 Reviews
    2. n-tv iPhone edition – 16.140 Reviews
    3. DER SPIEGEL eReader – 12.759 Reviews
    4. FOCUS Online – 10.300 Reviews
    5. DIE WELT – 9.312 Reviews
    6. Flipboard – 6.394 Reviews
    7. BILD HD – 5.722 Reviews
    8. Tagesschau – 5.705 Reviews
    9. NYTimes – 5.533 Reviews
    10. AppTicker Push – 5.524 Reviews

    In dieser Aufzählung fehlt die normale Version von BILD mit 24.146 Reviews, die ein isolierter Knoten ist, da für diese App keine verwandten Apps angegeben sind und auch keine der anderen Apps auf sie verweist – eine echte Anomalie, die ich mir im Moment nicht erklären kann.

    Interessant ist auch der Blick auf die Anzahl der eingehenden Links, d.h. welche Apps besonders häufig als verwandte Apps genannt werden. Der Durchschnitt liegt bei 2,3.  Hier sieht die Liste ganz anders aus:

    1. The Wall Street Journal – 51 Nennungen
    2. AppAdvice – 45 Nennungen
    3. Blastr – 40 Nennungen
    4. NPR for iPad – 39 Nennungen
    5. Flo’s Weblog – 27 Nennungen
    6. eGazety Reader – 27 Nennungen
    7. ??-??? ????? a – 25 Nennungen
    8. SAPO News – 23 Nennungen
    9. DVICE – 20 Nennungen
    10. DER SPIEGEL – 18 Nennungen

    Dieselben Apps erhält man bei der Berechnung des PageRank, d.h. der Wahrscheinlichkeit, beim Abwandern des Netzwerks zufällig auf die verschiedenen Apps zu stoßen. Die Anzahl der Verbindungen zwischen den Apps, also der Vernetzungsgrad ist relativ niedrig, da für jede App nur jeweils 5 verwandte Produkte angezeigt werden – insgesamt sind die 451 Knoten durch 1.055 Kanten verbunden.



    Verwandte Artikel:
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen
  • Zeitungen springen auf den Web 2.0-Zug auf
  • Immer mehr Deutsche lesen Nachrichten im Netz – was macht der Rest im Internet?
  • Der Aufstieg der Datenwissenschaftler

    Eines der wichtigsten Buzzwords im Marktforschungs- und Wissenschaftsjahr 2012 ist mit Sicherheit “Big Data”. Sogar die Zukunft eines Intenretriesen wie Yahoo! wird auf diese Frage zugespitzt: Wie hältst du es mit den großen Daten (dazu auch lesenswert das AdAge-Interview mit dem neuen CEO Scott Thompson)?

    Auf den ersten Blick ist das Phänomen, das sich dahinter verbirgt, nichts neues: es gibt riesige Mengen an Daten, die darauf warten, analysiert und interpretiert zu werden. Diese Datenberge gab es früher auch schon – man denke nur an die gewaltigen Kundentransaktionsdaten, die klassischen Webzugriffslogs oder die Himmelsdaten aus den Observatorien.

    bigdata_network

    Besonders spannend sind folgende Entwicklungen und Dimensionen des Big-Data-Phänomens:

    Demokratisierung der Technik: Zum einen sind die Werkzeuge, um Datensätze in Terabytegröße zu analysieren, mittlerweile demokratisiert. Jeder, der ein paar alte Rechner im Keller stehen hat, kann daraus ein leistungsfähiges Hadoop-Cluster aufbauen und damit in die Analyse großer Daten einsteigen. Die Software, die man für Datenerfassung, Speicherung, Analyse und Visualisierung benötigt, ist größtenteils frei verfügbare Open-Source-Software. Wer zu Hause keine Rechner herumstehen hat, kann sich die Rechenzeit bei Amazon kaufen.

    Ein neues Ökosystem: Mittlerweile hat sich hier eine lebendige Bastlerszene der Big-Data-Hacker entwickelt, die an den verschiedenen Big-Data-Technologien arbeitet und in Präsentationen und Aufsätzen die unterschiedlichen Anwendungsszenarien demonstrieren. Wenn man sich die Biographien der Big-Data-Community ansieht, fällt aber auch, dass man es sehr viel weniger mit Forschergruppen an Universitäten zu tun hat, sondern um Wissenschaftler (“data scientists”), die in den großen Internetunternehmen wie Google, Yahoo, Twitter oder Facebook arbeiten. Das ist zum Beispiel bei der Python-Entwicklergemeinde oder der R-Statistikercommunity anders. Im Augenblick sieht es sogar so aus, als verliefe der typische Karrierepfad an der US-Westküste weg von den Internetgiganten und hin zu neuen Big-Data-Startups.

    Visualisierung von Netzwerken: Die visuelle Darstellung der Daten ist mittlerweile fast wichtiger geworden als klassische statistische Methoden, die nach Kausalitäten suchen. In diesem Zusammenhang hat auch die Netzwerkanalyse wieder stark an Bedeutung gewonnen. Fast alle soziale Phänomene und großen Datensätze von Venture Capitalists bis Katzenbildern können als Netzwerke visualisiert und exploriert werden. Auch hier spielen Open-Source-Software und offene Datenschnittstellen eine große Rolle. Programme wie die Netzwerkvisualisierungssoftware Gephi können sich in naher Zukunft direkt mit den Schnittstellen (APIs) der Plattformen Facebook, Twitter, Wikipedia oder Google verbinden und die abgerufenen Daten gleich weiterverarbeiten.

    Neue Fähigkeiten und Stellenbeschreibungen: Eines der heißesten Buzzwords in der Big-Data-Szene ist der “Data Scientist”, der jetzt in klassischen Unternehmen genauso wie in Internetunternehmen für die Erhebung und Auswertung der anfallenden Daten sorgen soll. Auf Smart Planet habe ich eine gute Beschreibung der Fertigkeiten dieser “Datenjobs” gefunden: 1) Die Systemadministratoren, die sich mit Aufsetzen und Wartung der Hadoop-Cluster befassen und sicherstellen, dass der Datenfluss nicht gebremst wird. 2) Die Entwickler (oder “Map-Reducer”), die Anwendungen entwickeln, mit denen die Daten aus den Datenbanken abgerufen und verarbeitet werden. 3) Die eigentlichen Datenwissenschaftler oder Analysten, deren Aufgabe es ist, mit den Daten Geschichten zu erzählen und aus ihnen Produkte und Lösungen zu entwickeln. 4) Die Datenkuratoren, die für die Qualitätssicherung und Verknüpfung der Daten zuständig sind.

    Um einen besseren Eindruck davon zu gewinnen, wie sich die Big-Data-Community selbst sieht, habe ich die Twitter-Kurzbiographien der 200 wichtigsten Big-Data-Analysten, -Entwickler, -kaufleute einer Netzwerkanalyse unterzogen: Ich habe die Kurztexte in ein Netzwerk transformiert, in dem die Begriffe die Knoten darstellen und gemeinsame Erwähnungen in einer Twitter-Bio die Kanten. Das heißt, jedes mal, wenn jemand in seiner Bio “Hadoop Committer” stehen hat, gibt es in dem Netzwerk eine neue Kante zwischen “Hadoop” und “Committer”. Insgesamt besteht dieses Netzwerk aus knapp 800 Begriffen und 3200 Verbindungen zwischen den Begriffen. Das Netzwerk habe ich dann auf ca. 15% des Umfangs reduziert, indem ich mich auf die am häufigsten verwendeten Begriffe konzentriert habe (z.B. Big Data, Founder, Analytics, Cloudera, Apache, Committer, Hadoop, Computer). Das mit Gephi visualisierte Ergebnis ist oben zu sehen.



    Verwandte Artikel:
  • No related posts