Archive for the 'statistik' Category

Wie man Shitstorms erkennt und bewertet

In der letzten Zeit wurde sehr viel über Shitstorms im Web geschrieben und diskutiert. Die zentralen Fragen in den meisten Debatten lauten dabei:

  • Wie gefährlich ist die Flut an kritischen Social-Media-Posts tatsächlich für die betroffenen Marken und Unternehmen?
  • Welchen ökonomischen Schaden nehmen Marken und Unternehmen durch diese verschärfte und oft virale Konsumentenkritik?
  • Wie unterscheidet man einen ausgewachsenen und bedrohlichen Shitstorm von einem Sturm im Wasserglas?
  • Wie erkennt man einen Shitstorm in der Anfangsphase?

Ich möchte die meteorologische Analogie nicht zu weit treiben. Aber gerade für die ersten beiden Fragen läuft die Debatte viel zu oft in die falsche Richtung. Da hilft der Blick auf Naturkatastrophen: Das schlimmste Erdbeben oder der stärkste Orkan können entweder verheerende Schäden anrichten oder aber spurlos vorübergehen – je nachdem in welcher Gegend sie sich ereignen. Die Versicherer wissen, dass die größten Naturkatastrophen nicht auch die größten Versicherungsschäden zur Folge haben.

Ganz ähnlich ist es mit den Internet-Shitstorms: Die Indikatoren, die wir hier für die Messung verwenden (z.B. den Viralitätskoeffizienten, den Fail-Quotienten oder dann aggregiert den Krisenindex) beziehen sich nicht auf die Schadenspotentiale für Marke und Umsatz, sondern erst einmal nur auf die “Stärke” der Katastrophe.

In dem Twittertracking-Tool Brandtweet gibt es seit letzter Woche für das PR-Risikomanagement eine “Shitstorm”-Warnleiste, in der die Marken mit dem höchten Fail-Quotienten abgebildet sind. In Zusammenhang mit dem Buzzverlauf der Sparklines und den Trends lässt sich sehr gut erkennen, ob sich über einer der erfassten 200 wichtigsten Marken in Deutschland gerade ein Internet-Unwetter zusammenbraut: Wenn sowohl der Fail-Quotient als auch das Gesprächsvolumen stark anwachsen, sollten in den PR-Abteilungen die Warnglocken klingeln:

Ob ein starker Shitstorm auch starke Schäden hervorruft, hängt von vielen Faktoren ab:

  • Verwundbarkeit des Unternehmens
  • Reaktion des Unternehmens
  • Gegenstand der Kritik
  • Involvierte Personen
  • Rechtslage
  • Wirtschaftliche Lage
  • Marktposition
  • Unternehmenskultur

Während die objektive Stärke von Shitstorms sich mit darauf spezialisierten Methoden und Tools sehr gut beurteilen lässt, steckt die Modellierung und Kartierung der Schadenspotentiale von Shitstorms noch in den Kinderschuhen.



Verwandte Artikel:
  • Wer vertraut wem? Firmenblogs genießen besonders wenig Vertrauen
  • Deathmatch – das öffentlich-rechtliche Endspiel
  • Virale Kampagnen aus handlungstheoretischer Perspektive
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen

    Why then the world’s mine network
    Which I with software will open.

    Der Vorteil einer abstrakten Methode wie der Social Network Analysis ist es, dass sich fast alle Daten, die irgendwie zusammenhängen, als Netzwerk betrachten und analysieren lassen. Das Paradebeispiel sind natürlich die Empfehlungsalgorithmen, die Nutzern von Google, Youtube oder Amazon erzählen, was sie sonst noch interessieren könnte. Überall dort, wo es empfohlene Produkte oder Produkte, die andere Kunden auch gekauft haben, gibt, kann man sehr einfach mit den Methoden der Netzwerkanalyse angreifen. Auf diese Weise wird aus den isolierten Paaren oder Mengen verwandter Produkte eine große Verwandtschaftskarte, auf der nicht nur Beziehungen, sondern auch Muster und Schwerpunkte erkennbar sind.

    Ich habe mir einmal den iTunes-Appstore vorgenommen. Auf jeder (bzw. fast jeder) Downloadseite einer App sind weitere fünf Apps verzeichnet, die überdurchschnittlich häufig gemeinsam mit dieser App heruntergeladen oder gekauft werden. Das Netzwerk springt einem hier förmlich entgegen. Wenn man die 240 beliebtesten Apps der Kategorie Nachrichten auf diese Beziehungen hin erfasst, erhält man folgendes Netzwerk der Nachrichten-Applandschaft (Klick zum Vergrößern):

    Social network visualization of app downloads

    Die Größe der Knoten steht für die Anzahl der Bewertungen der Apps – solange es keinen Zugriff auf die Downloadzahlen der Apps gibt, könnte das eine Annäherung an die Bedeutung oder Verbreitung einer App sein. Die Farbe zeigt die unterschiedlichen Cluster von Apps, die besonders eng miteinander verbunden sind: Links in Hellblau und rechts in Dunkelblau sind zwei Cluster von Nachrichtenapps. Rechts findet man die Zeitungsapps von FAZ, Bild, Süddeutsche, Abendzeitung, Weserkurier etc., während links eher die iPad-Varianten von Onlineportalen wie Spiegel, Focus Online, Süddeutsche.de zu finden sind. Oben in Violett ist ein kleines Cluster von redaktionsunabhängigen Newsaggregatoren wie Pulse, Flipboard oder Reeder. Ganz rechts liegt Österreich, während im Süden die Türkei zu finden ist. Dazwischen ein Applecluster mit Apfeltech und Macwelt. Ganz im Norden ist das Review-stärkste Cluster von Nachrichtenaggregatoren und App-Nachrichten-Apps, das von MeinProspekt dominiert wird.

    Die Apps mit den meisten Reviews in dieser Karte sind:

    1. Mein Prospekt XL – 39.382 Reviews
    2. n-tv iPhone edition – 16.140 Reviews
    3. DER SPIEGEL eReader – 12.759 Reviews
    4. FOCUS Online – 10.300 Reviews
    5. DIE WELT – 9.312 Reviews
    6. Flipboard – 6.394 Reviews
    7. BILD HD – 5.722 Reviews
    8. Tagesschau – 5.705 Reviews
    9. NYTimes – 5.533 Reviews
    10. AppTicker Push – 5.524 Reviews

    In dieser Aufzählung fehlt die normale Version von BILD mit 24.146 Reviews, die ein isolierter Knoten ist, da für diese App keine verwandten Apps angegeben sind und auch keine der anderen Apps auf sie verweist – eine echte Anomalie, die ich mir im Moment nicht erklären kann.

    Interessant ist auch der Blick auf die Anzahl der eingehenden Links, d.h. welche Apps besonders häufig als verwandte Apps genannt werden. Der Durchschnitt liegt bei 2,3.  Hier sieht die Liste ganz anders aus:

    1. The Wall Street Journal – 51 Nennungen
    2. AppAdvice – 45 Nennungen
    3. Blastr – 40 Nennungen
    4. NPR for iPad – 39 Nennungen
    5. Flo’s Weblog – 27 Nennungen
    6. eGazety Reader – 27 Nennungen
    7. ??-??? ????? a – 25 Nennungen
    8. SAPO News – 23 Nennungen
    9. DVICE – 20 Nennungen
    10. DER SPIEGEL – 18 Nennungen

    Dieselben Apps erhält man bei der Berechnung des PageRank, d.h. der Wahrscheinlichkeit, beim Abwandern des Netzwerks zufällig auf die verschiedenen Apps zu stoßen. Die Anzahl der Verbindungen zwischen den Apps, also der Vernetzungsgrad ist relativ niedrig, da für jede App nur jeweils 5 verwandte Produkte angezeigt werden – insgesamt sind die 451 Knoten durch 1.055 Kanten verbunden.



    Verwandte Artikel:
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen
  • Zeitungen springen auf den Web 2.0-Zug auf
  • Immer mehr Deutsche lesen Nachrichten im Netz – was macht der Rest im Internet?
  • Der Aufstieg der Datenwissenschaftler

    Eines der wichtigsten Buzzwords im Marktforschungs- und Wissenschaftsjahr 2012 ist mit Sicherheit “Big Data”. Sogar die Zukunft eines Intenretriesen wie Yahoo! wird auf diese Frage zugespitzt: Wie hältst du es mit den großen Daten (dazu auch lesenswert das AdAge-Interview mit dem neuen CEO Scott Thompson)?

    Auf den ersten Blick ist das Phänomen, das sich dahinter verbirgt, nichts neues: es gibt riesige Mengen an Daten, die darauf warten, analysiert und interpretiert zu werden. Diese Datenberge gab es früher auch schon – man denke nur an die gewaltigen Kundentransaktionsdaten, die klassischen Webzugriffslogs oder die Himmelsdaten aus den Observatorien.

    bigdata_network

    Besonders spannend sind folgende Entwicklungen und Dimensionen des Big-Data-Phänomens:

    Demokratisierung der Technik: Zum einen sind die Werkzeuge, um Datensätze in Terabytegröße zu analysieren, mittlerweile demokratisiert. Jeder, der ein paar alte Rechner im Keller stehen hat, kann daraus ein leistungsfähiges Hadoop-Cluster aufbauen und damit in die Analyse großer Daten einsteigen. Die Software, die man für Datenerfassung, Speicherung, Analyse und Visualisierung benötigt, ist größtenteils frei verfügbare Open-Source-Software. Wer zu Hause keine Rechner herumstehen hat, kann sich die Rechenzeit bei Amazon kaufen.

    Ein neues Ökosystem: Mittlerweile hat sich hier eine lebendige Bastlerszene der Big-Data-Hacker entwickelt, die an den verschiedenen Big-Data-Technologien arbeitet und in Präsentationen und Aufsätzen die unterschiedlichen Anwendungsszenarien demonstrieren. Wenn man sich die Biographien der Big-Data-Community ansieht, fällt aber auch, dass man es sehr viel weniger mit Forschergruppen an Universitäten zu tun hat, sondern um Wissenschaftler (“data scientists”), die in den großen Internetunternehmen wie Google, Yahoo, Twitter oder Facebook arbeiten. Das ist zum Beispiel bei der Python-Entwicklergemeinde oder der R-Statistikercommunity anders. Im Augenblick sieht es sogar so aus, als verliefe der typische Karrierepfad an der US-Westküste weg von den Internetgiganten und hin zu neuen Big-Data-Startups.

    Visualisierung von Netzwerken: Die visuelle Darstellung der Daten ist mittlerweile fast wichtiger geworden als klassische statistische Methoden, die nach Kausalitäten suchen. In diesem Zusammenhang hat auch die Netzwerkanalyse wieder stark an Bedeutung gewonnen. Fast alle soziale Phänomene und großen Datensätze von Venture Capitalists bis Katzenbildern können als Netzwerke visualisiert und exploriert werden. Auch hier spielen Open-Source-Software und offene Datenschnittstellen eine große Rolle. Programme wie die Netzwerkvisualisierungssoftware Gephi können sich in naher Zukunft direkt mit den Schnittstellen (APIs) der Plattformen Facebook, Twitter, Wikipedia oder Google verbinden und die abgerufenen Daten gleich weiterverarbeiten.

    Neue Fähigkeiten und Stellenbeschreibungen: Eines der heißesten Buzzwords in der Big-Data-Szene ist der “Data Scientist”, der jetzt in klassischen Unternehmen genauso wie in Internetunternehmen für die Erhebung und Auswertung der anfallenden Daten sorgen soll. Auf Smart Planet habe ich eine gute Beschreibung der Fertigkeiten dieser “Datenjobs” gefunden: 1) Die Systemadministratoren, die sich mit Aufsetzen und Wartung der Hadoop-Cluster befassen und sicherstellen, dass der Datenfluss nicht gebremst wird. 2) Die Entwickler (oder “Map-Reducer”), die Anwendungen entwickeln, mit denen die Daten aus den Datenbanken abgerufen und verarbeitet werden. 3) Die eigentlichen Datenwissenschaftler oder Analysten, deren Aufgabe es ist, mit den Daten Geschichten zu erzählen und aus ihnen Produkte und Lösungen zu entwickeln. 4) Die Datenkuratoren, die für die Qualitätssicherung und Verknüpfung der Daten zuständig sind.

    Um einen besseren Eindruck davon zu gewinnen, wie sich die Big-Data-Community selbst sieht, habe ich die Twitter-Kurzbiographien der 200 wichtigsten Big-Data-Analysten, -Entwickler, -kaufleute einer Netzwerkanalyse unterzogen: Ich habe die Kurztexte in ein Netzwerk transformiert, in dem die Begriffe die Knoten darstellen und gemeinsame Erwähnungen in einer Twitter-Bio die Kanten. Das heißt, jedes mal, wenn jemand in seiner Bio “Hadoop Committer” stehen hat, gibt es in dem Netzwerk eine neue Kante zwischen “Hadoop” und “Committer”. Insgesamt besteht dieses Netzwerk aus knapp 800 Begriffen und 3200 Verbindungen zwischen den Begriffen. Das Netzwerk habe ich dann auf ca. 15% des Umfangs reduziert, indem ich mich auf die am häufigsten verwendeten Begriffe konzentriert habe (z.B. Big Data, Founder, Analytics, Cloudera, Apache, Committer, Hadoop, Computer). Das mit Gephi visualisierte Ergebnis ist oben zu sehen.



    Verwandte Artikel:
  • No related posts
  • Der Kontextvektor des Bundespräsidenten

    Vor Jahren hatte ich an dieser Stelle schon über die große Bedeutung der gespeicherten Google-Suchanfragen als “Datenbank der Wünsche” geschrieben. Die Begriffe, die Menschen in das Google-Eingabefeld schreiben, spiegeln sehr genau ihre Wünsche wider – sowohl die offen kommunizierten als auch die geheimen.

    Als Nebenbemerkung: Man könnte vermuten, dass Menschen mittlerweile ehrlicher zu ihrer Suchmaschine sind als zu ihren engsten Verwandten. Insofern sollte man intensiv über eine besondere Sorgfaltspflicht und einen besonderen Schutz dieser Daten nachdenken. Vielleicht gibt es bald neben der ärztlichen und der anwaltlichen Schweigepflicht auch so eine Art “Suchmaschinengeheimnis”, das garantiert, dass, was wir in einer Websuche über uns offenbaren, nicht in falsche Hände gerät.

    Neben dieser besonderen Vertrauensstellung dieser Datenbanken, beeindruckt vor allem das hier sekündlich anfallende Wissen. Dadurch, welche Begriffe gemeinsam eingegeben werden, und welche überhaupt nicht, oder dadurch, welche Treffer dann tatsächlich angeklickt werden, und welche überlesen werden, entsteht eine Wissensdatenbank, die vielleicht sogar größer als die Wikipedia ist, da sie sich viel schneller ändert. Die Assoziation von “Bundespräsident” und “Anrufbeantworter” dürfte zum Beispiel ein sehr junges Phänomen sein. Ja, wenn es um diese aktuellsten Phänomene geht, scheinen die Algorithmen von Google sogar die Rolle eines politischen Beraters einzunehmen, der dem amtierenden Staatsoberhaupt Handlungsempfehlungen gibt:

    Der Algorithmus schlägt den Rücktritt des Präsidenten vor

    Der Algorithmus schlägt den Rücktritt des Präsidenten vor

    Diese scheinbare Empfehlung entsteht schlicht daraus, dass diese beiden Begriffe in den letzten Tagen, Stunden besonders häufig gemeinsam in Suchabfragen verwendet wurden bzw. besonders häufig gemeinsam in Webseiten auftauchen. Diese überdurchschnittliche gemeinsamen Vorkommen (oder: Kollokationen) verwandeln die Suchmaschine aber gleichzeitig in eine neue Art von Wissensspeicher. Anhand der Struktur der sekündlich eingehenden Suchabfragen (bei Google waren es laut ComScore allein in den USA im November 13 Milliarden Abfragen) können Maschinen sehr viel darüber lernen, wie wir Menschen Begriffe und Wissen organisieren.

    Eine praktische Anwendung dieses Wissensspeichers habe ich in einem schon etwas älteren, aber einflussreichen Paper (Google Scholar zählt 246 Zitationen) der beiden Google-Mitarbeiter Mehran Sahami und Timothy D. Heilman “A Web­based Kernel Function for Measuring the Similarity
    of Short Text Snippets
    “. Darin geht es um das Problem, die inhaltliche Ähnlichkeit von sehr kurzen Textschnippseln zu erkennen. Da es sich hierbei nur um wenige Wörter handelt, versagen klassische Methoden des Textminings wie zum Beispiel das Kosinus-Ähnlichkeitsmaß. Die Anzahl der Datenpunkte ist schlicht zu klein, um Aussagen über die Ähnlichkeit zu treffen.

    Die Google-Wissenschaftler verwenden die Suchtreffer, die eine Suchmaschine wie Google auswirft, wenn man sie mit den Textschnippseln füttert, als Kontext-Vektor, mit dem sie dann die Übereinstimmung berechnen können, da er nun nicht mehr wenige Worte umfasst, sondern ein großer Corpus aus hunderten Dokumenten bzw. 1000-Zeichen langen Ausschnitten daraus darstellt. Das von ihnen beschriebene Verfahren stellt z.B. zwischen “Steve Ballmer” und “Microsoft CEO” eine Übereinstimmung von 0.838 fest, während das Kosinusmaß hier auf einen Wert von 0 gekommen wäre. Auch zwischen dem früheren CEO “Bill Gates” und “Microsoft CEO” gibt es eine Ähnlichkeit von immerhin 0.317 – aber auch seine korrekte Beziehung zu Microsoft findet dieses Maß heraus: “Bill Gates” und “Microsoft Founder” erzielt 0.677.

    Abb. aus Sahami/Heilman (2006), S. 4

    Abb. aus Sahami/Heilman (2006), S. 4

    Der erste Anwendungsfall dieses Verfahrens, der hier in den Sinn kommt, sind natürlich die automatischen Vorschläge bei Suchabfragen. Insofern ist das oben beschriebene Wulff-Beispiel also nicht unbedingt eine politische Handlungsempfehlung, sondern das Ergebnis des Vergleichs von Kontextvektoren.



    Verwandte Artikel:
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen
  • Das Ende der Blogsphäre

    Eigentlich hätte ich nie gedacht, dass ich in diesem Blog einmal einen Post über das Ende der Blogosphäre schreiben würde, aber jetzt ist es so weit. Die Blogosphäre, sowieso von Anfang an ein fragiles, hauchdünnes Gewebe, fasert und franst zunehmend aus. Das “Bloggen” als verbindende Gemeinsamkeit ist hinfällig, nachdem es Blogs mittlerweile als allgemein akzeptiertes mediales Design Pattern auch auf die Onlineangebote traditioneller Massenmedien geschafft hat. Die typische Bloggerin oder den typischen Blogger als solches kann man wahrscheinlich ebenso schwer beschreiben wie typische Autofahrer oder typische Mobilfunknutzer.

    Mein Indikator für diese Entwicklung war das diesjährige Bloggertreffen in München, das nun schon zum dritten Mal im Vorfeld des DLD stattgefunden hat. Nicht, dass dieses Bloggertreffen ein Misserfolg gewesen wäre – im Gegenteil! Noch nie gab es so viele Teilnehmer auf einem Münchener Bloggertreffen. Nur: die dort versammelte Menschenmenge lässt sich nicht mehr als “Blogger” beschreiben. Besonders deutlich sieht man den Wandel der letzten Jahre an der Resonanz, die dieses Bloggertreffen in der Teilöffentlichkeit formerly known as “Blogosphäre” erkennen.

    In der folgenden Grafik ist die Entwicklung der Anzahl der Anmeldungen zu dem Bloggertreffen von 106 im Jahr 2007 zu 216 im Jahr 2009 aufgezeichnet und außerdem die Entwicklung der Vor- und Nachberichterstattung über das Bloggertreffen, die von 59 Posts im Jahr 2007 auf 23 Posts im Jahr 2009 zurückgegangen ist.

    Das Verhältnis Blogposts pro Teilnehmer ist also in diesen drei Jahren von 56% auf 11% gesunken. 2007 hatte das Bloggertreffen tatsächlich noch etwas von einem Vereins- oder Klassentreffen und die Erlebnisse und neuen Bekanntschaften wurden ausführlich in den Tagen danach geschildert. In den Tagen davor waren die Blogs ein Mobilisierungs- und Informationskanal, in den Tagen danach eine Ping- und Trackback-basierende Vernetzungsmaschine. Die erste Funktion hat heute Twitter übernommen, die zweite Facebook, LinkedIn und Xing (teilweise auch Twitter).

    Wozu also noch Blogs? Der Erfolg dieses Formats hat zum einen dafür gesorgt, dass Blogs mittlerweile weder als “next big thing” angesehen werden, noch als besonders sexy Form der Kommunikation. Aber damit ist die (kurze) Geschichte der Blogs noch längst nicht vorbei. Ich bin hier ganz Saschas Meinung, denn nach wie vor eignen sich Blogs hervorragend

    • als Bündelung zahlreicher Onlineaktivitäten und -profile auf einer Seite
    • als Dialogplattform, wenn es um eine sehr große Anzahl Kommentare geht
    • als Format für onlinepublizistische Langformen
    • als Scharnier zwischen der alten Welt der Massenmedien und der neuen Welt der Dialogmedien

    Insofern bedeutet das Ende der Blogosphäre nicht das Ende der Weblogs, denn diese Geschichte beginnt gerade erst so richtig spannend zu werden.



    Verwandte Artikel:
  • Gastbeitrag für KoopTech: Messen nach dem Ende der Massengesellschaft
  • Erntezeit (2): Wölfin trotz inet zugangs weiterhin zum offline schreiben verurteilt
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • TwitterFriends

    Immer häufiger wird im Zusammenhang mit Social Media bemängelt, dass es sich bei den dort zu beobachtenden “Freunden” gar nicht um echte Freunde handelt. Gerade Twitter wird immer wieder als Beispiel für eine “Freundesinflation” genannt, haben viele Nutzer dort doch mehrere Tausende “Followers”. Aber ist diese Gesamtzahl der Follower überhaupt so wichtig? Mit wie vielen der eigenen Follower ist man überhaupt in einem direkten Gespräch?

    Um diese Frage zu beantworten, habe ich die Webanwendung “Twitterfriends” geschrieben, die die letztem 400 Tweets eines Nutzers auswertet und herausfindet, welchen Personen man mittels @-Antworten man am meisten Aufmerksamkeit geschenkt hat. Umgekehrt lässt sich mit einem Klick auf den anderen Tab herausfinden, welche Twitterer einem selbst am häufigsten mit dem @-Zeichen geantwortet haben. So sieht das dann bei mir aus:

    TwitterFriends von @furukama

    Diese Liste (bzw. eigentlich ist es ein Netzwerk) ist sehr viel aussagekräftiger als die Gesamtliste der Personen, deren Updates ich auf Twitter abonniert habe, da hier die Personen aufgeführt sind, mit denen ich tatsächlich im Gespräch bin. Man könnte auch “relevantes Netzwerk” (relevant net) dazu sagen.



    Verwandte Artikel:
  • Twitteranalyse for Dummies
  • Netzwerkvisualisierung mit TwitterFriends
  • Code, Hacks & Projects
  • Twittern auf der Kaiserstiege


    Ich freue mich natürlich sehr über die große Resonanz des ersten Beitrags in meiner Reihe “Wie Twitter die Gesellschaft verändert” und werde so bald wie möglich den zweiten Beitrag dazu posten. Doch für die nächsten Tage (16.-18. Oktober) verabschiede ich mich erst einmal in Richtung Niederösterreich auf die zweite internationale bildwissenschaftliche Konferenz “Blick im 21. Jahrhundert” im Benediktinerstift Göttweig.

    Dort werde ich nicht nur das Poster zu unserer Fallstudie über die Visualisierung statistischen Wissens in Infografiken präsentieren, sondern auch gespannt auf die Keynote von Barbara Stafford von der University of Chicago warten. Der Titel “Meaning in Combinations: The Effort of Taking Shape from Hieroglyph to Twitter” klingt für mich ebenso vielversprechend wie mysteriös. Meint Stafford wirklich unser Twitter? Oder nur das aviäre Gezwitscher? Und was hat das dann mit den alten Ägyptern zu tun? Ich werde berichten, wenn ich das Rätsel am Samstag gelöst habe. Bis dahin: Twitter, das richtige.



    Verwandte Artikel:
  • Warum twittern die deutschen Unternehmen? Warum sollten Verlage twittern?
  • Twitter Starter-Kit: Die zehn wichtigsten Twitterstreams
  • Politik in 140 Zeichen
  • Die Least Popular Stories dieses Blogs

    Viele Blogs haben auf ihrer Seitenleiste einen Kasten mit den populärsten Blogbeiträgen. Dahinter steckt die Logik des Matthäus-Prinzips: Denn wer da hat, dem wird gegeben werden, und er wird die Fülle haben; wer aber nicht hat, dem wird auch, was er hat, genommen werden. (Mat 25, 29). Populäre Beiträge haben eine höhere Wahrscheinlichkeit, noch populärer zu werden als Beiträge, die nur wenig Beachtung finden.

    Heute bin ich über Profy auf eine Seite gestoßen, die dieses Prinzip umstoßen will: Digital City, ein Blog mit Entertainment-Nachrichten hat nicht eine Rubrik der “Most Popular Stories”, sondern auch der “Least Popular Stories”. Schließlich muss es nicht immer mangelnde Qualität eines Artikels sein, der sich in niedrigen Aufrufzahlen ausdrückt, sondern Schuld kann auch ein ungünstiger Zeitpunkt sein.

    Ich habe gleich einmal in meinen Statistiken gestöbert, um die “Least Popular Stories” dieses Blogs anzusehen. In einigen Fällen ist das niedrige Interesse verdient und es handelt sich um kurze Veranstaltungsankündigungen oder Notizen. Manchmal sind es jedoch Beiträge aus der Anfangszeit dieses Blogs, die heute – ein gutes Jahr später – gar nicht so schlecht wirken. Aber urteilt besser selbst:

    1. Commercialisation of privacy? (23. September 2007, 4 Aufrufe)
    2. Aktuelles Lexikon: Blogger (2004) (19. Juli 2007, 5 Aufrufe)
    3. Weblogs in den Printmedien (16. Juli 2007, 6 Aufrufe)
    4. Die Macht des Mikrobloggens (10. September 2007, 8 Aufrufe)
    5. Die Tyrannei der Authentizität (12. September 2007, 21 Aufrufe)


    Verwandte Artikel:
  • Mit mobilen Anwendungen gegen die digitale Spaltung
  • Habermas, Weblogs und die Mode 2-Wissensproduktion
  • Blogsuche nach Persönlichkeitsstruktur
  • Wenn Social Networks Bundesländer wären …

    Manchmal ist es sehr anschaulich, Äpfel und Birnen miteinander zu vergleichen. In meiner Diplomarbeit habe ich zum Beispiel transnationale Unternehmen mit Staaten verglichen. Und John Lanchester hat im Guardian im November 2006 Social Networks mit Staaten verglichen und ist für MySpace zu folgendem Schluss gekommen:

    It has more than 110m registered users; if it were a country it would be the 10th biggest in the world, just behind Mexico.

    Warum dann nicht einmal die Nutzerzahlen der in Deutschland aktiven Social Network-Plattformen mit den Einwohnerzahlen von Bundesländern vergleichen?

    Das Ergebnis ist wahrscheinlich eine kleine Überraschung für diejenigen, die dem Social Web immer wieder mangelnde Relevanz attestieren: StudiVZ zum Beispiel käme in dieser Liste bereits an sechster Stelle. Wäre StudiVZ ein Bundesland, lebten dort mehr Menschen als in Sachsen, Rheinland-Pfalz oder Berlin. Hier die ausführliche Liste:

    1. Nordrhein-Westfalen 18.058.000
    2. Bayern 12.469.000
    3. Baden-Württemberg 10.736.000
    4. Niedersachsen 7.994.000
    5. Hessen 6.092.000
    6. StudiVZ 5.427.300 (08/2008, GWP)
    7. Sachsen 4.274.000
    8. Rheinland-Pfalz 4.059.000
    9. Wer-Kennt-Wen 4.000.000 (09/2008, Faktenblatt)
    10. SchülerVZ 3.400.000 (04/2008, Pressemitteilung)
    11. Berlin 3.395.000
    12. Schleswig-Holstein 2.833.000
    13. Brandenburg 2.559.000
    14. Sachsen-Anhalt 2.470.000
    15. Thüringen 2.335.000
    16. Lokalisten 2.300.000 (08/2008, Homepage)
    17. Xing 2.000.000 (Q1/2008)
    18. Hamburg 1.744.000
    19. Mecklenburg-Vorpommern 1.707.000
    20. Saarland 1.050.000
    21. Bremen 663.000

    Es fehlen aber noch die Zahlen für Facebook oder Myspace.



    Verwandte Artikel:
  • Das Finanzierungsnetzwerk der Social Networks
  • Social Networking nun auch in Deutschland Mainstream
  • Social Media Marketing in Deutschland
  • Google AdPlanner: Das Ende der Online-Mediaplanung?

    Gerade eben habe ich meinen Zugang für die Betaversion des neuen Googledienstes AdPlanner bekommen. Schon mit den ersten paar Klicks wird deutlich, welche Sprengkraft dieses neue Kostenlosangebot von Google für das Berufsbild des Mediaplaners haben könnte: Im Handumdrehen lassen sich hier Zielgruppen suchen, sortieren, vergleichen und dann in vielen Fällen gleich die entsprechenden Google-Ads buchen. Die Differenzierung nach Land, Sprache, Alter, Bildung, Geschlecht, Haushaltseinkommen funktioniert tadellos – allerdings gibt es diese demographischen Daten bislang erst für die USA.

    Ich habe einmal die letzten AGOF-Internet Facts (Juni 2008) zur Hand genommen und die jeweils angegebenen Unique Visitorzahlen verglichen. Das Ergebnis (Klick zum Vergrößern):

    Man erkennt, dass die Werte für viele Angebote sehr ähnlich liegen, einige Male kommt Google zu einer etwas höheren Reichweite (GMX, Yahoo, StudiVZ, Chip) und bei T-Online und ProSieben.de liegt Google weit unter den AGOF-Zahlen. Deutlich wird aber auch, dass Googles Planungswerkzeug anders funktioniert als die AGOF Zählung: Hier können Daten für fast alle Angebote abgerufen werden (außer Googleeigenen Diensten wie Google oder Youtube) und nicht nur für teilnehmende Vermarkter. Ebay.de, Mozilla.com und Wikipedia.org liegen bei den deutschen Internetnutzern weit vorne – drei beispielhafte Angebote, die in den Internet Facts nicht vorkommen.

    Aber nicht nur der Blick nach vorne ist interessant, sondern vor allem der Blick in den Long Tail. Hier zeigt sich die wahre Stärke des Google-Tools, denn auch Angebote mit wenigen Tausend Besuchern im Monat können hier angezeigt und in die Online-Mediaplanung einbezogen werden. Und die Zahlen für dieses Blog hier sind sogar einigermaßen realistisch. Richtig spannend für die Online-Mediaplanung wird es freilich dann, wenn auch für das deutsche Publikum demographische Angaben verfügbar sind und wenn die Integration des Google-Werbenetzwerkes in den AdPlanner reibungslos funktioniert (momentan werden die Werbeplätze in diesem Blog noch nicht angezeigt). Das könnte dann tatsächlich den Markt der Online-Mediaplanung kräftig durcheinanderwirbeln.

    Eine weitere interessante Frage ist: Was macht Google mit den Mediaplanungsdaten? In den Plänen stecken viele Informationen über die wahrgenommene Passung von Internetangeboten und Zielgruppen, die wiederum in aggregierter Form ausgewertet werden könnten, um einen Eindruck von der Perspektive der Mediaplanung auf das Internet zu bekommen.



    Verwandte Artikel:
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • Twitter überholt die NY Times
  • Kurzer Blick auf scholarz.net