Archive for the 'internet' Category

Instant-Märtyrer

Das Internet - eine hermetische Technologie

Das Internet - eine hermetische Technologie

Es gibt die eine oder andere Zeitung, von der bin ich Polemiken gegen und zwanghaftes Unverständnis für alles, was über das DSL-Kabel in den Rechner kommt, gewohnt. Jetzt ist auch die FAZ dazu gekommen und lässt Susanne Gaschke eine ebenso wirre wie peinliche Polemik gegen das Internet schreiben. [UPDATE: Die FAZ ist konsequent und hat diesen netzkritischen Artikel mittlerweile hinter einer 2€-schweren Paywall versteckt. Der alte Link führt deshalb ins Leere. What would Google do? Eine gespeicherte Version anbieten.]

Hut ab. Normalerweise schimpft man gegen die Banalität der Echtzeitnachrichten auf Twitter (okay, kommt in dem Artikel auch vor unter der etwas unbeholfenen Formel “Klima der Jederzeitigkeit”) oder gegen die undurchsichtige dunkle Macht GOOGLE (auch das kommt vor, gleich am Anfang). Aber hier geht es aufs Ganze: Das Internet ist schlecht. Und alle, die daran glauben, sind es ebenfalls.

Technologien, die jünger sind als das Felder-Bestellen der neolithischen Revolution, sind böse, weil man sie nicht intuitiv versteht. Weil diejenigen, die sich damit auseinandersetzen eine andere Sprache verwenden (“Cookies”, “Open Source Software” oder “Soziale Netzwerke”, ach wie schlimm, diese hermetische Sprachzauberey!) und ein Fachwissen besitzen, das nicht jedem zugänglich ist:

Ein großer Teil unseres Alltags, unserer Kommunikation mit anderen Menschen und der Art und Weise, wie wir uns informieren, liegt damit in der Hand von Experten, deren Überlegungen wir kaum nachvollziehen können.

[An dieser Stelle möge jeder Leser nach eigenem Geschmack eine Parallele zu dem ihr/ihm am gruseligsten erscheinenden Totalitarismus einfügen, der sich mit Sicherheit ebenfalls vehement gegen das Wissen der Experten ausgesprochen hat.]

Undurchsichtige Experten, Neoliberalismus und 70er-Jahre-Marxismus. Das ist in Gaschkes Augen der Konsens über das Netz im Jahr 2009. Und wer versucht, “zaghafte Kritik” an diesem Konsens anzubringen, wird sofort von den Netzjüngern mundtot gemacht: “Wer nicht uneingeschränkt für das Netz ist, ist gegen es.” Ein Argumentationsmuster, das Sektierer und Radikale aller Couleur in ihren Rhetorikschnellkursen gelernt zu haben scheinen: Zeichne ein Bild der Gesellschaft, in der die Gegenposition der Mainstream ist und mit einem Schlag bist du der aufrechte Streiter für eine vielfältige Meinung. Instant-Märtyrer.

Mit Kritik hat dieser Beitrag von Gaschke nichts mehr zu tun. Kritik heißt: einen Blick hinter die als gegeben erscheinende Wirklichkeit werfen, zeigen, wie es dazu kommen konnte. Davon findet man leider keine Spur.

Dabei hat sie in einigen Punkten tatsächlich recht. Zum Beispiel, was die Abhängigkeit von der Großtechnologie Internet betrifft. Ja, moderne Gesellschaften sind davon abhängig. Aber wahrscheinlich viel weniger deshalb, weil man bei einem Ausfall des Internets keine Online-Wahlkämpfe mehr führen könnte, weil man nicht mehr mit Begeisterung über “Cookies” sprechen könnte und sich auch dem “Online-Exhibitionismus” oder der “Sinnlos-Kommunikation” nicht mehr widmen könnte, sondern weil gesellschaftliche Teilsysteme von Wirtschaft über Bildung und Verkehr bis zur Strafverfolgung ohne das Internet nicht mehr voll einsatzfähig wären.

Das wäre für mich ein sinnvoller Ansatzpunkt für eine Kritik des Internet als Großtechnologie. Aber das, was Gaschke daraus macht, ist so … deutsch.



Verwandte Artikel:
  • 50.000 Unterschriften gegen Internetzensur
  • Am Germanistenwesen soll das Web genesen
  • Social Networking im Jahr 1976 – das Pew-Projekt über die Onlineavantgarde
  • Einübung und Gewöhnung – Twitter ist noch lange nicht am Ende

    In einem sehr lesenswerten Beitrag über Internetanwendungen prognostiziert Andreas Göldi dem Microblogging-Dienst Twitter: “Es droht unter seinem eigenen Gewicht zusammenzubrechen, weil das Verhältnis an unnützem Rauschen zur nützlichen Information langsam unverhältnismässig wird.”

    Das kommt ganz darauf an, wozu man so etwas wie Twitter verwenden will. Wenn ich es zum Beispiel nutze, um ein digitales Tagebuch zu führen, in dem ich dokumentiere, wo ich gewesen bin, was ich gegessen, was ich gesehen habe, ist die signal/noise-ratio irrelevant. Ebenso, wenn es darum geht, mit meinen Freunden, meiner Familie in Kontakt zu bleiben. Gerade, weil Twitter so chaotisch ist, bietet es so viele kreative Aneignungsformen, die sich eben nicht alle in das massenmediale Muster “Twitter als Recherchetool und Informationsquelle” pressen.

    Die spannende Frage ist meiner Meinung nach: Warum spielen GeoCities, Friendster und SixDegrees keine Rolle mehr, aber SMS wird nach wie vor sehr rege genutzt? Ich sehe Twitter eher auf der Ebene von SMS als auf der Ebene der anderen genannten Internetanwendungen. Twitter oder Microblogging allgemein – ich glaube, dass sich Twitter den Microblogging-Kuchen in Zukunft mit Facebook, MySpace und weiteren Anbietern (Windows Live? Google?) teilen wird – ist für mich eine der ganz wenigen echten kommunikativen Innovationen des Internetzeitalters, denn es ist:

    • global: hier wird der alte Traum eines globalen Dorfes oder einer kosmopolitischen Gemeinde wahr – Twitter never sleeps!
    • offen: sowohl thematisch als auch nutzerbezogen gibt es nur wenige Vorschriften und Voraussetzungen. Von Diskussionen über Benjamins Aurabegriff bis zum Paketsendungstracking ist alles möglich – Mein Twitter ist nicht dasselbe wie dein Twitter!
    • fluid: es lassen sich problemlos andere Medieninhalte in den Strom einfügen oder Inhalte in andere Plattformen oder Ströme einspeisen – Twitter ist überall!

    Was aber verschwinden wird, beziehungsweise im Moment abzuklingen scheint, ist die Euphorie der Early Adopters. Die nachfolgenden Twitter-Generationen der “digitalen Eingeborenen” werden Twitter ebenso unemotional verwenden wie heute SMS verwendet werden. Unemotional bezieht sich dabei nur auf die verwendete Technologie: die Inhalte können selbstverständlich traurig wie hoffnungsvoll oder fröhlich sein.

    Neu ist: Die Tatsache, dass man diese Emotionen in Kurzmitteilungen verpackt mitteilen kann, löst keine Begeisterung mehr aus. Diese Versachlichung durch Einübung und Gewöhnung ist nichts neues, das war bei der Eisenbahn nicht anders und vermutlich waren auch die Early Adopter von Faustkeilen euphorisch über die Möglichkeiten, die sich ihnen mit dieser neuen Technologie bieten.

    Nur darf man diese Versachlichung nicht mit Dekadenz und Abschwung verwechseln. Das ist nämlich eine ganz andere Geschichte.



    Verwandte Artikel:
  • Gastbeitrag für KoopTech: Messen nach dem Ende der Massengesellschaft
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • Das Ende der Blogsphäre
  • Netzwerkvisualisierung mit TwitterFriends

    Gerade eben ist sie endlich fertig geworden, die Netzwerkvisualisierung für TwitterFriends. Dargestellt wird nicht das gesamte Kontaktnetz – also alle Followees und Followers -, denn das wäre zum einen unübersichtlich groß und zum anderen wenig aussagekräftig, da man Twitterkontakte sehr viel leichter hinzufügt als entfernt. Deshalb stellt TwitterFriends nur das “relevante Netzwerk” dar, also die Kontakte, denen eine Person in der letzten Zeit mindestens zweimal per ‘@’ geantwortet oder sich auf sie bezogen hat. Es geht also um das verborgene Netzwerk von Personen, denen eine Person auf Twitter öffentlich ihre Aufmerksamkeit schenkt. Nach Eingabe eines Twitter-Usernamen auf der Startseite von TwitterFriends erscheint das Ego-Netzwerk des Nutzers, hier für meinen Twitter-Account @furukama:

    TwitterFriends-Netzwerk für @furukama

    TwitterFriends-Netzwerk für @furukama

    Die Größe der Knoten des Netzwerkes entspricht jeweils der Anzahl von Tweets, mit denen ich mich an sie gerichtet habe. Dargestellt wird also die Intensität der Kommunikation zwischen dem zentralen Knoten (“Ego“) und den Kontakten im relevanten Netzwerk. Da diese Visualisierung bei vielen Kontakten schnell unübersichtlich wird, kann man durch dieses Netzwerk surfen: Per Klick auf einen Knoten, wird das Netzwerk um diesen zentriert, so dass man die Vernetzung der Kontakte untereinander analysieren kann:

    Blick auf die Vernetzung von @saschalobo im Netzwerk von @furukama

    Blick auf die Vernetzung von @saschalobo im Netzwerk von @furukama

    Unter der Netzwerkgrafik gibt es einen Link, mit dem man zwischen der obigen einfachen Netzwerkdarstellung und der vollen FOAF-Visualisierung (FOAF für “friend of a friend“) umschalten kann. Die zweite Darstellungsweise zeigt auch die Kontakte meiner Twitterkontakte, die sich nicht in meinem Netzwerk befinden, also auch meine “Freundesfreunde”. Hier erhöht sich die Zahl der Knoten noch einmal, aber auch hier kann man sich per Mausklick durch das Netzwerk bewegen:

    FOAF-Netzwerk von @furukama

    FOAF-Netzwerk von @furukama

    Die Netzwerkdarstellung benötigt keine zusätzliche installierte Software wie Java oder Flash. Verwendet wird die JavaScript-Visualisierungsbibliothek JIT von Nicolas Garcia Belmonte. Lauffähig müsste das Ganze auf Firefox, Chrome und Safari sein, mit eingeschränkter Geschwindigkeit auch im Internet-Explorer. Hier geht es zu der Anwendung.

    Hinweis: Bei einigen Twitternutzern erscheint das Netzwerk zunächst noch recht leer, das kann daran liegen, dass die Netzwerkdaten ihrer Kontakte noch nicht im Cache sind. In diesem Fall findet man unter der Netzwerkgrafik eine Liste von Links, mit denen man diese Daten einsammeln kann. Nutzer mit nicht-öffentlichem Profil oder ohne Replies können nicht erfasst werden. Das Ganze funktioniert ohne Eingabe des eigenen Twitterpassworts.

    Kommentare und Bugreports am besten per Twitter an @furukama oder gleich hier in die Kommentare. Danke!



    Verwandte Artikel:
  • TwitterFriends
  • Twitteranalyse for Dummies
  • Big Data und die Hackertugenden
  • TwitterFriends

    Immer häufiger wird im Zusammenhang mit Social Media bemängelt, dass es sich bei den dort zu beobachtenden “Freunden” gar nicht um echte Freunde handelt. Gerade Twitter wird immer wieder als Beispiel für eine “Freundesinflation” genannt, haben viele Nutzer dort doch mehrere Tausende “Followers”. Aber ist diese Gesamtzahl der Follower überhaupt so wichtig? Mit wie vielen der eigenen Follower ist man überhaupt in einem direkten Gespräch?

    Um diese Frage zu beantworten, habe ich die Webanwendung “Twitterfriends” geschrieben, die die letztem 400 Tweets eines Nutzers auswertet und herausfindet, welchen Personen man mittels @-Antworten man am meisten Aufmerksamkeit geschenkt hat. Umgekehrt lässt sich mit einem Klick auf den anderen Tab herausfinden, welche Twitterer einem selbst am häufigsten mit dem @-Zeichen geantwortet haben. So sieht das dann bei mir aus:

    TwitterFriends von @furukama

    Diese Liste (bzw. eigentlich ist es ein Netzwerk) ist sehr viel aussagekräftiger als die Gesamtliste der Personen, deren Updates ich auf Twitter abonniert habe, da hier die Personen aufgeführt sind, mit denen ich tatsächlich im Gespräch bin. Man könnte auch “relevantes Netzwerk” (relevant net) dazu sagen.



    Verwandte Artikel:
  • Twitteranalyse for Dummies
  • Netzwerkvisualisierung mit TwitterFriends
  • Code, Hacks & Projects
  • Wer vertraut wem? Firmenblogs genießen besonders wenig Vertrauen

    Gerade auf dem Groundswellblog gefunden: eine Umfrage von Forrester zum Vertrauen in unterschiedliche Nachrichtenkanäle (nach einer mehr oder weniger kurzen Registrierung – je nachdem wieviele Fehler man im Formular macht – bekommt man auch den gesamten Bericht als pdf). So etwas ähnliches hatte ich vor kurzem ja auch für die StudentInnen. Jetzt geht es um einen repräsentativen Schnitt durch die US-Onlinebevölkerung. Die Ergebnisse in Kurzform:

    • Am stärksten vertrauen die Leute ihren Bekannten und Freunden. Besonders glaubwürdig werden die Informationen dann, wenn sie über das klassische Digitalmedium “Email” übertragen werden. 77% geben an, dieser Quelle völlig zu vertrauen oder zu vertrauen. Merkwürdigerweise wirkt das Social-Network-Profil eines Bekannten nur noch auf 43% der Nutzer vertrauenswürdig. Vielleicht ein Effekt des deutlich sichtbaren Branding der Seiten oder der Werbeeinblendungen? Das Medium spielt in diesem Fall doch eine deutliche Rolle. McLuhan würde sich freuen.
    • Ebenfalls sehr glaubwürdig sind Produktrezensionen. Darin liegt der große Vorteil von Amazon gegenüber seinen Mitbewerbern ohne nutzergenerierte Rezensionen. Nicht nur werden auf diese Weise Millionen von Seiten gefüllt und immer wieder aktualisiert, sondern diese Inhalte werden auch noch als besonders vertrauensvoll wahrgenommen. Auch, wenn sie von Unbekannten geschrieben wurden. Für mich ist das ein deutlicher Hinweis, dass Unternehmen, Organisationen, Parteien etc. sich verstärkt diesen Plattformen zuwenden sollten. Sowohl zuhörend, um zu erfahren, wie sie bewertet werden, als auch aktivierend, also selbst Kritiken und Bewertungen anstoßend.
    • Die Massenmedien liegen im Mittelfeld des Vertrauens und erreichen Werte zwischen 48% (gedruckte Branchenverzeichnisse) oder 46% (gedruckte Zeitungen) und 39% (Radio) oder 38% (TV).
    • Wikis (33%) liegen in den Vertrauenswerten unterhalb von professionellen Nachrichtenangeboten im Web (39%), aber immer noch vor Unternehmensemails (28%) oder Forenbeiträgen (21%).
    • Nun zur schlechten Nachricht: Besonders schlecht schneiden Unternehmensblogs ab, die nur von 16% der Befragten als vertrauensvoll bewertet werden. Das ist sehr wenig, aber private Blogs liegen mit 18% auch nicht sehr viel weiter vorne. Allerdings handelt es sich hier um sehr neue Arten der Unternehmenskommunikation, mit denen sowohl die Produzenten als auch die Nutzer noch längst nicht so souverän umgehen wie zum Beispiel mit den klassischen Massenmedien.
    • Sehr spannend ist die Differenzierung nach der Nutzerkategorie, also die Unterschiede zwischen allen Onlinern, Bloglesern und Blogschreibern. Besonders deutlich sind die Unterschiede, wenn es um das Vertrauen in Blogs geht. Blogschreiber vertrauen Unternehmensblogs (fast 40%) und privaten Blogs (fast 50%) stärker. Aber auch Wikis profitieren von der Vertrautheit mit Social Media. Sie liegen bei ihnen gleich auf mit professionellen Onlinenachrichtenangeboten und Printzeitschriften. Social-Network-Profile von Bekannten liegen bei aktiven Bloggern, was das Vertrauen betrifft, an dritter Stelle hinter Email und Produktbewertungen.
    • Dabei ist besonders interessant, dass auch klassische Massenmedien davon profitieren. Blogger und Blogleser scheinen insgesamt den Medien mehr Vertrauen zu schenken als Nicht-Blogger. Womöglich steckt dahinter eine Art generalisiertes Medienvertrauen oder media literacy, das sowohl dazu führt, dass Menschen sich in Blogs ausdrücken als auch dazu, dass sie anderen Medien stärker vertrauen. Eine Schlussfolgerung: Auch klassische Medien wie Zeitschriften oder Printzeitungen sollten sich demnach verstärkt um diese medienaffinen Nutzer bemühen anstatt in ihnen allein eine Bedrohung zu sehen.
    Ein Kritikpunkt ist, dass nicht danach gefragt wurde, um welche Inhalte es jeweils geht. Ich vermute, dass sich das Medienvertrauen deutlich unterscheidet, je nachdem ob es um Informationen über einen Bombenanschlag in Mumbai geht oder um Erfahrungen mit dem neuen EEE-PC oder um das Leben der Paris Hilton. Ein zweiter Punkt ist, dass nicht zeitlich differenziert wird, um welche Stadien der Informationsgewinnung es sich handelt: ob um die zwanglose Recherche, das Überprüfen von Informationen oder um breaking news. Überhaupt wäre es interessant, auch einmal die wahrgenommenen Geschwindigkeiten zu überprüfen. Das ist schließlich auch ein Faktor, der einen Informationskanal kennzeichnet: der Informationsdurchsatz.


    Verwandte Artikel:
  • Welchem Medium vertrauen die Leser?
  • Edelman: Wikipedia vertrauenswürdiger als klassische Medien
  • Die Probleme von OpenID
  • Social Media Marketing in Deutschland

    Wie lassen sich soziale Medien für Marketingzwecke einsetzen? Das Buch “Groundswell” von Charlene Li und Josh Bernoff ist voll mit Beispielen davon und die Listen von Peter Kim oder Jeremiah Owyang, der auch eine sehr spannende Liste mit Negativbeispielen (“Brands that Got Punk’d by Social Media”) pflegt, scheinen von Tag zu Tag länger zu werden.

    Und hierzulande? Auch in Deutschland bemerken immer mehr Unternehmen, dass mit dem Anbruch des Internetzeitalters auch neue Formen der Kommunikation mit den Leuten erforderlich wird: Brand Communities, Netnography und Social (Media) Marketing sind Schlagworte, die auf diese neue Wahrnehmung hinweisen. Das Ziel klingt auf dem ersten Blick gar nicht so abgefahren: den Leuten zuhören, sie versuchen zu verstehen und mit ihnen in ein Gespräch kommen, von dem beide Seiten profitieren können. Was das aber impliziert, wenn man es ernst meint, kann man kaum unterschätzen: Ich finde, Kai-Uwe Hellmanns Formulierung einer “Unternehmenskulturrevolution” trifft das sehr gut.

    Es folgt eine Liste von Beispielen für Social (Media) Marketing aus dem deutschsprachigen Raum (Ergänzungen in die Kommentare oder per Twitter an mich):

    UPDATE (3.12.2008): Neue Fallbeispiele von Coca Cola, Daimler Benz, Deutsche Telekom, General Motors, Herbert-von-Halem-Verlag, Klett-Cotta, Pons
    UPDATE (9.12.2008): Neue Fallbeispiele von Cirquent, Nike, Siemens, Tele 5, Zanox

    Aber das können noch nicht alle gewesen sein. Wer fehlt?


    Verwandte Artikel:
  • Amerikaner wünschen sich mehr Social Media im Kundendialog
  • Update zur AG Social Media
  • 50.000 Unterschriften gegen Internetzensur
  • Die reichweitenstärksten Webseiten nach AdPlanner

    Ende August hatte ich schon einmal einen Blick auf die Reichweitenzahlen des neuen Google-Instruments “AdPlanner” geworfen und auch mit den AGOF-Zahlen aus den internet facts verglichen. Im großen und ganzen lagen die Zahlen nicht allzu weit auseinander. Der große Vorteil der Googlezahlen liegt zum einen darin, dass hier auch Vergleichsangebote ausgewiesen werden, die keine Werbeflächen bereitstellen bzw. nur eigene Produkte bewerben. Zum anderen gehen diese Zahlen auch in den long tail. Auch für kleine Angebote gibt es regelmäßig aktualisierte Zahlen.

    Mittlerweile wurden die Google-Zahlen zwei mal aktualisiert, so dass sich jetzt auch die zeitliche Entwicklung dieser Webseiten darstellen lässt (Klick zum Vergrößern):

    Bis auf AOL und StudiVZ haben alle Angebote im Vergleich zum August Reichweite eingebüßt, aber einige (z.B. T-Online, GMX, DasTelefonbuch.de, mobile.de oder MeineStadt) konnten ihr “Septembertief” überwinden und wieder leicht zulegen. Die Werte von Mozilla.com fluktuieren zu stark, um sinnvoll interpretiert zu werden.

    Außerdem gibt es seit kurzem auch für deutsche Webseiten demographische Angaben. Zuvor konnte man sich nur für US-Angebote einen Eindruck davon verschaffen, welches Geschlecht, Alter, Einkommen und Bildungsstand die Besucher einer Webseite haben. Bei kleinen Angeboten wie zum Beispiel diesem Blog (3.900 Unique Visitors in Deutschland und 9.500 Page Views) sieht man deutlich, dass die Zahlen auf einem sehr kleinen Sample beruhen müssen: 100% der Besucher haben ein Haushaltseinkommen von unter 18.000 € und alle Besucher fallen in die Altersgruppe von 25 bis 34.

    Auch wenn diese Zahlen noch lange nicht die Präzision von ivw-vermessenen Zugriffszahlen besitzen, scheinen sie für viele Angebote gut genug zu sein, um ein Gefühl für die quantitative Reichweite zu bekommen. Die spannenden Fragen lauern freilich jenseits dieser Zahlen: Wer sind die Nutzer dieser Seiten? Welche Interessen haben sie? Wie sind sie mit anderen vernetzt? Was hat sie auf die Seiten geführt? Welchen Einfluss – sowohl innerhalb des Web als auch außerhalb – haben die Inhalte, die hier angeboten werden? Welche Glaubwürdigkeit und Authenzität wird damit verbunden? Die spannende Frage gilt wie so oft den Bedeutungen, die hinter der bloßen Reichweite steckt. Darüber schweigen sich diese Zahlen leider aus.



    Verwandte Artikel:
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Twitter überholt die NY Times
  • Zeitungen springen auf den Web 2.0-Zug auf
  • Woher kommen die Nutzer?

    Gerade habe ich bei Turi2 folgendes Zitat von Manfred Hasenbeck (Burda-Yukom) gelesen:

    Sie können heute die schönsten medialen Weihnachtsbäume ins Netz stellen. Wenn der Rezipient nicht weiß, dass es sie gibt, wird er sie nicht finden.

    Ganz ähnliche Kommentare habe ich in den letzten Tagen auch immer gehört, wenn es um die Produktion neuer, zum Teil crossmedialer Angebote der Wissenschaftskommunikation geht: “Was ist denn, wenn wir mit großem Aufwand tolle Filme über Wissenschaftler herstellen, und dann findet diese Filme niemand im Netz?”

    Der Denkfehler liegt darin, dass es gar nicht so sehr darum geht, dass die Rezipienten (hoffentlich landet dieses Schimpfwort zusammen mit dem Konsumenten auf dem diskursiven Müllhaufen) selbst diese Inhalte finden. Natürlich guckt der normale Nutzer nicht täglich auf die Seiten der Deutschen Forschungsgemeinschaft, um nachzusehen, ob es da womöglich neue Multimediainhalte gibt. Was für eine seltsame Vorstellung.

    Nutzer suchen nach Themen. Die meisten suchen auf Google. Deshalb gilt: Wenn die Inhalte gut sind und über Suchmaschinen wie Google gut auffindbar sind (also gut verschlagwortet), dann werden sie gefunden. Wenn ich meine Angebote im Deep Web verstecke, brauche ich mich nicht wundern, dass sie nicht gefunden werden.

    Also: stellt eure schönen medialen Weihnachtsbäume ins Netz, sorgt dafür, dass Google damit etwas anfangen kann. Wenn die Inhalte gut sind, dann werden die Nutzer auch kommen.



    Verwandte Artikel:
  • Münchener Medientage auf Twitter
  • Vom Geist des modernen Prosumerismus
  • Facebook als Flirtbörse? Zur Soziodemographie der Facebook-Nutzer
  • Google AdPlanner: Das Ende der Online-Mediaplanung?

    Gerade eben habe ich meinen Zugang für die Betaversion des neuen Googledienstes AdPlanner bekommen. Schon mit den ersten paar Klicks wird deutlich, welche Sprengkraft dieses neue Kostenlosangebot von Google für das Berufsbild des Mediaplaners haben könnte: Im Handumdrehen lassen sich hier Zielgruppen suchen, sortieren, vergleichen und dann in vielen Fällen gleich die entsprechenden Google-Ads buchen. Die Differenzierung nach Land, Sprache, Alter, Bildung, Geschlecht, Haushaltseinkommen funktioniert tadellos – allerdings gibt es diese demographischen Daten bislang erst für die USA.

    Ich habe einmal die letzten AGOF-Internet Facts (Juni 2008) zur Hand genommen und die jeweils angegebenen Unique Visitorzahlen verglichen. Das Ergebnis (Klick zum Vergrößern):

    Man erkennt, dass die Werte für viele Angebote sehr ähnlich liegen, einige Male kommt Google zu einer etwas höheren Reichweite (GMX, Yahoo, StudiVZ, Chip) und bei T-Online und ProSieben.de liegt Google weit unter den AGOF-Zahlen. Deutlich wird aber auch, dass Googles Planungswerkzeug anders funktioniert als die AGOF Zählung: Hier können Daten für fast alle Angebote abgerufen werden (außer Googleeigenen Diensten wie Google oder Youtube) und nicht nur für teilnehmende Vermarkter. Ebay.de, Mozilla.com und Wikipedia.org liegen bei den deutschen Internetnutzern weit vorne – drei beispielhafte Angebote, die in den Internet Facts nicht vorkommen.

    Aber nicht nur der Blick nach vorne ist interessant, sondern vor allem der Blick in den Long Tail. Hier zeigt sich die wahre Stärke des Google-Tools, denn auch Angebote mit wenigen Tausend Besuchern im Monat können hier angezeigt und in die Online-Mediaplanung einbezogen werden. Und die Zahlen für dieses Blog hier sind sogar einigermaßen realistisch. Richtig spannend für die Online-Mediaplanung wird es freilich dann, wenn auch für das deutsche Publikum demographische Angaben verfügbar sind und wenn die Integration des Google-Werbenetzwerkes in den AdPlanner reibungslos funktioniert (momentan werden die Werbeplätze in diesem Blog noch nicht angezeigt). Das könnte dann tatsächlich den Markt der Online-Mediaplanung kräftig durcheinanderwirbeln.

    Eine weitere interessante Frage ist: Was macht Google mit den Mediaplanungsdaten? In den Plänen stecken viele Informationen über die wahrgenommene Passung von Internetangeboten und Zielgruppen, die wiederum in aggregierter Form ausgewertet werden könnten, um einen Eindruck von der Perspektive der Mediaplanung auf das Internet zu bekommen.



    Verwandte Artikel:
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • Twitter überholt die NY Times
  • Kurzer Blick auf scholarz.net
  • Neue Medientheorie

    Wie ich bereits erwähnt habe, liegt gerade der “Reader Neue Medien” von Karin Bruns und Ramón Reichert auf meinem Schreibtisch (hier gibt’s eine Leseprobe). Sieht auf den ersten Blick sehr interessant aus zumal mir die sehr “Transcriptische” Perspektive, unter der dieser Band zusammengestellt wurde, sehr sympathisch ist:

    “Der Schwerpunkt … liegt auf einem kulturwissenschaftlichen Ansatz, der den Computer als Bedeutung generierendes Medium versteht, mit dem sich Macht erzeugen, Politik betreiben und Kunst hervorbringen lässt.”

    Auf stolzen 540 Seiten werden die Themen Digitalisierung, Virtualität, Hypertext, Cyberfeminismus, Networking, Spiele und Avatare in 38 grundlegenden Texten abgehandelt. Dabei fällt auf, dass es vor allem angelsächsische Autoren sind, die für die Theorie Neuer Medien für einflussreich gehalten werden. Die deutschsprachige Medientheorie ist durch die usual suspects Max Bense, Friedrich Kittler, Claus Pias und Siegfried J. Schmidt sowie noch Marie-Luise Angerer vertreten.

    Bei der Auswahl der Texte, von denen ich viele schon aus anderen Zusammenhängen kenne (Alan Turing, Vannevar Bush, Esther Dyson, John B. Barlow, Donna Haraway, Steven Levy, Howard Rheingold, Sherry Turkle), erkennt man deutlich die Problematik der Zusammenstellung eines solchen Readers: Auf der einen Seite möchte man aktuelles Material bieten, das den state of the art des Nachdenkens über Neue Medien repräsentiert. Auf der anderen Seite müssen die Texte aber schon ein wenig “abgehangen” sein, so dass sich überhaupt beurteilen lässt, welche Entwürfe Bestand haben werden und eine Diskussion hervorgebracht haben. So lässt sich erklären, dass nur ein einziger Beitrag jünger als fünf Jahre ist.

    Nur bedeutet das, dass der hier präsentierte Blick auf digitale Medien das Mainstreaming vieler Webanwendungen, die durch das mobile Netz mögliche Durchdringung von virtuellen und materiellen Welten sowie die Entstehung eines Teilhardschen globalen Bewusstseins (“Noosphäre”) noch nicht im Blick hat.

    Außerdem fehlen Beiträge von ausgerechnet den beiden Theoretikern, in deren Theorien die jüngsten Entwicklungen tatsächlich schon auftauchen: Vilém Flusser und Marshall McLuhan.



    Verwandte Artikel:
  • Neue Maßzahl für die Metaroll
  • Der meinVZ-Buzz ist vorbei
  • Fragebogen zur Free Burma-Blogaktion