Archive for the 'google' Category

Der Kontextvektor des Bundespräsidenten

Vor Jahren hatte ich an dieser Stelle schon über die große Bedeutung der gespeicherten Google-Suchanfragen als “Datenbank der Wünsche” geschrieben. Die Begriffe, die Menschen in das Google-Eingabefeld schreiben, spiegeln sehr genau ihre Wünsche wider – sowohl die offen kommunizierten als auch die geheimen.

Als Nebenbemerkung: Man könnte vermuten, dass Menschen mittlerweile ehrlicher zu ihrer Suchmaschine sind als zu ihren engsten Verwandten. Insofern sollte man intensiv über eine besondere Sorgfaltspflicht und einen besonderen Schutz dieser Daten nachdenken. Vielleicht gibt es bald neben der ärztlichen und der anwaltlichen Schweigepflicht auch so eine Art “Suchmaschinengeheimnis”, das garantiert, dass, was wir in einer Websuche über uns offenbaren, nicht in falsche Hände gerät.

Neben dieser besonderen Vertrauensstellung dieser Datenbanken, beeindruckt vor allem das hier sekündlich anfallende Wissen. Dadurch, welche Begriffe gemeinsam eingegeben werden, und welche überhaupt nicht, oder dadurch, welche Treffer dann tatsächlich angeklickt werden, und welche überlesen werden, entsteht eine Wissensdatenbank, die vielleicht sogar größer als die Wikipedia ist, da sie sich viel schneller ändert. Die Assoziation von “Bundespräsident” und “Anrufbeantworter” dürfte zum Beispiel ein sehr junges Phänomen sein. Ja, wenn es um diese aktuellsten Phänomene geht, scheinen die Algorithmen von Google sogar die Rolle eines politischen Beraters einzunehmen, der dem amtierenden Staatsoberhaupt Handlungsempfehlungen gibt:

Der Algorithmus schlägt den Rücktritt des Präsidenten vor

Der Algorithmus schlägt den Rücktritt des Präsidenten vor

Diese scheinbare Empfehlung entsteht schlicht daraus, dass diese beiden Begriffe in den letzten Tagen, Stunden besonders häufig gemeinsam in Suchabfragen verwendet wurden bzw. besonders häufig gemeinsam in Webseiten auftauchen. Diese überdurchschnittliche gemeinsamen Vorkommen (oder: Kollokationen) verwandeln die Suchmaschine aber gleichzeitig in eine neue Art von Wissensspeicher. Anhand der Struktur der sekündlich eingehenden Suchabfragen (bei Google waren es laut ComScore allein in den USA im November 13 Milliarden Abfragen) können Maschinen sehr viel darüber lernen, wie wir Menschen Begriffe und Wissen organisieren.

Eine praktische Anwendung dieses Wissensspeichers habe ich in einem schon etwas älteren, aber einflussreichen Paper (Google Scholar zählt 246 Zitationen) der beiden Google-Mitarbeiter Mehran Sahami und Timothy D. Heilman “A Web­based Kernel Function for Measuring the Similarity
of Short Text Snippets
“. Darin geht es um das Problem, die inhaltliche Ähnlichkeit von sehr kurzen Textschnippseln zu erkennen. Da es sich hierbei nur um wenige Wörter handelt, versagen klassische Methoden des Textminings wie zum Beispiel das Kosinus-Ähnlichkeitsmaß. Die Anzahl der Datenpunkte ist schlicht zu klein, um Aussagen über die Ähnlichkeit zu treffen.

Die Google-Wissenschaftler verwenden die Suchtreffer, die eine Suchmaschine wie Google auswirft, wenn man sie mit den Textschnippseln füttert, als Kontext-Vektor, mit dem sie dann die Übereinstimmung berechnen können, da er nun nicht mehr wenige Worte umfasst, sondern ein großer Corpus aus hunderten Dokumenten bzw. 1000-Zeichen langen Ausschnitten daraus darstellt. Das von ihnen beschriebene Verfahren stellt z.B. zwischen “Steve Ballmer” und “Microsoft CEO” eine Übereinstimmung von 0.838 fest, während das Kosinusmaß hier auf einen Wert von 0 gekommen wäre. Auch zwischen dem früheren CEO “Bill Gates” und “Microsoft CEO” gibt es eine Ähnlichkeit von immerhin 0.317 – aber auch seine korrekte Beziehung zu Microsoft findet dieses Maß heraus: “Bill Gates” und “Microsoft Founder” erzielt 0.677.

Abb. aus Sahami/Heilman (2006), S. 4

Abb. aus Sahami/Heilman (2006), S. 4

Der erste Anwendungsfall dieses Verfahrens, der hier in den Sinn kommt, sind natürlich die automatischen Vorschläge bei Suchabfragen. Insofern ist das oben beschriebene Wulff-Beispiel also nicht unbedingt eine politische Handlungsempfehlung, sondern das Ergebnis des Vergleichs von Kontextvektoren.



Verwandte Artikel:
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen
  • Das Ende des Suchmaschinenzeitalters

    Wahrscheinlich kann sich jeder, der vor 1985 geboren ist, noch genau an das erste Mal Googeln erinnern. Auf einmal war dort ein echter Automat, der mit einem minimalistischen, aber gleichzeitig großartigen Design lauter Ergebnisse aus dem Web hervorholte, die man vorher gar nicht wahrgenommen hatte. Damit ging die Zeit der Verzeichnisse, der handgepflegten Linksammlungen zu Ende – und die Hunderte freigesetzten Kategorienadministratoren auf Yahoo! waren die Grundlage für den Erfolg der Wikipedia (so könnte zumindest eine These lauten).

    Auf jeden Fall konnte diese Suchmaschine, deren Link in den meisten Unternehmen als Geheimtipp direkt von den Programmieren herumgereicht wurde, ein grandioses Wachstum demonstrieren und nebenbei einen völlig neuen Wirtschaftszweig begründen. Die Suchmaschinenoptimierer. Aber auch das Nutzungsverhalten im Web hat sich durch dieses bescheidene Eingabefeld gravierend geändert. Aus dem Surfer, der von Link zu Link reitet, wurde etwas überspitzt die digitale Couchpotato, für den die Welt nur aus den fünf ersten Suchtreffern zu einem Thema bestand.

    Heute hat sich diese Landschaft erneut verändert. Und man muss gar nicht allzu tief schürfen, um zu erkennen, dass das Suchmaschinenzeitalter seinen Höhepunkt längst überschritten hat. Vor allem drei Entwicklungen sind es, die der Suche allgemein und Google im Besonderen zugesetzt hat:

    1. Social: Die Nutzer sind immer weniger auf Suchmaschinen angewiesen, um die Informationen zu finden, für die sie sich interessieren, weil sie von ihrem Freundeskreis bzw. über Aggregatoren wie Flipboard informationell vollversorgt werden. So wird der Twitterstream oder die Facebooktimeline zum Suchverhinderer. Wer wie in einem digitalen Schlaraffenland aus dem Freundeskreis mit Links versogt wird, hat gar keine Zeit mehr, zu suchen. Und vielleicht auch gar keinen Appetit mehr. Als Schattenseite dieser Entwicklung, leben wir immer stärker in unseren eigenen algorithmisch erzeugten und optimierten “Filterblase“, in denen wir nur die Informationen erhalten, die mit einer hohen Wahrscheinlichkeit zu unseren Interessen passen. Das minimiert die Reibung, aber auch die Anregung. Google hatte in diesem Feld, das mittlerweile von Facebook dominiert wird, lange sehr wenig zu melden. Erst kürzlich gab es mit Google Plus einen ernstzunehmenden Schritt in diese Richtung.

    2. Apps: Neben den Social Networks verbringen wir immer mehr Onlinezeit in Apps. Nicht nur werden Apps auf Smartphones zu einem der stärksten Zeitbudgets in der Mediennutzung, sondern auch zu einem der dynamischsten Wirtschaftsbereichen. Auch hier sind die Veränderungen gegenüber dem Suchmaschinenzeitalter frappierend: Früher haben wir über Suchmaschinen nach Produkten, Sonderangeboten und Shops gesucht. Heute gibt es Apps dafür. Egal ob ich auf Amazon Bücher kaufe (zu den Folgen für den Buchhandel hier weiterlesen), über eBay ersteigere, auf Yelp ein Geschäft in der Nähe suche oder über den Appstore Informationen über Apps abrufe – hierfür brauche ich keine Suchmaschine mehr. Hier ist Google, immerhin mit Android Anbieter des stärksten mobilen Betriebssystems, sehr viel besser positioniert als in der Suche. Aber der Blick auf die Umsätze zeigt die überragende Marktmacht von Apple auf diesem Gebiet (in diese Richtung hatten wir schon vor zwei Jahren in der Isarrunde diskutiert). Business Insider titelte gestern zu diesem Thema sehr passend: “The End of Google Search is in the Palm of your Hand“.

    3. Agenten: An dieser Stelle wird es etwas utopisch. Aber ich bin überzeugt, dass intelligenten Agenten nach dem Modell von Siri die Zukunft gehört. Ein einfaches und natürlich wirkendes Sprach-Interface zu einem hoch komplexen Netzwerk aus Informationen, die auf meine Person, meine sozialen Kreise, meine physikalische Umgebung bezogen sind, schlägt sogar noch das elegante Eingabefeld von Google. Hier muss ich gar nicht mehr selber suchen, sondern ich lasse meinen Agenten suchen, der meine Interessen und Bedürfnisse mit der Zeit besser kennt als ich selbst. Wahrscheinlich dauert es nicht mehr lange, bis Google die eigenen Agenten ins Rennen schickt. Dieser Markt ist im Moment noch sehr klein, aber könnte sich in Zukunft zu einem ähnlich mächtigem Markt entwickeln wie die Suche.

    Bei einer Sache bin ich mir sicher. Die Generation der Digital Natives wird sich wahrscheinlich an das Thema Suchmaschine auf ähnlich nostalgische Weise erinnern, wie sich die Generation davor an 14400er Modems und Linkverzeichnisse.



    Verwandte Artikel:
  • Gastbeitrag für KoopTech: Messen nach dem Ende der Massengesellschaft
  • Das Ende der Blogsphäre
  • Erntezeit (2): Wölfin trotz inet zugangs weiterhin zum offline schreiben verurteilt
  • The Twitter is the Message – Willkommen in der Reload-Gesellschaft

    picfog1

    In dem Moment, in dem ich die neue Echtzeit-Bildersuche PicFog das erste Mal gesehen habe, wurde mir klar: das ist genau das, was Marshall McLuhan hier gemeint hat:

    Electric circuitry profoundly involves men with one another. Information pours upon us, instantaneously and continuously. As soon as information is acquired, it is very rapidly replaced by still newer information.

    Bereits im Jahr 1967 schrieb er über das Internet (“electric circuitry”), Microblogging (“information pours upon us”) und die automatischen Reloadmechanismen (“very rapidly replaced”). Durch diese schnellen Informationen – wir sprechen hier von Echtzeit (“gedacht – getippt”, “gesehen – gepostet”) – sind wir nicht mehr in der Lage, Botschaften oder Bilder logisch zu klassifizieren, sondern können nur noch entweder grobe Muster erkennen.

    picfog2

    PicFog aggregiert alle möglichen Bilder, die Microblogger auf die verschiedenen Plattformen von Twitpic bis yfrog hochladen und stellt sie als visuellen Strom dar. Jemand fotografiert die S-Bahnstation, durch die er gerade fährt. Im nächsten Augenblick taucht sie neben vielen anderen Bildern auf der PicFog-Startseite auf. Beim nächsten automatischen Reload der Seite ist das Bild nach unten gerückt und wurde durch zahlreiche aktuellere Bilder ersetzt. Bilder aus Indien, USA, Österreich oder Japan.

    Wenn Google Insights for Search abbildet, was die Menschen suchen oder sich wünschen (eine globale Datenbank der Wünsche), zeigen Dienste wie PicFog, was die Menschen sehen. “All media are extensions of some human faculty”. Noch so ein McLuhanspruch, der hier wahr wird.

    Mit PicFog kann ich nicht nur meine Augen sehen, sondern auch mit den Augen vieler anderer Menschen weltweit. Mit den Augen von Fremden und Freunden. Von Frauen und Männern. Von Rentnern und Schülern. Obwohl es zunächst ganz ähnlich klingt, sind das nicht die Tausend Augen des Dr. Mabuse, denn Dr. Mabuse konnte nur auf die anderen Menschen herabsehen, nicht aber durch die anderen Menschen sehen. Being John Malkovich ist vielleicht die passendere filmische Assoziation, nur dass man nicht nur in den Kopf eines Schauspielers schlüpft, sondern in den Kopf vieler Menschen zugleich. Der Begriff “Überwachung” trifft hier nicht zu, aber einen treffenden Begriff für dieses Eintauchen in die Welt habe ich noch nicht gefunden. Vielleicht Empathie? Oder ethnologischer Blick?

    picfog3

    Teilhard de Chardin sprach in den 1950er Jahren immer wieder von der “Noosphäre” als einem Stadium der menschlichen Entwicklung, in dem die Einzelbewusstseine zu einem globalen Bewusstsein zusammenwachsen würden. Als jesuitischer Theologe nannte er diesen Bezugspunkt auch Omegapunkt, also den Augenblick der Vereinigung in Christi. McLuhan hat diesen Gedanken elektrifiziert und aus der fernen Zukunft (Ende der Geschichte) in die Gegenwart geholt. Seine Feststellung: Dieses technische Weltbewusstsein gibt es schon.

    Dabei verändert sich die Art, wie wir die Welt wahrnehmen. Nicht mehr analytisch zergliedernd, sondern synthetisch als Gesamtbild. Als waberndes, sich immer wieder veränderndes Muster, in dem man immer wieder Bekanntes, Vertrautes sieht. Leisa Reichelt hat zur Beschreibung des Microbloggens oder Twitterns den schönen Begriff der “ambient intimacy” geprägt. Genau das ist es, was wir auf PicFog wahrnehmen. Intime Einblicke (eigentlich eher “Durchblicke” oder “Mitblicke”, s.o.) in das Leben der Anderen. Aber diese Blicke sind nicht fixiert oder fokussiert, sondern unscharf. Innerhalb weniger Sekunden befindet man sich bereits an einem ganz anderen Ort, in einer ganz anderen Person. Dennoch: Diese frei fluktuierende Intimität, die in diesem “Bildernebel” entsteht, kommt tatsächlich den Vorstellungen McLuhans von der Rückkehr präliterarischer “tribal emotions” sehr nahe.

    Dazu passt auch die Feststellung, dass die auf dem Microblogging basierenden Echtzeitbildersuche ersten Eindrücken nach im Vergleich mit der klassischen Google-Bildersuche nicht nur aktuellere Ergebnisse zu Tage fördert, sondern in vielen Fällen auch relevantere Ergebnisse. Kein Wunder, dass Google fieberhaft überlegt, wie sich dieses Echtzeitmoment auf ihre Suchverfahren übertragen lässt. Schon mit Erscheinen des Buches “What Would Google Do?” von Jeff Jarvis, sind wir schon wieder einen Schritt weiter. Die entscheidende Frage lautet nun: “What Would Twitter Do?” Nicht unbedingt, was das Geschäftsmodell betrifft, aber was die kognitiven Möglichkeiten betrifft.

    Willkommen in der Reload-Gesellschaft!



    Verwandte Artikel:
  • Katzenbilder sind der Kitt der Gesellschaft – oder: Die drei Arten von Information im Internetzeitalter
  • Twittern auf der Kaiserstiege
  • Als der Retweet noch Trackback hieß
  • Am Germanistenwesen soll das Web genesen

    “Hässliches Gesicht”, “Fratze”, “Schlauchbootlippen”, “zweifelhaft”, “Laien”, “scheinbare Meinungsfreiheit”, “Mob”, “Manipulation”, “unseriös”, “Lächerlichkeit”, “Nonsense”, “Verschmutzer des Internet” – nein, hier ist nicht, wie man zunächst denken möchte, von Universitätsprofessoren die Rede, sondern vom Internet. Pardon, in diesen Kreisen sagt man ja “Selbstmach- und Mitmachweb”, damit auch dem letzten Ignoranten deutlich wird, dass nicht die Onlineausgabe von Max Webers Werken gemeint ist, sondern der nicht mehr zu bewältigenden Flut des “User-generated Nonsense”.

    Dieses Mal erklärt Oliver Bendel – er ist “Germanist und Philosoph und arbeitet als Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz” – uns auf Telepolis das ganze Grauen des Web 2.0. Man kann es auch in wenigen Worten zusammenfassen: Ein Ort, an dem eine bildungsbürgerliche Ikone wie Joachim Kaiser neben Gossenkindern wie den anonymen Amazon-Rezensentinnen zu finden ist, ist ein böser Ort.

    Hier könnte ich es eigentlich bei meiner Standardantwort beruhen lassen: “Lerne zu unterscheiden, und du wirst das Web lieben”. Auch ein Germanistikprofessor dürfte wenigstens im Prinzip erkenntnisfähig sein und (mühsam, aber dennoch) lernen können, einen nach allen Regeln der Literaturkritik verfassten MRR-Verriss von einem anonymen “Ist voll blöd das Buch!11!” zu unterscheiden. Auch wenn Google auf den Suchergebnisseiten diesen Qualitätsunterschied nicht farblich anzeigt. Wenn das Differenzierungsvermögen von dieser Aufgabe überfordert ist, ist das ein Problem der Medienkompetenz und kein Problem des Web 2.0!

    Aber ich glaube, dass es hier um mehr geht als das bloße Überfordertsein eines Gutenbergianers, der sich widerwillig in der McLuhan-Galaxie zurechtfinden muss. An einigen Stellen schwingt eine bedrohliche Tendenz mit, die nicht allein nach besseren Filtern oder Instrumenten für den eigenen Gebrauch ruft, sondern nach einem großer Reinigungsaktion im Mitmachweb. Am Germanistenwesen soll das Web genesen. Die Gegenüberstellung der “scheinbaren, grenzenlosen Meinungsfreiheit” von Bloggern und Amazonschreibern (= “Rezensentenmob”) und der “echten Meinungsfreiheit” der kulturellen Elite von Gestern wäre ein Beispiel. Der folgende “Lösungsvorschlag” des Qualitätsproblems ein weiteres:

    Wenn uns unsere Literatur etwas wert ist, sollten wir Talente mit ihr flirten und den Mob nicht über sie herfallen lassen.

    Im Namen “unserer Literatur” (also des von der Literaturkritik bestimmten, definierten und verehrten Kanons) sollen also Meinungen von Laien ausgeklammert, ignoriert oder bekämpft werden? Von allen dämlichen Kampfschriften gegen das Internet der letzten Wochen ist das hier eindeutig die drolligste.



    Verwandte Artikel:
  • 200% Internetwachstum in Deutschland?
  • Manager-Magazin macht Google überflüssig
  • Neues metaroll-Feature: Neue Blogs
  • Was ist Google FriendConnect?

    Ich habe gerade testweise einmal zwei FriendConnect-Widgets von Google in die Seitenleiste des Blogs eingebaut. Das erste verwandelt dieses Blog in eine Social Community, der man mit seinem Google-Profil beitreten kann. Wenn man die entsprechende Aktion in seinem Profil ankreuzt, wird auch ein Aktivitätsstream erzeugt.




    Welche Aktivitäten werden in den FC Google-Widgets angezeigt? Die kommen aus dem zweiten Widget, dem Kommentarfeld (oder wahlweise auch Shoutbox oder Wall). Dort kann man entweder angemeldet oder nicht angemeldet Kommentare hinterlassen, auf andere Kommentare reagieren oder sich die Profile der (angemeldeten) Kommentierenden ansehen:


    Was bedeutet das?

    • Dezentralisierung: Im Prinzip ähneln die Widgets dem, was man auch schon von Disqus oder Friendfeed kennt – siehe dazu auch die lange Diskussion “The Conversation has left the Blogosphere“, die Anfang des Jahres vor allem in den USA geführt wurde. Mit FriendConnect wird diese Debatte wieder neu aufflammen: Welche Folgen hat es, wenn die Kommentare der eigenen Blogeinträge nun auf Google und nicht mehr auf dem eigenen Server gespeichert werden?
    • Dialogifizierung: Allerdings ermöglicht FriendConnect das Einbauen dialogischer Web 2.0-Elemente auch auf klassische Web 1.0-Seiten. Einfach das Widget einfügen und schon hat man eine statistische Webseite in eine Community oder einen Dialog verwandelt. Dieser Eindruck wird auf jeden Fall vermittelt.
    • Expansion: Noch besitzen nur wenige meiner Kontakte ein öffentliches Google-Profil, aber über Googles Social Graph findet man schon zahlreiche personenrelevante Daten (zum Testen einfach einmal hier die URL des eigenen Blogs oder Friendfeedaccounts eingeben). Vielleicht gelingt Google damit besser, was auch Yahoo und Microsoft versuchen: ihre Emailnutzer in Adressen sozialer Netzwerke verwandeln. Die Frage ist, ob hier nicht Facebook – Googles größter Konkurrent auf dem Gebiet Social Graph derzeit – die besseren Karten hat, denn hier bestehen bereits Netzwerke, die sich in der Tat sinnvoll auf andere Netzwerke übertragen ließen.
    Die große Frage lautet auch hier: Erfüllt dieser Dienst ein tatsächliches Bedürfnis der Internetnutzer? Das Interaktiv-Machen von Webseiten? Geht mit einem Blog besser. Die anderen Wohltaten, die FriendConnect verspricht (zum Beispiel das Sammeln von Kontakten im eigenen Social Graph), erscheinen mir hier viel zu umständlich realisiert, um eine breite Benutzergruppe anzusprechen.
    Das nächste große Ding wird Google Friend Connect wohl nicht werden. Was hingegen wirklich gebraucht wird, ist ein Protokoll oder Dienst, das es ermöglicht, sich mit seinen Bekannten, Freunden und Kollegen zu vernetzen, ohne dass die Technik dazwischensteht. Ein Netzwerkmedium, das die sozialen Beziehungen in den Vordergrund rückt und selbst als Medium gar nicht mehr wahrnehmbar ist. Social Networking-Plattformen, aber auch der Microbloggingdienst Twitter oder Blogs allgemein, gehören immer stärker in das Repertoire von Alltagspraktiken, die es uns ermöglichen, mit Menschen in Kontakt zu treten. Langsam wird es Zeit, die dafür benötigten Technologien unsichtbar zu machen.
    Ein Freund ist ein Freund. Egal, ob auf Facebook, Twitter oder StudiVZ. Eine Anwendung, die dazu in der Lage ist, dieses Grundgesetz sozialer Medien in eine Praxis zu verwandeln, hat das Zeug, zum next big thing zu werden.

    Siehe dazu auch:



    Verwandte Artikel:
  • Die meistgenutzten Web 2.0-Dienste der Twitterati
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Wie berechenbar wir doch auf Google suchen…
  • Die reichweitenstärksten Webseiten nach AdPlanner

    Ende August hatte ich schon einmal einen Blick auf die Reichweitenzahlen des neuen Google-Instruments “AdPlanner” geworfen und auch mit den AGOF-Zahlen aus den internet facts verglichen. Im großen und ganzen lagen die Zahlen nicht allzu weit auseinander. Der große Vorteil der Googlezahlen liegt zum einen darin, dass hier auch Vergleichsangebote ausgewiesen werden, die keine Werbeflächen bereitstellen bzw. nur eigene Produkte bewerben. Zum anderen gehen diese Zahlen auch in den long tail. Auch für kleine Angebote gibt es regelmäßig aktualisierte Zahlen.

    Mittlerweile wurden die Google-Zahlen zwei mal aktualisiert, so dass sich jetzt auch die zeitliche Entwicklung dieser Webseiten darstellen lässt (Klick zum Vergrößern):

    Bis auf AOL und StudiVZ haben alle Angebote im Vergleich zum August Reichweite eingebüßt, aber einige (z.B. T-Online, GMX, DasTelefonbuch.de, mobile.de oder MeineStadt) konnten ihr “Septembertief” überwinden und wieder leicht zulegen. Die Werte von Mozilla.com fluktuieren zu stark, um sinnvoll interpretiert zu werden.

    Außerdem gibt es seit kurzem auch für deutsche Webseiten demographische Angaben. Zuvor konnte man sich nur für US-Angebote einen Eindruck davon verschaffen, welches Geschlecht, Alter, Einkommen und Bildungsstand die Besucher einer Webseite haben. Bei kleinen Angeboten wie zum Beispiel diesem Blog (3.900 Unique Visitors in Deutschland und 9.500 Page Views) sieht man deutlich, dass die Zahlen auf einem sehr kleinen Sample beruhen müssen: 100% der Besucher haben ein Haushaltseinkommen von unter 18.000 € und alle Besucher fallen in die Altersgruppe von 25 bis 34.

    Auch wenn diese Zahlen noch lange nicht die Präzision von ivw-vermessenen Zugriffszahlen besitzen, scheinen sie für viele Angebote gut genug zu sein, um ein Gefühl für die quantitative Reichweite zu bekommen. Die spannenden Fragen lauern freilich jenseits dieser Zahlen: Wer sind die Nutzer dieser Seiten? Welche Interessen haben sie? Wie sind sie mit anderen vernetzt? Was hat sie auf die Seiten geführt? Welchen Einfluss – sowohl innerhalb des Web als auch außerhalb – haben die Inhalte, die hier angeboten werden? Welche Glaubwürdigkeit und Authenzität wird damit verbunden? Die spannende Frage gilt wie so oft den Bedeutungen, die hinter der bloßen Reichweite steckt. Darüber schweigen sich diese Zahlen leider aus.



    Verwandte Artikel:
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Twitter überholt die NY Times
  • Zeitungen springen auf den Web 2.0-Zug auf
  • Macht Google klug?

    GehirnaktivitätWie titelte der Spiegel doch Anfang August so schön: “Macht das Internet dumm?” Viele Weblogautoren hatten sehr schnell eine plausible Antwort auf diese Frage parat: “Nein, nur Spiegelautoren bei der Suche nach einem griffigen Titel”, denn die Nähe zu Nicholas Carrs Frage “Is Google Making Us Stupid?” im Atlantic war einfach zu frappierend.

    Eine Forschergruppe um Gary Small im Semel Institute for Neuroscience and Human Behavior der UCLA haben diese Frage nun etwas näher untersucht (siehe dazu auch Smalls Buch “iBrain: Surviving the Technological Alteration of the Modern Mind“). In einem Experiment wurde die Hirnaktivität von 24 Testpersonen zwischen 55 und 76 untersucht – die eine Hälfte mit Interneterfahrung, die andere ohne.

    Als die Probanden ein Buch lesen sollten, zeigten sich keine nennenswerten Unterschiede in der durch funktionellen Magnetresonanztomographie gemessenen Hirnaktivität, bei der Internetsuche hingegen schon. Dazu Small:

    Our most striking finding was that Internet searching appears to engage a greater extent of neural circuitry that is not activated during reading — but only in those with prior Internet experience.

    Er interpretiert dies einen Hinweis darauf, dass Googlen eine komplexe Aktivität ist, die dazu in der Lage ist, Verbindungen im Gehirn zu verbessern. Also: Lebenslanges Lernen mit Google?

    Bei allen Vorbehalten, was die Interpretation von Gehirnaktivität betrifft oder die Zahl der Teilnehmer, macht dieses Ergebnis doch Hoffnung, dass der Spiegel-Redaktion mit etwas mehr Zeit im Internet so etwas wie der erwähnte Spiegel-Titel nicht mehr vorkommen wird.



    Verwandte Artikel:
  • Interessante Kriminalprozesse gefällig? Die digitale Bibliothek als Open Content
  • Manager-Magazin macht Google überflüssig
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Woher kommen die Nutzer?

    Gerade habe ich bei Turi2 folgendes Zitat von Manfred Hasenbeck (Burda-Yukom) gelesen:

    Sie können heute die schönsten medialen Weihnachtsbäume ins Netz stellen. Wenn der Rezipient nicht weiß, dass es sie gibt, wird er sie nicht finden.

    Ganz ähnliche Kommentare habe ich in den letzten Tagen auch immer gehört, wenn es um die Produktion neuer, zum Teil crossmedialer Angebote der Wissenschaftskommunikation geht: “Was ist denn, wenn wir mit großem Aufwand tolle Filme über Wissenschaftler herstellen, und dann findet diese Filme niemand im Netz?”

    Der Denkfehler liegt darin, dass es gar nicht so sehr darum geht, dass die Rezipienten (hoffentlich landet dieses Schimpfwort zusammen mit dem Konsumenten auf dem diskursiven Müllhaufen) selbst diese Inhalte finden. Natürlich guckt der normale Nutzer nicht täglich auf die Seiten der Deutschen Forschungsgemeinschaft, um nachzusehen, ob es da womöglich neue Multimediainhalte gibt. Was für eine seltsame Vorstellung.

    Nutzer suchen nach Themen. Die meisten suchen auf Google. Deshalb gilt: Wenn die Inhalte gut sind und über Suchmaschinen wie Google gut auffindbar sind (also gut verschlagwortet), dann werden sie gefunden. Wenn ich meine Angebote im Deep Web verstecke, brauche ich mich nicht wundern, dass sie nicht gefunden werden.

    Also: stellt eure schönen medialen Weihnachtsbäume ins Netz, sorgt dafür, dass Google damit etwas anfangen kann. Wenn die Inhalte gut sind, dann werden die Nutzer auch kommen.



    Verwandte Artikel:
  • Münchener Medientage auf Twitter
  • Vom Geist des modernen Prosumerismus
  • Facebook als Flirtbörse? Zur Soziodemographie der Facebook-Nutzer
  • Google AdPlanner: Das Ende der Online-Mediaplanung?

    Gerade eben habe ich meinen Zugang für die Betaversion des neuen Googledienstes AdPlanner bekommen. Schon mit den ersten paar Klicks wird deutlich, welche Sprengkraft dieses neue Kostenlosangebot von Google für das Berufsbild des Mediaplaners haben könnte: Im Handumdrehen lassen sich hier Zielgruppen suchen, sortieren, vergleichen und dann in vielen Fällen gleich die entsprechenden Google-Ads buchen. Die Differenzierung nach Land, Sprache, Alter, Bildung, Geschlecht, Haushaltseinkommen funktioniert tadellos – allerdings gibt es diese demographischen Daten bislang erst für die USA.

    Ich habe einmal die letzten AGOF-Internet Facts (Juni 2008) zur Hand genommen und die jeweils angegebenen Unique Visitorzahlen verglichen. Das Ergebnis (Klick zum Vergrößern):

    Man erkennt, dass die Werte für viele Angebote sehr ähnlich liegen, einige Male kommt Google zu einer etwas höheren Reichweite (GMX, Yahoo, StudiVZ, Chip) und bei T-Online und ProSieben.de liegt Google weit unter den AGOF-Zahlen. Deutlich wird aber auch, dass Googles Planungswerkzeug anders funktioniert als die AGOF Zählung: Hier können Daten für fast alle Angebote abgerufen werden (außer Googleeigenen Diensten wie Google oder Youtube) und nicht nur für teilnehmende Vermarkter. Ebay.de, Mozilla.com und Wikipedia.org liegen bei den deutschen Internetnutzern weit vorne – drei beispielhafte Angebote, die in den Internet Facts nicht vorkommen.

    Aber nicht nur der Blick nach vorne ist interessant, sondern vor allem der Blick in den Long Tail. Hier zeigt sich die wahre Stärke des Google-Tools, denn auch Angebote mit wenigen Tausend Besuchern im Monat können hier angezeigt und in die Online-Mediaplanung einbezogen werden. Und die Zahlen für dieses Blog hier sind sogar einigermaßen realistisch. Richtig spannend für die Online-Mediaplanung wird es freilich dann, wenn auch für das deutsche Publikum demographische Angaben verfügbar sind und wenn die Integration des Google-Werbenetzwerkes in den AdPlanner reibungslos funktioniert (momentan werden die Werbeplätze in diesem Blog noch nicht angezeigt). Das könnte dann tatsächlich den Markt der Online-Mediaplanung kräftig durcheinanderwirbeln.

    Eine weitere interessante Frage ist: Was macht Google mit den Mediaplanungsdaten? In den Plänen stecken viele Informationen über die wahrgenommene Passung von Internetangeboten und Zielgruppen, die wiederum in aggregierter Form ausgewertet werden könnten, um einen Eindruck von der Perspektive der Mediaplanung auf das Internet zu bekommen.



    Verwandte Artikel:
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • Twitter überholt die NY Times
  • Kurzer Blick auf scholarz.net
  • Reichweite oder Relevanz?

    Scott Karp empfiehlt John Batelles Buch “The Search” noch einmal zur eindringlichen Lektüre und arbeitet in diesem Beitrag einen zentralen Meilenstein in der Entwicklung von Googles Werbeprogramm AdWords heraus: 2002 hat Google sein Programm zum einen in Anlehnung an Overture von einem klassischen TKM-Modell zu einem Pay-per-Click-Modell umgestellt.

    Damit entstand ein Auktionsmodell, in dem die Werbetreibenden in einer Auktion um Werbeplätze bieten konnten. Damit gilt also zunächst: Wer am meisten Geld für die Klicks bietet, bekommt die größte Reichweite. Aber: Reichweite allein genügt nicht, wenn sie nicht relevant ist!

    Denn in diesen Auktionen kann sich jeder, vorausgesetzt die finanziellen Mittel sind da, an die Spitze bieten und damit das größte Publikum erreichen. Aber wenn diese Werbung niemanden interessiert, wird sie auch nicht geklickt. Das Ergebnis: Die Anzeige wird zwar sehr oft gezeigt, der Anzeigenkunde muss jedoch für diese Reichweite nicht zahlen. Ein schlechtes Geschäftsmodell.

    Google ist dieser Problematik jedoch aus dem Weg gegangen, in dem eine weitere Metrik in die Berechnungen mit einbezogen wurde: die Click-through-Rate, also das Verhältnis der tatsächlich angeklickten zur insgesamt angezeigten Werbung. Die CTR geht eher in Richtung Relevanzmaß, da dieses Maß anzeigt, wie relevant die Werbung für die Nutzer wirklich ist – was sich dann zum Beispiel in den Adklicks zeigt.

    In diesem Fall wurde also ein Reichweitenmodell erst dann richtig erfolgreich, als es mit einem Relevanzmaß verknüpft wurde. Die Reichweite allein hätte nicht funktioniert.

    Ich glaube, dass sich eine ähnliche Entwicklung auch anderswo, zum Beispiel im Bereich Social Media, abspielen könnte. Auch hier wird momentan noch sehr stark mit Reichweitenmaßen gearbeitet. Die Frage, wie relevant diese Reichweiten überhaupt sind, hört man dagegen noch viel zu selten.

    Ein schönes Beispiel bringt Anthony LaFauce:

    Living in DC everyone wants to get into the Washington Post. The Post has an amazing reach and finds its way into the homes of people all around the country. Is that good? Sure every client I have ever had wanted to get in the Post but it wasn’t always in their best interest.

    So what if the Post reaches half a million people a day, are they the right people? This is where social media can really shine even with a smaller metric.

    Momentan fehlen allerdings die geeigneten Indikatoren, um diesen “Glanz” der sozialen Medien entsprechend vermitteln zu können.



    Verwandte Artikel:
  • Caramba! Relevanz, Blogblues und Werbehuren revisited
  • CV
  • Interview für die Blogschau und die Parasitenthese der Blogosphäre