Monthly Archive for Februar, 2008

Wikipedia-Wissen gilt als unsicher

Der Spiegel und die Wikipedia. Eine endlose Geschichte. Auf der einen Seite kann man ohne die Community-Enzyklopädie nicht leben. Auf der anderen Seite traut man der Weisheit der Massen doch nicht so ganz. Oder wird dazu angehalten. Das sieht man zum Beispiel an einem aktuellen Bericht über das “Horrorheim auf Jersey“, in dem es am Ende heißt:

Jersey gilt als die größte und mit etwa 90.000 Einwohnern bevölkerungsreichste der britischen Kanalinseln und ist berühmt für ihre weiten Strände und die vielen Sonnenstunden.

Zum Vergleich die Wikipedia:

Jersey [...] ist die größte und mit etwa 90.000 Einwohnern zugleich bevölkerungsreichste der Kanalinseln. [...] Jersey gilt als die sonnenreichste aller britischen Inseln und ist berühmt für ihre ausgedehnten Strände.

Ganz davon abgesehen, ob diese Informationen für das Verständnis des Artikels unbedingt notwendig sind – hat Kindermissbrauch etwas mit den Sonnenstunden und Stränden zu tun? -, die merkwürdige Formulierung “Jersey gilt als die größte … der britischen Kanalinseln” zeigt sehr schön das Misstrauen dem wisdom of the crowd gegenüber: Wikipedia ist kein sicheres Wissen, deshalb schreiben wir lieber einmal “gilt”. Auch die Wikipedia-Information über die Größe der Kanalinseln (Jersey hat über 100 km2, alle anderen unter 1 km2) könnte ja falsch sein. Von wegen digitaler Maoismus und so …



Verwandte Artikel:
  • Studium 2.0: Vertrauen Studenten der Wikipedia?
  • Foucault in der Wikipedia (Pentzold über Diskursmacht)
  • Habermas, Weblogs und die Mode 2-Wissensproduktion
  • StudiVZ, schülerVZ und meinVZ dominieren den Community-Buzz der Blogosphäre

    meinvz.pngErst lässt man die Blogosphäre ein wenig über den genauen Namen des künftigen StudiVZ für Ex-Studenten spekulieren, dann geht man gegen die Verwendung der Buchstabenkombination VZ vor und schließlich dann die große Enthüllung des neuen Netzwerks meinVZ.

    Wenn man den Buzz beobachtet, den diese Ereignisse in der letzten Zeit in der deutschsprachigen Blogosphäre erzeugt haben, kann man nur zu dem Ergebnis kommen, dass die Strategie zumindest in dieser Hinsicht aufgegangen ist:


    (Monatsansicht)


    (Wochenansicht)

    Gerade die Marke studiVZ, die bisher, was die Erwähnungen in der deutschsprachigen Blogosphäre betrifft, hinter Facebook und MySpace an dritter Stelle gelegen ist, hat sich dadurch an die erste Stelle katapultiert. Dieser Buzz nützt aber auch der Konkurrenz, die dadurch ebenfalls wieder ins Gespräch kommen und zum Teil neue Februar-Höchstwerte erreichen können. Der meinVZ-Hype könnte sich also zu einem neuen Community-Hype entwickeln. Betrachtet man den Querschnitt für gestern und heute, dann erwähnen zwei von drei Blogbeiträgen mit Bezug auf Social Networks eines der Holtzbrinck-VZe:

    Das spiegelt sich dann natürlich auch darin wieder, das die Holtzbrinck-Gruppe gerade die Blogkonversationen dominiert und Bertelsmann, Springer und Burda auf die Plätze verweist:

    Ich bin jedenfalls gespannt, wie sich das in den nächsten Tagen und Wochen weiterentwickeln wird.

    UPDATE: Wie man hier erkennen kann, hat studiVZ gestern weiter Buzz erzeugt und meinVZ ist nun das am zweithäufigsten erwähnte Social Network in der deutschen Blogosphäre. Dabei gab es einen time lag zwischen studiVZ und meinVZ, das erst einen Tag später einen entsprechenden “Sprung” gemacht hat:

    Was schreiben die anderen zum Thema meinVZ?

    • In der Gründerszene gibt’s ein Videointerview mit den StudiVZ-Gründern Michael Brehm und Dennis Bemmann
    • Martin Weigert kündigt den meinVZ-Start an und verursacht eine lebhafte Diskussion.
    • Auf turi-2 gibt es die ersten Screenshots des neuen VZs.
    • Brandkraft hat ein Video entdeckt, das die Zielgruppe von meinVZ darstellen soll.
    • Markus relativiert den Hype etwas und verweist auf eine Le Monde-Karte, auf der man sehen kann, in welchen Netzwerke Nord- und Süd-Amerikaner, Europäer, Afrikaner und Asiaten am liebsten gruscheln.
    • Und Robert Basic findet das alles nicht besonders spannend, während der Sichelputzer nicht davon lassen konnte, es gleich einmal am eigenen Leib auszuprobieren.


    Verwandte Artikel:
  • Der meinVZ-Buzz ist vorbei
  • Twitter überholt die NY Times
  • Patterns of mobilization in the blogosphere (English version)
  • Reputationsmanagement und “Google’s unforgiving memory” – Soloves Buch “The Future of Reputation” als eBook downloadbar

    reputation.pngDie ehrwürdige Yale University Press (vor 100 Jahren gegründet) macht es vor: Das aktuelle Buch von Daniel Solove (Unihomepage, Blog), das sich mit dem Problem des digitalen Reputationsmanagements befasst, wurde unter einer Creative Commons-Lizenz veröffentlich und lässt sich kapitelweise als PDF-Dokumente herunterladen.

    Nachdem Solove in dem Vorgänger “The Digital Person” die Datensammelwut der Unternehmen und des Staats unter die Lupe genommen hat, geht es in “The Future of Reputation” jetzt um die Informationen, die wir – die Internetnutzer – freiwillig über uns verbreiten. Zum Problem wird das Ganze dann, wenn man Informationen über sich selbst veröffentlicht hat, die man später bereut (Star Wars-Kid oder gerade eben erst Nicolas Sarkozy). Oder noch schlimmer: Wenn andere Personen reputationsschädigende Informationen über einen selbst verbreiten, die dann kaum mehr kontrolliert werden können (also digitale Rufmorde oder Hexenjagden wie in dem Fall des koreanischen “dog-poop girl“, den Solove zitiert, oder z.B. die BILD-Leserreporter). Doch gleichzeitig gilt es auch das grundlegende Recht auf freie Meinungsäußerung zu bewahren. Das ist das Spannungsfeld, mit dem sich Solove in dem Buch auseinandersetzt:

    This is a book about how the free flow of information on the Internet can make us less free.

    Es geht also um das Problem der Freiheit im Internet. Auf der einen Seite die ganzen positiven Effekte, die zum Beispiel mit dem Bloggen verbunden sind, wie zum Beispiel die Unabhängigkeit von Redakteuren und Zeilenlimits:

    Blogging brings instant gratification. I can quickly work up my thoughts into a post and publish them to the website for the world to read. People then post comments, and I can have a discussion with them. Blogging has allowed me to explore many an idea that might have languished in a forgotten corner of my mind.

    Auf der anderen Seite gelangen über Blogs auch Informationen in die mittlerweile globalisierte und unvergängliche – Google ist ein “grausamer Historiker” – Internetöffentlichkeit, die die persönliche Freiheit des Bloggers oder anderer Personen einschränken können. Schnell wird dabei deutlich, dass man im Fall der “Generation Google” mit den herkömmlichen Unterscheidungen wie etwa zwischen einer (i.d.R. häuslichen) Privatsphäre und einer öffentlichen Sphäre nicht mehr so richtig weiter kommt. Sind Blogs öffentliche oder private Meinungsäußerungen? Agora oder Tagebuch?

    2227505888_4bd1090c41_m.jpgDazu kommt, dass die Viralität des Internets (endlich einmal kann ich dem Titel dieses Blogs gerecht werden) die für die moderne funktional-differenzierte Gesellschaft grundlegende Unterteilung in verschiedene mehr oder weniger isolierte Sphären hinfällig machen kann. Funktionale Differenzierung (“Teilinklusion”) garantiert, dass das, was ich mit meinen Arbeitskollegen, mit meinem Weinhändler und mit meinen Kindern bespreche, nicht ineinander fließt, sondern mir erlaubt, verschiedene Rollen einzunehmen: wissenschaftlicher Mitarbeiter, Kunde und Vater. Mit MySpace, Facebook und Weblogs gibt es immer mehr Lecks in diesem Differenzierungsgebäude, die mittlerweile das neue Geschäftsfeld des Reputationsmanagements ins Leben gerufen haben:

    Everybody’s googling. People google friends, dates, potential employees, long-lost relatives, and anybody else who happens to arouse their curiosity.

    Mittlerweile gibt es sogar bereits spezialisierte Personensuchmaschinen wie yasni.

    Der erste Teil des Buches versucht sich in einer Bestandaufnahme der digitalen Reputation von den neuen Techniken der Informationsverbreitung über den Wandel von Klatsch im digitalen Zeitalter bis hin zu Praktiken des naming and shaming. Der zweite Teil zieht dann rechtliche Schlussfolgerungen daraus und bearbeitet das Spannungsfeld zwischen freier Meinungsäußerung und Rufschädigung anderer, formuliert einen angemessenen Begriff der Privatsphäre und wirft einen Blick auf die rechtlichen Regulierungsmöglichkeiten.

    Ich habe bis jetzt nur das erste Kapitel ganz gelesen und in den Rest nur kurz hineingesehen, möchte aber auf jeden Fall schon einmal eine Leseempfehlung aussprechen. Und dann am besten das Buch auch noch in der Papierversion kaufen, damit sich das CC-Experiment für den Yale-Verlag lohnt. (via)

    (Abbildung “Spanish Wine Shop 1873″ von souravdas)



    Verwandte Artikel:
  • Vom Ego-Googeln zum Reputationsmanagement: Vier Fragen an Klaus Eck
  • Wer bestimmt über die Werbung im Web?
  • Who owns what?
  • Wolkige Semantik – Clouds und Grids

    1807465362_128d367a84.jpg

    Dein Reich ist in den Wolken
    und nicht von dieser Erde
    (Brentano)

    In einem sehr informativen Beitrag beschreibt Martin Weigert das Phänomen des „Cloud Computing“. Was ist darunter zu verstehen?

    Als Cloud Computing wird ein Zustand bezeichnet, bei dem Anbieter von Internetdiensten die benötigte Software und Hardware nicht mehr selber betreiben, sondern an externe Dienstleister auslagern. Diese verfügen über leistungsstarke Datencenter und stellen Webunternehmen die gewünschten/benötigten Ressourcen für ihre Applikationen gegen Entgelt bereit.

    Viele der Webservices wie Gmail oder YouTube funktionieren bereits auf der Grundlage von Clouds: die Daten werden nicht auf dem heimischen Rechner gespeichert und auch nicht unbedingt auf dem Rechner, auf dem die Internetanwendung läuft – häufig ist dieser selbst gar nicht mehr eindeutig identifizierbar, sondern die Anwendungen arbeiten gewissermaßen auf einem verteilten Netz von Rechnern. Die Vorteile sind: Ausfallsicherheit und Skalierbarkeit.

    Damit wird das Grundprinzip (und Erfolgsgeheimnis) des Internet überhaupt fortgesetzt: die mehr oder weniger willkürliche Verteilung von Aufgaben auf ein Netzwerk. Schon das Protokollpaar TCP/IP funktioniert so, dass bei einer einzelnen Internetanfrage nur Start- und Zielpunkt klar identifizierbar sind, nicht aber die zahlreichen Stationen, über die eine Nachricht durch das Netz geleitet wird. Das Netz ist eine Black Box, in der zahlreiche Mikroeinheiten selbständig entscheiden, auf welchen Weg eine Nachricht weitergereicht wird.

    Mit dem Cloud Computing wird auch der Zielpunkt von Anfragen unscharf, denn dieser Rechner leitet ebenfalls nur Anfragen an ein weiteres Netzwerk – die Cloud (z.B. Amazons EC2 oder Mosso) – weiter, in der dann tatsächlich die Datenabfragen stattfinden. Im alten Netz war es tatsächlich eine Ressource, die ich abfragen konnte. Eine Textdatei, die dann physisch auf meinen Rechner transferiert („abgerufen“) wurde. Wenn jemand diese Datei gelöscht hat, war sie nicht mehr abrufbar. Mit der „Vercloudung“ des Netz wird auch diese Datei zum Simulacrum. Gleichzeitig verliert auch der Ausgangspunkt der Ressource an Bedeutung: Das Betriebssystem ist selbst eine Cloud und findet online statt. Martin nennt icloud, Cloudo, eyeOS, ajaxWindows, myGoya und jooce als frühe Beispiele – Google, Facebook und Microsoft werden vielleicht folgen.

    Doch möglicherweise ist das Cloud Computing nur der Übergang zu einer noch viel grundlegenderen Auflösung: dem Grid-Computing oder Grid-Hosting(siehe auch hier). Denn man kann einzelne Clouds wie zum Beispiel die einzelnen Datencenter von Google oder Amazon immer noch identifizieren – zwar nicht der Nutzer aber die Programmierer, die auf die Clouds zurückgreifen. Der Begriff trifft es eigentlich recht gut: Wolken kann man zumindest kurzzeitig klar voneinander abgrenzen, allerdings neigen sie dazu, ihr Erscheinungsbild über die Zeit zu verändern, sich zu teilen oder zu verschmelzen.

    Im Grid geht diese wenigstens vorübergehende Unterscheidbarkeit ebenfalls verloren und das Grid „entscheidet“ selbst, welche Schritte der Datenverarbeitung auf welchen Rechnern oder eben Clouds ausgeführt werden – ähnlich wie das TCP/IP-Protokoll. Das Netz wird zum eigenständigen Akteur bzw. einer nicht-deterministischen Maschine im Sinne Heinz von Foersters: Man kann Inputs und Outputs noch einigermaßen feststellen, doch davon nicht auf die Prozesse schließen, die im Inneren der Black Box abgelaufen sind, um die Inputs in Outputs zu verwandeln.

    Aktuell kenne ich aber nicht besonders viele brauchbare Anwendungsfälle des Cloud/Grid-Computing. Eine spannende Sache ist das Zusammenschalten von mehreren Wörterbüchern im Wörterbuchnetz. Was gibt es da noch?

    (Abbildung “Power Grid” von JeffersonDavis)



    Verwandte Artikel:
  • Manager-Magazin macht Google überflüssig
  • Das Ende der URL – “Google ‘viralmythen’ to find out more”
  • RT: Homo sapiens sapiens
  • Kurzer Blick auf scholarz.net

    scholar.pngJohannes Moskaliuk konnte sich scholarz.net, das Wissensmanagementtool der Julius-Maximilians-Universität Würzburg, schon einmal als Betaversion ansehen. Im Kern geht es dabei um die Verwaltung von Ressourcen wie Literaturangaben, Zitaten, Querverweisen, Ideen und Textteilen, die dann – wir sind hier schließlich im Web 2.0 – getaggt und mit anderen Nutzern geteilt werden können. Also eine Art mehrbenutzerfähiger digitaler Zettelkasten. Sein Fazit klingt schon einmal vielversprechend:

    Diese Verknüpfung von Datenverwaltung und sozialer Netzwerkfunktion finde ich spannend und neu. Damit werden die meiner Meinung wesentlichen Aspekte des Web 2.0, nämlich Wissensemergenz und soziale Vernetzung als Mehrwert mit einem Tools bedient. Bis jetzt habe ich meine Wissen in einem Wiki gesammelt und Kontakte über XING geknüpft. Mit Scholarz.net ich beides mit einem Tool erreichen. Schöner Zusatz: Integriert ist auch eine Mailfunktion, eine Adressbuch und ein Diskussionsforum.

    Was mich nun interessieren würde, ohne dass ich schon eine Gelegenheit hatte, mir das Programm einmal anzusehen:

    • Wie sieht es mit der Datensicherheit aus? Bei Google Docs werden die Daten, so wie ich das verstanden habe, mittels Cloud Computing verteilt in verschiedenen Datacenters abgelegt, so dass im Fall eines Ausfalls immer Sicherungskopien bereit stehen. Welche Sicherungsstrategien sind für scholarz.net vorgesehen? Was heißt “Mit scholarz.net werden alle Daten zentral an einem geheimen Ort abgespeichert und sind durch mehrere Sicherheitsschranken geschützt” konkret?
    • Was geschieht mit den Urheberrechten? Im Falle von Google Docs gab es bereits einmal einige Verwirrung darüber, inwiefern Google berechtigt ist, eingestellte Dokumente weiterzunutzen.
    • Generell ist mir nicht ganz klar, wo scholarz.net über andere Online-Textverarbeitungen oder Wikis hinausgeht. Ein Killerfeature wären sicher eingebaute Kodierungsfunktionen à la atlas.ti oder MAXQDA. Ist so etwas geplant? Wie sieht es mit dem Erstellen von Fragebögen aus, was ja mittlerweile mit Google Docs möglich ist?
    • Der aktuelle Claim “Schneller promovieren!” erscheint mir doch ein bisschen eng gefasst. Einige der angesprochenen Funktionen dürften auch für andere Zielgruppen sehr interessant sein.
    • Wie sieht das Geschäftsmodell aus? Wie läuft die Finanzierung des Dienstes nach dem Ende der Projektlaufzeit?

    Auf jeden Fall bin ich weiter gespannt auf die Entwicklung dieses Services.



    Verwandte Artikel:
  • Scholarz und eine Einführung in Web 2.0 für Sozialwissenschaftler
  • Szenenforschung: “Generic EMO Boy”
  • Update zur AG Social Media
  • Social Networking im Jahr 1976 – das Pew-Projekt über die Onlineavantgarde

    241373298_51b7966a66.jpg

    Obwohl sie sich am längsten in der Onlinewelt tummelten, wusste man bisher erstaunlich wenig über diese frühen Kolonisten des Internet: die early adopters. Die Kolonisierungsmetapher trägt freilich nicht so besonders gut, kamen in dieser Bildwelt doch die Eingeborenen (web natives), also die Generation, die wie selbstverständlich mit Computer und Internet aufgewachsen sind, erst nach den Kolonisten, die sich diese Fähigkeiten erst aneignen mussten.

    Jetzt hat ein Bericht des Pew Internet and American Life Project mit dem Titel „A Portrait of Early Adopters: Why People First Went Online – and Why They Stayed“ (Autorin: Amy Tracy Wells) festgestellt, dass sich zumindest für diese Gruppe von Internetnutzern, was ihre Motivation betrifft, gar nicht so viel geändert hat:

    Our canvassing of longtime internet users shows that the things that first brought them online are still going strong on the internet today. Then, it was bulletin boards; now, it’s social networking sites. Then, it was the adventure of exploring the new cyberworld; now, it’s upgrading to broadband and wireless connections to explore even more aggressively.

    Aber ein wichtiger Umschwung lässt sich dennoch an dieser Gruppe beobachten: Während sie in der Anfangszeit dem Internet vor allem in einer passiv-konsumierenden Haltung entgegengetreten sind, sind sie nun zu aktiven Produzenten von Internetinhalten geworden. Hier zeigt sich also deutlich ein Wandel zum Read-Write-Web (oder wie es in der Studie heißt: vom taker zum giver). Dabei geht es vor allem um eine gewandelte Wahrnehmung des WWW, das sich von einem Nachrichten- und Informationsspeicher (also eine Art BTX mit höherer Auflösung) in ein Kommunikationsmedium verwandelt hat, das heute fast jeder diesseits der digital divide als Sender benutzen kann. Viele spezialisierte Kommunikationsfunktionen des Internet – Newsgroups, Email, Instant Messaging – wurden mittlerweile ans WWW assimiliert.

    Das Pew-Projekt stellt fest, dass die early adopters das Internet zunächst als Individuen und Konsumenten benutzten (daran sieht man, dass es gar nicht um die ersten Jahre des Internet gehen kann, in denen es noch gar nicht für die Privatwirtschaft geöffnet war):

    [T]hey used search engines; got news; played games; conducted research; downloaded software and emailed friends, family and colleagues. Many of these activities consisted of serial connections — people querying systems, communicating privately with other individuals or with highly-defined communities.

    Erst nach Jahren kamen laut Aussagen der alten Surfer dann zwei weitere Verwendungsformen des Internet hinzu: der kreative Ausdruck sowie die Nutzung neuer Online-Vergemeinschaftungsformen. An dieser Stelle müsste man allerdings besser von der breiten Durchsetzung des Prinzips surfing for community sprechen, da Geselligkeit und Austausch in virtuellen Gemeinschaften entgegen der Selbstbeschreibung der Pew-Panelteilnehmer eine der frühesten Motivationen für die Internetnutzung gewesen ist. Man muss nur ein bisschen in Howard Rheingolds Beschreibung der Well-Community blättern oder dieses schöne Zitat aus der Studie lesen:

    I started my online life on a state-wide time-shared mainframe computer in the 5th grade in 1972, and we were “social
    networking” on it by 1976.

    Besonderes Interesse verdient diese Studie deshalb, weil sie es erlaubt einen Blick auf die silver surfer von Morgen zu richten; auf diejenigen älteren Surfer, die den Umgang mit dem Internet nicht erst im Alter gelernt haben, sondern noch vergleichsweise früh. Dies wird dann auch die Generation sein, mit der die Internetdurchdringung auch in den älteren Bevölkerungsteilen rapide ansteigen wird.

    (Abbildung: “Btx ist da!” von fukami)



    Verwandte Artikel:
  • Networking auf dem DLD
  • Was schreiben die anderen über die metaroll?
  • Let’s Mash (Yahoo!)
  • Einmal mehr: Journalisten vs. Blogger

    Aber dieses Mal auf Spiegel Online ein besonders dreister und inhaltsleerer Einwurf von Ullrich Fichtner, dem Autor von “Tellergericht”, der sich eigentlich nur ein bisschen überfordert fühlt durch die große Vielfalt der Essblogthemen, das Ganze aber ziemlich pathetisch als “Wahnsinn” bezeichnet. Mehr dazu nebenan in der Molekularküche.



    Verwandte Artikel:
  • Journalisten haben herausgefunden: Bloggen ist Kinderkram
  • Alle Staatsgewalt geht vom Leser aus
  • Verbale Störgeräusche, anonymisierende Bunker und virtuelle Schlägertrupps
  • Schöne neue Suchwelt: Googles Schnittstellenexperimente

    Google-Suchergebnisse lassen sich seid kurzem nicht mehr nur als schnöde Liste mit kurzen Ausschnitten darstellen (“list view”), sondern auch chronologisch (“timeline view”), räumlich (“map view”) oder als Ansicht, in der Orte, Zeitpunkte, Maße oder Bilder hervorgehoben werden. So kann man zum Beispiel die Treffer eines Suchbegriffs dahingehend einschränken, dass sie zwischen 100m und 1km liegen sollen – wofür auch immer das nützlich sein soll. Oder man erhält eine Zeitleiste, auf der alle in den Texten vorkommende Jahreszahlen markiert sind (hier frage ich mich dann schon, wie 2000 als Jahreszahl von 2000 als einfache quantitative Angabe unterschieden wird).

    google2.png

    Deutlich intuitiver ist natürlich die ortsbezogene Sichtweise, die allerdings zunächst nicht viel mehr ist als Geomashup der Suchergebnisse anhand des Vorkommens bestimmter Schlüsselwörter, die auf Orte hinweisen. Damit lässt sich aber auch der Suchraum geographisch einschränken, zoomt man in dem rechten Kartenausschnitt und klickt auf “Update Results”, dann erhält man auch nur die Treffer, die sich auf die angezeigte Region beziehen.

    google1.png

    Etwas ähnliches hatte ich mit meiner mivino-Anwendung auch schon einmal unternommen: Damit lassen sich die RSS-Feeds der partizipierenden Weinblogs je nach den im Text vorkommenden Winzern, Weinlagen oder Orten in einem GoogleMaps-Mashup darstellen. Das Ziel ist dabei etwas ähnliches, nur auf eine bestimmte Thematik bezogen und dadurch auch etwas feinkörniger (letztlich sollen dann auch einzelne Lagen geokodiert werden).

    riefling.png

    Das Muster dahinter ist dasselbe: Es geht darum, Daten aus dem WWW mit Hilfe von Zuordnungs-Tabellen oder künstlicher Intelligenz auf eine andere Weise als üblich darzustellen. Oder besser: dem Anwender eine Vielzahl an Möglichkeiten anzubieten, durch die Datensätze zu browsen. Als “Personalisierung” würde ich das jedoch noch nicht bezeichnen, erst dann, wenn z.B. sich Google die regionale oder zeitliche Eingrenzung merken würde. Eigentlich ist es ja erstaunlich, wie lange sich die Suchmaschinen-Trefferliste als Darstellungsform gehalten hat und Veränderungen nur behutsam eingeführt wurden, wie Kate Green bemerkt: “Die Web-Suche wird sich wohl verändern, doch nur schrittweise. Schließlich ist es ein schmaler Grad zwischen nützlichen Zusatzinfos und der Überfrachtung des Nutzers mit neuen Funktionen.”

    Dabei gibt es zwei verschiedene Möglichkeiten: Zum einen die Einführung bestimmter Metadaten, mit denen eine Ressource z.B. nach Datum oder Ort kodiert werden kann. Die Standards hierzu gibt es bereits (z.B. GeoRSS in den Varianten Simple und GML), das Problem ist nur der Aufwand bei der Einfügung dieser Daten. Sehr viel eleganter finde ich daher die zweite Möglichkeit, den Computer diese Zuordnungen selbst machen zu lassen (siehe diese Demoanwendung). Wenn in einem Text der “Eifelturm” erwähnt wird, sollte es möglich sein, einen Pin fünf Kilometer südlich vom Nürburgring in die Karte zu stecken – bzw. aus den weiteren Wörtern im Kontext des Begriffs herauszulesen, ob dies der gemeinte Ort ist. Vielleicht das ganze dann noch durch eine Community “korrekturlesen” lassen oder gleich bei häufig verwendeten Begriffen auf die große Zahl geokodierter Wikipedia-Artikel zugreifen, die mittlerweile schon eine sehr brauchbare semantische Geodatenbank darstellen.



    Verwandte Artikel:
  • Wird Google die Spielregeln für das Social Networking verändern?
  • Was ist Googles Open Social und wozu brauche ich das?
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Immer mehr Deutsche lesen Nachrichten im Netz – was macht der Rest im Internet?

    Der Bundesverband Informationswirtschaft, Telekommunikation und neue Medien, kurz BITKOM, kommt in einer aktuellen Auszählung von Eurostat-Daten zu dem Ergebnis, dass gut ein Fünftel der Deutschen in der Altersgruppe 16-74 Jahre Nachrichtenportale im Internet besucht. Nachrichtenportale werden dabei als

    Angebote definiert, die ausschließlich und tagesaktuell über Politik-, Wirtschafts-, Sport- oder Fachthemen berichten.

    newsportale_20_02_2008.JPG

    Das sind also Portale wie Spiegel Online, Welt Online, heise.de oder sueddeutsche.de Also unsere Internetleitmedien. Ich bin schon etwas verwundert, dass nur 21 Prozent der Deutschen diese Seiten aufrufen, während doch die Internetdurchdringung bei dieser Altersgruppe etwa bei zwei Drittel liegt. Also: 50 Millionen Internetnutzer gibt es in Deutschland und darunter sind 35 Millionen, die keine dieser Nachrichtenportale besuchen? Das kann ich mir nicht vorstellen. Klar haben Webmail, YouTube, Google und MySpace gewaltige Reichweiten – und dann gibt es noch den long tail. Aber doch nicht ausschließlich. Oder geht es um die tägliche Lektüre der Newsportale? Oder ist das einfach nur ein weiteres Beispiel dafür, wie man aus ein bisschen Nichts eine Nachricht macht?

    Der Vergleich der beiden Einzelgrafiken zeigt zwar deutlich, dass die Besuche bei den 20 größten Nachrichtenportalen schneller wächst als der Anteil der Deutschen, die überhaupt diese Portale frequentieren. Aber woran das liegt, an einer zunehmenden Konzentration oder an einer höheren Zahl der Besuche pro Besucher, geht aus der Grafik leider ebenfalls nicht hervor.



    Verwandte Artikel:
  • Macht Google klug?
  • Kurze: Leseschwäche, Onlinewerbung, Sterbekarten, Blogsterben und Projektemacher
  • Quantitatives Weiter-So der Internetnutzung
  • Der heilige Gral der Konsumkulturen

    parziv_cgm19_50v.jpgAndreas Göldi hat im Medienkonvergenzblog einen äußerst lesenswerten Beitrag über Amazon.com geschrieben. Seine These: Amazon.com ist wichtiger als Google, iTunes, Facebook und eBay. Er spricht dabei auch die related items-Funktion an:

    Und noch interessanter: Aus dem Kaufverhalten ergibt sich eine Art implizites soziales Netzwerk von Geschmacksgenossen. Für mein Shoppingerlebnis ist das “Andere Leute, die sich dieses Produkt gekauft haben, haben auch folgende Produkte gekauft” von Amazon viel wichtiger als die ziemlich ungefilterten (und darum bisher grandios erfolglosen) Produktempfehlungen auf Facebook. Nur weil ich mit jemandem bekannt bin, heisst das noch lange nicht, dass ich auch den gleichen Geschmack habe wie diese Person — oder unbedingt wissen will, was die Person gut findet.

    Ich würde hier noch weiter gehen und von dieser Funktion und vor allem der Möglichkeit, die Daten über APIs abzugreifen, als eine Art “heiliger Gral der Erforschung von Online Konsumkulturen” sprechen. Gerade die Diversifizierung des Unternehmens, das nicht nur Bücher anbietet, sondern auch Computer, Küchengeräte, Spielzeug – so ziemlich alles, was man sich in seine Wohnung stellen kann -, ermöglicht es, holistische Konsumkulturen zu erforschen.

    Das Ergebnis ist also viel mehr als einfache Produktempfehlungen à la “wer X kauft, kauft mit einer Wahrscheinlichkeit von Z auch Y” bzw. Konsumentenverhalten, sondern Lebensstile. Das aus diesen Daten ableitbare Netz der Dinge lässt sich z.B. im Sinne der Southern School of Marketing (Cova, Badot) als postmoderne neotribale Gemeinschaften deuten – als Blaupause für Commercial Communities. Und zum Teil auch als materieller Kontext für die neuen “digital empowered consumers”, hinter denen die Marktforscher derzeit her sind.

    Der große Vorteil liegt dabei nicht nur in der großen Zahl von Produktbeziehungen, die in der Amazon-Datenbank abgespeichert sind, sondern in ihrer automatisierbaren Verarbeitung. Ich hatte vor einiger Zeit mit der Entwicklung eines Analysetools begonnen, das genau diese Produktnetzwerke – das lässt sich aber ohne Probleme auf Markennetzwerke übertragen – abruft und visualisiert wie z.B. hier für den “Stamm derer vom iPod Touch” (Klick zum Vergrößern):

    (Anmerkung: Besonders interessant finde ich diese Grafik vor dem Hintergrund der Durchsetzung der Blue-ray Disc als Nachfolger der DVD. Zumindest für dieses Netzwerk ist die Verbindung deutlich: Apple – Playstation – Blue-ray. Keine Spur von HD-DVD.)

    Noch scheint dieser enorme vernetzte Wissenspool weder von der akademischen noch der privatwirtschaftlichen Konsum- und Markenforschung angezapft zu werden. Ich vermute jedoch, dass sich das sehr schnell ändern wird, gerade als Ergänzung für die eher qualitativ-textanalytisch ausgerichteten ethnographischen Verfahren der Onlinemarktforschung.



    Verwandte Artikel:
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen
  • 200% Internetwachstum in Deutschland?