Archive for the 'online' Category

GPS-Empfänger und Lederhosen – Bayerns Online-Informationssysteme

In Bayern gibt es ca. 120.000 Baudenkmäler und noch einmal 900 Ensembles, die in der Bayerischen Denkmalliste verzeichnet sind. Im Vergleich dazu: In Frankreich sind beim Kulturministerium nur etwa 38.000 Gebäude unter Denkmalschutz gestellt. Was mich daran besonders fasziniert: Die 120.000 bayerischen Baudenkmäler lassen sich mit Hilfe der Java-Anwendung “Bayern Viewer” flächenscharf auf Karten darstellen. Über dieses Interface lässt sich jedes erfasste Denkmal lokalisieren und die jeweils dazugehörigen Beschreibungstexte abrufen – zum Teil sogar mit Fotos. In Aktion sieht das ganze dann so aus:

BayernViewerAuf jeden Fall beeindruckend. Die von dem Landesamt erhobenen Daten werden hier tatsächlich der Bevölkerung zur Verfügung gestellt.  Nur: die einzelnen Denkmalinformationen besitzen keinen statischen Link, mit dem sie aufgerufen werden können. Das bedeutet:

  • Google kann die einzelnen Denkmalbeschreibungen nicht finden und durchsuchbar machen. Wenn ich z.B. nach “Residenzstraße 25 München” suche, liefert mir Google sehr viel gewerbliche Einträge, aber keine Beschreibung des 1899/1900 von Drollinger erbauten Wohn- und Geschäftshauses.
  • Von Wikipedia-Artikeln wie zum Beispiel zum “Neuen Rathaus” in München kann man nicht direkt auf die entsprechenden Eintrag des Bayerischen Landesamtes für Denkmalpflege verlinken.
  • Die gespeicherten Daten wie zum Beispiel Architekt, Baujahr etc. bleiben in einem geschlossenen System. Man kann nicht mit den Daten arbeiten und sie zum Beispiel in einem Mashup mit GoogleMaps weiterverwenden.
  • Damit kann man auch keine geosensitiven Anwendungen schreiben, die diese Informationen mit dem aktuellen Standort des Betrachters in Bezug setzen. Aus dieser Verbindung von flächenscharf kartierten Objekten und einer GPS-basierten Standort- und Richtungsbestimmung könnten wunderbare augmented realities entstehen. Man müsste z.B. nur sein Handy auf eines der Gebäude richten und könnte die Denkmalschutzinformationen abrufen.
  • Was ebenfalls fehlt: Personalisierung. Die Anwendung merkt sich nicht, welche Informationen ich abgerufen habe, welche Städte ich am häufigsten gesucht habe etc. Mit einem Mashup könnten sich die Nutzer ihre eigenen “Denkmalpfade” durch ihren Wohn- oder Ferienort erstellen lassen, mit deren Hilfe sie dann eine bauhistorische Ortsführung bekommen können.
  • Schließlich gibt es auch keine nutzergenerierten Inhalte auf der Seite. Nutzer könnten zum Beispiel
    • fehlende Bilder ergänzen
    • Objektangaben hinzufügen
    • Objekte bewerten
    • Objekte kommentieren
    • Objekte verschicken

Ganz ähnliche Anwendungen gibt es für die Kartierung der bayerischen Geotope

Geotopkartierungsowie FINWEB (die komplexeste Anwendung der drei) für die Biotope, Naturdenkmäler und Naturschutzgebiete:

FIN-WebAlle drei Anwendung – die Kartierung von Baudenkmälern, Geotopen und Biotopen – sind eindrucksvolle Beispiele für die (längst überfällige) Öffnung der behördlichen Datenbanken. Informationen, die im Auftrag des Bürgers gesammelt werden, müssen auch für ihn ohne größeren Schwierigkeiten zugänglich sein. Jeder, der sich dafür interessiert, kann die Informationen auf dem eigenen PC betrachten. Aber das war’s dann auch schon. Sehr viel mehr als Betrachten ist hier nicht drin.

Die oben für die Denkmalkartierung beschriebenen Punkte gelten auch für die Biotopkartierung und die Geotopdatenbank. Vor allem: die drei verschiedenen Kartierungen sind vollständig isoliert voneinander. Die Bayerische Regierung sollte auf offene Standards und Schnittstellen setzen, so dass man diese verschiedenen Datenbanken integrieren könnte. Also zum Beispiel in einer mobiltauglichen Anwendung, in der Biotope, Geotope, Baudenkmäler und Wikipedia-Informationen integriert sind.



Verwandte Artikel:
  • Wie man Shitstorms erkennt und bewertet
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Zweitverwertung
  • TwitterFriends

    Immer häufiger wird im Zusammenhang mit Social Media bemängelt, dass es sich bei den dort zu beobachtenden “Freunden” gar nicht um echte Freunde handelt. Gerade Twitter wird immer wieder als Beispiel für eine “Freundesinflation” genannt, haben viele Nutzer dort doch mehrere Tausende “Followers”. Aber ist diese Gesamtzahl der Follower überhaupt so wichtig? Mit wie vielen der eigenen Follower ist man überhaupt in einem direkten Gespräch?

    Um diese Frage zu beantworten, habe ich die Webanwendung “Twitterfriends” geschrieben, die die letztem 400 Tweets eines Nutzers auswertet und herausfindet, welchen Personen man mittels @-Antworten man am meisten Aufmerksamkeit geschenkt hat. Umgekehrt lässt sich mit einem Klick auf den anderen Tab herausfinden, welche Twitterer einem selbst am häufigsten mit dem @-Zeichen geantwortet haben. So sieht das dann bei mir aus:

    TwitterFriends von @furukama

    Diese Liste (bzw. eigentlich ist es ein Netzwerk) ist sehr viel aussagekräftiger als die Gesamtliste der Personen, deren Updates ich auf Twitter abonniert habe, da hier die Personen aufgeführt sind, mit denen ich tatsächlich im Gespräch bin. Man könnte auch “relevantes Netzwerk” (relevant net) dazu sagen.



    Verwandte Artikel:
  • Twitteranalyse for Dummies
  • Netzwerkvisualisierung mit TwitterFriends
  • Code, Hacks & Projects
  • Journalismus heißt Verhinderung von nutzergenerierten Inhalten

    Manchmal bekomme ich den Eindruck, dass viele Journalisten sich nicht nur schwer tun mit nutzergenerierten Inhalten, sondern dass sie regelrecht versuchen, diese zu verhindern. Ein Beleg dafür sind die unzählbaren Hinweise auf die mangelnde Qualität von Blogkommentaren und Forendiskussionen (das ist mir erst heute wieder passiert, in einer Reaktion auf meinen Vortrag zu Wissenschaftsblogs auf dem Symposium “Wissenschaft im Dialog” in Bremerhaven), ein anderer Beleg ist die rigide Einschränkung der Kommentarfunktion auf der Webseite der Süddeutschen Zeitung.

    Der Witz ist: Die Gegnerschaft von Journalisten und user generated content ist nicht neu. Nur hieß das früher nicht so, sondern trug die Bezeichnung “Leserbriefe”. Journalisten schreiben Artikel, Nutzer schreiben Briefe. Und damals wie heute genügte bzw. genügt der größte Teil der Rückmeldungen der Nutzer auf einen Artikel auf Focus Online genauso wie auf einen Artikel im gedruckten Politikteil der FAZ wohl kaum den Qualitätsvorstellungen von Journalisten.

    Nur: Die meisten Leserbriefe werden nach wie vor nicht veröffentlicht, während sich einige Onlinepublikationen auf das Experiment eingelassen haben, alle Reaktionen der Leser (sofern sie im Einklang mit der Verfassung sind) zu publizieren bzw. nicht herauszufiltern. Ich bin überzeugt: Eine Vollpublikation von Leserbriefen würde bei den meisten Lesern genau dasselbe gruselige Gefühl hervorrufen wie die 1134. Mac-vs-Windows-Debatte in einem heise-Forum.

    In diesem Sinne bedeutet Journalismus dann unter anderem auch, nutzergenerierte Inhalte zu verhindern.

    Ich meine das nicht einmal negativ, denn es wird wahrscheinlich auch in Zukunft eine Nachfrage nach solchen “sauberen” Textbiotopen geben, in denen suggeriert wird, wir befänden uns in einer Habermas’schen Utopie eines rationalen Diskurses. Das ist aber eben nur eine Scheinwelt, die mit der tatsächlichen Art und Weise, wie Menschen denken, was sie sich wünschen etc. nicht viel zu tun hat. Ein Blick auf die beliebtesten Begriffe in der Google-Suche zerstören diese Illusion sehr schnell. Manchmal möchte man das auch gar nicht alles wissen. So eine Art Traumfabrik. Und Traumfabriken werden wohl auch in Zukunft noch nachgefragt werden.



    Verwandte Artikel:
  • Das Internet, die Gatekeeper und die Qualität
  • Userdaten sind heilig – wie sieht es mit nutzergenerierten Risiken aus?
  • “Amtliche Statistik heißt heute Internet”
  • Google AdPlanner: Das Ende der Online-Mediaplanung?

    Gerade eben habe ich meinen Zugang für die Betaversion des neuen Googledienstes AdPlanner bekommen. Schon mit den ersten paar Klicks wird deutlich, welche Sprengkraft dieses neue Kostenlosangebot von Google für das Berufsbild des Mediaplaners haben könnte: Im Handumdrehen lassen sich hier Zielgruppen suchen, sortieren, vergleichen und dann in vielen Fällen gleich die entsprechenden Google-Ads buchen. Die Differenzierung nach Land, Sprache, Alter, Bildung, Geschlecht, Haushaltseinkommen funktioniert tadellos – allerdings gibt es diese demographischen Daten bislang erst für die USA.

    Ich habe einmal die letzten AGOF-Internet Facts (Juni 2008) zur Hand genommen und die jeweils angegebenen Unique Visitorzahlen verglichen. Das Ergebnis (Klick zum Vergrößern):

    Man erkennt, dass die Werte für viele Angebote sehr ähnlich liegen, einige Male kommt Google zu einer etwas höheren Reichweite (GMX, Yahoo, StudiVZ, Chip) und bei T-Online und ProSieben.de liegt Google weit unter den AGOF-Zahlen. Deutlich wird aber auch, dass Googles Planungswerkzeug anders funktioniert als die AGOF Zählung: Hier können Daten für fast alle Angebote abgerufen werden (außer Googleeigenen Diensten wie Google oder Youtube) und nicht nur für teilnehmende Vermarkter. Ebay.de, Mozilla.com und Wikipedia.org liegen bei den deutschen Internetnutzern weit vorne – drei beispielhafte Angebote, die in den Internet Facts nicht vorkommen.

    Aber nicht nur der Blick nach vorne ist interessant, sondern vor allem der Blick in den Long Tail. Hier zeigt sich die wahre Stärke des Google-Tools, denn auch Angebote mit wenigen Tausend Besuchern im Monat können hier angezeigt und in die Online-Mediaplanung einbezogen werden. Und die Zahlen für dieses Blog hier sind sogar einigermaßen realistisch. Richtig spannend für die Online-Mediaplanung wird es freilich dann, wenn auch für das deutsche Publikum demographische Angaben verfügbar sind und wenn die Integration des Google-Werbenetzwerkes in den AdPlanner reibungslos funktioniert (momentan werden die Werbeplätze in diesem Blog noch nicht angezeigt). Das könnte dann tatsächlich den Markt der Online-Mediaplanung kräftig durcheinanderwirbeln.

    Eine weitere interessante Frage ist: Was macht Google mit den Mediaplanungsdaten? In den Plänen stecken viele Informationen über die wahrgenommene Passung von Internetangeboten und Zielgruppen, die wiederum in aggregierter Form ausgewertet werden könnten, um einen Eindruck von der Perspektive der Mediaplanung auf das Internet zu bekommen.



    Verwandte Artikel:
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • Twitter überholt die NY Times
  • Kurzer Blick auf scholarz.net
  • Die Nominierten für den Grimme Online Award 2008u.a.

    Einmal mehr ein Beispiel, wie Nachrichten mittlerweile über Twitter zuerst verbreitet werden. Bevor auf der Seite des Grimme Online Awards die Liste der Nominierten zu sehen ist und noch während die Nominierten auf der Grimme-Pressekonferenz bekannt gegeben werden, war die Liste bereits über Twitter verbreitet worden (alle Angaben ohne Gewähr):

    Kategorie Information

    Geo.de Raja Ampat (Gruner + Jahr)
    graumarktinfo.de (Gruner + Jahr)
    netzpolitik.org (Markus Beckedahl)
    Störungsmelder (u.a. Holtzbrinck)

    Kategorie Wissen und Bildung

    einestages (Spiegel)
    kids-hotline (Kinderschutz und Mutterschutz e.V.)
    Kinder-Reiseführer (SWR)
    neuneinhalb (WDR)
    Weltreligionen (WDR)
    zeitzeugengeschichte.de (Metaversa e.V.)

    Kategorie Kultur und Unterhaltung

    FAZ Reading Room “Die Wohlgesinnten” (FAZ)
    Literaturport (Brandenburgischer Literaturverein / Literarisches Colloquium Berlin e. V.)
    ROOTS&ROUTES TV (Jugendfilmclub Köln e. V.)
    undertube.tv (Daniel Poli)

    Kategorie Spezial

    Hobnox.com (Hobnox AG)
    Sandra Schadek ALS (Sandra Schadek)
    ZDF Mediathek (ZDF)

    Klar, in diesem Fall lohnt sich der Blick darauf nicht besonders, da es sich um eine wenig mutige, wenn nicht sogar belanglose Zusammenstellung von Webangeboten handelt, bei der man eigentlich nur darüber diskutieren könnte, ob so das eine Überraschung oder nicht vielmehr erwartbar gewesen ist. Besonders schade: in den Kategorien Information und Wissen wurden fast nur Webangebote von großen Verlagen oder öffentlich-rechtlichen Rundfunkanstalten nominiert. Schade, hat doch die Ausschreibung betont, dass dank Web 2.0 mittlerweile auch Privatleute und kleine Unternehmen in einer Liga mit den großen Spielen können.



    Verwandte Artikel:
  • OnlineStar: Hotelsoftware bei deutschen Usern beliebter als Facebook
  • Call for Papers: Internet Research 9: Rethinking Community, Rethinking Place (AoIR)
  • Anwendungszen: Instapaper
  • Searls 10 Thesen zur Rettung der Zeitung revisited

    Doc Searls, Mitauthor des Cluetrain-Manifests (“Märkte sind Gespräche“), hat auf seinem Blog in prägnanter Form zehn Empfehlungen für die Zeitung der Zukunft formuliert (bzw. aus dem Archiv hervorgeholt). Da diese Punkte sehr gut zu meinem letzten Blogeintrag zum Tod der Tageszeitungen und dem Überleben der Zeitschriften passt, möchte ich die Thesen hier kurz kommentieren:

    1. Die Archive öffnen. Wenn die alten Beiträge hinter einer kostenpflichtigen Anmeldemaske versteckt sind, können sie von Suchmaschinen nicht gefunden werden. Was im Suchmaschinenzeitalter schlicht heißt: sie existieren nicht. Hier hat sich einiges getan. Das Zeit-Archiv reicht trotz einiger Mängel bis ins Jahr 1946 zurück. Das taz-Archiv ist zwar kostenpflichtig, Google darf aber umsonst hinein, so dass die älteren Beiträge in den Suchmaschinenindices zu finden sind. FAZ und SZ sind dagegen größtenteils kostenpflichtig.
    2. Archiviertes auf die Titelseite bringen. Doc Searls empfielt, Links zu alten Artikeln aus den Archiven auf die Titelseite zu bringen, um die Suchmaschinen und Nutzer in die Archive einzuladen. Zwar haben die Onlineausgaben mittlerweile durch die Bank Verweise auf thematisch ähnliche Beiträge (“related items”) auf den Artikelseiten. Aber der Weg von der Titelseite ins Archiv ist meistens so versteckt, dass man nicht ernsthaft davon ausgehen darf, dass man die Leser dort haben will. Hier als Beispiel der gut getarnte Archivlink ganz unten auf der Tagesspiegel-Seite:
      Gut getarnter Archivlink auf Tagesspiegel.de
      Einige Archive sind zudem nur durchsuchbar und nicht Artikel für Artikel, Ressort für Ressort durchblätterbar.

    3. Nach außen verlinken. Wie ich hier schon erwähnt habe: bei deutschen Zeitungswebseits Fehlanzeige. Verlinkt wird nur auf das eigene Blatt. Links nach außen sind nahezu immer Werbelinks. Von Tageszeitungstrackbacks in die Blogosphäre können wir im Augenblick nur träumen.
    4. Blogs und andere Zeitungen verfolgen und verlinken. Auch hier nicht viel neues. Immerhin leisten sich viele Tageszeitungen nun Blogger, die anscheinend diese Arbeit für die Zeitungsredaktion übernehmen sollen.
    5. Blogger als potentielle Berichterstatter einbeziehen. Bislang ist die Kluft zwischen Zeitungen und Blogs nur in eine Seite durchlässig: Journalisten können Blogger werden. Bewegungen in die andere Richtung, also dass ein wichtiger Blogger oder eine Bloggerin in eine Redaktion geholt wurde, sind mir nicht bekannt. Robert Basics Techniktipps auf der Computerseite der Süddeutschen? Schwenzels Woche in der Taz? Aber das geht natürlich nur, wenn der Scheingegensatz zwischen Journalisten und Bloggern aufgegeben wird.
    6. Bürgerjournalisten für lokale Themen einsetzen. Auch hierfür fallen mir auf Anhieb keine prägnanten Beispiele ein.
    7. Weg mit dem Begriff “Content”. Es geht um Texte, Bilder, Meinungen, nicht um Inhalt, der nur dazu da ist, einen Leerraum zu füllen. Eine Onlineredaktion sollte mehr sein als ein Content-Management-System.
    8. Einfache Webseiten bauen. Klare Strukturen und Navigationspfade, kurz: Benutzerfreundlichkeit.
    9. Ins “Live Web” einsteigen. Statt Site, Content, Box und Container sollte im Idealfall der Eindruck entstehen, dass hier lebendige Menschen recherchieren, fotografieren, schreiben, verlinken, beobachten, kommentieren. Das neue Netz ist dynamisch.
    10. Für mobile Endgeräte “Nachrichtenströme” veröffentlichen. Auf einem Mobiltelefon will man die Essenz der Seite lesen. Mehr nicht. Das kann dann in etwa so aussehen.

    Mir fallen da noch zwei Ergänzungen ein:

    1. Zugänge in die Nachrichtenmaschine anlegen. RSS-Feeds haben mittlerweile die meisten Tageszeitungen im Netz. Aber das sind meistens One-Size-Fits-Them-All-Lösungen. Die Personalisierung geht in der Regel nur so weit, dass man Feeds für einzelne Ressorts abrufen kann. Mit Nachrichten-APIs könnte man sehr viel spezifischere Zugänge zu den Datenbanken ermöglichen und so das dort gespeicherte Wissen besser nutzen. Die amtliche Statistik hat damit auch schon angefangen, so dass man die offiziellen Daten in Mashups weiter umwandeln kann. Warum sollten die Zeitungen das nicht auch können?
    2. Die Nachrichten verschlagworten und geocodieren. Wenn es hoch kommt, sind in den Metatags gerade einmal die ersten zehn Worte der Meldung als Stichworte abgespeichert. Was fehlt ist eine aussagekräftige Verschlagwortung der Beiträge sowie die Geocodierung. In Verbindung mit dem vorangegangenen Punkt entstünde auf diese Weise eine umfassende und dynamische Datenbank mit Begriffen und ihren Orten, auf die man dann z.B. für eigene Blogbeiträge oder Mashups (vgl. dazu meinen geolokalisierten Wein-Nachrichtenfluss mivino) zurückgreifen könnte.


    Verwandte Artikel:
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen
  • Das Requiem auf Print
  • OnlineStar: Hotelsoftware bei deutschen Usern beliebter als Facebook
  • Interview zum Wissenschaftsbloggen und zur Arbeitsgemeinschaft Social Media

    Okay, ich muss zugeben, dass die Formulierung “Bücher liest ja keiner mehr” ein bisschen arg zugespitzt ist. Ich merke es aber an mir selbst: In meiner wissenschaftlichen Arbeit rezipiere ich immer mehr online verfügbare Texte – ganz gleich ob es um die sogenannte “graue Literatur”, Aufsätze in Onlineausgaben von Fachjournals (am besten Open Access) oder um digitale Buchausgaben geht. Aber auch Blogs spielen für mich als Ideengeber eine immer wichtigere Rolle. Soweit als kurze Vorbemerkung zu dem folgenden Interview, das turi2-Mitarbeiter Peter Schwierz am Rande der re:publica mit mir geführt hat.

    Zur Arbeitsgemeinschaft Social Media geht’s übrigens da lang.



    Verwandte Artikel:
  • Update zur AG Social Media
  • Einladung zum re:publica-Workshop “Brauchen wir eine Forschungsgruppe Social Media?”
  • Call for Participation: “Forschungsgruppe Social Media” auf der re:publica 2008
  • Das Ende der URL – “Google ‘viralmythen’ to find out more”

    Die Geschichte der massenhaften Durchsetzung des Internet ist auch eine Geschichte eines sprachlichen Wandels. Zu Anfang waren die Adressen, die man händisch in den Browser eingeben mussten, noch kryptische Kombinationen – tief verschachtelt und in der häufigen Verwendung der Tilde “~” noch mit deutlichen Referenten an die UNIX-Filestruktur (dort ist “~” eine Abkürzung für das Heimatverzeichnis eines Benutzers). So war zum Beispiel ein sehr frühes Blog unter der Adresse http://www.link-goe.com/~hwo/MeinFramo.htm erreichbar.

    Mit der großen Internetblase um die Jahrtausendwende veränderte sich auch das Sprechen über das Internet. Der Buchstabe “w” wurde damit zu einem der wichtigsten auf den Tastaturen. Zudem entstanden Unternehmen, die sich über ihre Internetadresse definierten und die .com- oder .de-Endung in ihren Markennamen integrierten. Ein prominentes Beispiel dafür ist Amazon.com (“Amazondotcom”).

    Cabel Maxfield Sasser hat auf seiner Japanreise erste Anzeichen dafür gefunden, dass sich dieses Phänomen wieder auf dem Abschwung befindet. Die URLs werden in der Werbesprache allmählich durch etwas neues ersetzt: Plakat- oder TV-Werbung, auf der ein Suchmaschinenfeld abgebildet ist, in dem der Name des Unternehmens steht. Das ergibt natürlich nur dann Sinn, wenn das Unternehmen oder die Marke im Suchmaschinenuniversum auch überall an erster Stelle gerankt wird. Ergebnis ist eine Semantik, die wesentlich auf dem Funktionieren der Suchmaschinenoptimierung (SEO) beruht. “Google ‘pontiac’ to find out more”, hieß es zum Beispiel 2006 in einem Werbeclip des Autoherstellers (siehe dazu auch dieses schöne Beispiel).

    Nachdem nur noch die wenigsten Leute sich URLs merken und Buchstabe für Buchstabe in die Adresszeile des Browsers eintippen, sondern einfach die Google-, Yahoo- oder Wikipedia-Suchleiste daneben verwenden, spielt die Reservierung einer möglichst kurzen Domain keine große Rolle mehr. Lieber eine etwas umständliche URL, auf die dann aber bei alle wichtigen Suchmaschinen bei der Suche nach Unternehmen oder Marke verweisen. Vielleicht spielen in Zukunft aber auch Quick Response-Codes bei der Überwindung der Medienlücke zwischen Offline und Online eine größere Rolle oder RealName-ähnliche Dienste werden als Geschäftsidee wieder attraktiv.



    Verwandte Artikel:
  • Datenbank abgeschossen
  • Open Social in Wort und Bild
  • viralmythen + metaroll
  • Sechs Beobachtungen zur Zukunft der Nachrichten

    Schon des öfteren habe ich die These vertreten, dass Print nicht tot ist, genauso wenig wie Nachrichten tot sind. Aber die enge Verbindung von Print und News, wie sie sich beispielhaft in den großen Tageszeitungen beobachten lässt, verliert angesichts der in nahezu jedem Fall größeren Aktualität von Onlinenews oder der ungefilterten Nachrichtenkanälen wie Twitter oder Blogs stetig an Bedeutung (mittlerweile experimentieren auch Tageszeitungen wie Welt-Kompakt oder die Hamburger Morgenpost mit dem Instantmedium Twitter).

    Das sollte aber nicht verwechselt werden mit einer Demokratisierung der Nachrichtenproduktion und -distribution. Auf der einen Seite bestehen tatsächlich neue Möglichkeiten einer Nachrichtenproduktion und -distribution im Long Tail des WWW, die im Übrigen noch deutlich zu wenig genutzt werden. Auf der anderen Seite gibt es Anhaltspunkte dafür, dass die Onlinenachrichtenquellen sehr viel stärker konzentriert sind als es in der Printwelt der Fall gewesen ist. Zu diesem Ergebnis kommt auch der “State of the News Media“-Bericht des Project for Excellence in Journalism:

    Online, for instance, the top 10 news Web sites, drawing mostly from old brands, are more of an oligarchy, commanding a larger share of audience than they did in the legacy media. The verdict on citizen media for now suggests limitations. And research shows blogs and public affairs Web sites attract a smaller audience than expected and are produced by people with even more elite backgrounds than journalists.

    Der Bericht skizziert sechs Trends in der Entwicklung der Nachrichtenmedien, die sich 2008 zumindest in den USA schon deutlich abgezeichnet haben:

    • Nachrichten verwandeln sich von einem Produkt in eine Dienstleistung. Dazu gehört auch der Trend zu einer Art perpetual beta-Nachrichten: immer wieder kleine Updates anstelle der klassischen (Morgen- und Abend-)Ausgaben. Das heißt aber auch, dass der aktuelle Nachrichten-Release nur ein Zwischenstand ist, der später ergänzt oder korrigiert werden muss. Das ist freilich nicht neu, wurde aber durch das Erscheinungsbild einer Zeitung als fertiges Produkt überdeckt.
    • Nachrichtenseiten sind nicht mehr Endpunkte, sondern Zwischenstationen. Nachrichtenportale sind keine walled gardens mehr. Die dort publizierten Meldungen können syndiziert, kommentiert, geokodiert, auf Facebook gepostet, gediggt oder geyiggt werden. Sie werden zu einem unter vielen Rohstoffen in digitalen Mashups. Anders ausgedrückt: news is a river.
    • Nutzergenerierter Content spielt (noch) keine große Rolle. Obwohl die Nutzer im Web 2.0 Nachrichten remixen können, spielt die eigene Produktion von Nachrichten wie es die Bürgerjournalismus-Idee will nur eine untergeordnete Rolle. Hier formuliert der Bericht eine interessante Pointe: die Graswurzelnachrichten in Blogs sind sehr viel geschlossener und altmodischer als die großen Nachrichtenportale: “In short, rather than rejecting the ‘gatekeeper’ role of traditional journalism, for now citizen journalists and bloggers appear for now to be recreating it in other places.”
    • Die Rückkehr des Newsroom. Verkündete man vor 10 Jahren noch das Ende des Newsroom, so ist das Nachrichtenressort mittlerweile sehr viel weniger umstritten als z.B. die Verlagsseite (fehlende Monetarisierungsmodelle für Online) oder die Meinungsseite (Blogger machen das, gerade in den USA, häufig besser).
    • Einengung der Agenda. Trotz der Pluralisierung von Nachrichtenquellen und -kanälen ist in jüngster Zeit die Nachrichtenagenda weiter geschrumpft. Irakkrieg und Präsidentenwahl sind die Themen, die ein Viertel der Nachrichtenmeldungen in den USA bestimmten.
    • Die Werbeagenturen sind ratlos. Hier halten sich die alten Formen, so dass der Leidensdruck für die alten Medien dadurch noch eine Weile niedrig gehalten wird. Aber auch hier sieht das Project for Excellency in Journalismus früher oder später eine drastische Veränderung: “But the losses could begin to accelerate when answers come. The question of whether, and how, advertising and news will remain partners is unresolved.”

    Zugespitzt formuliert: Die Nachrichtenindustrie ist ein Zombie, der sich im Halbschlaf befindet und nur deshalb nicht bemerkt, dass das Suchmaschinenzeitalter längst begonnen hat. Deshalb wird in Zukunft von großer Bedeutung sein, nach welchen Kriterien die großen Player Google und Yahoo den Zugang zu Nachrichtenmeldungen herstellen. Schon jetzt zeigen sich unterschiedliche Gewichtungen von Quellen und Themen – ein Problem sehe ich aber darin, dass diese Gewichtung nicht mehr auf Menschen und ihre politische Agenda zurechenbar ist, sondern von Algorithmen abhängt, die von außen nicht durchschaubar sind.



    Verwandte Artikel:
  • Der Long Tail ist mitten unter uns
  • Mobilisierungsmuster in der Blogosphäre II
  • Warum Twittern?
  • Von Infovöllerei und Infogourmets

    Gibt es eine allgemein menschliche Gier nach Informationen? Lee Gomes kommt im Wall Street Journal zu diesem Ergebnis: “We’re powerless to resist grazing on endless web data”. Er beruft sich dabei auf die Forschungsergebnisse von Irving Biederman, einen Neurowissenschaftler an der University of Southern California:

    In other words, coming across what Dr. Biederman calls new and richly interpretable information triggers a chemical reaction that makes us feel good, which in turn causes us to seek out even more of it. The reverse is true as well: We want to avoid not getting those hits because, for one, we are so averse to boredom.

    Biederman hat sogar einen neuen Begriff für die zutiefst menschliche Sucht nach neuen Informationen geprägt: infovores (dt.: Infofresser). Das Problem liegt seiner Ansicht darin, dass die Menge der jederzeit verfügbaren und vor allem leicht zugänglichen Informationen durch das Internet gewaltig angestiegen ist: “We are programmed for scarcity and can’t dial back when something is abundant.”

    Das Ergebnis könnte man auch als “Infovöllerei” bezeichnen. Und gerade die unerschöpfliche Informationsproduktion der Blogosphäre wird für manche Beobachter zum Problem – ich erinnere nur an Fichtners Angstzustände angesichts der vielen für ihn nutzlosen Informationen: Wer soll das alles lesen? Es sind also Filter gefragt, um diesem information overload zu begegnen.

    Das Neue daran: Es gibt keine institutionell legitimierten Lösungen dafür. Statt einem für alle gültigen “Filter des Journalismus” (one size fits them all) zu vertrauen ist nun jeder Informationsjäger aufgefordert, sich einen eigenen Filter zu basteln – den eigenen Vorlieben, Bedürfnissen und Fähigkeiten gemäß. Gefragt sind also Infogourmets.



    Verwandte Artikel:
  • No related posts