Archive for the 'wandel' Category

Das Ende der Blogsphäre

Eigentlich hätte ich nie gedacht, dass ich in diesem Blog einmal einen Post über das Ende der Blogosphäre schreiben würde, aber jetzt ist es so weit. Die Blogosphäre, sowieso von Anfang an ein fragiles, hauchdünnes Gewebe, fasert und franst zunehmend aus. Das “Bloggen” als verbindende Gemeinsamkeit ist hinfällig, nachdem es Blogs mittlerweile als allgemein akzeptiertes mediales Design Pattern auch auf die Onlineangebote traditioneller Massenmedien geschafft hat. Die typische Bloggerin oder den typischen Blogger als solches kann man wahrscheinlich ebenso schwer beschreiben wie typische Autofahrer oder typische Mobilfunknutzer.

Mein Indikator für diese Entwicklung war das diesjährige Bloggertreffen in München, das nun schon zum dritten Mal im Vorfeld des DLD stattgefunden hat. Nicht, dass dieses Bloggertreffen ein Misserfolg gewesen wäre – im Gegenteil! Noch nie gab es so viele Teilnehmer auf einem Münchener Bloggertreffen. Nur: die dort versammelte Menschenmenge lässt sich nicht mehr als “Blogger” beschreiben. Besonders deutlich sieht man den Wandel der letzten Jahre an der Resonanz, die dieses Bloggertreffen in der Teilöffentlichkeit formerly known as “Blogosphäre” erkennen.

In der folgenden Grafik ist die Entwicklung der Anzahl der Anmeldungen zu dem Bloggertreffen von 106 im Jahr 2007 zu 216 im Jahr 2009 aufgezeichnet und außerdem die Entwicklung der Vor- und Nachberichterstattung über das Bloggertreffen, die von 59 Posts im Jahr 2007 auf 23 Posts im Jahr 2009 zurückgegangen ist.

Das Verhältnis Blogposts pro Teilnehmer ist also in diesen drei Jahren von 56% auf 11% gesunken. 2007 hatte das Bloggertreffen tatsächlich noch etwas von einem Vereins- oder Klassentreffen und die Erlebnisse und neuen Bekanntschaften wurden ausführlich in den Tagen danach geschildert. In den Tagen davor waren die Blogs ein Mobilisierungs- und Informationskanal, in den Tagen danach eine Ping- und Trackback-basierende Vernetzungsmaschine. Die erste Funktion hat heute Twitter übernommen, die zweite Facebook, LinkedIn und Xing (teilweise auch Twitter).

Wozu also noch Blogs? Der Erfolg dieses Formats hat zum einen dafür gesorgt, dass Blogs mittlerweile weder als “next big thing” angesehen werden, noch als besonders sexy Form der Kommunikation. Aber damit ist die (kurze) Geschichte der Blogs noch längst nicht vorbei. Ich bin hier ganz Saschas Meinung, denn nach wie vor eignen sich Blogs hervorragend

  • als Bündelung zahlreicher Onlineaktivitäten und -profile auf einer Seite
  • als Dialogplattform, wenn es um eine sehr große Anzahl Kommentare geht
  • als Format für onlinepublizistische Langformen
  • als Scharnier zwischen der alten Welt der Massenmedien und der neuen Welt der Dialogmedien

Insofern bedeutet das Ende der Blogosphäre nicht das Ende der Weblogs, denn diese Geschichte beginnt gerade erst so richtig spannend zu werden.



Verwandte Artikel:
  • Gastbeitrag für KoopTech: Messen nach dem Ende der Massengesellschaft
  • Erntezeit (2): Wölfin trotz inet zugangs weiterhin zum offline schreiben verurteilt
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • Die Suche nach dem Social Media Dashboard

    Social-Media-Monitoring ist derzeit hoch im Kurs. Immer mehr Unternehmen, Parteien und Journalisten bemerken, dass man nicht nur durch Fokusgruppen und Panels etwas darüber erfahren kann, was über sie gedacht oder geredet wird, sondern dass diese Gespräche an zahlreichen Orten des Internets bereits stattfinden. In Foren, Blogs, Social Networks oder Chatrooms. Übrigens schon lange – vermutlich schon so lange, wie es das Internet gibt. Nur war es in den Anfangszeiten des Web 1.0 nur eine ganz kleine Zahl ganz spezieller Personen, die sich über dieses Medium austauschten: “Internet-Freaks”. Also der Legende nach Chips-futternde, korpulente männliche Technikjünger mit langen Haaren. Ihre Meinung zählte nicht.

    Mittlerweile ist die Internetdurchdringung jedoch so stark angestiegen, dass aus Sicht von Politik, Unternehmen und Presse auch ganz normale Menschen dieses Medium nutzen. Dazu kommen dann noch neue Technologien, die es eben diesen Leuten ermöglichen, sich ohne technisches Know-how im Internet auszudrücken – Social Web oder Web 2.0 sind die mehr oder weniger eleganten Formeln, mit denen diese Entwicklung bezeichnet wird. Kurz: Es wird immer interessanter, zu erfahren, was die Leute im Internet über Parteien, Politiker, Produkte, Marken, Unternehmen oder auch nur andere Personen sprechen. Die Suche nach dem Social Media Dashboard hat begonnen.

    Gesucht wird ein Interface für das Social Web, auf dem in Echtzeit zum Beispiel abgelesen werden kann,

    • wie oft über eine Partei, Marke etc. gesprochen wird (“Buzz”)
    • was über sie gesagt wird (“Content”)
    • welche Bedeutungen dahinter stecken (“Sinn”)
    • welche Werturteile in den Konversationen auftauchen (“Bewertungen”)
    • wer darüber spricht (“Zielgruppen”)
    • wie diese Gruppen konstituiert sind (“Brand Communities”)
    • welche Personen in den Gesprächen eine besondere Rolle spielen (“Einfluss”)
    • wie sich das alles über die Zeit verändert (“Wandel”)
    • wie schnell sich die Gespräche ausbreiten (“Viralität”)
    • wie diese Veränderungen mit anderen Ereignissen zusammenhängen (“Kontext”)
    • wie sich die Veränderungen weiter entwickeln könnten (“Trends”)
    • … und das alles dann auch noch ansprechend und anschaulich dargestellt (“Visualisierung”)

    Noch gibt es ein derartiges Social Media Dashboard noch nicht und insbesondere der qualitativ-verstehende Aspekt (die “Sinndimension” der Social Media Analyse) lässt sich derzeit nur mit vergleichsweise aufwändigen und noch nicht echtzeitfähigen Methoden wie der Netnography erfassen. Und die Trendforschung steht auf diesem Gebiet noch auf sehr wackligen Beinen. Aber früher oder später werden die Marketing-, Kommunikations- und Customer-Support-Abteilungen solche Tools wie selbstverständlich für die Planung, Überwachung und Evaluierung ihrer KampagnenInitiativen verwenden.

    Einen kleinen Vorgeschmack liefert das Tool Perspctv, mit dem sich immerhin schon der Buzz auf sehr vielen unterschiedlichen Kanälen in Echtzeit verfolgen lässt:

    Man kann sich ein ähnliches Dashboard auch für selbst gewählte Begriffe erstellen lassen, zum Beispiel um den Social Media-Buzz von Audi, VW und BMW miteinander zu vergleichen. Aber verglichen mit der obigen Liste potentieller Bestandteile eines Social Media Dashboards ist das dann noch ziemlich wenig Information.



    Verwandte Artikel:
  • Creative-Commons-Blogs – ein Erfolgsgeheimnis?
  • Update zur AG Social Media
  • Marktforschung und Social Media
  • Wie Twitter die Gesellschaft verändert: Die Massenmedien

    Als kurze Antwort auf Klaus Ecks inspirierenden Blogbeitrag über 18 Gründe, die gegen die Verwendung (sagen wir einmal: gegen die exzessive Verwendung) des Microbloggingdienstes Twitter sprechen, hier ein kurzer Blick auf das positive Potential von Twitter. Welche Veränderungen können durch das Twittern in den unterschiedlichen gesellschaftlichen Teilsystemen angestoßen werden? Als erstes sind die Massenmedien dran. Danach folgen Wirtschaft, Wissenschaft und Bildung.

    Am deutlichsten sind die Auswirkungen des Microbloggens für die Welt der Massenmedien. Durch den dialogischen Charakter von Twitter verändert sich das Informationsverhalten. Nachrichten werden nicht mehr bloß rezipiert, sondern diskutiert und weitergegeben. Jeder ist ein Knoten in einem nahezu weltumspannenden Netz von Informationen. Die Zahl der Sender hat sich dadurch stark vervielfältigt und zugleich hat sich der Informationsfluss durch die große Redundanz der Kanäle beschleunigt. Nachrichten in Echtzeit statt Nachrichten von Gestern.

    Ein kurzes Beispiel: Gestern stand auf einmal der Begriff “Saddam Hussein” ganz oben in den Trending Topics List von Twitter. Warum? Weil bekannt wurde, dass ein Mitglied von McCains Kompetenzteam ehemaliger Lobbyist für den irakischen Präsidenten gewesen ist. Ich habe darüber getwittert und einige meiner Kontakte aus den USA und aus Kanada haben auf diese Weise davon erfahren. Aus einer deutschen Kleinstadt hat sie die Nachricht schneller erreicht als über die Massenmedien. Das nenne ich Veränderung.

    Seit die Redaktion das Twittern begonnen hat, gehört Der Westen zu meinem relevant set. Ich komme mit einer Regionalzeitung aus dem Ruhrgebiet häufiger in Berührung als mit hiesigen Regionalzeitungen wie dem Münchener Merkur oder der tz. Das hätte ich zuvor nie für möglich gehalten. Hinter der Twitter-Kommunikation von Zeitungen und Zeitschriften steht im Idealfall folgende stillschweigende Übereinkunft: Die Redaktion schickt ab und zu Links zu neuen Beiträgen auf ihrem Internetangebot, ist im Gegenzug aber offen für die Reaktionen der Leser. Im Kern geht es darum, den dialogischen Aspekt der Massenmedien zu zeigen, der aus dem Endprodukt so erfolgreich verdrängt wird: Nachrichten sind Gespräche und hängen immer auch davon ab, wer sie erzählt.

    Das bleibt nicht ohne Folgen: das generalisierte Systemvertrauen in die Massenmedien wird zunehmend abgelöst durch ein sehr viel konkreteres soziales Vertrauen in bestimmte Netzwerkknoten oder Subnetze, deren Fähigkeit, Informationen zu bewerten und zu selektieren einem in der Vergangenheit positiv aufgefallen ist.

    Obwohl die Veränderungen hier am deutlichsten sichtbar sind, geht es nicht nur um die Nachrichten. Auch Unterhaltungsangebote werden auf Twitter kommentiert und verbreitet, wodurch klassische one-way-Medien wie das Fernsehen auf einmal eine interaktive und dialogische Qualität bekommen, durch die die Brechtsche Radiotheorie auf einmal in greifbare Nähe rückt. Twitter hat als zusätzlicher Kanal das Potentiel,

    den Zuhörer nicht nur hören, sondern auch sprechen zu machen und ihn nicht zu isolieren, sondern ihn auch in Beziehung zu setzen.

    Zusammengefasst: Durch Twitter verwandelt sich das System der Massenmedien, in dem sich wenige Sender an eine große, anonyme Masse von Rezipienten wendet, in eine plurale Landschaft aus kleinen und großen Knoten, die Nachrichten, Meinungen und vor allem natürlich Hyperlinks austauschen, kommentieren und diskutieren. Sicherlich verlangt es von den klassischen Massenmedien einiges an Mut, sich in dieses neue Spielfeld zu begeben, dessen Spielregeln, Positionen und Akteure noch weitgehend unklar definiert sind, aber diejenigen, die diesen Schritt wagen, haben die Möglichkeit, an der Konstitution dieses neuen Nachrichtenspiels mitzuwirken. Wer sich verweigert, verliert.



    Verwandte Artikel:
  • Twittern auf der Kaiserstiege
  • Zweitverwertung
  • Bitte notieren: Blogs sind keine Massenmedien
  • Internet ist einflussreichstes Medium

    Das Internet ist mittlerweile das einflussreichste Medium geworden. Dieses Fazit zieht zumindest die gerade veröffentlichte “Digital Influence Index Study” von Fleishman Hillard und Harris Interactive.

    Normalerweise vergleicht man Medien wie Zeitung, TV, Zeitschriften, Radio und Internet Indikator für Indikator. Geht es um die Reichweite, die Nutzungsdauern oder auch die Glaubwürdigkeit liegt das Internet meistens auf dem zweiten oder dritten Platz hinter – es kommt darauf, welchen Indikator man betrachtet – Zeitung und TV.

    Wenn man allerdings mehrere Indikatoren gemeinsam betrachtet und z.B. Nutzungsdauer und Glaubwürdigkeit multiplikativ verknüpft, dann rückt das Internet auf einmal an die erste Stelle. Der Digitale Einflussindex errechnet sich als “the amount of time consumers spent on a given medium combined with the relative importance they attach to that medium.” Das Ergebnis ist ein prozentuales Maß für den Anteil verschiedener Medien am gesamten Einfluss auf die Konsumenten. In Deutschland liegt das Internet mit 40% klar vor den anderen Kanälen TV (22%), Radio (13%), Zeitungen (14%) und Zeitschriften (11%).

    Der Bericht versteht sich als Bestätigung der These, dass zwar auf der einen Seite das Bedürfnis der Konsumenten nach Nachrichten ungebrochen ist, jedoch zunehmend über das Internet befriedigt wird: “In fact, one could argue that the digital form of the written word is more powerful than its ink-on-paper predecessor”. Wenn man sich die ebenfalls in dieser Studie erhobenen Zahlen der Printverweigerer – also der Personen, die in einer typischen Woche keine gedruckten Zeitungen oder Zeitschriften gelesen haben – betrachtet, dann sind die deutschen Zahlen (13% Zeitschriftenverweigerer und 14% Zeitungsverweigerer) im Vergleich mit den britischen und französischen Lesern noch vergleichsweise niedrig. Dort liegen nur die französischen Zeitschriften unter einer Verweigerungsquote von 25%.

    Trotz des deutlichen Einflussvorsprungs von Online sind die Werbeausgaben noch nicht entsprechend umgeschichtet worden. Aber es wäre auch falsch, wie es der Bericht suggeriert, hier einen Automatismus zu vermuten. Denn gerade, wenn es um die neuen Aktivitäten im Internet geht – sowohl um den Ausdruck der eigenen Person in Blogs oder Social Networks als auch um mobile Internetanwendungen auf dem Handy – fehlen zuverlässige Ergebnisse zur Werbewirkungsforschung noch. Für die klassischen Anwendungsfälle des Web 1.0 – die Studie nennt hier das Recherchieren, Kommunizieren und Einkaufen – sieht es dagegen etwas besser aus. Das Forschungsprogramm für die nächsten Jahre dürfte damit klar sein. Wer packt es an?



    Verwandte Artikel:
  • Wasserspiele
  • Das Internet ist keine Modeerscheinung
  • Wikipedia in Cordhosen: Zur Mediennutzung von Jugendlichen
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen

    Steffen Büffels Antwort auf die von mir kürzlich vorgestellten und erweiterten Thesen von Doc Searls zur Rettung der Zeitung hat mir wieder einmal die Bedeutung der “Kultur der Verlinkung” gezeigt, die sich gerade in den Weblogs so eindrucksvoll zeigt. Steffen rät den Zeitungsmachern nämlich:

    Wedelt mit guten Content-Teasern lieber an den Boulevards der großen Onlinenetzwerke. Dann schaue ich gerne mal rein und klicke durch eure PI-gierigen Seiten. Und wenn ihr mich dann wieder an viele tolle Stellen wegschickt, komme ich umso lieber zurück.

    Das ist meiner Ansicht nach der große Graben zwischen ins Internet gedruckten Zeitungen und echten Digitalformaten wie Blogs. Süddeutsche, Spiegel etc. geizen mit Links nach draußen aus Angst, dadurch den Leserstrom von den eigenen Inhalten wegzuleiten. Sie haben nicht begriffen, dass Links Informationen sind, die einen Mehrwert bieten. Das Denkmodell ist immer noch die klassische “Ausgabe”. Also ein Inhaltsbündel, das man von vorn bis hinten durchliest bzw. durchklickt. Ein Inhaltsbündel, dass man auch nur als Bündel erwerben kann.

    Im Internet wird jedoch kreuz und quer gelesen – Inhalte gibt es hier nicht im Bündel oder auf der Rolle, sondern in einem Netzwerk. Ich komme über einen Link auf einen interessanten Beitrag, lese ihn und sehe mir die Links an, die von dort auf andere Seiten verweisen. Eine Wahrheit, die unsere Onlinezeitungsmacher anscheinend noch nicht begriffen haben: Kein Besucher bleibt ewig. Die Frage lautet nur: Ist deine Seite eine Sackgasse oder ein Knotenpunkt in einem dicht gewobenen Netzwerk? Verlassen die Besucher die Seite per “Tab schließen” oder über den Link zu einer anderen Seite, die ihnen genau die Informationen bietet, nach denen sie suchen? Und von der sie dann vielleicht früher oder später wieder zurückkommen, weil diese Seite ebenfalls auf Verlinkung setzt?

    Ich muss wohl nicht eigens betonen, dass ich die zweite Option für die zukunftssichere halte. Wenn die Zeitungen wirklich auf irgendeine Weise in den neuen digitalen Dialogen mitreden wollen, müssen sie lernen, zu verlinken. In einem Netzwerk liegen Punkte, von denen kaum eigene Verbindungen ausgehen, am Rand.



    Verwandte Artikel:
  • Searls 10 Thesen zur Rettung der Zeitung revisited
  • Interview für die Blogschau und die Parasitenthese der Blogosphäre
  • Das lange 19. Jahrhundert der Zeitungsmacher
  • Email als Elitetechnologie

    Einmal mehr stellt eine Studie über die Internetnutzung fest, dass es eine erhebliche digitale Spaltung gibt: Der Branchenverband BITKOM zeigt im aktuellen Webmonitor, dass die Emailnutzung deutlich von dem Bildungsgrad abhängt. Während zwei Drittel der Personen mit Abitur oder Hochschulabschluss dieses Dialogmedium nutzen, sind es bei den Realschulabsolventen nur knapp die Hälfte und unter den Hauptschulabsolventen nur noch ein knappes Drittel. So überrascht es kaum, dass angesichts der großen Wichtigkeit von IT-Kenntnissen und der schlechten Ausstattung der deutschen Schulen eine große Bildungsinitiative gefordert wird.

    Man sollte allerdings, ohne das Phänomen der digitalen Spaltung kleinreden zu wollen, einmal darüber nachdenken, dass auch das Diskursmedium Fernsehen in der Anfangszeit ein Elitenphänomen gewesen ist (vgl. dazu die Dissertation “Fernsehen und sozialstruktureller Wandel” von Rudolf Stumberger). Erst in den 1970er Jahren konnte man in Deutschland von einer Vollversorgung sprechen, in den 1950er und frühen 1960er Jahren kennzeichnete die Besitzer von Fernsehgeräten ein überdurchschnittlicher Bildungsgrad und ein relativ hohes Einkommen. Aber im Falle des Fernsehens kam es sehr schnell zu einer Umkehr: So besaßen die einkommensstärksten 12 Prozent der Bevölkerung Großbritanniens im Jahr 1947 fast die Hälfte der Fernsehgeräte, bereits sechs Jahre später standen über die Hälfte der Geräte in Haushalten der “Lower 68%” der Bevölkerung. In Deutschland fand diese Entwicklung entsprechen später statt: Zwischen 1954 und 1963 ist der Anteil der Selbständigen unter den Gerätebesitzern von 59 auf 14 Prozent gesunken, während gleichzeitig der Arbeiteranteil von 9 auf 53 Prozent gestiegen ist.

    Insofern ist fraglich, ob wir es bei der digital divide im Fall von Email tatsächlich mit einem Phänomen eigener Art zu tun haben. Denkbar wäre auch eine Kombination aus den folgenden Faktoren:

    • schichtspezifische Präferenzen und Fähigkeiten, was das freie Verfassen von Texten betrifft,
    • ein ganz gewöhnlicher lag in der Diffusion von neuen Technologien
    • das “Überspringen” der Technologie Email und eine stärkere Nutzung von Chat, IM oder Direktnachrichten in Social Networks wie SchülerVZ oder Lokalisten


    Verwandte Artikel:
  • Jeder Zweite mit beruflicher Email-Adresse
  • Der Email-Jumbo
  • Creative-Commons-Blogs – ein Erfolgsgeheimnis?
  • Der Untergang des Web 2.0 und das Ende der A-Blogger

    kulturbilder_325.jpgWenn man die Beobachtungen von Steve Rubel ernst nimmt, dann könnte man tatsächlich von einem baldigen Ende des Web 2.0 sprechen. Aber das neue Netz geht nicht etwa mit einem big burst zu Ende wie die große Internetblase 2000. Das Problem liegt nicht darin, das Blogs, Ajax, Social Networking und Semantic Web die überhohen Erwartungen nicht erfüllen, sondern gerade weil sie sie so gut erfüllen, dass sie zur Normalität werden.

    Das „Web 2.0“ hat sich unmerklich in das „Web“ verwandelt, weil es kaum noch „Web 1.0“ gibt. Insofern, so Rubel weiter, spielen auch spezialisierte „Berufe 2.0“ wie „Social Media Consultant“, „Social Media Manager“, Funktionsbeschreibungen wie „Internet Advertising Sales“ oder „Online Advertising Sales“ oder „Digital Talent Agents“ keine Rolle mehr. Diese Berufsbilder und Geschäftsfelder werden allmählich unter andere, allgemeinere Bezeichnungen subsummiert. Onlinewerbung oder Community Marketing und Research sind nicht mehr die Zukunft der Werbung oder des Marketing, sondern die Gegenwart.

    Insofern glaube ich auch nicht, dass Alan Patrick in seiner Antwort auf Rubel damit Recht hat, dass der Niedergang des Berufsbild des A-Bloggers nur darin gründet, dass sich das Bloggen professionalisiert und damit den klassischen Onlinemedien annähert: unternehmerisches Denken („Bloggen ist anti-unternehmerisch“, meint John Wesley), PR-Berichte als Füllmaterial, strategische Verlinkung, weniger Kritik.

    Auf der anderen Seite finden sich durchaus auch Beispiele für eine Verbloggung der Massenmedien, die von der besonderen Authentizität – und auch der geringen Produktionskosten – dieses Mediums zu sehr profitieren, um es ignorieren zu können. Bei Zeitungen wie dem „Guardian“ sind die Übergänge von klassischen journalistischen Beiträgen zu den dazugehörigen Blogs schon sehr glatt geraten, noch mehr gilt das für Hochglanzmedien wie „(More) Intelligent Life“.

    Fast hat es den Anschein, dass in vielen Publizisten und Journalisten kleine Blogger stecken, während sich zugleich in vielen Bloggern kleine Unternehmer verbergen, die auf eine günstige Gelegenheit zum Ausbrechen warten. In manchen Fällen kann das auch schon ein juveniler Rockefeller sein wie im Fall von Michael Arrington, der in einem langen Beitrag mit Manifestcharakter von einem Zusammenschluss von Bloggern träumt, der dann raubritternd durch die Medienlandschaft zieht:

    That team could take CNET apart in a year, hire the best of the survivors there, and then move on to bigger prey.



    Verwandte Artikel:
  • Fünf Irrtümer über Computerspiele
  • Das Requiem auf Print
  • Visuell ist besser – die memetische Kraft der Bilder
  • Nachrichten 2.0: Hyperlokalität im Internet

    Mark Glase hat in seinem Blog Mediashift bereits vor einiger Zeit einen interessanten Beitrag verfasst, der verschiedene Spielarten hyperlokaler Nachrichtensysteme präsentiert und ihre Vor- und Nachteile gegenüberstellt. Zunächst zu dem Begriff: Was sind hyperlokale Nachrichten? Im Prinzip um Nachrichten, die von so begrenzter Bedeutung sind, dass sie nicht einmal im Regionalteil der Tageszeitungen vorkommen, ganz zu schweigen von überregionalen Medien:

    Hyper-local news is the information relevant to small communities or neighborhoods that has been overlooked by traditional news outlets. Thanks to cheap self-publishing and communication online, independent hyper-local news sites have sprung up to serve these communities, while traditional media has tried their own initiatives to cover what they’ve missed.

    Dabei geht es nicht nur darum, Nachrichten in den öffentlichen Diskurs einzuspeisen, die aufgrund ihrer begrenzten Relevanz keine Zeitung veröffentlichen würde. Zugleich besteht aber auch ein enger Zusammenhang mit der Herausbildung oder Festigung kleinräumlicher Gemeinschaften. Schon Benedict Anderson hat immer wieder auf die Bedeutung der Printpresse für die Herausbildung eines Gemeinschaftsgefühl (“imagined communities”) hingewiesen. Durch hyperlokale Nachrichten, so könnte man das Argument übertragen, entstehen hyperlokale Gemeinschaften, die zwar – im Gegensatz zu Staaten – noch zu einem großen Teil von face-to-face-Begegnungen getragen sind, aber dennoch von ihrer nachrichtlichen Integration profitieren. Eine wichtige Funktion hyperlokaler Nachrichten ist also auch “bringing like-minded people together online”. Oder wie Jan Schaffer es formuliert:

    News organizations need to construct the hub that will enable ordinary people with passions and expertise to commit acts of news and information. You need to be on a constant lookout for the best of these efforts, trawling the blogosphere, hyperlocal news sites, nonprofits, advocacy groups, journalism schools and neighborhood listservs. Your goal is to give a megaphone to those with responsible momentum, recruit them to be part of your network, and even help support them with micro-grants.

    Oftmals wird das Prinzip durch Onlineportale verwirklicht, in die jede Bürgerin “ihre” Nachrichten einstellen kann – ähnlich wie bei Digg oder Yigg, nur eben mit einer starken Lokalisierung der Meldungen. Eine konkrete Vorstellung davon bekommt man, wenn man sich für die USA die Northwest Voice (Bakersfield, California) oder YourHub (Denver) ansieht.

    Interessanterweise sind diese Nachrichtenportale trotz ihrer Fokussierung auf lokale Geschichten beschränkter Relevanz von der
    ganzen Welt aus erreichbar. Ein Bakersfielder, der in eine andere Stadt, in ein anderes Land gezogen ist, kann damit also weiterhin bis in die kleinsten Details über das Leben in seiner Heimatstadt informiert bleiben. Hyperlokalität ist also eine Spielart von
    Glokalität, ein Begriff, mit dessen Hilfe Sozialwissenschaftler die vielfältigen Ausprägungsformen der Dialektik global/lokal beschreiben. Man könnte auch sagen, Hyperlokalität ist die räumliche Manifestation des long tail.

    Mark nennt folgende Grundtypen hyperlokaler Nachrichtenseiten:

    • Selbstmoderierte Bürgermedien (citizen media), die ähnlich wie Digg funktionieren
    • An Zeitungsverlage angeschlossene Bürgermedien, die ausgewählte Beiträge auch in die Printausgaben übernehmen (reverse publishing)
    • Lokalblogs oder “Placeblogs” – auch in der deutschsprachigen Blogosphäre gibt es zahlreiche Städte- oder Regionenblogs
    • Aggregationsportale, die aus zahlreichen anderen Medien von Zeitungen bis Blogs, alle Nachrichten herausfiltern, die sich auf einen bestimmten Ort beziehen
    • Kommentierte Karten – ein prominentes Beispiel ist das Mashup ChicagoCrime, das Verbrechen in Chicago geolokalisiert, aber auch Qype könnte man hier einordnen
    • Mobiler Journalismus, also Journalisten mit Laptop, Fotohandy etc., die von unterwegs Nachrichten sammeln und veröffentlichen
    • Emaillisten und Foren, zum Beispiel von Bürgerinitiativen

    Welche Beispiele gibt es noch für hyperlokale Nachrichtenseiten in Deutschland? Wenn Nico Lummas Prognose, “Hyperlocal News erstaunt Tageszeitungen und bringt den lokalen Anzeigenmarkt durcheinander” für das Jahr 2008 zutreffen sollte, müssten man bereits die ersten Ansätze erkennen können.

    Erfreulicherweise gibt es zu dem Thema auch ein Podium, u.a. mit Steffen Büffel, auf der re:publica: “Von Placeblogging und Stadtwikis: Bürgerjournalismus und -kollaboration auf kommunaler Ebene” (via)



    Verwandte Artikel:
  • Befragung von Hochschulrektoren und -präsidenten
  • Welchem Medium vertrauen die Leser?
  • Gruscheln als Alternative zum Nachrichtenkonsum?
  • Wolkige Semantik – Clouds und Grids

    1807465362_128d367a84.jpg

    Dein Reich ist in den Wolken
    und nicht von dieser Erde
    (Brentano)

    In einem sehr informativen Beitrag beschreibt Martin Weigert das Phänomen des „Cloud Computing“. Was ist darunter zu verstehen?

    Als Cloud Computing wird ein Zustand bezeichnet, bei dem Anbieter von Internetdiensten die benötigte Software und Hardware nicht mehr selber betreiben, sondern an externe Dienstleister auslagern. Diese verfügen über leistungsstarke Datencenter und stellen Webunternehmen die gewünschten/benötigten Ressourcen für ihre Applikationen gegen Entgelt bereit.

    Viele der Webservices wie Gmail oder YouTube funktionieren bereits auf der Grundlage von Clouds: die Daten werden nicht auf dem heimischen Rechner gespeichert und auch nicht unbedingt auf dem Rechner, auf dem die Internetanwendung läuft – häufig ist dieser selbst gar nicht mehr eindeutig identifizierbar, sondern die Anwendungen arbeiten gewissermaßen auf einem verteilten Netz von Rechnern. Die Vorteile sind: Ausfallsicherheit und Skalierbarkeit.

    Damit wird das Grundprinzip (und Erfolgsgeheimnis) des Internet überhaupt fortgesetzt: die mehr oder weniger willkürliche Verteilung von Aufgaben auf ein Netzwerk. Schon das Protokollpaar TCP/IP funktioniert so, dass bei einer einzelnen Internetanfrage nur Start- und Zielpunkt klar identifizierbar sind, nicht aber die zahlreichen Stationen, über die eine Nachricht durch das Netz geleitet wird. Das Netz ist eine Black Box, in der zahlreiche Mikroeinheiten selbständig entscheiden, auf welchen Weg eine Nachricht weitergereicht wird.

    Mit dem Cloud Computing wird auch der Zielpunkt von Anfragen unscharf, denn dieser Rechner leitet ebenfalls nur Anfragen an ein weiteres Netzwerk – die Cloud (z.B. Amazons EC2 oder Mosso) – weiter, in der dann tatsächlich die Datenabfragen stattfinden. Im alten Netz war es tatsächlich eine Ressource, die ich abfragen konnte. Eine Textdatei, die dann physisch auf meinen Rechner transferiert („abgerufen“) wurde. Wenn jemand diese Datei gelöscht hat, war sie nicht mehr abrufbar. Mit der „Vercloudung“ des Netz wird auch diese Datei zum Simulacrum. Gleichzeitig verliert auch der Ausgangspunkt der Ressource an Bedeutung: Das Betriebssystem ist selbst eine Cloud und findet online statt. Martin nennt icloud, Cloudo, eyeOS, ajaxWindows, myGoya und jooce als frühe Beispiele – Google, Facebook und Microsoft werden vielleicht folgen.

    Doch möglicherweise ist das Cloud Computing nur der Übergang zu einer noch viel grundlegenderen Auflösung: dem Grid-Computing oder Grid-Hosting(siehe auch hier). Denn man kann einzelne Clouds wie zum Beispiel die einzelnen Datencenter von Google oder Amazon immer noch identifizieren – zwar nicht der Nutzer aber die Programmierer, die auf die Clouds zurückgreifen. Der Begriff trifft es eigentlich recht gut: Wolken kann man zumindest kurzzeitig klar voneinander abgrenzen, allerdings neigen sie dazu, ihr Erscheinungsbild über die Zeit zu verändern, sich zu teilen oder zu verschmelzen.

    Im Grid geht diese wenigstens vorübergehende Unterscheidbarkeit ebenfalls verloren und das Grid „entscheidet“ selbst, welche Schritte der Datenverarbeitung auf welchen Rechnern oder eben Clouds ausgeführt werden – ähnlich wie das TCP/IP-Protokoll. Das Netz wird zum eigenständigen Akteur bzw. einer nicht-deterministischen Maschine im Sinne Heinz von Foersters: Man kann Inputs und Outputs noch einigermaßen feststellen, doch davon nicht auf die Prozesse schließen, die im Inneren der Black Box abgelaufen sind, um die Inputs in Outputs zu verwandeln.

    Aktuell kenne ich aber nicht besonders viele brauchbare Anwendungsfälle des Cloud/Grid-Computing. Eine spannende Sache ist das Zusammenschalten von mehreren Wörterbüchern im Wörterbuchnetz. Was gibt es da noch?

    (Abbildung “Power Grid” von JeffersonDavis)



    Verwandte Artikel:
  • Manager-Magazin macht Google überflüssig
  • Das Ende der URL – “Google ‘viralmythen’ to find out more”
  • RT: Homo sapiens sapiens
  • Gruscheln als Alternative zum Nachrichtenkonsum?

    Noch ein kleiner Nachschlag zur Print-versus-Online-Debatte: Kalle Jungkvist, Chefredakteur der schwedischen Tageszeitung Aftonbladet, sieht nicht in anderen Printprodukten die scharfsten Konkurrenten der eigenen Onlineausgabe, sondern erstaunlicherweise in Facebook:

    When Aftonbladet.se recently did a focus group with twentysomethings, the main competitor in terms of time to Aftonbladet.se was said to be Facebook. The choice for young Internet users was to, more or less, aimlessly surf Aftonbladet or Facebook for a while.

    Jeff Jarvis ist da etwas zurückhaltender und sieht Facebook nicht als Konkurrenz für Tageszeitungen, sondern vielmehr als zusätzlichen Vertriebskanal für Nachrichten:

    If I were making Facebook applications for news organizations now, I wouldn’t be making quizzes and such fripperies. I’d be figuring out how to get news that matters to you in your news feed. I’d be finding ways to tie you with other people who share your interest and know what you want to know. I’d find ways to enable you to recommend more news to your friends.

    Seen this way, Facebook isn’t a competitor for a newspaper. It’s just another place to help your community.

    Irgendwie haben beide Recht. Natürlich ist Facebook (oder auch Google) kein direkter Konkurrent für eine Tageszeitung, wenn es um den Abruf von Nachrichten geht – wie edenstrom es so schön sagt: “Googling for ‘news’ gets you nowhere.” Aber wenn man allgemeiner auf die aufmerksamkeitsökonomische Zeitkonkurrenz sieht (Stichwort: “Umverteilung von Medienzeitbudgets”), dann könnte ein Social Network tatsächlich als Alternative zu einer Tageszeitung wahrgenommen werden. Je ähnlicher die Aktivitäten wahrgenommen werden, die sich auf die unterschiedlichen Medienzeitbudgets beziehen, desto realistischer ist die Substitutionsthese. Wenn es also wirklich nur um das “aimlessly surfing” geht, kann es tatsächlich egal sein, ob man in einem sozialen Netzwerk oder einer Onlinezeitung unterwegs ist.



    Verwandte Artikel:
  • StudiVZ, schülerVZ und meinVZ dominieren den Community-Buzz der Blogosphäre
  • Warum wir eine Arbeitsgemeinschaft Blog- und Communityforschung brauchen
  • Die walled gardens öffnen sich ein Stückchen: Google, Facebook und Plaxo engagieren sich für Datenportabilität