Archive for the 'web 2.0' Category

GPS-Empfänger und Lederhosen – Bayerns Online-Informationssysteme

In Bayern gibt es ca. 120.000 Baudenkmäler und noch einmal 900 Ensembles, die in der Bayerischen Denkmalliste verzeichnet sind. Im Vergleich dazu: In Frankreich sind beim Kulturministerium nur etwa 38.000 Gebäude unter Denkmalschutz gestellt. Was mich daran besonders fasziniert: Die 120.000 bayerischen Baudenkmäler lassen sich mit Hilfe der Java-Anwendung “Bayern Viewer” flächenscharf auf Karten darstellen. Über dieses Interface lässt sich jedes erfasste Denkmal lokalisieren und die jeweils dazugehörigen Beschreibungstexte abrufen – zum Teil sogar mit Fotos. In Aktion sieht das ganze dann so aus:

BayernViewerAuf jeden Fall beeindruckend. Die von dem Landesamt erhobenen Daten werden hier tatsächlich der Bevölkerung zur Verfügung gestellt.  Nur: die einzelnen Denkmalinformationen besitzen keinen statischen Link, mit dem sie aufgerufen werden können. Das bedeutet:

  • Google kann die einzelnen Denkmalbeschreibungen nicht finden und durchsuchbar machen. Wenn ich z.B. nach “Residenzstraße 25 München” suche, liefert mir Google sehr viel gewerbliche Einträge, aber keine Beschreibung des 1899/1900 von Drollinger erbauten Wohn- und Geschäftshauses.
  • Von Wikipedia-Artikeln wie zum Beispiel zum “Neuen Rathaus” in München kann man nicht direkt auf die entsprechenden Eintrag des Bayerischen Landesamtes für Denkmalpflege verlinken.
  • Die gespeicherten Daten wie zum Beispiel Architekt, Baujahr etc. bleiben in einem geschlossenen System. Man kann nicht mit den Daten arbeiten und sie zum Beispiel in einem Mashup mit GoogleMaps weiterverwenden.
  • Damit kann man auch keine geosensitiven Anwendungen schreiben, die diese Informationen mit dem aktuellen Standort des Betrachters in Bezug setzen. Aus dieser Verbindung von flächenscharf kartierten Objekten und einer GPS-basierten Standort- und Richtungsbestimmung könnten wunderbare augmented realities entstehen. Man müsste z.B. nur sein Handy auf eines der Gebäude richten und könnte die Denkmalschutzinformationen abrufen.
  • Was ebenfalls fehlt: Personalisierung. Die Anwendung merkt sich nicht, welche Informationen ich abgerufen habe, welche Städte ich am häufigsten gesucht habe etc. Mit einem Mashup könnten sich die Nutzer ihre eigenen “Denkmalpfade” durch ihren Wohn- oder Ferienort erstellen lassen, mit deren Hilfe sie dann eine bauhistorische Ortsführung bekommen können.
  • Schließlich gibt es auch keine nutzergenerierten Inhalte auf der Seite. Nutzer könnten zum Beispiel
    • fehlende Bilder ergänzen
    • Objektangaben hinzufügen
    • Objekte bewerten
    • Objekte kommentieren
    • Objekte verschicken

Ganz ähnliche Anwendungen gibt es für die Kartierung der bayerischen Geotope

Geotopkartierungsowie FINWEB (die komplexeste Anwendung der drei) für die Biotope, Naturdenkmäler und Naturschutzgebiete:

FIN-WebAlle drei Anwendung – die Kartierung von Baudenkmälern, Geotopen und Biotopen – sind eindrucksvolle Beispiele für die (längst überfällige) Öffnung der behördlichen Datenbanken. Informationen, die im Auftrag des Bürgers gesammelt werden, müssen auch für ihn ohne größeren Schwierigkeiten zugänglich sein. Jeder, der sich dafür interessiert, kann die Informationen auf dem eigenen PC betrachten. Aber das war’s dann auch schon. Sehr viel mehr als Betrachten ist hier nicht drin.

Die oben für die Denkmalkartierung beschriebenen Punkte gelten auch für die Biotopkartierung und die Geotopdatenbank. Vor allem: die drei verschiedenen Kartierungen sind vollständig isoliert voneinander. Die Bayerische Regierung sollte auf offene Standards und Schnittstellen setzen, so dass man diese verschiedenen Datenbanken integrieren könnte. Also zum Beispiel in einer mobiltauglichen Anwendung, in der Biotope, Geotope, Baudenkmäler und Wikipedia-Informationen integriert sind.



Verwandte Artikel:
  • Wie man Shitstorms erkennt und bewertet
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Zweitverwertung
  • Am Germanistenwesen soll das Web genesen

    “Hässliches Gesicht”, “Fratze”, “Schlauchbootlippen”, “zweifelhaft”, “Laien”, “scheinbare Meinungsfreiheit”, “Mob”, “Manipulation”, “unseriös”, “Lächerlichkeit”, “Nonsense”, “Verschmutzer des Internet” – nein, hier ist nicht, wie man zunächst denken möchte, von Universitätsprofessoren die Rede, sondern vom Internet. Pardon, in diesen Kreisen sagt man ja “Selbstmach- und Mitmachweb”, damit auch dem letzten Ignoranten deutlich wird, dass nicht die Onlineausgabe von Max Webers Werken gemeint ist, sondern der nicht mehr zu bewältigenden Flut des “User-generated Nonsense”.

    Dieses Mal erklärt Oliver Bendel – er ist “Germanist und Philosoph und arbeitet als Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz” – uns auf Telepolis das ganze Grauen des Web 2.0. Man kann es auch in wenigen Worten zusammenfassen: Ein Ort, an dem eine bildungsbürgerliche Ikone wie Joachim Kaiser neben Gossenkindern wie den anonymen Amazon-Rezensentinnen zu finden ist, ist ein böser Ort.

    Hier könnte ich es eigentlich bei meiner Standardantwort beruhen lassen: “Lerne zu unterscheiden, und du wirst das Web lieben”. Auch ein Germanistikprofessor dürfte wenigstens im Prinzip erkenntnisfähig sein und (mühsam, aber dennoch) lernen können, einen nach allen Regeln der Literaturkritik verfassten MRR-Verriss von einem anonymen “Ist voll blöd das Buch!11!” zu unterscheiden. Auch wenn Google auf den Suchergebnisseiten diesen Qualitätsunterschied nicht farblich anzeigt. Wenn das Differenzierungsvermögen von dieser Aufgabe überfordert ist, ist das ein Problem der Medienkompetenz und kein Problem des Web 2.0!

    Aber ich glaube, dass es hier um mehr geht als das bloße Überfordertsein eines Gutenbergianers, der sich widerwillig in der McLuhan-Galaxie zurechtfinden muss. An einigen Stellen schwingt eine bedrohliche Tendenz mit, die nicht allein nach besseren Filtern oder Instrumenten für den eigenen Gebrauch ruft, sondern nach einem großer Reinigungsaktion im Mitmachweb. Am Germanistenwesen soll das Web genesen. Die Gegenüberstellung der “scheinbaren, grenzenlosen Meinungsfreiheit” von Bloggern und Amazonschreibern (= “Rezensentenmob”) und der “echten Meinungsfreiheit” der kulturellen Elite von Gestern wäre ein Beispiel. Der folgende “Lösungsvorschlag” des Qualitätsproblems ein weiteres:

    Wenn uns unsere Literatur etwas wert ist, sollten wir Talente mit ihr flirten und den Mob nicht über sie herfallen lassen.

    Im Namen “unserer Literatur” (also des von der Literaturkritik bestimmten, definierten und verehrten Kanons) sollen also Meinungen von Laien ausgeklammert, ignoriert oder bekämpft werden? Von allen dämlichen Kampfschriften gegen das Internet der letzten Wochen ist das hier eindeutig die drolligste.



    Verwandte Artikel:
  • 200% Internetwachstum in Deutschland?
  • Manager-Magazin macht Google überflüssig
  • Neues metaroll-Feature: Neue Blogs
  • Marktforschung und Social Media

    Gerade habe ich festgestellt, dass ich noch einige Präsentationen auf dem USB-Stick liegen habe. Nach und nach möchte ich die “Folien” nun auf Slideshare hochladen. Hier ist schon einmal der erste Teil – ein Vortrag über Marktforschung und Social Media, den ich letzten Donnerstag in Hamburg für das Network Online-Marktforschung des BVM gehalten habe.

    In dem Vortrag habe ich zunächst den Nogger Choc-Fall als Beispiel für die Relevanz von Social Media vorgestellt und dann “10 Punkte, warum Marktforschung Social Media ernst nehmen sollte” vorgestellt. Abschließend folgt dann noch ein eigenes Beispiel einer Twitter-Netnography (“Twitnography”) zum Thema Rebsorten.



    Verwandte Artikel:
  • Publikationen & Vorträge
  • Update zur AG Social Media
  • Über mich
  • Was ist Google FriendConnect?

    Ich habe gerade testweise einmal zwei FriendConnect-Widgets von Google in die Seitenleiste des Blogs eingebaut. Das erste verwandelt dieses Blog in eine Social Community, der man mit seinem Google-Profil beitreten kann. Wenn man die entsprechende Aktion in seinem Profil ankreuzt, wird auch ein Aktivitätsstream erzeugt.




    Welche Aktivitäten werden in den FC Google-Widgets angezeigt? Die kommen aus dem zweiten Widget, dem Kommentarfeld (oder wahlweise auch Shoutbox oder Wall). Dort kann man entweder angemeldet oder nicht angemeldet Kommentare hinterlassen, auf andere Kommentare reagieren oder sich die Profile der (angemeldeten) Kommentierenden ansehen:


    Was bedeutet das?

    • Dezentralisierung: Im Prinzip ähneln die Widgets dem, was man auch schon von Disqus oder Friendfeed kennt – siehe dazu auch die lange Diskussion “The Conversation has left the Blogosphere“, die Anfang des Jahres vor allem in den USA geführt wurde. Mit FriendConnect wird diese Debatte wieder neu aufflammen: Welche Folgen hat es, wenn die Kommentare der eigenen Blogeinträge nun auf Google und nicht mehr auf dem eigenen Server gespeichert werden?
    • Dialogifizierung: Allerdings ermöglicht FriendConnect das Einbauen dialogischer Web 2.0-Elemente auch auf klassische Web 1.0-Seiten. Einfach das Widget einfügen und schon hat man eine statistische Webseite in eine Community oder einen Dialog verwandelt. Dieser Eindruck wird auf jeden Fall vermittelt.
    • Expansion: Noch besitzen nur wenige meiner Kontakte ein öffentliches Google-Profil, aber über Googles Social Graph findet man schon zahlreiche personenrelevante Daten (zum Testen einfach einmal hier die URL des eigenen Blogs oder Friendfeedaccounts eingeben). Vielleicht gelingt Google damit besser, was auch Yahoo und Microsoft versuchen: ihre Emailnutzer in Adressen sozialer Netzwerke verwandeln. Die Frage ist, ob hier nicht Facebook – Googles größter Konkurrent auf dem Gebiet Social Graph derzeit – die besseren Karten hat, denn hier bestehen bereits Netzwerke, die sich in der Tat sinnvoll auf andere Netzwerke übertragen ließen.
    Die große Frage lautet auch hier: Erfüllt dieser Dienst ein tatsächliches Bedürfnis der Internetnutzer? Das Interaktiv-Machen von Webseiten? Geht mit einem Blog besser. Die anderen Wohltaten, die FriendConnect verspricht (zum Beispiel das Sammeln von Kontakten im eigenen Social Graph), erscheinen mir hier viel zu umständlich realisiert, um eine breite Benutzergruppe anzusprechen.
    Das nächste große Ding wird Google Friend Connect wohl nicht werden. Was hingegen wirklich gebraucht wird, ist ein Protokoll oder Dienst, das es ermöglicht, sich mit seinen Bekannten, Freunden und Kollegen zu vernetzen, ohne dass die Technik dazwischensteht. Ein Netzwerkmedium, das die sozialen Beziehungen in den Vordergrund rückt und selbst als Medium gar nicht mehr wahrnehmbar ist. Social Networking-Plattformen, aber auch der Microbloggingdienst Twitter oder Blogs allgemein, gehören immer stärker in das Repertoire von Alltagspraktiken, die es uns ermöglichen, mit Menschen in Kontakt zu treten. Langsam wird es Zeit, die dafür benötigten Technologien unsichtbar zu machen.
    Ein Freund ist ein Freund. Egal, ob auf Facebook, Twitter oder StudiVZ. Eine Anwendung, die dazu in der Lage ist, dieses Grundgesetz sozialer Medien in eine Praxis zu verwandeln, hat das Zeug, zum next big thing zu werden.

    Siehe dazu auch:



    Verwandte Artikel:
  • Die meistgenutzten Web 2.0-Dienste der Twitterati
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Wie berechenbar wir doch auf Google suchen…
  • Volker Beck, Hubertus Heil und die FDP – die Politik entdeckt die Macht des Mikrobloggens

    Dienste wie Twitter werden für die politische Kommunikation noch eine große Zukunft haben. Davon bin ich überzeugt. In 140 Zeichen können hier Politiker in den direkten Dialog mit der Bevölkerung (momentan freilich noch: einer überdurchschnittlich gebildeten, kommunikationsfreudigen und technophilen Bevölkerung) treten und einen Einblick in den politischen Alltag bieten, für den es sonst kein Format gibt. Ungefiltert, authentisch und informell.

    Wenn sie das Medium gut handhaben, können Politiker auf diese Weise abseits der Massenmedien politische Meinungen ausdrücken, die weder als der übliche glattgeschliffene Polit-Talk aufgenommen werden noch als peinliche Anbiederungs- und Missionierungsversuche. Letztlich geht es hier um eine Personalisierung der Politik ohne Populismus.

    Volker Beck (Grünes Bundestagsmitglied) twittert zwar erst seit dem 17. September. Aber er scheint das Medium begriffen zu haben (oder einen guten Berater zu haben, mittlerweile hat Volker Beck mir per Twitter bestätigt, er habe keinen Twitter-Berater): Keine Pressemitteilungen, sondern authentisch wirkende Tweets (“Merkel steinmeiert jetzt auch in der Russlandpolitik“) und immer mehr Dialoge mit anderen Twitterati. Bislang hat er erst acht 61 121 Follower, aber das wird sich sehr, sehr schnell ändern.

    Hubertus Heil (Generalsekretär der SPD) hat mit seiner Twitter-Berichterstattung von dem Nominierungsparteitag der Demokraten in Denver als erster dafür gesorgt, dass sich auch die deutschen Massenmedien mit dem Phänomen Twitter in der Politik auseinandersetzten. Die meisten Zeitungen haben entweder nicht verstanden, worum es bei diesem neuen Medium geht, oder aber sie haben eine vage Ahnung davon bekommen, dass hier völlig außerhalb des klassischen politischen Mediensystems ein neuer Kanal entsteht, mit dem sie nichts zu tun haben. Ein Monopol aus Insiderinformationen, Echtzeitinformationen und persönlichem Zugriff auf die Politiker geht allmählich verloren. Hubertus dagegen hat das Medium aber sehr gut verstanden. Politiker halten nicht nur Reden, sondern kaufen auch mal ein oder tanzen. Aber vor allem: sie reden mit anderen. Auch über Twitter. Die spannende Frage ist hier die Nachhaltigkeit dieser Kommunikation. Hubertus hat mittlerweile über 1.000 Follower. Ein beachtliches Netzwerk, das wiederum aus zahlreichen Multiplikatoren und Impulsgebern besteht. Es wäre spannend, hier nachhaltige Kommunikationsstrategien zu entwickeln, die über die Berichterstattung von einem Event und ein paar vereinzelten Nachzügler-Tweets hinausreichen.

    Was macht die FDP mit diesem Medium? Immerhin versucht sie immer wieder, sich das Thema Innovation und Medien auf die Fahnen zu schreiben. Prominente Twitterer habe ich in den Reihen der Liberalen leider nicht gefunden. Immerhin gibt es aber einen Twitter-Account der Bundestagsfraktion, die im übrigen auch ziemlich rege bloggt. Leider werden die spezifischen Vorteile des Mikrobloggens nicht genutzt. Der Twitter-Feed der Bundestagsfraktion ist (im Augenblick noch) ein schnöder Newsticker, der auf neu eingestellte Beiträge der Homepage hinweist. Ganz selten wird ohne Link auf die Homepage getwittert oder auf andere Twitter-Nutzer reagiert. Aber immerhin scheint jemand die Reaktionen auf den Feed zu monitoren. Das ist nicht selbstverständlich. Mit dabei seit Ende August und erst 23 133 Follower. Das ist eindeutig ausbaufähig, insbesondere fehlt hier einfach eine authentische Stimme. Wer spricht hier überhaupt? In der Twittersphäre geht es um Dialoge, aber wer möchte sich schon mit Tickern unterhalten?

    Das ist natürlich nur eine Auswahl aus dem guten Dutzend mir bekannter Politik-Twitterer in Deutschland, wozu dann noch einmal mindestens ebenso viele Fake-Accounts kommen. Welche Politiker-Tweets lest ihr am liebsten? Wird Twitter die politische Kommunikationslandschaft nachhaltig verändern?

    Ach ja, und falls hier politische Kommunikatoren oder Politiker mitlesen: Ich würde mich gerne einmal mit euch über Erfahrungen und Potentiale des politischen Twitterns unterhalten.



    Verwandte Artikel:
  • Die Least Popular Stories dieses Blogs
  • Politik in 140 Zeichen
  • Visuell ist besser – die memetische Kraft der Bilder
  • Blogging the Black Atlantic: Ethnoblogs (Streifzüge durch die Blogosphäre I)

    Mit dem Begriff “Black Atlantic” versucht der britische Soziologe Paul Gilroy das Phänomen einer kosmopolitischen black culture zu beschreiben. Auch in Deutschland gibt es eine (größtenteils ungeschriebene) Geschichte einer Schwarzen Diaspora (dazu habe ich auch in meiner Dissertation ein Kapitel geschrieben). Wie lebt es sich in diesem Spannungsfeld zwischen unterschiedlichen historischen “Reiserouten” (routes) und lokalen Verwurzelungen (roots)? Im Folgenden möchte ich (angeregt durch Marc, der so etwas ähnliches für die Mediblogszene vorgemacht hat) fünf Blogs kurz vorstellen, durch die man etwas über diese subalterne Historiographie der BRD erfahren kann: Blogging the Black Atlantic.

    1) anders deutsch

    In diesem Blog, das schon lange Teil meiner RSS-Lektüre darstellt, widmet sich Dr. Urmila Goel, Volkswirtin und Südostasienwissenschaftlerin, den “rassistischen Diskursen aus der Mitte der Gesellschaft.” Häufig sind es Zeitungsmeldungen, die Urmila kurz kommentiert und im (anti)rassistischen Diskurs verortet. Es geht immer wieder um den deutschen Abschiebewahn, Islamophobie, das Leben in der Festung Europa sowie die Aufarbeitung von Nationalsozialismus und Kolonialismus. Neben den vielen Zeitungsschnipseln, die wie das Thema nahelegt zumeist aus der taz stammen, gibt es aber immer wieder kleine Bilder, mit denen eindrucksvoll klar wird, wie sehr rassistische Stereotype nach wie vor das Alltagsleben prägen. Daraus entsteht dann eine Phänomenologie des Deutschseins, die sich in schönen Formulierungen wie der folgenden ausdrückt: “Was genau passiert, wenn ‘deutsche Kinder’ kein Schweinefleisch mehr zum Mittag bekommen? Verlieren sie Ihr Deutschsein? Leidet ihre Gesundheit? Können sie nicht mehr lernen?”

    anders deutsch besteht seit gut zwei Jahren. RSS-Feed. Creative-Commons-Lizenz. Verwandte Weblogs

    2) Riemer-O-Rama

    Auch bei Martin Riemer findet man ganz ähnliche Fotodokumente aus dem alltäglichen Rassismus und latent (oder manifest) patriarchalischen Integrationsdenken in Deutschland – konkret: in der Hauptstadt Berlin (siehe auch die Rubrik “Postkoloniales Berlin“). Zugleich sieht sich Martin, der als IT-Assistent an einer Grundschule in Friedrichshain-Kreuzberg arbeitet, aber aber auch als “Anstoßer und Initiator für Schülerblogs” und liefert immer wieder Anekdoten über seine Bemühungen, Schülern bis Senioren das Bloggen näherzubringen. Sehr hilfreich ist auch seine lange Blogroll mit vielen Infos zu Postkolonialismus und Bloggen. Am 4. April trägt er unter dem Titel “Das hat mein Kind gebloggt” etwas auf der Re-Publica vor. Da ich ebenfalls in dem Hard Blogging Scientists-Track etwas sagen werde, freue ich mich schon auf ein Treffen.

    Riemer-O-Rama besteht seit bald vier Jahren. RSS-Feed. Creative-Commons-Lizenz. Verwandte Weblogs

    3) katunia

    Katunia bloggt anonym über Heteronormativität, Fortpflanzung und Erziehung, Postkolonialismus, Zuwanderung und Integration, Aufkleber und Teddybären. Lehnt sich dabei (ein dankbares Ergebnis der Anonymität) manches Mal herzhaft aus dem Fenster, was das Lesen zu einem Vergnügen macht. Katunia warnt aber (unter anderem ihre Mutter) davor, die Inhalte immer für bare Münze zu nehmen, denn: “‘katunia# ist kein wahrhaftes abbild vom leben katunias (oder vom leben ihres umfeldes). liebe mutti, dieser punkt ist für dich! mich treibt viel mehr und viel weniger um, als das, was hier steht. viele texte haben deutlich fiktive züge. ich mag zuspitzungen und polemiken und abkacken. das hier ist text — wenn überhaupt: repräsentation — ständiges verfehlen und konstruieren von oberfläche und tiefe. blubbern und verzerren, aber kein blick in meine seele.”

    katunia besteht seit zwei Jahren. RSS-Feed. Creative-Commons-Lizenz. Verwandte Weblogs

    4) Ethno::log

    Kein erzählendes Weblog im eigentlichen Sinne, aber wahrscheinlich die wichtigste digitale Anlaufstation für Informationen aus Ethnologie, Postcolonial Studies und Feldforschung in Deutschland ist das Ethno::log. Besonders bemerkenswert ist der durchaus naheliegende Fokus auf Ethnologie im Internet bzw. Cyberethnology:

    We think, that the internet is a space with an emerging culture, and anthropology has to think about this culture, has to look at it, how it developes. We should try to understand how this new culture works. So don’t be surprised to find tech news here. It’s not only about bushman drums!

    Entstanden ist das Blog, sofern ich mich richtig erinnere, als studentisches Projekt am Institut für Völkerkunde und Afrikanistik der LMU München. Mitmachen kann aber jeder, der ein Konto bei antville angelegt hat.

    Ethno::log besteht seit fast fünfeinhalb Jahren. RSS-Feed. Verwandte Weblogs

    5) @mundo.de

    Zum Schluss noch ein Blog, das ich selbst erst kürzlich entdeckt habe: @mundo. Okay, der Name ist vielleicht nicht so unglaublich gelungen, aber die Inhalte sind spannend. In dem Gruppenblog schreiben neun ehemalige oder gegenwärtige Ethnologiestudenten über Mythen, Feste, Wohnen, Kannibalismus, (post)koloniale Fremdbilder und das Web 2.0 – die ganze Bandbreite der zeitgenössischen Ethnologie also. Darüber hinaus versuchen die Autoren, dem Blog einen Magazincharakter zu geben, in dem bestimmte Themen ausgewählt und aus unterschiedlichen Blickwinkeln bzw. an unterschiedlichen Beispielen veranschaulicht werden. Auch hier heißt es: Mitmachen! Ein kleiner Schönheitsfehler: nur die Startseite hat die Adresse “ethmundo.de”, die restlichen Seiten verweisen auf einen 1&1-Server mit entsprechend uneleganter Adresse “web142.troy.kundenserver42.de”.

    @mundo.de besteht seit gut einem Jahr. RSS-Feed. Verwandte Weblogs

    Das ist selbstverständlich eine subjektive Liste meiner Lieblings-Ethnoblogs. Aber vielleicht kennt ihr ja noch weitere Geheimtipps?



    Verwandte Artikel:
  • Über den Wolken: Pilotenblogs (Streifzüge durch die Blogosphäre II)
  • Scientific American versucht sich am Prinzip Trackback
  • Patterns of mobilization in the blogosphere (English version)
  • Manager-Magazin macht Google überflüssig

    René Baron schreibt im Manager-Magazin über die Vision eines semantischen Web (Web 3.0), das Suchmaschinen wie Google überflüssig machen könnte. Statt umständlich einen Suchbegriff in ein Formularfeld einzutragen und dann tausende Treffer durchwühlen zu müssen, soll es in Zukunft möglich sein, z.B. dem eigenen Handy eine Frage zu stellen und dann die Antwort zu erhalten. Wie soll das funktionieren? Das Handy ist mit anderen Rechnern vernetzt, deren Wissensstrukturen aneinander angepasst sind – also ein gewaltiger Standardisierungsaufwand. Dadurch weiß das Handy, ob es gerade mit dem Rechner eines Zahnarzts spricht oder mit dem Server einer Bibliothek und zudem auch, welcher Art die gerade abgerufenen Informationen sind:

    Wenn es also gelingt, die Semantik von Texten, Bildern, Gesten und künstlerischen Darbietungen durch standardisierte Begriffe so zu formalisieren, dass die so gewonnenen Daten maschinenlesbar sind, dann könnte die Vision der Antwortmaschine Realität werden. Eine Suchmaschine wie Google wäre dann überflüssig. Der Nutzer stellt stattdessen einfach seinem Handy eine Frage und es antwortet, anstatt eine Liste von unzähligen Suchergebnissen anzubieten.

    Nur: wie soll das Handy denn an die Informationen kommen, wenn nicht über eine oder mehrere Suchmaschinen? Irgendwo muss die begriffliche Struktur schließlich gespeichert werden, die zur Grundlage der themenspezifischen Vernetzung verwendet wird.



    Verwandte Artikel:
  • Macht Google klug?
  • Interessante Kriminalprozesse gefällig? Die digitale Bibliothek als Open Content
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Commercialisation of privacy?

    Wie lange wird es wohl dauern, bis die Web 2.0-markt.pngUnternehmen entdecken, dass sich Privatsphäre auch verkaufen lässt? Wann werden Anbieter von Social Networks unterschiedliche Typen von Mitgliedschaft anbieten:

    • die gewöhnliche “free membership“, die allerdings beinhaltet, dass Benutzerdaten weiterverwendet werden können und dass die von diesem Nutzer produzierten Inhalte (user generated content) von dem Unternehmen weltweit genutzt werden können, sowie
    • eine “premium membership“, die strengere Datenschutzbedingungen garantiert und darüber hinaus alle Rechte an den produzierten Inhalte bei dem User verbleiben?

    (Abbildung “Quacksalber auf dem Markt” von Jan Victors, 1635, Quelle: http://www.zeno.org – Zenodot Verlagsgesellschaft mbH)



    Verwandte Artikel:
  • Die Least Popular Stories dieses Blogs
  • Die Karteileichen im MySpace-Keller
  • Das unsichtbare Web 2.0

    fischer.pngEiner der wichtigsten Punkte in der Wissenschaft 2.0 ist die Frage, wie man an die unzähligen Informationen herankommt. Bislang spielten Abstract-Zeitschriften (oder Abstracts von Abstracts) eine zentrale Rolle in der Suche nach spezifischen Informationen – das im Internet dezentral abgespeicherte Wissen lässt sich jedoch mit Aggregatoren dieser Art nicht mehr sinnvoll verwalten und durchforsten. Gerade die vielen Publikationsvorstufen, Manuskripte, Diskussionsgrundlagen, Präsentationen, Berichte, Personenprofile und vor allem Datensätze die zunehmend im wissenschaftlichen Web zu finden sind, können nicht mehr wie in einem Telefonbuch verzeichnet werden. Auch hier (wie im Web insgesamt) werden vermutlich Suchmaschinen die Kataloge und Portale nach und nach ablösen.

    Aber die Sache wird dadurch verkompliziert, dass ein wichtiger Teil der wissenschaftlichen Informationen auch mit Suchmaschinen nicht gefunden werden kann: diese Informationen sind im Academic Invisible Web verborgen. Was versteht man unter diesem Begriff? Sherman und Price fassen darunter Texte, Daten und Informationen im WWW, die in den bisherigen Suchmaschinen (v.a. natürlich Google) nicht verzeichnet sind und daher für den WWW-Nutzer gar nicht existieren.

    Wie groß dieser Teil des WWW ist, lässt sich nur abschätzen. Hier wird z.B. behauptet, dass sogar die besten Suchmaschinen nur zu 16% der WWW-Informationen Zugang haben, wobei das unsichtbare Netz sogar 500 Mal so sein soll wie das sichtbare und zudem schneller wächst (für eine Kritik dieser Zahlen sowie grundsätzlichen Fragen zur Messbarkeit des tiefen Webs vgl. hier). Interessanterweise geht es dabei nur in geringem Maß um nicht-öffentliche Seiten, sondern vor allem um dynamisch generierte Datenbankergebnisse. Aber auch einzelne, nicht verlinkte Seiten, Multimediainhalte und andere non-text-Formate (zip, rar), wenn sie nicht mit Metadaten versehen sind oder Echtzeitinformationen gehören zu dieser Kategorie.

    Eindrucksvoll lässt sich dies an den neuen interaktiven Informationsangeboten der statistischen Ämter demonstrieren. Armin Grossenbacher sammelt zur Zeit hier eine Liste von solchen Anwendungen. Wenn man sich zum Beispiel den neuen “Atlas der Außenhandelsstatistik” des Statistischen Bundesamtes betrachtet, fällt zum einen auf, dass dem Nutzer eine Web 2.0-ähnliche Rich Internet Application angeboten wird. Man kann selbst auswählen, welche Daten wie visualisiert werden sollen und zum Teil ist auch der Export in verschiedenen Datenformaten möglich (zum Beispiel mit dem TGM-Modul (“table, graphs and maps”) von Eurostat). Zum anderen sind diese Inhalte nur über den Atlas verfügbar und können nicht über die Suche einer Suchmaschine entdeckt werden.

    Möglicherweise lässt sich an dieser Stelle die These formulieren, dass interaktive, datenbankgestützte Web 2.0-Anwendungen dazu neigen, das “tiefe Web” auszudehnen, werden sie nicht mit Web 3.0-Elementen (“semantisches Netz”) ergänzt. Zum Beispiel durch Informationen darüber, welche Funktion bestimmte Eingabeformulare oder Datenbankschnittstellen haben und welche Inhalte damit abgerufen werden können. Aber die erwähnten Seiten besitzen nicht einmal Dublin Core-Metadaten, mit denen der Inhalt der Seite kurz charakterisiert werden könnte.

    Wer mehr zu dem Thema lesen will, kann auf die beiden Weblogs The Invisible Web und Deep Web Research zurückgreifen sowie die umfangreiche Bibliographie auf “Beyond Google“.

    (Abbildung: Claude Monet, “Zwei Fischer”, 1882, Quelle: http://www.zeno.org – Zenodot Verlagsgesellschaft mbH)



    Verwandte Artikel:
  • Die Zukunft des WWW (Richard MacManus)
  • Failure notice – über die positive Funktion von Fehlern
  • Das Ende des Web 1.0: New York Times jetzt wieder kostenlos

    bibel.pngAls die Zeitungsverlage ihre Webpräsenzen immer weiter ausbauten, bis schließlich ihr gesamter Content auch im Internet abgerufen konnte, wurde die Frage nach dem Geschäftsmodell dringlich. Zahlreiche Verlage haben sich dazu entschlossen, in alter Web 1.0-Manier die Nutzer für die Inhalte zahlen zu lassen. Sie haben also nach einer mehr oder weniger langen Open Content-Episode das bewährte Geschäftsmodell der Pornoanbieter im Netz übernommen: pay for your fun.

    Momentan lässt sich jedoch aus einigen Meldungen herauslesen, dass die Verlage in dieser Beziehung wieder einmal den Kurs ändern. So stellt zum Beispiel die New York Times fest, dass mittlerweile so viele Besucher über Suchmaschinen auf die digitalen Seiten der Zeitung kommen, dass es finanziell unklug wäre, diesen potentiellen Lesern (und AdClicks) die Artikel vorzuenthalten. Die Einbuße durch den Wegfall der Online-Abogebühr, so das Kalkül des Verlags, würden durch die zusätzlichen Page Views und AdClicks mehr als ausgeglichen werden. John Battelle freut sich darüber, dass die Verlage nun endlich das Modell der suchmaschinenorientierten Point-to-Economy verstanden haben “and now they will be getting all the search juice they richly deserve.” Duncan Riley geht noch darüber hinaus und sieht das Ende des Pay-for-Content-Geschäftsmodell nahen und kommentiert den Schritt der New York Times wie folgt:

    Most importantly: this is a win for all of us. The notion of paying to access content is flawed in a connected online world where virtually everything is free, particularly content. Companies such as the NY Times can make money from providing content for free.

    Dabei geht es nicht nur um die aktuellen Ausgaben, sondern auch das Archiv von einer Zeittiefe von immerhin 91 Jahren ist jetzt für jeden interessierten Leser erreichbar. Die Zeit ist diesen Schritt schon vor ein paar Wochen gegangen und hat ihr Archiv mit sämtlichen Print- und Onlineausgaben geöffnet.

    Aber auch das Medienunternehmen News Corp. beschäftigt sich, wie gerade bekanntgeworden ist, mit Gedankenspielen dieser Art. Es geht darum, ob auch die Onlineausgabe des Wall Street Journal kostenfrei erhältlich sein wird, aber eine definitive Entscheidung liegt noch nicht vor. Schätzungen für ein paar andere wichtige Printprodukte stellt Kathrin Passig an:

    Es kann jetzt nur noch ungefähr weitere 245 Jahre dauern, bis FAZ/FAS, Süddeutsche, taz, Frankfurter Rundschau, Spiegel, Focus, Standard und NZZ durch Nachdenken zu derselben Einsicht gelangen.

    (Abbildung aus Wikipedia)



    Verwandte Artikel:
  • New York Times: Freier Zugang zahlt sich aus
  • Twitter überholt die NY Times
  • Galerie 2.0 oder: Schon einmal einen Rupprecht Geiger gejpged?