Archive for the 'information' Category

Enter-Polls statt Exit-Polls?

Hier gehts direkt zu den Ergebnissen – und hier zur Stimmabgabe

Wahrscheinlich wissen die meisten Menschen gar nicht, was sich hinter dem seltsamen Begriff “Exit-Poll” verbirgt. Es geht dabei nicht um eine Abstimmung, wann man am besten das Zeitliche segnen sollte, sondern um die Befragung von Wählern beim Verlassen (= Exit) des Wahllokals. Die dabei erhobenen Daten werden verwendet, um Hochrechnungen zu erstellen, die dann in den ersten Betaversionen bereits in der Mittagszeit den Parteien zur Verfügung gestellt werden. Damit sie bei einem unerwarteten Wahldebakel schnell noch den Champagner abbestellen und stattdessen Mineralwasser ordern können.

Durch Social Media-Anwendungen wie Twitter oder Facebook, auf denen man in Echtzeit Nachrichten verbreiten kann, befürchten die Politiker, dass diese Vorabergebnisse nicht mehr unter Verschluss gehalten werden können, sondern von übereifrigen Kommunikatoren ausgeplaudert werden könnten (die Erinnerungen an die Wahl des Bundespräsidenten sind noch zu frisch). Das bedeutet zum einen, dass ein Informationsmonopol verschwindet und zum anderen, dass diese Zahlen verwendet werden könnten, um am Wahlabend noch verstärkt zu mobilisieren.

Beides – Transparenz und eine höhere Wahlbeteiligung – scheint nicht besonders im Interesse der Parteien zu liegen, und deshalb werden jetzt die ersten Pläne geschmiedet, wie man diese Twitterer stoppen könnte. Der Bundeswahlleiter lässt sich zitieren mit den Worten: “Es wäre der GAU, wenn die Wählerbefragungen vor Schließung der Wahllokale öffentlich bekannt würden”. Darüber, anstelle des Twitterns darüber kurzerhand die Exit-Polls abzuschaffen und mit der Bekanntgabe der ersten Zahlen einfach zu warten, bis diese aus den Wahllokalen vorliegen, scheint niemand nachzudenken. Schließlich sind diese Daten die einzigen verfügbaren Daten darüber, welche soziodemographischen Gruppen wie gewählt haben und welche Wählerwanderungen es gegeben hat.

Vielleicht wäre es aber sinnvoll, beides zusammenzubringen: Twitter und Wählerbefragungen. Nach einer kurzen Diskussion auf Twitter entstand die Idee, ein auf Twitter basierendes “Enter-Poll-System” ins Leben zu rufen. Ich stelle mir das so vor: Jeder Twitterer hat genau eine Stimme, die er vor dem Wahltag einer Partei seiner Wahl geben kann. Die Authentifizierung bei Twitter (über OAuth, d.h. es werden keine Passwörter übertragen) stellt sicher, dass jeder Twitternick nur einmal abstimmen kann. Dadurch, dass die bereits abgestimmten Twitternicks und die eigentlichen Wahldaten in unterschiedlichen Datenbanktabellen abgespeichert werden, können beide Informationen nicht miteinander verknüpft werden. Die virtuelle Stimmabgabe ist also anonym.

Da mit der Wahlentscheidung auch die Wahlentscheidung der letzten Bundestagswahl abgefragt wird, können anschließend Auswertungen über die Wählerwanderungen getroffen werden. Und die soziodemographischen Merkmale erlauben zudem eine Segmentierung nach Alter und Geschlecht.

Der Betatest beginnt genau … jetzt.

[UPDATE, 17:33] Das Tool darf natürlich am Wahltag selbst bis 18:00 keine Ergebnisse veröffentlichen, da dies laut BWahlG eine Ordnungswidrigkeit darstellen würde, die mit bis zu 50.000 EUR Geldbuße geahndet werden kann.



Verwandte Artikel:
  • Tag ‘n’ Roll
  • Update zur AG Social Media
  • Politik in 140 Zeichen
  • GPS-Empfänger und Lederhosen – Bayerns Online-Informationssysteme

    In Bayern gibt es ca. 120.000 Baudenkmäler und noch einmal 900 Ensembles, die in der Bayerischen Denkmalliste verzeichnet sind. Im Vergleich dazu: In Frankreich sind beim Kulturministerium nur etwa 38.000 Gebäude unter Denkmalschutz gestellt. Was mich daran besonders fasziniert: Die 120.000 bayerischen Baudenkmäler lassen sich mit Hilfe der Java-Anwendung “Bayern Viewer” flächenscharf auf Karten darstellen. Über dieses Interface lässt sich jedes erfasste Denkmal lokalisieren und die jeweils dazugehörigen Beschreibungstexte abrufen – zum Teil sogar mit Fotos. In Aktion sieht das ganze dann so aus:

    BayernViewerAuf jeden Fall beeindruckend. Die von dem Landesamt erhobenen Daten werden hier tatsächlich der Bevölkerung zur Verfügung gestellt.  Nur: die einzelnen Denkmalinformationen besitzen keinen statischen Link, mit dem sie aufgerufen werden können. Das bedeutet:

    • Google kann die einzelnen Denkmalbeschreibungen nicht finden und durchsuchbar machen. Wenn ich z.B. nach “Residenzstraße 25 München” suche, liefert mir Google sehr viel gewerbliche Einträge, aber keine Beschreibung des 1899/1900 von Drollinger erbauten Wohn- und Geschäftshauses.
    • Von Wikipedia-Artikeln wie zum Beispiel zum “Neuen Rathaus” in München kann man nicht direkt auf die entsprechenden Eintrag des Bayerischen Landesamtes für Denkmalpflege verlinken.
    • Die gespeicherten Daten wie zum Beispiel Architekt, Baujahr etc. bleiben in einem geschlossenen System. Man kann nicht mit den Daten arbeiten und sie zum Beispiel in einem Mashup mit GoogleMaps weiterverwenden.
    • Damit kann man auch keine geosensitiven Anwendungen schreiben, die diese Informationen mit dem aktuellen Standort des Betrachters in Bezug setzen. Aus dieser Verbindung von flächenscharf kartierten Objekten und einer GPS-basierten Standort- und Richtungsbestimmung könnten wunderbare augmented realities entstehen. Man müsste z.B. nur sein Handy auf eines der Gebäude richten und könnte die Denkmalschutzinformationen abrufen.
    • Was ebenfalls fehlt: Personalisierung. Die Anwendung merkt sich nicht, welche Informationen ich abgerufen habe, welche Städte ich am häufigsten gesucht habe etc. Mit einem Mashup könnten sich die Nutzer ihre eigenen “Denkmalpfade” durch ihren Wohn- oder Ferienort erstellen lassen, mit deren Hilfe sie dann eine bauhistorische Ortsführung bekommen können.
    • Schließlich gibt es auch keine nutzergenerierten Inhalte auf der Seite. Nutzer könnten zum Beispiel
      • fehlende Bilder ergänzen
      • Objektangaben hinzufügen
      • Objekte bewerten
      • Objekte kommentieren
      • Objekte verschicken

    Ganz ähnliche Anwendungen gibt es für die Kartierung der bayerischen Geotope

    Geotopkartierungsowie FINWEB (die komplexeste Anwendung der drei) für die Biotope, Naturdenkmäler und Naturschutzgebiete:

    FIN-WebAlle drei Anwendung – die Kartierung von Baudenkmälern, Geotopen und Biotopen – sind eindrucksvolle Beispiele für die (längst überfällige) Öffnung der behördlichen Datenbanken. Informationen, die im Auftrag des Bürgers gesammelt werden, müssen auch für ihn ohne größeren Schwierigkeiten zugänglich sein. Jeder, der sich dafür interessiert, kann die Informationen auf dem eigenen PC betrachten. Aber das war’s dann auch schon. Sehr viel mehr als Betrachten ist hier nicht drin.

    Die oben für die Denkmalkartierung beschriebenen Punkte gelten auch für die Biotopkartierung und die Geotopdatenbank. Vor allem: die drei verschiedenen Kartierungen sind vollständig isoliert voneinander. Die Bayerische Regierung sollte auf offene Standards und Schnittstellen setzen, so dass man diese verschiedenen Datenbanken integrieren könnte. Also zum Beispiel in einer mobiltauglichen Anwendung, in der Biotope, Geotope, Baudenkmäler und Wikipedia-Informationen integriert sind.



    Verwandte Artikel:
  • Wie man Shitstorms erkennt und bewertet
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Zweitverwertung
  • Interview für die Blogschau und die Parasitenthese der Blogosphäre

    Aus dem ausführlichen Gespräch über Wissenschaftsblogs, das ich am Mittwoch mit Marcus Bösch geführt habe, hat es immerhin ein Satz in die aktuelle “Blogschau” der Deutschen Welle geschafft. Dass daraus dann auch noch ein virtuelles Zwiegespräch mit Marc aus der Wissenswerkstatt geworden ist, freut mich noch viel mehr.

    Zugleich zeigt es doch, welche Grenzen diese Form der medialen Informationsvermittlung hat. Ganz abgesehen davon, dass aus Einzelinterviews nur mit ganz viel Glück ein wirkliches Zwiegespräch, ein Dialog, in dessen Verlauf aus einzelnen Bauteilen neue Informationen werden, zusammengestellt werden kann – das ist klar. Auch die Reaktionsmöglichkeiten sind bei Broadcastmedien selbstverständlich äußerst reduziert (obwohl man hier das Internet als Rückkanal nutzen kann).

    Aus Sicht der Blogger ist mit am problematischsten, dass durch die mangelnde Verlinkung der Quellen deren Relevanz insgesamt nach wie vor unterschätzt wird. Auf der einen Seite ist es fast schon zu einem Grundgesetz der Blogosphäre geworden, die Inhalte, auf die man Bezug nimmt, zu verlinken. Dadurch werden pseudointelligente Aggregations- und Sortierdienste wie Rivva möglich. Umgekehrt verlinken Zeitungen, Onlinemagazine und Radiobeiträge nur in Ausnahmefällen (Heises Telepolis ist hier ein lobenswertes Beispiel) auf die referenzierten Blogbeiträge. Auf diese Weise wird der schiefe Eindruck verstärkt, dass die Blogosphäre andere Mediensysteme parasitiert, während Printpresse, TV und Radio ihre Inhalte aus eigener Kraft schaffen (vgl. zur Parasitenthese v.a. den Aufsatz “Are blogs a ‘parasitic’ medium?” von Robert Niles). Durch dieses auch für die empirische Forschung schwer durchsichtige (Nicht-)Linkverhalten wird die Relevanz der Blogosphäre systematisch unterschätzt.



    Verwandte Artikel:
  • Patterns of mobilization in the blogosphere (English version)
  • Als der Retweet noch Trackback hieß
  • Interview zum Wissenschaftsbloggen und zur Arbeitsgemeinschaft Social Media
  • Von Infovöllerei und Infogourmets

    Gibt es eine allgemein menschliche Gier nach Informationen? Lee Gomes kommt im Wall Street Journal zu diesem Ergebnis: “We’re powerless to resist grazing on endless web data”. Er beruft sich dabei auf die Forschungsergebnisse von Irving Biederman, einen Neurowissenschaftler an der University of Southern California:

    In other words, coming across what Dr. Biederman calls new and richly interpretable information triggers a chemical reaction that makes us feel good, which in turn causes us to seek out even more of it. The reverse is true as well: We want to avoid not getting those hits because, for one, we are so averse to boredom.

    Biederman hat sogar einen neuen Begriff für die zutiefst menschliche Sucht nach neuen Informationen geprägt: infovores (dt.: Infofresser). Das Problem liegt seiner Ansicht darin, dass die Menge der jederzeit verfügbaren und vor allem leicht zugänglichen Informationen durch das Internet gewaltig angestiegen ist: “We are programmed for scarcity and can’t dial back when something is abundant.”

    Das Ergebnis könnte man auch als “Infovöllerei” bezeichnen. Und gerade die unerschöpfliche Informationsproduktion der Blogosphäre wird für manche Beobachter zum Problem – ich erinnere nur an Fichtners Angstzustände angesichts der vielen für ihn nutzlosen Informationen: Wer soll das alles lesen? Es sind also Filter gefragt, um diesem information overload zu begegnen.

    Das Neue daran: Es gibt keine institutionell legitimierten Lösungen dafür. Statt einem für alle gültigen “Filter des Journalismus” (one size fits them all) zu vertrauen ist nun jeder Informationsjäger aufgefordert, sich einen eigenen Filter zu basteln – den eigenen Vorlieben, Bedürfnissen und Fähigkeiten gemäß. Gefragt sind also Infogourmets.



    Verwandte Artikel:
  • No related posts
  • Schöne neue Suchwelt: Googles Schnittstellenexperimente

    Google-Suchergebnisse lassen sich seid kurzem nicht mehr nur als schnöde Liste mit kurzen Ausschnitten darstellen (“list view”), sondern auch chronologisch (“timeline view”), räumlich (“map view”) oder als Ansicht, in der Orte, Zeitpunkte, Maße oder Bilder hervorgehoben werden. So kann man zum Beispiel die Treffer eines Suchbegriffs dahingehend einschränken, dass sie zwischen 100m und 1km liegen sollen – wofür auch immer das nützlich sein soll. Oder man erhält eine Zeitleiste, auf der alle in den Texten vorkommende Jahreszahlen markiert sind (hier frage ich mich dann schon, wie 2000 als Jahreszahl von 2000 als einfache quantitative Angabe unterschieden wird).

    google2.png

    Deutlich intuitiver ist natürlich die ortsbezogene Sichtweise, die allerdings zunächst nicht viel mehr ist als Geomashup der Suchergebnisse anhand des Vorkommens bestimmter Schlüsselwörter, die auf Orte hinweisen. Damit lässt sich aber auch der Suchraum geographisch einschränken, zoomt man in dem rechten Kartenausschnitt und klickt auf “Update Results”, dann erhält man auch nur die Treffer, die sich auf die angezeigte Region beziehen.

    google1.png

    Etwas ähnliches hatte ich mit meiner mivino-Anwendung auch schon einmal unternommen: Damit lassen sich die RSS-Feeds der partizipierenden Weinblogs je nach den im Text vorkommenden Winzern, Weinlagen oder Orten in einem GoogleMaps-Mashup darstellen. Das Ziel ist dabei etwas ähnliches, nur auf eine bestimmte Thematik bezogen und dadurch auch etwas feinkörniger (letztlich sollen dann auch einzelne Lagen geokodiert werden).

    riefling.png

    Das Muster dahinter ist dasselbe: Es geht darum, Daten aus dem WWW mit Hilfe von Zuordnungs-Tabellen oder künstlicher Intelligenz auf eine andere Weise als üblich darzustellen. Oder besser: dem Anwender eine Vielzahl an Möglichkeiten anzubieten, durch die Datensätze zu browsen. Als “Personalisierung” würde ich das jedoch noch nicht bezeichnen, erst dann, wenn z.B. sich Google die regionale oder zeitliche Eingrenzung merken würde. Eigentlich ist es ja erstaunlich, wie lange sich die Suchmaschinen-Trefferliste als Darstellungsform gehalten hat und Veränderungen nur behutsam eingeführt wurden, wie Kate Green bemerkt: “Die Web-Suche wird sich wohl verändern, doch nur schrittweise. Schließlich ist es ein schmaler Grad zwischen nützlichen Zusatzinfos und der Überfrachtung des Nutzers mit neuen Funktionen.”

    Dabei gibt es zwei verschiedene Möglichkeiten: Zum einen die Einführung bestimmter Metadaten, mit denen eine Ressource z.B. nach Datum oder Ort kodiert werden kann. Die Standards hierzu gibt es bereits (z.B. GeoRSS in den Varianten Simple und GML), das Problem ist nur der Aufwand bei der Einfügung dieser Daten. Sehr viel eleganter finde ich daher die zweite Möglichkeit, den Computer diese Zuordnungen selbst machen zu lassen (siehe diese Demoanwendung). Wenn in einem Text der “Eifelturm” erwähnt wird, sollte es möglich sein, einen Pin fünf Kilometer südlich vom Nürburgring in die Karte zu stecken – bzw. aus den weiteren Wörtern im Kontext des Begriffs herauszulesen, ob dies der gemeinte Ort ist. Vielleicht das ganze dann noch durch eine Community “korrekturlesen” lassen oder gleich bei häufig verwendeten Begriffen auf die große Zahl geokodierter Wikipedia-Artikel zugreifen, die mittlerweile schon eine sehr brauchbare semantische Geodatenbank darstellen.



    Verwandte Artikel:
  • Wird Google die Spielregeln für das Social Networking verändern?
  • Was ist Googles Open Social und wozu brauche ich das?
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Vom Ego-Googeln zum Reputationsmanagement: Vier Fragen an Klaus Eck

    tizian.pngBezeichnungen wie “Ego-Googeln” oder “Vanity-Search” klingen nicht besonders schmeichelhaft, zeichnen sie doch das Bild eines ichbezogenen Surfers, der im Netz ständig auf der Suche danach ist, wer wie was über ihn schreibt.

    Jetzt hat sich das auf Internetphänomene spezialisierte Pew Internet & American Life Project mit diesem Thema wissenschaftlich auseinandergesetzt und in einer Befragung von 2.373 erwachsenen Internetnutzern Zahlen dazu erhoben. In der Studie “Digital Footprints” (hier als pdf) kommen die Forscherinnen zu dem Ergebnis, dass fast die Hälfte der US-amerikanischen Internetsurfer schon einmal ihren eigenen Namen in eine Suchmaschine eingegeben haben. Aber nur ein geringer Teil (3 Prozent) der “Selbst-Sucher” tut dies auch regelmäßig. Die Mehrzahl der Nutzer (60 Prozent) sehen es nicht als Problem, dass Informationen über sie im Internet abrufbar sind und nur 38 Prozent planen, die Preisgabe persönlicher Informationen im Netz zu reduzieren. Was auch interessant ist: Nur 11 Prozent sagen, dass der größte Teil der online gefundenen Informationen über sie nicht der Wahrheit entspricht – 2002 waren es noch 19 Prozent. Möglicherweise führt die zunehmende Selbstdarstellung im Netz über soziale Netzwerke und Weblogs (die bei vielen Suchmaschinen weit oben landen) dazu, dass mehr Informationen zu finden sind, die man selbst ins Netz gestellt hat. Oder aber: die Kritikfähigkeit der “Selbst-Sucher” hat abgenommen.

    Da sich an diese Ergebnisse sehr schnell Überlegungen anschließen, wie man sich denn selbst im Internet präsentiert, habe ich die Gelegenheit genutzt, Klaus Eck (43), Blogger, Buchautor und Kommunikationsberater, der sich auf das Thema Reputation Management spezialisiert hat, ein paar Fragen zu stellen:

    Benedikt Köhler: Die Pew Internet-Forscher haben festgestellt, dass mittlerweile 47 Prozent der US-Internetnutzer ihren eigenen Namen gegoogelt haben (2002 waren es erst 22 Prozent). Überrascht dich dieser Anstieg?

    Klaus Eck: Im Unterschied zu früher setzen sich die Menschen heute viel intensiver mit dem Web auseinander und verhalten sich immer mehr als digitale Eingeborene. Das führt dazu, dass die meisten inzwischen schon einmal Wikipedia genutzt haben. Dennoch lächeln immer noch viele, wenn ich in meinen Veranstaltungen das Wort Ego-Googlen erwähne, weil es dem einen oder anderen peinlich ist, darüber zu sprechen. Aber natürlich lernen die Onliner dazu und entdecken die zahlreichen Möglichkeiten, die eine Online-Recherche bietet. Deshalb wundert es mich nicht, dass inzwischen sehr viel mehr Menschen aus Neugierde ihren Namen online überprüfen.

    Was steckt deiner Ansicht nach dahinter? Eitelkeit oder Angst vor peinlichen Informationen über einen selbst? Oder etwas anderes?

    Aus Angst dürften die wenigsten ihren Namen in den Suchmaschinen eingegeben. Nicht umsonst sprechen wir im Kontext des Web 2.0 von Social Software. Insgesamt ist meiner Ansicht nach zu beobachten, dass das Interesse der Menschen an anderen im Web zugenommen hat. Das Social Networking ist eigentlich ganz am Anfang. Noch vor wenigen Jahren war für die meisten Angestellten das OpenBC – oder jetzt Xing – ein Buch mit sieben (digitalen) Siegeln. Das hat sich geändert. Viele Onliner haben Spass daran, ihre eigene Vergangenheit online wiederzufinden, alte Kontakte anhand von Bildern und Hinweisen neu zu entdecken und sie vielleicht nicht ganz aus den Augen zu verlieren. Das erklärt auch den derzeitigen Boom von Social Communities (Familiennetzwerke wie FamiliyOne etc.), Personensuchmaschinen sowie den Trend zur Digitalisierung vergangener Ereignisse (EinesTages bei Spiegel Online).

    Nur vier Prozent der Internetnutzer gaben in der Pew-Studie an, auf wirklich problematische (Fehl-)Informationen gestoßen zu sein. Ist die Bedrohung durch die “digitalen Fußabdrücke” also gar nicht so groß?

    Was problematisch für den Einzelnen ist, das hängt von der jeweiligen Definition ab. Wenn ich als Bewerber aufgrund von Jugendsünden am Online-Pranger stehe, von Stalkern oder Trollen gezielt angegriffen und beleidigt werde, wirkt das Ganze über das Web hinaus und kann dazu führen, dass die Karriere gefährdet ist, weil viele Personaler damit Probleme haben. Letztlich sollte sich jeder, der in der Öffentlichkeit steht oder sich in einem Bewerbungsprozess befindet, frühzeitig um seine digitalen Spuren kümmern und gegebenenfalls über Online-Reputation-Management nachdenken. Wenn Sie sich nicht bewusst mit Ihre Online-Repuation auseinandersetzen, sind Sie wie eine torkelnde Marionette auf offener Bühne. Andere ziehen Ihre Fäden und vermitteln darüber einen ersten Eindruck von Ihnen. Deshalb plädiere ich immer dafür, bewusst mit dem eigenen digitalen Erscheinungsbild umzugehen und dieses nicht einfach zu ignorieren. Denn in einem können Sie sicher sein: Ihre Google-Impressionen wirken sich aus. Doch es gibt keinen Grund, sich dem Thema Reputation ängstlich zu nähern. Schließlich bieten gezielt ausgelegte Spuren auch große Chancen.

    Du setzt dich in deinem Blog immer wieder mit dem digitalen Reputationsmanagement auseinander. Was ist der Unterschied zwischen Ego-Googeln und Reputationsmanagement?

    Wer seinen Namen ergoogelt, hat den ersten Schritt im möglichen Reputation Management getan. Als erstes geht es immer um die Erkenntnis um die eigene digitale Identität. Wer bin ich online? Entspricht der erste Eindruck, den wir im Web vermitteln, unseren tatsächlichen Interessen oder schadet es diesen gar? Im Online-Reputation-Management (ORM) geht es nicht darum, alles schön zu reden und sich hinter einem digitalen Makeup zu verstecken, sondern sich bewusst mit seinen Inhalten ansprechbar zu machen und damit für Journalisten, Unternehmen und Freunde interessanter zu werden. Es geht für den Einzeln immer um das Thema Personal Branding (Selbstvermarktung) und für Unternehmen um das Image. Alle gezielten Reputationsmaßnahmen sollten natürlich jeweils in die persönliche Marke und die des Unternehmens einzahlen. Für mich als Kommunikationsberater stellt das ORM die konsequente Fortentwicklung von PR und Marketing dar und löst es in Teilbereichen sogar ab. Deshalb konzentriere ich mich in meinen Leistungen schon seit geraumer Zeit immer mehr auf dieses Thema und freue mich über die positive mediale Resonanz.

    (Abbildung: Tizian, Die Eitelkeit des Irdischen (Vanitas), um 1515)



    Verwandte Artikel:
  • Über Twitter: Identitäts-, Beziehungs- und Wissensmanagement mit Microbloggingdiensten
  • Warum Twittern?
  • 50.000 Unterschriften gegen Internetzensur
  • Weinblogs und -portale fast gleichauf mit Zeitschriften und Sommeliers

    2036780185_2d3fdf50bf.jpgGestern hatte ich ja bereits etwas über die Karriere der Foodblogs im Allgemeinen geschrieben. Heute lese ich im Drink Tank, dass Weinblogs, -foren und -portale mittlerweile als Informationsquelle für die Konsumenten eine fast so wichtige Rolle spielen (21 Prozent) wie die traditionellen Printmedien oder die Sommeliers in Restaurants (je 23 Prozent). Und das, obwohl dieses “Wein-Internet” größtenteils erst in den letzten Jahren entstanden sind. Nach wie vor als wichtigste Informationsquelle wurden genannt: Freunde und Bekannte (61 Prozent) sowie der Fachhandel (38%). Die Zahlen sind das Ergebnis einer Umfrage im Auftrag der Fachmesse ProWein. (Foto: boubou1)



    Verwandte Artikel:
  • Fachzeitschriftsblogger gesucht
  • Food for thought: Liste sozialwissenschaftlicher Open-Access-Zeitschriften
  • Internet ist einflussreichstes Medium
  • Das unsichtbare Web 2.0

    fischer.pngEiner der wichtigsten Punkte in der Wissenschaft 2.0 ist die Frage, wie man an die unzähligen Informationen herankommt. Bislang spielten Abstract-Zeitschriften (oder Abstracts von Abstracts) eine zentrale Rolle in der Suche nach spezifischen Informationen – das im Internet dezentral abgespeicherte Wissen lässt sich jedoch mit Aggregatoren dieser Art nicht mehr sinnvoll verwalten und durchforsten. Gerade die vielen Publikationsvorstufen, Manuskripte, Diskussionsgrundlagen, Präsentationen, Berichte, Personenprofile und vor allem Datensätze die zunehmend im wissenschaftlichen Web zu finden sind, können nicht mehr wie in einem Telefonbuch verzeichnet werden. Auch hier (wie im Web insgesamt) werden vermutlich Suchmaschinen die Kataloge und Portale nach und nach ablösen.

    Aber die Sache wird dadurch verkompliziert, dass ein wichtiger Teil der wissenschaftlichen Informationen auch mit Suchmaschinen nicht gefunden werden kann: diese Informationen sind im Academic Invisible Web verborgen. Was versteht man unter diesem Begriff? Sherman und Price fassen darunter Texte, Daten und Informationen im WWW, die in den bisherigen Suchmaschinen (v.a. natürlich Google) nicht verzeichnet sind und daher für den WWW-Nutzer gar nicht existieren.

    Wie groß dieser Teil des WWW ist, lässt sich nur abschätzen. Hier wird z.B. behauptet, dass sogar die besten Suchmaschinen nur zu 16% der WWW-Informationen Zugang haben, wobei das unsichtbare Netz sogar 500 Mal so sein soll wie das sichtbare und zudem schneller wächst (für eine Kritik dieser Zahlen sowie grundsätzlichen Fragen zur Messbarkeit des tiefen Webs vgl. hier). Interessanterweise geht es dabei nur in geringem Maß um nicht-öffentliche Seiten, sondern vor allem um dynamisch generierte Datenbankergebnisse. Aber auch einzelne, nicht verlinkte Seiten, Multimediainhalte und andere non-text-Formate (zip, rar), wenn sie nicht mit Metadaten versehen sind oder Echtzeitinformationen gehören zu dieser Kategorie.

    Eindrucksvoll lässt sich dies an den neuen interaktiven Informationsangeboten der statistischen Ämter demonstrieren. Armin Grossenbacher sammelt zur Zeit hier eine Liste von solchen Anwendungen. Wenn man sich zum Beispiel den neuen “Atlas der Außenhandelsstatistik” des Statistischen Bundesamtes betrachtet, fällt zum einen auf, dass dem Nutzer eine Web 2.0-ähnliche Rich Internet Application angeboten wird. Man kann selbst auswählen, welche Daten wie visualisiert werden sollen und zum Teil ist auch der Export in verschiedenen Datenformaten möglich (zum Beispiel mit dem TGM-Modul (“table, graphs and maps”) von Eurostat). Zum anderen sind diese Inhalte nur über den Atlas verfügbar und können nicht über die Suche einer Suchmaschine entdeckt werden.

    Möglicherweise lässt sich an dieser Stelle die These formulieren, dass interaktive, datenbankgestützte Web 2.0-Anwendungen dazu neigen, das “tiefe Web” auszudehnen, werden sie nicht mit Web 3.0-Elementen (“semantisches Netz”) ergänzt. Zum Beispiel durch Informationen darüber, welche Funktion bestimmte Eingabeformulare oder Datenbankschnittstellen haben und welche Inhalte damit abgerufen werden können. Aber die erwähnten Seiten besitzen nicht einmal Dublin Core-Metadaten, mit denen der Inhalt der Seite kurz charakterisiert werden könnte.

    Wer mehr zu dem Thema lesen will, kann auf die beiden Weblogs The Invisible Web und Deep Web Research zurückgreifen sowie die umfangreiche Bibliographie auf “Beyond Google“.

    (Abbildung: Claude Monet, “Zwei Fischer”, 1882, Quelle: http://www.zeno.org – Zenodot Verlagsgesellschaft mbH)



    Verwandte Artikel:
  • Die Zukunft des WWW (Richard MacManus)
  • Failure notice – über die positive Funktion von Fehlern