Archive for the 'wissenschaft' Category

Netzwerkanalyse von Hashtaglagern

Twitter-Netzwerkanalysen aus den USA kommen regelmäßig zu dem Ergebnis einer unglaublichen Polarisierung zwischen den Lagern. Demokraten folgen Demokraten. Republikaner folgen Republikanern. Kommunikation zwischen den beiden ist auf das ironische Verwenden der “gegnerischen” Hashtags reduziert.

Ich gehe schon länger der Frage nach, ob sich diese Beobachtungen auch in der digitalen politischen Kommunikation nachvollziehen lässt. Sehr schnell spricht man ja von “politischen Filterblasen”, die dazu führen, dass man nur Botschaften mitbekommt, die zu der eigenen politischen Einstellung passen.

Heute war ein guter Tag für die politische Twitter-Kommunikation. Drei politische Ereignisse liefen gleichzeitig ab, die jeweils ziemlich eindeutige Hashtags hatten:

  • der Netzpolitische Kongress der Grünen in Berlin (Hashtag: #nk12)
  • der Parteitag der CSU in München (Hashtag: #csupt12)
  • der deutschlandweite (bzw. europaweite) Aktionstag gegen das EU-Überwachungsprojekt INDECT (Hashtag: #indect)

Zu diesen drei Hashtags wurden alle relevanten Tweets des 20. Oktober erfasst und ausgewertet. Die folgende Visualisierung zeigt die Twitter-Accounts, die zu einen der drei Hashtags verwendet haben sowie die Follower-Beziehungen zwischen ihnen. Die Einfärbung erfolgt nach den Löwener Modularitätsalgorithmus von Blondel et al. Der Algorithmus analysiert und identifiziert Sub-Communities in großen sozialen Netzwerken.

Follower network for #nk12 #csupt12 and #indect

Zwar lassen sich deutliche Cluster zu den untersuchten Hashtags identifizieren, aber trotzdem sind die Twitterer, die sich zu den drei Themen äußern, durch ihre Follower-Netzwerke sehr eng mit auch mit den Personen aus den anderen “Hashtag-Lagern” verbunden. Interessanterweise scheinen viele dieser “lagerübergreifenden” Kontakte über regionale Netzwerke zu lassen: Zum einen hat die piratisch orientierte Anti-Indect-Szene gerade in Berlin viele Verbindungen zu Grünen Netzpolitikern. Zum anderen sind einige bayerischen Politiker der Grünen sehr gut mit ihren Kollegen der CSU verbunden.



Verwandte Artikel:
  • Spickzettel Netzwerkanalyse (SNA)?
  • Netzwerkanalyse der metaroll
  • Der Aufstieg der Datenwissenschaftler
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen

    Why then the world’s mine network
    Which I with software will open.

    Der Vorteil einer abstrakten Methode wie der Social Network Analysis ist es, dass sich fast alle Daten, die irgendwie zusammenhängen, als Netzwerk betrachten und analysieren lassen. Das Paradebeispiel sind natürlich die Empfehlungsalgorithmen, die Nutzern von Google, Youtube oder Amazon erzählen, was sie sonst noch interessieren könnte. Überall dort, wo es empfohlene Produkte oder Produkte, die andere Kunden auch gekauft haben, gibt, kann man sehr einfach mit den Methoden der Netzwerkanalyse angreifen. Auf diese Weise wird aus den isolierten Paaren oder Mengen verwandter Produkte eine große Verwandtschaftskarte, auf der nicht nur Beziehungen, sondern auch Muster und Schwerpunkte erkennbar sind.

    Ich habe mir einmal den iTunes-Appstore vorgenommen. Auf jeder (bzw. fast jeder) Downloadseite einer App sind weitere fünf Apps verzeichnet, die überdurchschnittlich häufig gemeinsam mit dieser App heruntergeladen oder gekauft werden. Das Netzwerk springt einem hier förmlich entgegen. Wenn man die 240 beliebtesten Apps der Kategorie Nachrichten auf diese Beziehungen hin erfasst, erhält man folgendes Netzwerk der Nachrichten-Applandschaft (Klick zum Vergrößern):

    Social network visualization of app downloads

    Die Größe der Knoten steht für die Anzahl der Bewertungen der Apps – solange es keinen Zugriff auf die Downloadzahlen der Apps gibt, könnte das eine Annäherung an die Bedeutung oder Verbreitung einer App sein. Die Farbe zeigt die unterschiedlichen Cluster von Apps, die besonders eng miteinander verbunden sind: Links in Hellblau und rechts in Dunkelblau sind zwei Cluster von Nachrichtenapps. Rechts findet man die Zeitungsapps von FAZ, Bild, Süddeutsche, Abendzeitung, Weserkurier etc., während links eher die iPad-Varianten von Onlineportalen wie Spiegel, Focus Online, Süddeutsche.de zu finden sind. Oben in Violett ist ein kleines Cluster von redaktionsunabhängigen Newsaggregatoren wie Pulse, Flipboard oder Reeder. Ganz rechts liegt Österreich, während im Süden die Türkei zu finden ist. Dazwischen ein Applecluster mit Apfeltech und Macwelt. Ganz im Norden ist das Review-stärkste Cluster von Nachrichtenaggregatoren und App-Nachrichten-Apps, das von MeinProspekt dominiert wird.

    Die Apps mit den meisten Reviews in dieser Karte sind:

    1. Mein Prospekt XL – 39.382 Reviews
    2. n-tv iPhone edition – 16.140 Reviews
    3. DER SPIEGEL eReader – 12.759 Reviews
    4. FOCUS Online – 10.300 Reviews
    5. DIE WELT – 9.312 Reviews
    6. Flipboard – 6.394 Reviews
    7. BILD HD – 5.722 Reviews
    8. Tagesschau – 5.705 Reviews
    9. NYTimes – 5.533 Reviews
    10. AppTicker Push – 5.524 Reviews

    In dieser Aufzählung fehlt die normale Version von BILD mit 24.146 Reviews, die ein isolierter Knoten ist, da für diese App keine verwandten Apps angegeben sind und auch keine der anderen Apps auf sie verweist – eine echte Anomalie, die ich mir im Moment nicht erklären kann.

    Interessant ist auch der Blick auf die Anzahl der eingehenden Links, d.h. welche Apps besonders häufig als verwandte Apps genannt werden. Der Durchschnitt liegt bei 2,3.  Hier sieht die Liste ganz anders aus:

    1. The Wall Street Journal – 51 Nennungen
    2. AppAdvice – 45 Nennungen
    3. Blastr – 40 Nennungen
    4. NPR for iPad – 39 Nennungen
    5. Flo’s Weblog – 27 Nennungen
    6. eGazety Reader – 27 Nennungen
    7. ??-??? ????? a – 25 Nennungen
    8. SAPO News – 23 Nennungen
    9. DVICE – 20 Nennungen
    10. DER SPIEGEL – 18 Nennungen

    Dieselben Apps erhält man bei der Berechnung des PageRank, d.h. der Wahrscheinlichkeit, beim Abwandern des Netzwerks zufällig auf die verschiedenen Apps zu stoßen. Die Anzahl der Verbindungen zwischen den Apps, also der Vernetzungsgrad ist relativ niedrig, da für jede App nur jeweils 5 verwandte Produkte angezeigt werden – insgesamt sind die 451 Knoten durch 1.055 Kanten verbunden.



    Verwandte Artikel:
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen
  • Zeitungen springen auf den Web 2.0-Zug auf
  • Immer mehr Deutsche lesen Nachrichten im Netz – was macht der Rest im Internet?
  • Der Aufstieg der Datenwissenschaftler

    Eines der wichtigsten Buzzwords im Marktforschungs- und Wissenschaftsjahr 2012 ist mit Sicherheit “Big Data”. Sogar die Zukunft eines Intenretriesen wie Yahoo! wird auf diese Frage zugespitzt: Wie hältst du es mit den großen Daten (dazu auch lesenswert das AdAge-Interview mit dem neuen CEO Scott Thompson)?

    Auf den ersten Blick ist das Phänomen, das sich dahinter verbirgt, nichts neues: es gibt riesige Mengen an Daten, die darauf warten, analysiert und interpretiert zu werden. Diese Datenberge gab es früher auch schon – man denke nur an die gewaltigen Kundentransaktionsdaten, die klassischen Webzugriffslogs oder die Himmelsdaten aus den Observatorien.

    bigdata_network

    Besonders spannend sind folgende Entwicklungen und Dimensionen des Big-Data-Phänomens:

    Demokratisierung der Technik: Zum einen sind die Werkzeuge, um Datensätze in Terabytegröße zu analysieren, mittlerweile demokratisiert. Jeder, der ein paar alte Rechner im Keller stehen hat, kann daraus ein leistungsfähiges Hadoop-Cluster aufbauen und damit in die Analyse großer Daten einsteigen. Die Software, die man für Datenerfassung, Speicherung, Analyse und Visualisierung benötigt, ist größtenteils frei verfügbare Open-Source-Software. Wer zu Hause keine Rechner herumstehen hat, kann sich die Rechenzeit bei Amazon kaufen.

    Ein neues Ökosystem: Mittlerweile hat sich hier eine lebendige Bastlerszene der Big-Data-Hacker entwickelt, die an den verschiedenen Big-Data-Technologien arbeitet und in Präsentationen und Aufsätzen die unterschiedlichen Anwendungsszenarien demonstrieren. Wenn man sich die Biographien der Big-Data-Community ansieht, fällt aber auch, dass man es sehr viel weniger mit Forschergruppen an Universitäten zu tun hat, sondern um Wissenschaftler (“data scientists”), die in den großen Internetunternehmen wie Google, Yahoo, Twitter oder Facebook arbeiten. Das ist zum Beispiel bei der Python-Entwicklergemeinde oder der R-Statistikercommunity anders. Im Augenblick sieht es sogar so aus, als verliefe der typische Karrierepfad an der US-Westküste weg von den Internetgiganten und hin zu neuen Big-Data-Startups.

    Visualisierung von Netzwerken: Die visuelle Darstellung der Daten ist mittlerweile fast wichtiger geworden als klassische statistische Methoden, die nach Kausalitäten suchen. In diesem Zusammenhang hat auch die Netzwerkanalyse wieder stark an Bedeutung gewonnen. Fast alle soziale Phänomene und großen Datensätze von Venture Capitalists bis Katzenbildern können als Netzwerke visualisiert und exploriert werden. Auch hier spielen Open-Source-Software und offene Datenschnittstellen eine große Rolle. Programme wie die Netzwerkvisualisierungssoftware Gephi können sich in naher Zukunft direkt mit den Schnittstellen (APIs) der Plattformen Facebook, Twitter, Wikipedia oder Google verbinden und die abgerufenen Daten gleich weiterverarbeiten.

    Neue Fähigkeiten und Stellenbeschreibungen: Eines der heißesten Buzzwords in der Big-Data-Szene ist der “Data Scientist”, der jetzt in klassischen Unternehmen genauso wie in Internetunternehmen für die Erhebung und Auswertung der anfallenden Daten sorgen soll. Auf Smart Planet habe ich eine gute Beschreibung der Fertigkeiten dieser “Datenjobs” gefunden: 1) Die Systemadministratoren, die sich mit Aufsetzen und Wartung der Hadoop-Cluster befassen und sicherstellen, dass der Datenfluss nicht gebremst wird. 2) Die Entwickler (oder “Map-Reducer”), die Anwendungen entwickeln, mit denen die Daten aus den Datenbanken abgerufen und verarbeitet werden. 3) Die eigentlichen Datenwissenschaftler oder Analysten, deren Aufgabe es ist, mit den Daten Geschichten zu erzählen und aus ihnen Produkte und Lösungen zu entwickeln. 4) Die Datenkuratoren, die für die Qualitätssicherung und Verknüpfung der Daten zuständig sind.

    Um einen besseren Eindruck davon zu gewinnen, wie sich die Big-Data-Community selbst sieht, habe ich die Twitter-Kurzbiographien der 200 wichtigsten Big-Data-Analysten, -Entwickler, -kaufleute einer Netzwerkanalyse unterzogen: Ich habe die Kurztexte in ein Netzwerk transformiert, in dem die Begriffe die Knoten darstellen und gemeinsame Erwähnungen in einer Twitter-Bio die Kanten. Das heißt, jedes mal, wenn jemand in seiner Bio “Hadoop Committer” stehen hat, gibt es in dem Netzwerk eine neue Kante zwischen “Hadoop” und “Committer”. Insgesamt besteht dieses Netzwerk aus knapp 800 Begriffen und 3200 Verbindungen zwischen den Begriffen. Das Netzwerk habe ich dann auf ca. 15% des Umfangs reduziert, indem ich mich auf die am häufigsten verwendeten Begriffe konzentriert habe (z.B. Big Data, Founder, Analytics, Cloudera, Apache, Committer, Hadoop, Computer). Das mit Gephi visualisierte Ergebnis ist oben zu sehen.



    Verwandte Artikel:
  • No related posts
  • Der Kontextvektor des Bundespräsidenten

    Vor Jahren hatte ich an dieser Stelle schon über die große Bedeutung der gespeicherten Google-Suchanfragen als “Datenbank der Wünsche” geschrieben. Die Begriffe, die Menschen in das Google-Eingabefeld schreiben, spiegeln sehr genau ihre Wünsche wider – sowohl die offen kommunizierten als auch die geheimen.

    Als Nebenbemerkung: Man könnte vermuten, dass Menschen mittlerweile ehrlicher zu ihrer Suchmaschine sind als zu ihren engsten Verwandten. Insofern sollte man intensiv über eine besondere Sorgfaltspflicht und einen besonderen Schutz dieser Daten nachdenken. Vielleicht gibt es bald neben der ärztlichen und der anwaltlichen Schweigepflicht auch so eine Art “Suchmaschinengeheimnis”, das garantiert, dass, was wir in einer Websuche über uns offenbaren, nicht in falsche Hände gerät.

    Neben dieser besonderen Vertrauensstellung dieser Datenbanken, beeindruckt vor allem das hier sekündlich anfallende Wissen. Dadurch, welche Begriffe gemeinsam eingegeben werden, und welche überhaupt nicht, oder dadurch, welche Treffer dann tatsächlich angeklickt werden, und welche überlesen werden, entsteht eine Wissensdatenbank, die vielleicht sogar größer als die Wikipedia ist, da sie sich viel schneller ändert. Die Assoziation von “Bundespräsident” und “Anrufbeantworter” dürfte zum Beispiel ein sehr junges Phänomen sein. Ja, wenn es um diese aktuellsten Phänomene geht, scheinen die Algorithmen von Google sogar die Rolle eines politischen Beraters einzunehmen, der dem amtierenden Staatsoberhaupt Handlungsempfehlungen gibt:

    Der Algorithmus schlägt den Rücktritt des Präsidenten vor

    Der Algorithmus schlägt den Rücktritt des Präsidenten vor

    Diese scheinbare Empfehlung entsteht schlicht daraus, dass diese beiden Begriffe in den letzten Tagen, Stunden besonders häufig gemeinsam in Suchabfragen verwendet wurden bzw. besonders häufig gemeinsam in Webseiten auftauchen. Diese überdurchschnittliche gemeinsamen Vorkommen (oder: Kollokationen) verwandeln die Suchmaschine aber gleichzeitig in eine neue Art von Wissensspeicher. Anhand der Struktur der sekündlich eingehenden Suchabfragen (bei Google waren es laut ComScore allein in den USA im November 13 Milliarden Abfragen) können Maschinen sehr viel darüber lernen, wie wir Menschen Begriffe und Wissen organisieren.

    Eine praktische Anwendung dieses Wissensspeichers habe ich in einem schon etwas älteren, aber einflussreichen Paper (Google Scholar zählt 246 Zitationen) der beiden Google-Mitarbeiter Mehran Sahami und Timothy D. Heilman “A Web­based Kernel Function for Measuring the Similarity
    of Short Text Snippets
    “. Darin geht es um das Problem, die inhaltliche Ähnlichkeit von sehr kurzen Textschnippseln zu erkennen. Da es sich hierbei nur um wenige Wörter handelt, versagen klassische Methoden des Textminings wie zum Beispiel das Kosinus-Ähnlichkeitsmaß. Die Anzahl der Datenpunkte ist schlicht zu klein, um Aussagen über die Ähnlichkeit zu treffen.

    Die Google-Wissenschaftler verwenden die Suchtreffer, die eine Suchmaschine wie Google auswirft, wenn man sie mit den Textschnippseln füttert, als Kontext-Vektor, mit dem sie dann die Übereinstimmung berechnen können, da er nun nicht mehr wenige Worte umfasst, sondern ein großer Corpus aus hunderten Dokumenten bzw. 1000-Zeichen langen Ausschnitten daraus darstellt. Das von ihnen beschriebene Verfahren stellt z.B. zwischen “Steve Ballmer” und “Microsoft CEO” eine Übereinstimmung von 0.838 fest, während das Kosinusmaß hier auf einen Wert von 0 gekommen wäre. Auch zwischen dem früheren CEO “Bill Gates” und “Microsoft CEO” gibt es eine Ähnlichkeit von immerhin 0.317 – aber auch seine korrekte Beziehung zu Microsoft findet dieses Maß heraus: “Bill Gates” und “Microsoft Founder” erzielt 0.677.

    Abb. aus Sahami/Heilman (2006), S. 4

    Abb. aus Sahami/Heilman (2006), S. 4

    Der erste Anwendungsfall dieses Verfahrens, der hier in den Sinn kommt, sind natürlich die automatischen Vorschläge bei Suchabfragen. Insofern ist das oben beschriebene Wulff-Beispiel also nicht unbedingt eine politische Handlungsempfehlung, sondern das Ergebnis des Vergleichs von Kontextvektoren.



    Verwandte Artikel:
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen
  • Das Internet, die Gatekeeper und die Qualität

    Fragt man nach den Auswirkungen des Internets auf die Qualität, dann erhält man, je nachdem, wem man diese Frage stellt, unterschiedliche Antworten:

    In der ersten Variante hat das Internet zu einem unglaublichen Abfall der Qualität geführt. In diese Argumentation passt die Polemik gegen die Klowände genauso wie die etwas ruhiger verlaufende Debatte über das Kuratieren als neue Aufgabe der Redaktionen. Als Beispiel für den massiven Qualitätsverlust durch das Internet wird üblicherweise die Wikipedia zitiert, in der es sehr viele miserabel recherchierte, tendenziös geschriebene und immer wieder von Vandalismus heimgesuchte Artikel gibt.

    Früher sorgten in den Massenmedien Redakteure oder im Wissenschaftssystem langwierige Peer-Review-Prozesse dafür, dass am Ende nur geprüfte Qualität gedruckt bzw. publiziert wurde. Wenn diese Instanzen wegfallen – und im Internet kann man an ihnen vorbei publizieren – gibt es keinen Garant mehr für die Qualität der Veröffentlichungen. “Da kann ja jeder herkommen und etwas veröffentlichen!

    In der zweiten Variante ist durch das Internet ein bisher nicht dagewesener Anstieg der Qualität möglich geworden. Jeder kann im Web ein Blog eröffnen und über seine Erfahrungen in Beruf, Leben, Politik, Familie … publizieren. Wissenschaftler, die über Randgebiete von Orchideenfächer forschen, erreichen im Internet mit ihren Forschungsergebnissen genau diejenigen fünf über die Welt verteilten Kolleginnen, die sich für genau dieselben Phänomene interessieren. Jeder kann schreiben, filmen, fotografieren, komponieren … und seine Werke dann auf Plattformen wie Tumblr, Instagram, Vimeo oder Soundcloud hochladen und der Öffentlichkeit zugänglich machen. Als Beispiel für die unglaubliche Qualitätssteigerung durch das Internet wird üblicherweise die Wikipedia zitiert, in der es sehr viele umfassend recherchierte, objektiv geschriebene und immer wieder verbessert, ergänzt und kommentierte Artikel gibt.

    Zu den Aufgaben der Redakteure und Peer-Reviewer gehörte nicht nur die Qualitätssicherung nach unten, sondern auch nach oben. Die wirklich brillanten Forscher und Künstler hatten zu Lebzeiten große Schwierigkeiten, in das offizielle gesellschaftliche Publikationssystem zu gelangen, da ihre Gedanken und Werke damals von den Gatekeepern nicht verstanden oder gefürchtet wurden. Qualitätssicherung heißt immer auch Bewahrung, Innovationsfeindlichkeit und dadurch letztlich Förderung des Mittelmaßes.

    Das kommt auch schon daher, dass die Gatekeeper die Aufgabe haben, auf den Bedarf und die Möglichkeiten eines bestimmten Publikums zu achten – eines Publikums mit bestimmten Voraussetzungen und Beschränkungen. Im Fall der Redakteure ist dies häufig eine “allgemein-gebildete Öffentlichkeit”, im Fall der Wissenschaftler die “scientific community”. Um die Arbeit der Gatekeeper zu erleichtern, nimmt man bei beiden Öffentlichkeiten zum Beispiel einen bestimmten Bildungsgrad an. Die französische Revolution kann hier als bekannt vorausgesetzt werden, während die Oberbayerische Postbauschule erklärt werden muss. Ganz ähnlich funktioniert das in der Wissenschaft, da hier zwar viel mehr Fachwissen vorhanden ist, aber jeder Wissenschaftler in fast allen Disziplinen und Subdisziplinen außer der eigenen ein Laie ist.

    Im Internet ist niemand dafür zuständig, für Rücksicht auf die Bedürfnisse und Voraussetzungen der unterschiedlichen Öffentlichkeiten zu sorgen. Jeder kann (und dies geschieht natürlich auch) so schreiben, dass es nur eine einzige Person – nämlich sie oder er selbst – verstehen kann. Aber noch häufiger richtet sich der Autor an eine mehr oder weniger esoterische Deutungs- oder Erlebnis-Gemeinschaft. Das Schreiben ins Internet zerstört die klaren Vorstellungen von Massen- und Durchschnittsöffentlichkeiten und ähnelt damit eher den hoch-metaphorischen hermetischen Texten der Alchemisten als den Fernsehnachrichten um 20 Uhr.

    Insofern ist die Frage nach der Qualität eine überflüssige oder falsch gestellte Frage: Das Internet hat die Qualität stark vermindert, und das Internet hat die Qualität stark gesteigert. Aber vor allem ist es dabei, unsere Vorstellungen einer einheitlichen Zuschauer-, Hörer- und Leserschaft aufzulösen. Mit allen positiven und negativen Folgen.



    Verwandte Artikel:
  • Online wie Offline. Zimmermann über Online-Öffentlichkeiten
  • Der Aufstieg der Datenwissenschaftler
  • Katzenbilder sind der Kitt der Gesellschaft – oder: Die drei Arten von Information im Internetzeitalter
  • Das tribale Internet

    Michael Reuter stellt in seinem Blog anlässlich des Todes von Claude Lévi-Strauss die wichtige Frage:

    Ist es denkbar, dass durch die zunehmende Transparenz des Wissens, der Meinungen und der Aktivitäten der Teilnehmer des Netzes gerade die für eine biologische und kulturelle Entwicklung notwendigen Unterschiede individueller, abgekapselter Gruppen verlorengehen?

    Oder anders ausgedrückt: Ist das Internet (bzw. heute das Echtzeitinternet und das soziale Internet) ein großer Gleichmacher? Ich glaube nicht.

    Zum einen hatten wir in der Ethnologie diese Diskussion schon vor längerer Zeit ausführlich am Beispiel des Fernsehens durchgespielt. Klar, eine “Eingeborenenfamilie” im tiefsten Busch, deren jüngster Sohn leidenschaftlicher Rambo-Fan ist und deren Eltern zu Dallas-Experten geworden sind, sprechen auf den ersten Blick für den Erfolg eines neuen universalistischen Mediums, das die gesamte Erde planiert (“a flat earth“) und sämtliche kulturelle Unterschiede zerstört. Das wirkt aber nur auf den ersten oberflächlichen Blick so. Wenn man nämlich damit anfängt, diese Menschen zu verstehen, dann merkt man, dass der Rambo, den sie sehen, ein ganz anderer ist als derjenige, den wir sehen. Auch die immer wieder beschwörte Amerikanisierung unserer Kultur betrifft in erster Linie die Oberflächen (den von Lévi-Strauss zitierten warmen Lackgeruch und den Wintergreen-Tee) und nicht die Rezeption, Umdeutung und Aneignung dieser Stoffe. Katz und Liebes hatten in einer großen empirischen Studie gezeigt, wie ein und dieselbe Fernsehserie (Dallas) in unterschiedlichen kulturellen Gruppen ganz unterschiedlich wahrgenommen werden.

    Aber dennoch: der technologische Unterbau des Internet ist tatsächlich zu einer universellen Geschichte geworden, die weltweit sehr gleichförmig ist. Das indische TCP/IP scheint sich nicht von dem brasilianischen zu unterscheiden. In Deutschland verwendet man HTML ähnlich wie in Japan – bzw. vielleicht fehlen uns noch kulturwissenschaftliche Studien, die hier dann doch Unterschiede finden. Und zum Teil sind auch die politischen Fragen, die sich hieran knüpfen, ähnliche: Soll man den Zugang für alle frei schalten oder auf bestimmte Personenkreise beschränken? Soll man zensieren oder nicht? Die Antworten freilich fallen je nach kulturellem und politischen Kontext höchst unterschiedlich aus.

    Das Internet und auch das Web 2.0 ist keine globale Monokultur. Natürlich ist es potentiell möglich, dass, wie Reuter sagt, “letztlich alle wissen, was irgendwo passiert und was irgendwer macht”. Nur bleibt diese Tatsache immer im Konjunktiv. De facto nutzen wir Plattformen wie Twitter, Facebook oder auch Blogs tendenziell eher tribalistisch als esperantistisch. Die meisten meiner Kontakte, mit denen ich täglich über Twitter kommuniziere, kommen aus Deutschland, Österreich oder der Schweiz. Schon, wenn ich nach Italienern suche, wird es schwierig. Und dann habe ich noch gar nicht nach dem Bildungsgrad und dem räumlichen Kontext gefragt. Das weltumspannende Kommunikationsnetz funktioniert für Sensationen wie zum Beispiel Erdbeben oder politische Umstürze. Aber auch dort ist es nicht die Masse, die hier kommuniziert, sondern nur eine Elite, die sowieso relativ homogen ist. Also die berühmten “kosmopolitischen Vielflieger”.

    Ich würde noch weiter gehen: Gerade Social Media haben ein großes Potential, die Bildung von stammesähnlichen Gebilden zu unterstützen. Also von sehr traditionalistischen Organisationsformen, die jedoch auf Grundlage einer weltweit standardisierten Technologie nicht mehr an räumliche Nähe gebunden sind (hier darf natürlich auch der wichtige Hinweis auf McLuhan nicht fehlen). Diese Stämme sind aber aufgrund ihrer Ortsunabhängigkeit nicht offen sichtbar wie z.B. die Yanomami der 1960er Jahre, sondern wirken diffus. Erst mit Hilfe von Netzwerkanalysen werden diese Strukturen sichtbar. Erst ein ethnologisches Eindringen in diese Zusammenhänge offenbart dann die Stammes-Partikularismen vor einem universalistischen techno-politischen Hintergrund.

    Auf eine Formel gebracht: Es gibt nicht nur ein Social Web, sondern viele. Aber eigentlich steckt das alles schon im Begriff des Internets.

    Literatur zum Thema:

    • Claude Lévi-Strauss: Traurige Tropen. Frankfurt, 1978.
    • Manuel Castells: The Rise of the Network Society. Oxford, 1996.
    • Marshall McLuhan / Quentin Fiore: War and Peace in the Global Village. New York, 1968.
    • Tamar Liebes / Elihu Katz: The Export of Meaning: Cross-Cultural Readings of Dallas. Oxford, 1990.


    Verwandte Artikel:
  • Kulturelle Vielfalt oder Einheitsbrei?
  • Das Internet ist keine Modeerscheinung
  • Internet ist einflussreichstes Medium
  • Studium 2.0: Vertrauen Studenten der Wikipedia?

    Wie sieht es mit der Wikipedia-Nutzung der Studierenden in Deutschland aus? Diese Frage lässt sich mit den Daten des aktuellen Hisbus des Hochschul-Informations-Systems über die Internetnutzung von Studenten beantworten (pdf hier).

    Gefragt, welche “Wissensplattform” (schön allgemein ausgedrückt, dass von der Britannica bis zu Wissen.de alles hinein gepackt werden kann) am verlässlichsten sei, antworteten 52% der Studierenden, dass sie der Wikipedia vertrauen oder sogar sehr vertrauen. Sehr viel weniger Vertrauen schenken die Studenten der Spiegel Wissen (34%) oder Zeit Online (34%), MS Encarta (29%), Meyers Lexikon Online (27%), Encyclopaedia Britannica (26%) und Wissen.de (14%). Allenfalls das Onlinewörterbuch LEO (49%) kommt noch in die Nähe der Wikipedia.

    Die Autoren der Studie warnen jedoch davor, dies als Beleg für das große Vertrauen der Studierenden in nutzergenerierte Inhalte zu sehen. Die Prozentzahlen beziehen sich nämlich nicht nur auf die fünfstufige Skala von “sehr verlässlich” bis “überhaupt nicht verlässlich”, sondern auch auf die Restkategorie “kann ich nicht beurteilen”. Sieht man sich auch diese Zahlen an, dann wird deutlich: Für die Studierenden gibt es nur eine Wissensplattform, und die heißt Wikipedia. Weniger als ein Prozent fühlen sich nicht imstande, die Zuverlässigkeit der Online-Enzyklopädie zu beurteilen. So sieht Marktbeherrschung aus. Bei der Encyclopaedia Britannica sind es 70%, Wissen.de 68%, Meyers Lexikon 67%, MS Encarta 57%, Zeit Online 55%, Spiegel Wissen 51%, Auch hier liegt Leo mit einem Wert von 35% ziemlich weit vorne.

    Ich habe ein bisschen mit den Zahlen gerechnet und diejenigen ausgeklammert, die sich nicht in der Lage sehen, die Glaubwürdigkeit zu beurteilen. Das Ergebnis sieht folgendermaßen aus:

    Nun liegt die Wikipedia weit abgeschlagen hinter den meisten anderen Angeboten und auch für LEO sieht es nicht mehr so gut aus. Diese Pointe der HISBUS-Zahlen hat z.B. die Zeit gar nicht mitbekommen. Ich würde das so interpretierenj: Die Benutzung von Wikipedia gehört für die meisten Studenten mittlerweile zum Studienalltag dazu. Das Nachschlagen dort ist zur Routine geworden, die nicht mehr hinterfragt wird, so dass auch die eher als schlecht wahrgenommene Zuverlässigkeit (wobei insgesamt mehr Studenten die Wikipedia als zuverlässig beurteilen denn als nicht zuverlässig) keine große Rolle mehr spielt.

    Interessant ist auch der Blick auf das Wikipedia-Vertrauen der unterschiedlichen Studienrichtungen:

    Die besten Zuverlässigkeitswerte (“zuverlässig” und “sehr zuverlässig”) bekommt die Wikipedia von den Studenten technischer Studiengänge wie Agrarwissenschaften, Medizin, Ingenieurswissenschaften und Medizin. Die Geistes- und Sozialwissenschaften sind da deutlich skeptischer und den Lehramtsstudenten scheint man in ihrer Ausbildung einzuschärfen, ja die Finger von diesem Teufelszeug zu lassen ;-)

    Trotz der intensiven Wikipedia-Nutzung der Studierenden (80% lesen “häufig” oder “sehr häufig” Artikel dort) wird nahezu überhaupt nicht daran mitgearbeitet. Vergesst die 90-9-1-Regel. Die Arbeit an der Wikipedia – ganz egal, ob es um das Schreiben neuer, das Überarbeiten alter Beiträge geht oder um die Beteiligung an Diskussionen geht – findet im Promillbereich statt.

    Hier sehe ich deutlichen Nachholbedarf in der akademischen Lehre. Anstatt zum tausendsten Mal das Thema “Theorievergleich Max Weber und Emil Durkheim” in einem soziologischen Grundkurs zu vergeben, sollte den Studierenden die Aufgabe gestellt werden, den entsprechenden Wikipediaartikel signifikant zu verbessern. Dabei sollte auf jeden Fall auf das Wikipedia-Mentorenprogramm hingewiesen werden. Je besser der Artikel schon ist, desto anspruchsvoller wird diese Aufgabe. Wenn das Ergebnis dann ein lesenswerter Enzyklopädieartikel ist, haben alle etwas davon.

    Mein Vorschlag: Der Partizipationsgrad an Wissensprojekten wie der Wikipedia sollte als Indikator in die bestehenden Hochschulrankings eingeführt werden. Ich würde gerne eine Liste der Universitäten in Deutschland sehen, geordnet nach ihrem studentischen Wikipediaengagement. Niedrige Studienabbrecherquoten, hoher Anteil ausländischer Studenten – alles schön und gut, aber es fehlt in den Bildungsberichten ein Maß dafür, wie unsere Universitäten über Plattformen wie die Wikipedia zum allgemein verfügbaren Wissen beitragen. Frau Schavan, ich warte!

    Welche anderen Ideen und Modelle gibt es, um die Wikipedia-Partizipation an den deutschen Unis zu fördern? Wer ist schon einmal in einem Seminar gewesen, in dem an der Wikipedia gearbeitet wurde?



    Verwandte Artikel:
  • Befragung von Hochschulrektoren und -präsidenten
  • Wer vertraut wem? Firmenblogs genießen besonders wenig Vertrauen
  • Welchem Medium vertrauen die Leser?
  • Wie ernst meint es die Wissenschaft mit dem Dialog?

    Im September habe ich auf dem Symposium für Wissenschaftskommunikation einen Vortrag zum Thema Blogs als Instrumente der Wissenschaftskommunikation gehalten. Jetzt ist die ausführliche Tagungsdokumentation erschienen. Dort findet man auch eine gute Zusammenfassung meines Vortrags.

    Ein zentraler Punkt ist für mich die Möglichkeit, mit Wissenschaftsblogs Dialoge mit der Öffentlichkeit zu führen. Oft wird dieser Begriff gerade im Bereich der Wissenschaftskommunikation falsch verstanden, so dass schon das allgemeinverständliche Umformulieren wissenschaftlicher Forschungsergebnisse als Dialog bezeichnet wird. Ist es aber noch lange nicht.

    Dialog bedeutet nämlich nicht nur die Ansprache eines Publikums, sondern auch

    • diesem Publikum zuzuhören, also zum Beispiel Blogs und Foren zu lesen, in denen über mein wissenschaftliches Fachgebiet oder meine wissenschaftliche Organisation, ganz gleich ob Forschungsinstitut, Universität oder Fördereinrichtung, gesprochen wird,
    • dieses Publikum und seine Kommunikationen zu verstehen, also nicht nur zu registrieren, dass ein Thema in den sozialen Medien eine Rolle spielt, sondern dahinter blicken, welche Bedeutungen damit assoziiert werden und auch welche Personen es sind, die sich darüber austauschen und dann vor allem
    • mit dem Publikum zu sprechen. Nicht an das Publikum, sondern mit dem Publikum. Das heißt: Fragen auf Twitter beantworten, bei Bedarf Links zu vertiefendem Material zu schicken. Noch schwieriger, aber ebenso wichtig:
    • als authentische Person auftreten. Wissenschaft ist kein anonymer Prozess, sondern wird von Menschen gemacht. Gerade im Fall von social media ist es möglich und wichtig eine eigene Stimme zu entwickeln, die sich nicht wie eine Pressemitteilung liest und auch nicht wie eine Vorlesung, sondern wie ein nettes Gespräch in der Kaffeepause einer Tagung.

    Dann zeigt sich, wie ernst es die wissenschaftlichen Organisationen mit dem Dialog meinen. Geht es nur darum, sich und der eigenen Organisation durch ein möglichst breites kommunikatives Sperrfeuer einen Platz im Diskurs zu besetzen? Oder besteht ein echtes Interesse daran, mit der Außenwelt in ein Gespräch einzusteigen? Ich sehe social media wie Blogs, Foren, Twitter und Social Networks hier als eine Art Lackmustest für die Dialogfähigkeit der Wissenschaft.



    Verwandte Artikel:
  • Wissenschaftkommunikation und Mediendialog
  • Wissenschaft im Dialog – welche Rolle spielen Blogs?
  • Corporate Twitter: Die Liste
  • Macht Google klug?

    GehirnaktivitätWie titelte der Spiegel doch Anfang August so schön: “Macht das Internet dumm?” Viele Weblogautoren hatten sehr schnell eine plausible Antwort auf diese Frage parat: “Nein, nur Spiegelautoren bei der Suche nach einem griffigen Titel”, denn die Nähe zu Nicholas Carrs Frage “Is Google Making Us Stupid?” im Atlantic war einfach zu frappierend.

    Eine Forschergruppe um Gary Small im Semel Institute for Neuroscience and Human Behavior der UCLA haben diese Frage nun etwas näher untersucht (siehe dazu auch Smalls Buch “iBrain: Surviving the Technological Alteration of the Modern Mind“). In einem Experiment wurde die Hirnaktivität von 24 Testpersonen zwischen 55 und 76 untersucht – die eine Hälfte mit Interneterfahrung, die andere ohne.

    Als die Probanden ein Buch lesen sollten, zeigten sich keine nennenswerten Unterschiede in der durch funktionellen Magnetresonanztomographie gemessenen Hirnaktivität, bei der Internetsuche hingegen schon. Dazu Small:

    Our most striking finding was that Internet searching appears to engage a greater extent of neural circuitry that is not activated during reading — but only in those with prior Internet experience.

    Er interpretiert dies einen Hinweis darauf, dass Googlen eine komplexe Aktivität ist, die dazu in der Lage ist, Verbindungen im Gehirn zu verbessern. Also: Lebenslanges Lernen mit Google?

    Bei allen Vorbehalten, was die Interpretation von Gehirnaktivität betrifft oder die Zahl der Teilnehmer, macht dieses Ergebnis doch Hoffnung, dass der Spiegel-Redaktion mit etwas mehr Zeit im Internet so etwas wie der erwähnte Spiegel-Titel nicht mehr vorkommen wird.



    Verwandte Artikel:
  • Interessante Kriminalprozesse gefällig? Die digitale Bibliothek als Open Content
  • Manager-Magazin macht Google überflüssig
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Wissenschaft im Dialog – welche Rolle spielen Blogs?

    Ob eine Konferenz gut ist oder nicht, merkt man eigentlich sehr schnell an den Gesprächen in den Pausen oder beim gemeinsamen Abendessen. Im Fall des ersten Symposiums zur Wissenschaftskommunikation, die von der Initiative “Wissenschaft im Dialog” gestern und heute veranstaltet wurde, ist mir sehr schnell klar geworden: Selten habe ich mit so vielen Leuten gesprochen, die das Gefühl vermittelten, am Anfang von etwas neuem zu stehen. Das Thema Wissenschaftsdialog scheint sich zu einem absoluten Renner zu entwickeln.

    Eigentlich ist die Idee schon recht alt. Am Anfang stand ein Memorandum (1999) der Wissenschaftsstiftungen und -organisationen in Deutschland, das die Rolle der allgemeinverständlichen Kommunikation von Wissenschaft ganz klar in den Mittelpunkt rückte. Darin stehen Dinge wie:

    In Abstimmung mit den wissenschaftsfördernden Einrichtungen des Bundes und der Länder, der Hochschulen und Forschungseinrichtungen sowie Repräsentanten aus Wirtschaft und Politik wird ein den einzelnen Institutionen angemessenes Anreizsystem entwickelt, das geeignet ist, Belohnungen für diejenigen Wissenschaftlerinnen und Wissenschaftler in Aussicht zu stellen, die sich aktiv im Dialog mit der Öffentlichkeit engagieren. Das Engagement für diesen Dialog darf dem wissenschaftlichen Ruf nicht abträglich sein, es sollte zu einem zusätzlichen Merkmal wissenschaftlicher Reputation werden.

    Oder wie das folgende:

    Die Würdigung von Leistungen im Dialog mit der Öffentlichkeit soll im Rahmen der internen und externen Begutachtung bzw. Evaluation zusätzlich zur Würdigung der wissenschaftlichen Leistung erfolgen. Geeignete Formen der Anerkennung sollen entwickelt werden.

    klingen auch nach fast zehn Jahren noch revolutionär. Aber, wenn man sich ausführlich mit den Wissenschaftskommunikatoren aus Universitäten, Stiftungen, Museen und diversen Initiativen unterhält, wird schnell deutlich, dass sich hier gerade jetzt sehr viel verändert. Die Zeiten, in denen Professoren ihre Interviews in TV und Print bewusst einschränken mussten, um ihre wissenschaftliche Glaubwürdigkeit nicht aufs Spiel zu setzen, scheint allmählich überwunden. Nicht in allen Disziplinen – die Geistes- und Sozialwissenschaften scheinen hier den Natur- und Technikwissenschaften noch etwas hinterherzuhinken. Aber auch hier gibt es Bewegung.

    Für mich das schönste Beispiel ist das Aufblühen von Wissenschaftsblogs in den unterschiedlichsten Bereichen. Allen gemeinsam ist jedoch die Betonung von dialogischen Elementen. Vilém Flusser hat sehr plausibel zwischen diskursiven Kommunikationsstrukturen, die auf der möglichst unverfälschten Weitergabe von Informationen beruht, und der dialogischen Kommunikation, in der die Partner ihre Informationen zusammenbringen, um etwas Neues daraus zu schaffen, unterschieden. Wissenschaft im Dialog heißt, das ist heute in vielen Vorträgen deutlich geworden, mehr als nur Wissenschaftskommunikation oder public understanding of science.

    Das Ziel sollte sein, die Öffentlichkeit in den Prozess der Wissenschaft zu involvieren – was natürlich je nach Fachgebiet unterschiedlich aussehen kann -, und Blogs ebenso wie Microblogs stellen für mich ein vielversprechendes Werkzeug für diesen Zweck dar:

    • Blogs sind authentischer: In Blogs schreibt man anders als in Journals. Näher an der Person, weniger ausführlich und häufig auch offener. Mit Blogs kann man auch Institutionen ein Gesicht geben, die bislang in der Öffentlichkeit weitgehend unbekannt waren.
    • Blogs sind dialogisch: Die Leser oder Zuschauer müssen nicht passiv bleiben, sondern können Fragen stellen, auf weitere Informationen verweisen und mit anderen diskutieren. Blogs forden zum Engagement auf.
    • Blogs sind unmittelbarer: Spannende Experimente lassen sich mit Blogs und noch besser mit Microblogs in Tickertempo miterleben. Aber im Unterschied zum Ticker, der immer one-to-many funktioniert, kann hier ein echter Austausch funktionieren. Eines der schönsten Beispiele ist für mich nach wie vor der Mars-Phoenix-Twitteraccount.
    • Blogs sind offener: Auch die Wissenschaftsblogger können Fragen stellen. Fragen sind als Format für Wissenschaftskommunikationen unterrepräsentiert. Publiziert werden meistens nur die Antworten. Auch Misserfolge können in Blogs auf informelle Weise vorgestellt und diskutiert werden. Den gewaltigen Bias aller bisherigen Wissenschaftskommunikationen in Richtung gelungene Experimente und bestätigte Hypothesen ist legendär.
    • Blogs erreichen jüngere Zielgruppen: Nachwuchssicherung in der Wissenschaft ist eines der wichtigsten Ziele der Organisationen. Blogs erreichen eine jüngere Zielgruppe als Wissenschaftsmagazine.


    Verwandte Artikel:
  • Wie ernst meint es die Wissenschaft mit dem Dialog?
  • Wissenschaftkommunikation und Mediendialog
  • Wissensblogs gestartet