Archive for the 'netzwerk' Category

Der Bayerische Landtag auf Twitter

Angeregt durch diese Visualisierung der Twittergespräche im Berliner Abgeordnetenhaus habe ich mir einmal unsere Bayerischen Landtagsabgeordneten näher angesehen. Zum einen einmal die Verteilung der Twitter-Accounts: Hier liegt die FDP vorne: 53% der Abgeordneten haben einen Twitter-Account mit mindestens einem Tweet. Danach kommen die Grünen mit 39%, die Freien Wähler mit immerhin noch 21% und abgeschlagen dann die CSU (15%) und SPD (13%).

Doch das einfache Vorhandensein eines Twitter-Accounts allein ist noch kein Maß für die Twitter-Nutzung. Sehr viel interessanter ist die Aktivität der Accounts – welche Abgeordneten nutzen ihre Twitter-Accounts tatsächlich regelmäßig für die Kommunikation und wer hat nur der Form halber einen Account eröffnet und 1-2 Probetweets darüber verschickt? Die CSU liegt hier mit 43% aller Tweets deutlich vorne (obwohl sie nur 36% aller Accounts besitzt). Danach folgen mit deutlichem Abstand die Freien Wähler mit 18% der Tweets (10% der Accounts), die FDP mit 15% der Tweets (23% der Accounts) und die Grünen mit 14% aller Landtagstweets (18% der Accounts). Ganz hinten liegt wieder die SPD mit knapp 10% der Tweets (13% der Accounts).

Im Zentrum der politischen Kommunikation über Social Media steht der Dialog. Deshalb habe ich mich für diese Auswertung auf die Gespräche der Politiker mit anderen Personen konzentriert. Interessiert hat mich also vor allem das “Relevant Network”, wie ich es hier bereits des öfteren gesprochen habe. Zählt man die Dialoge, also wie oft die Abgeordneten andere Twitternutzer erwähnt haben, so entfallen auf die CSU 58% der Erwähnungen, auf die Grünen 22%, auf die Freien Wähler nur noch 15%. Weit abgeschlagen dann die SPD mit knapp 3% und die FDP mit 2%. In den letzteren beiden Parteien scheint Dialog zumindest auf Twitter ein Fremdwort zu sein.

Visualisiert man die Daten aller Replies der Bayerischen Landtagsabgeordneten, so erhält man schließlich die folgende Grafik (hier noch einmal in interaktiv und groß):



Verwandte Artikel:
  • Der twitternde Bundestag
  • Münchener Medientage auf Twitter
  • Off The Grid – Wie man die digitalen Erstwähler (nicht) erreicht
  • Netzwerkanalyse von Hashtaglagern

    Twitter-Netzwerkanalysen aus den USA kommen regelmäßig zu dem Ergebnis einer unglaublichen Polarisierung zwischen den Lagern. Demokraten folgen Demokraten. Republikaner folgen Republikanern. Kommunikation zwischen den beiden ist auf das ironische Verwenden der “gegnerischen” Hashtags reduziert.

    Ich gehe schon länger der Frage nach, ob sich diese Beobachtungen auch in der digitalen politischen Kommunikation nachvollziehen lässt. Sehr schnell spricht man ja von “politischen Filterblasen”, die dazu führen, dass man nur Botschaften mitbekommt, die zu der eigenen politischen Einstellung passen.

    Heute war ein guter Tag für die politische Twitter-Kommunikation. Drei politische Ereignisse liefen gleichzeitig ab, die jeweils ziemlich eindeutige Hashtags hatten:

    • der Netzpolitische Kongress der Grünen in Berlin (Hashtag: #nk12)
    • der Parteitag der CSU in München (Hashtag: #csupt12)
    • der deutschlandweite (bzw. europaweite) Aktionstag gegen das EU-Überwachungsprojekt INDECT (Hashtag: #indect)

    Zu diesen drei Hashtags wurden alle relevanten Tweets des 20. Oktober erfasst und ausgewertet. Die folgende Visualisierung zeigt die Twitter-Accounts, die zu einen der drei Hashtags verwendet haben sowie die Follower-Beziehungen zwischen ihnen. Die Einfärbung erfolgt nach den Löwener Modularitätsalgorithmus von Blondel et al. Der Algorithmus analysiert und identifiziert Sub-Communities in großen sozialen Netzwerken.

    Follower network for #nk12 #csupt12 and #indect

    Zwar lassen sich deutliche Cluster zu den untersuchten Hashtags identifizieren, aber trotzdem sind die Twitterer, die sich zu den drei Themen äußern, durch ihre Follower-Netzwerke sehr eng mit auch mit den Personen aus den anderen “Hashtag-Lagern” verbunden. Interessanterweise scheinen viele dieser “lagerübergreifenden” Kontakte über regionale Netzwerke zu lassen: Zum einen hat die piratisch orientierte Anti-Indect-Szene gerade in Berlin viele Verbindungen zu Grünen Netzpolitikern. Zum anderen sind einige bayerischen Politiker der Grünen sehr gut mit ihren Kollegen der CSU verbunden.



    Verwandte Artikel:
  • Spickzettel Netzwerkanalyse (SNA)?
  • Netzwerkanalyse der metaroll
  • Der Aufstieg der Datenwissenschaftler
  • Der Appstore als Netzwerk – Newsreader, Newsportale und digitale Zeitungen

    Why then the world’s mine network
    Which I with software will open.

    Der Vorteil einer abstrakten Methode wie der Social Network Analysis ist es, dass sich fast alle Daten, die irgendwie zusammenhängen, als Netzwerk betrachten und analysieren lassen. Das Paradebeispiel sind natürlich die Empfehlungsalgorithmen, die Nutzern von Google, Youtube oder Amazon erzählen, was sie sonst noch interessieren könnte. Überall dort, wo es empfohlene Produkte oder Produkte, die andere Kunden auch gekauft haben, gibt, kann man sehr einfach mit den Methoden der Netzwerkanalyse angreifen. Auf diese Weise wird aus den isolierten Paaren oder Mengen verwandter Produkte eine große Verwandtschaftskarte, auf der nicht nur Beziehungen, sondern auch Muster und Schwerpunkte erkennbar sind.

    Ich habe mir einmal den iTunes-Appstore vorgenommen. Auf jeder (bzw. fast jeder) Downloadseite einer App sind weitere fünf Apps verzeichnet, die überdurchschnittlich häufig gemeinsam mit dieser App heruntergeladen oder gekauft werden. Das Netzwerk springt einem hier förmlich entgegen. Wenn man die 240 beliebtesten Apps der Kategorie Nachrichten auf diese Beziehungen hin erfasst, erhält man folgendes Netzwerk der Nachrichten-Applandschaft (Klick zum Vergrößern):

    Social network visualization of app downloads

    Die Größe der Knoten steht für die Anzahl der Bewertungen der Apps – solange es keinen Zugriff auf die Downloadzahlen der Apps gibt, könnte das eine Annäherung an die Bedeutung oder Verbreitung einer App sein. Die Farbe zeigt die unterschiedlichen Cluster von Apps, die besonders eng miteinander verbunden sind: Links in Hellblau und rechts in Dunkelblau sind zwei Cluster von Nachrichtenapps. Rechts findet man die Zeitungsapps von FAZ, Bild, Süddeutsche, Abendzeitung, Weserkurier etc., während links eher die iPad-Varianten von Onlineportalen wie Spiegel, Focus Online, Süddeutsche.de zu finden sind. Oben in Violett ist ein kleines Cluster von redaktionsunabhängigen Newsaggregatoren wie Pulse, Flipboard oder Reeder. Ganz rechts liegt Österreich, während im Süden die Türkei zu finden ist. Dazwischen ein Applecluster mit Apfeltech und Macwelt. Ganz im Norden ist das Review-stärkste Cluster von Nachrichtenaggregatoren und App-Nachrichten-Apps, das von MeinProspekt dominiert wird.

    Die Apps mit den meisten Reviews in dieser Karte sind:

    1. Mein Prospekt XL – 39.382 Reviews
    2. n-tv iPhone edition – 16.140 Reviews
    3. DER SPIEGEL eReader – 12.759 Reviews
    4. FOCUS Online – 10.300 Reviews
    5. DIE WELT – 9.312 Reviews
    6. Flipboard – 6.394 Reviews
    7. BILD HD – 5.722 Reviews
    8. Tagesschau – 5.705 Reviews
    9. NYTimes – 5.533 Reviews
    10. AppTicker Push – 5.524 Reviews

    In dieser Aufzählung fehlt die normale Version von BILD mit 24.146 Reviews, die ein isolierter Knoten ist, da für diese App keine verwandten Apps angegeben sind und auch keine der anderen Apps auf sie verweist – eine echte Anomalie, die ich mir im Moment nicht erklären kann.

    Interessant ist auch der Blick auf die Anzahl der eingehenden Links, d.h. welche Apps besonders häufig als verwandte Apps genannt werden. Der Durchschnitt liegt bei 2,3.  Hier sieht die Liste ganz anders aus:

    1. The Wall Street Journal – 51 Nennungen
    2. AppAdvice – 45 Nennungen
    3. Blastr – 40 Nennungen
    4. NPR for iPad – 39 Nennungen
    5. Flo’s Weblog – 27 Nennungen
    6. eGazety Reader – 27 Nennungen
    7. ??-??? ????? a – 25 Nennungen
    8. SAPO News – 23 Nennungen
    9. DVICE – 20 Nennungen
    10. DER SPIEGEL – 18 Nennungen

    Dieselben Apps erhält man bei der Berechnung des PageRank, d.h. der Wahrscheinlichkeit, beim Abwandern des Netzwerks zufällig auf die verschiedenen Apps zu stoßen. Die Anzahl der Verbindungen zwischen den Apps, also der Vernetzungsgrad ist relativ niedrig, da für jede App nur jeweils 5 verwandte Produkte angezeigt werden – insgesamt sind die 451 Knoten durch 1.055 Kanten verbunden.



    Verwandte Artikel:
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen
  • Zeitungen springen auf den Web 2.0-Zug auf
  • Immer mehr Deutsche lesen Nachrichten im Netz – was macht der Rest im Internet?
  • Netzwerkvisualisierung mit TwitterFriends

    Gerade eben ist sie endlich fertig geworden, die Netzwerkvisualisierung für TwitterFriends. Dargestellt wird nicht das gesamte Kontaktnetz – also alle Followees und Followers -, denn das wäre zum einen unübersichtlich groß und zum anderen wenig aussagekräftig, da man Twitterkontakte sehr viel leichter hinzufügt als entfernt. Deshalb stellt TwitterFriends nur das “relevante Netzwerk” dar, also die Kontakte, denen eine Person in der letzten Zeit mindestens zweimal per ‘@’ geantwortet oder sich auf sie bezogen hat. Es geht also um das verborgene Netzwerk von Personen, denen eine Person auf Twitter öffentlich ihre Aufmerksamkeit schenkt. Nach Eingabe eines Twitter-Usernamen auf der Startseite von TwitterFriends erscheint das Ego-Netzwerk des Nutzers, hier für meinen Twitter-Account @furukama:

    TwitterFriends-Netzwerk für @furukama

    TwitterFriends-Netzwerk für @furukama

    Die Größe der Knoten des Netzwerkes entspricht jeweils der Anzahl von Tweets, mit denen ich mich an sie gerichtet habe. Dargestellt wird also die Intensität der Kommunikation zwischen dem zentralen Knoten (“Ego“) und den Kontakten im relevanten Netzwerk. Da diese Visualisierung bei vielen Kontakten schnell unübersichtlich wird, kann man durch dieses Netzwerk surfen: Per Klick auf einen Knoten, wird das Netzwerk um diesen zentriert, so dass man die Vernetzung der Kontakte untereinander analysieren kann:

    Blick auf die Vernetzung von @saschalobo im Netzwerk von @furukama

    Blick auf die Vernetzung von @saschalobo im Netzwerk von @furukama

    Unter der Netzwerkgrafik gibt es einen Link, mit dem man zwischen der obigen einfachen Netzwerkdarstellung und der vollen FOAF-Visualisierung (FOAF für “friend of a friend“) umschalten kann. Die zweite Darstellungsweise zeigt auch die Kontakte meiner Twitterkontakte, die sich nicht in meinem Netzwerk befinden, also auch meine “Freundesfreunde”. Hier erhöht sich die Zahl der Knoten noch einmal, aber auch hier kann man sich per Mausklick durch das Netzwerk bewegen:

    FOAF-Netzwerk von @furukama

    FOAF-Netzwerk von @furukama

    Die Netzwerkdarstellung benötigt keine zusätzliche installierte Software wie Java oder Flash. Verwendet wird die JavaScript-Visualisierungsbibliothek JIT von Nicolas Garcia Belmonte. Lauffähig müsste das Ganze auf Firefox, Chrome und Safari sein, mit eingeschränkter Geschwindigkeit auch im Internet-Explorer. Hier geht es zu der Anwendung.

    Hinweis: Bei einigen Twitternutzern erscheint das Netzwerk zunächst noch recht leer, das kann daran liegen, dass die Netzwerkdaten ihrer Kontakte noch nicht im Cache sind. In diesem Fall findet man unter der Netzwerkgrafik eine Liste von Links, mit denen man diese Daten einsammeln kann. Nutzer mit nicht-öffentlichem Profil oder ohne Replies können nicht erfasst werden. Das Ganze funktioniert ohne Eingabe des eigenen Twitterpassworts.

    Kommentare und Bugreports am besten per Twitter an @furukama oder gleich hier in die Kommentare. Danke!



    Verwandte Artikel:
  • TwitterFriends
  • Twitteranalyse for Dummies
  • Big Data und die Hackertugenden
  • Twitter, Metcalfe’s Law und die Kommunikation mit verschwommenen Gruppen

    Metcalfe’s Law, Reed’s Law oder Geburtstagsparadox – es gibt mehrere Bezeichnungen für das Phänomen, dass Netzwerke exponentiell wachsen. Mit jedem neuen Mitglied erhöht sich die Anzahl der möglichen Kommunikationspartner (ähnlich gilt dies auch für die möglichen Untergruppen) nicht um eins, sondern um die Zahl der bisher vorhandenen Mitglieder.

    Genau das scheint auch das Problem zu sein, mit dem der Mikrobloggingdienst Twitter gerade zu kämpfen hat. Seit sich die Anzeichen dafür mehren, dass Twitter allmählich in den Mainstream einsickert, und dementsprechend mehr Menschen sich dort anmelden, hat die Leistung rapide abgenommen. Die vielen Ausfälle der letzten Tage (die SMS-Benachrichtigung scheint schon länger nicht mehr zu funktionieren) haben viele der digitalen Avantgarde zum Lifestreamanbieter Friendfeed getrieben (hier z.B. mein Feed). Robert Scoble ist dort, Loic Le Meur und Michael Arrington auch.

    Während die Direktnachrichten bei Twitter keine größeren Probleme darstellen dürften und auch die öffentliche Zeitleiste unproblematisch sein dürfte, liegt die Schwierigkeit darin, dass jede Freundesliste bei Twitter eine ziemlich einzigartige Kombination von Kontakten darstellt (das müsste man einmal genauer untersuchen). Hier ist deutlich erkennbar, was der deutsche Soziologe Georg Simmel Ende des 19. Jahrhunderts gemeint hat, als er die Individualität einer Person als Kreuzung unterschiedlicher sozialer Kreise bezeichnet hat.

    Das Problem von Twitter liegt womöglich in der ungleich größeren Herausforderung, Botschaften (“Tweets”) an jeweils ganz unterschiedliche Personengruppen zu senden. Twitter ist eben weder ein reines Kommunikationsmedium (Direktnachrichten), noch ein reines Broadcastmedium (Öffentliche Zeitleiste). Ja, es ist nicht einmal ein Gruppenkommunikationsmedium, als das, wofür Email ursprünglich entwickelt wurde, denn Personen, die auf eine Twitternachricht von mir reagieren, senden ihre Antworten wiederum an eine ganz andere Gruppe. Twitter ist Kommunikation zwischen verschwommenen, unscharfen Gruppen (fuzzy groups). Genau das ist der Reiz des Mediums, aber vermutlich auch die neuartige technische Herausforderung.



    Verwandte Artikel:
  • Was Facebook so unwiderstehlich macht
  • Von der Gruppen- zur Netzwerkgesellschaft (und wieder zurück?)
  • Shopping the global boutique
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen

    Steffen Büffels Antwort auf die von mir kürzlich vorgestellten und erweiterten Thesen von Doc Searls zur Rettung der Zeitung hat mir wieder einmal die Bedeutung der “Kultur der Verlinkung” gezeigt, die sich gerade in den Weblogs so eindrucksvoll zeigt. Steffen rät den Zeitungsmachern nämlich:

    Wedelt mit guten Content-Teasern lieber an den Boulevards der großen Onlinenetzwerke. Dann schaue ich gerne mal rein und klicke durch eure PI-gierigen Seiten. Und wenn ihr mich dann wieder an viele tolle Stellen wegschickt, komme ich umso lieber zurück.

    Das ist meiner Ansicht nach der große Graben zwischen ins Internet gedruckten Zeitungen und echten Digitalformaten wie Blogs. Süddeutsche, Spiegel etc. geizen mit Links nach draußen aus Angst, dadurch den Leserstrom von den eigenen Inhalten wegzuleiten. Sie haben nicht begriffen, dass Links Informationen sind, die einen Mehrwert bieten. Das Denkmodell ist immer noch die klassische “Ausgabe”. Also ein Inhaltsbündel, das man von vorn bis hinten durchliest bzw. durchklickt. Ein Inhaltsbündel, dass man auch nur als Bündel erwerben kann.

    Im Internet wird jedoch kreuz und quer gelesen – Inhalte gibt es hier nicht im Bündel oder auf der Rolle, sondern in einem Netzwerk. Ich komme über einen Link auf einen interessanten Beitrag, lese ihn und sehe mir die Links an, die von dort auf andere Seiten verweisen. Eine Wahrheit, die unsere Onlinezeitungsmacher anscheinend noch nicht begriffen haben: Kein Besucher bleibt ewig. Die Frage lautet nur: Ist deine Seite eine Sackgasse oder ein Knotenpunkt in einem dicht gewobenen Netzwerk? Verlassen die Besucher die Seite per “Tab schließen” oder über den Link zu einer anderen Seite, die ihnen genau die Informationen bietet, nach denen sie suchen? Und von der sie dann vielleicht früher oder später wieder zurückkommen, weil diese Seite ebenfalls auf Verlinkung setzt?

    Ich muss wohl nicht eigens betonen, dass ich die zweite Option für die zukunftssichere halte. Wenn die Zeitungen wirklich auf irgendeine Weise in den neuen digitalen Dialogen mitreden wollen, müssen sie lernen, zu verlinken. In einem Netzwerk liegen Punkte, von denen kaum eigene Verbindungen ausgehen, am Rand.



    Verwandte Artikel:
  • Searls 10 Thesen zur Rettung der Zeitung revisited
  • Interview für die Blogschau und die Parasitenthese der Blogosphäre
  • Das lange 19. Jahrhundert der Zeitungsmacher
  • Stapelverarbeitung – 14.04.2008

    Wenn ich nur alles ausführlich verbloggen könnte, was mir da tagtäglich durch den Feedreader rutscht … Dann würde ich mich zum Beispiel den folgenden Beiträgen widmen:

    • Robert Scoble stößt einmal mehr eine Diskussion über die Zukunft der Blogosphäre an. Er ist sich nämlich ziemlich sicher, die “era when bloggers could control where the discussion of their stuff took place is totally over.” Dienste wie FriendFeed verteilen die Gespräche nämlich dezentral. Eine wirkliche Beschreibung dieses spannenden Phänomens ist damit aber noch lange nicht erreicht.
    • 1.0, 2.0, 3.0 oder gar 4.0? Diese Frage kann man nicht nur auf das Web beziehen, sondern auch auf die Zukunft der Bibliothek. René Schneider (FH Genf) hat nun die Folien auf Slideshare gestellt, mit denen er die Evolution vom klassischen OPAC über das nutzerorientierte Web 2.0 und das semantischen Netz bis zum künstlich-intelligenten Web 4.0 skizziert. Mich würde interessieren, wie weit man mit Begriffen wie “Bibliothek 4.0” vom bibliothekswissenschaftlichen Mainstream ist? (netbib, Steuereule)
    • Kai-Uwe Hellmann nimmt ausführlich einen klassischen Text (pdf) von Barry Wellman, dem Pionier der Netzwerkanalyse, auseinander und kann der Wellmanschen Idee eines “vernetzten Individualismus” als neue Gemeinschaftsform nicht viel abgewinnen. Zurecht. Hellmanns Fazit sollte man sich im Zeitalter des Social Graph ruhig einmal auf der Zunge zergehen lassen: “Unstrittig ist: Jede ‘Community‘ ist ein ‘social network’, dies gilt umgekehrt
      aber keineswegs.”

    • Mit Amateurvideos gegen den Staat? Das berlin Institute aus, nun, Berlin versucht diesen Trick und hat ein “Video zur fragwürdigen Unabhängigkeit von Tagesschau und NDR-Rundfunkratins Netz gestellt. Das Ziel ist eine möglichst weitläufige virale Ausbreitung des Materials, mit dem nachgewiesen werden soll, dass das gegenwärtige Rundfunkkontrollsystem nicht funktioniert und mehr Transparenz und Expertise verdient hätte. Bis jetzt sieht es ganz gut aus – zumindest was die Viralität betrifft.
    • Weblog-Geringverdiener Jeff Jarvis zeichnet die Zukunft von Medien und Nachrichten in sein Blog. Der alte Filter der Presse – zwischen der Welt und uns – wird ersetzt durch eine heterogene und pluralisierte “Presse-Sphäre”, in der viele Quellen zur individuellen Konstruktion einer Story herangezogen werden können und Feeds dafür sorgen, dass wir auf dem Laufenden bleiben. Der große Unterschied zwischen Print und Online: “In print, the process leads to a product. Online, the process is the product.” Die neuen Nachrichten sind nicht mehr in Ressorts organisiert, sondern um Themen, Tags oder Geschichten, “because the notion of a section is as out of date as the Dewey Decimal System“.
    • Solche Listen werden wir in Zukunft noch häufiger sehen: Josh Bernoff hat neun Gründe gesammelt, warum Menschen Social Media nutzen: Freundschaften pflegen, neue Freunde finden, sozialer Druck, seinen Beitrag leisten, Altruismus, Exhibitionismus, Kreativität, Selbstbestätigung und Affinität. Daraus folgt ein wichtiger Hinweis an die Macher von Social Software: “Respect this diversity.”
    • Auch der Altmeister der Medienkonvergenztheorie, Henry Jenkins, meldet sich wieder zu Wort und erörtert auf dem C3-Blog das Thema: “Why academics should blog…” Er betont insbesondere die Bedeutung von Weblogs für die Sichtbarkeit junger Forscher: “increasingly, younger researchers are using blogs as resources for reputation building, especially in cutting-edge fields that lack established authorities.” Außerdem ermöglichen Wissenschaftlerblogs eine proaktive Haltung gegenüber den Massenmedien: Wir bloggende Wissenschaftler warten nicht mehr, bis wir von Journalisten zu einem Thema befragt werden, sondern reden einfach los. “Just-in-time-Scholarship” nennt Jenkins das.


    Verwandte Artikel:
  • Stapelverarbeitung
  • Stapelverarbeitung – 15.04.2008
  • Stapelverarbeitung – 16.4.2008
  • Unterwegs ins Semantische Netz oder: Was sind XFN, FOAF und SPARQL?

    sw-horz-w3c.pngVor wenigen Tagen zitterten Blogosphäre und Web2.0 vor Aufregung: Yahoo, so hieß es, würde große Nachrichten bekanntgeben, die das Netz zu einem besseren Ort machen würde. Also konnte es schon einmal nicht um die Übernahme durch AOL gehen. Tatsächlich gab Yahoo am Freitag bekannt, dass das Unternehmen sich von nun an als Evangelist des Semantic Web betrachten will.

    Worum geht es im Semantic Web? Die grundlegende Idee ist schnell erzählt: Die Informationen, die wir auf unseren Homepages, in unseren Blogs und Social Networks hinterlegen, sollen maschinenlesbar werden. Die nur für Menschen entzifferbare Aussage “X ist ein Kollege von mir” soll nun zusätzlich mit Hilfe von Mikroformaten wie XFN (kurz für “XHTML Friends Network”) oder FOAF (Akronym für “Friend of a Friend”) derart ausgezeichnet werden, dass ein entsprechender Parser sie verstehen kann. Das kann dann zum Beispiel so aussehen (“friend met” verweist hier auf eine befreundete Person, die der Verlinkende schon im wirklichen Leben getroffen hat):


    <a href="http://www.wissenswerkstatt.net/" rel="friend met">Marcs Wissenswerkstatt</a>

    Davon erhofft man sich einen besseren Zugriff auf die im Web 2.0 gespeicherten Informationen. So könnte man zum Beispiel mit Personensuchmaschinen auf diese Weise nicht nur erfahren, auf welchen Internetseiten der Name einer Person auftaucht, sondern zudem auch Dinge wie: die eigene Homepage der Person, die Seiten seiner Freunde und Arbeitskollegen, seine Profile bei Facebook, Twitter, Xing usw. Es geht also um die Übertragung der realen Beziehungsnetzwerke (“everyone’s connected”) in die digitale Sphäre (“social graph”). Das Internet wird dadurch sehr viel enger und aussagekräftiger verlinkt als bisher:

    Linked Data is about using the Web to connect related data that wasn’t previously linked, or using the Web to lower the barriers to linking data currently linked using other methods.

    So praktisch das sein mag, wenn es darum geht, seine Freunde und Bekannte im Netz ausfindig zu machen – ganz abgesehen davon, dass ein derart ausgezeichnetes Netz die wildesten Träume vieler Netzwerkanalytiker übertreffen würde –, so problematisch ist diese Entwicklung, was die Missbrauchmöglichkeiten betrifft.

    Was geschieht, wenn meine Seite (und damit meine virtuelle Identität) mit einer Person aus organisiert-kriminellem oder terroristischem Umfeld per Mikroformat verknüpft werden? Die Stärke eines dezentralen Systems (es gibt keinen “Datenbankadministrator, der Gott spielen kann”) werden hier zur Schwäche. Denn: Wer garantiert, dass die Verbindungen zu meiner Person, die auf anderen Webseiten formuliert werden, auch tatsächlich zutreffen? Denn die meisten dieser Formate sind, anders als LinkedIn-, Xing- oder Facebook-Freundschaften, nicht nur dezentral, sondern auch unidirektional, d.h. sie müssen nicht bestätigt werden.

    Verschärft wird dieses Problem noch durch die Permanenz des Internet: wenn einmal an einer Stelle eine Beziehungsaussage über mich getroffen wurde, kann diese möglicherweise nicht mehr gelöscht werden, da sie über Archive aufgefunden werden kann (so scheint das Google Social Graph API, kurz: SGAPI, Beziehungsdaten zu cachen) oder bereits in zahlreiche FOAF-Datensätze auf anderen Seiten integriert wurde. Denn eine sinnvolle Möglichkeit, Beziehungsclaims zu zitieren (“Ich sage, dass Markus gesagt hat, Anne ist mit Peter befreundet”) gibt es meines Wissens noch nicht.

    Das hat zur Folge, darauf hat danbri in seinem VortragSocial Network Portability” am 1. März in Cork hingewiesen, dass derartige Aussagen nicht als Tatsachenaussagen betrachtet werden dürfen, sondern nur als Behauptungen (“Claims”). Ein Semantic Web-Parser muss also in Betracht ziehen, welche Person hinter einer FOAF-Aussage steckt.

    Einen möglichen Ausweg stellen Systeme wie SPARQL (kurz für “SPARQL Protocol and RDF Query Language”) da, die nicht nur die Aussagen aus dem semantischen Netz ziehen, sondern sich darüber hinaus auch dafür interessieren, an welcher Stelle und von welchem Akteur die Aussagen gemacht wurden. Hier geht es also nicht nur um die Frage: “Wer ist mit Peter befreundet?” sondern um “Wer sagt, dass Anne mit Peter befreundet ist?”

    Momentan laufen erste Versuche, WordPress SPARQL-freundlich zu machen (“SparqlPress”). Damit werden zwei Ziele verfolgt: zum einen über einzelne Blogs Daten bereitzustellen, die mit SPARQL abgerufen werden können. Dadurch kann dann zum anderen das eigene Blog in eine automatisch aktualisierte Kontaktdatenbank verwandelt werden. Auf Grundlage der eigenen Kontaktliste können dann Aktivitätsströme erstellt werden, ähnlich zu den Facebook- und Xing-Statusmeldungen oder zu neuen Lifestream-Diensten wie Friendfeed. Mit dem FOAFnaut gibt es auch schon ein graphisches Interface, um das eigene FOAF-Kontaktnetzwerk zu visualisieren.

    Wahrscheinlich lassen sich die Veränderungen, die sich durch die allmähliche Etablierung des Semantischen Netzes für das digitale Identitäts- und Beziehungsmanagement ergeben werden, überhaupt noch nicht in ihrer ganzen Tragweite erkennen. Zwei Punkte scheinen mir jedoch absehbar:

    • Klar ist, dass die in diesem Ausmaß noch nie da gewesene Archivierung und öffentliche Zugänglichkeit von Beziehungsdaten das digitale Identitäts- und Beziehungsmanagement zu einer sehr viel komplexeren Aufgabe machen wird. Das Prinzip “security through obscurity” wird es für diesen Bereich nur noch rudimentär geben: meine sozialen Beziehungen sind nicht mehr Teil der Privatsphäre, sondern öffentlich einsehbar.
    • Das professionelle Reputationsmanagement wird ein sehr wichtiges Geschäftsfeld werden, da für den Normalbürger die Kanäle gar nicht mehr absehbar sind, über die Informationen über die eigene Person verbreitet werden. Früher konnte man sich schon denken, wer ein Gerücht in die Welt gesetzt hat, heute sind es anonyme Maschinen, die Informationen aus unterschiedlichen Quellen kombinieren und als Ergebnis dann z.B. ein mit Ortskoordinaten versehenes Bild der eigenen Familie ausspucken.
    • Zugleich wird sich dadurch auch das Wesen der Suchmaschinen verändern, die nicht mehr allein zum Abrufen von Textinhalten genutzt werden können, sondern auch zum Abfragen von Beziehungsdaten.

    Frei nach Kisch könnte man also schlussfolgern: Mit den Möglichkeiten des Semantischen Netz wird das Leben schöner, aber unsicherer.



    Verwandte Artikel:
  • Netzwerkvisualisierung mit TwitterFriends
  • Netz, Web und Graph: Idealismus reloaded
  • Die Zukunft des WWW (Richard MacManus)
  • Wolkige Semantik – Clouds und Grids

    1807465362_128d367a84.jpg

    Dein Reich ist in den Wolken
    und nicht von dieser Erde
    (Brentano)

    In einem sehr informativen Beitrag beschreibt Martin Weigert das Phänomen des „Cloud Computing“. Was ist darunter zu verstehen?

    Als Cloud Computing wird ein Zustand bezeichnet, bei dem Anbieter von Internetdiensten die benötigte Software und Hardware nicht mehr selber betreiben, sondern an externe Dienstleister auslagern. Diese verfügen über leistungsstarke Datencenter und stellen Webunternehmen die gewünschten/benötigten Ressourcen für ihre Applikationen gegen Entgelt bereit.

    Viele der Webservices wie Gmail oder YouTube funktionieren bereits auf der Grundlage von Clouds: die Daten werden nicht auf dem heimischen Rechner gespeichert und auch nicht unbedingt auf dem Rechner, auf dem die Internetanwendung läuft – häufig ist dieser selbst gar nicht mehr eindeutig identifizierbar, sondern die Anwendungen arbeiten gewissermaßen auf einem verteilten Netz von Rechnern. Die Vorteile sind: Ausfallsicherheit und Skalierbarkeit.

    Damit wird das Grundprinzip (und Erfolgsgeheimnis) des Internet überhaupt fortgesetzt: die mehr oder weniger willkürliche Verteilung von Aufgaben auf ein Netzwerk. Schon das Protokollpaar TCP/IP funktioniert so, dass bei einer einzelnen Internetanfrage nur Start- und Zielpunkt klar identifizierbar sind, nicht aber die zahlreichen Stationen, über die eine Nachricht durch das Netz geleitet wird. Das Netz ist eine Black Box, in der zahlreiche Mikroeinheiten selbständig entscheiden, auf welchen Weg eine Nachricht weitergereicht wird.

    Mit dem Cloud Computing wird auch der Zielpunkt von Anfragen unscharf, denn dieser Rechner leitet ebenfalls nur Anfragen an ein weiteres Netzwerk – die Cloud (z.B. Amazons EC2 oder Mosso) – weiter, in der dann tatsächlich die Datenabfragen stattfinden. Im alten Netz war es tatsächlich eine Ressource, die ich abfragen konnte. Eine Textdatei, die dann physisch auf meinen Rechner transferiert („abgerufen“) wurde. Wenn jemand diese Datei gelöscht hat, war sie nicht mehr abrufbar. Mit der „Vercloudung“ des Netz wird auch diese Datei zum Simulacrum. Gleichzeitig verliert auch der Ausgangspunkt der Ressource an Bedeutung: Das Betriebssystem ist selbst eine Cloud und findet online statt. Martin nennt icloud, Cloudo, eyeOS, ajaxWindows, myGoya und jooce als frühe Beispiele – Google, Facebook und Microsoft werden vielleicht folgen.

    Doch möglicherweise ist das Cloud Computing nur der Übergang zu einer noch viel grundlegenderen Auflösung: dem Grid-Computing oder Grid-Hosting(siehe auch hier). Denn man kann einzelne Clouds wie zum Beispiel die einzelnen Datencenter von Google oder Amazon immer noch identifizieren – zwar nicht der Nutzer aber die Programmierer, die auf die Clouds zurückgreifen. Der Begriff trifft es eigentlich recht gut: Wolken kann man zumindest kurzzeitig klar voneinander abgrenzen, allerdings neigen sie dazu, ihr Erscheinungsbild über die Zeit zu verändern, sich zu teilen oder zu verschmelzen.

    Im Grid geht diese wenigstens vorübergehende Unterscheidbarkeit ebenfalls verloren und das Grid „entscheidet“ selbst, welche Schritte der Datenverarbeitung auf welchen Rechnern oder eben Clouds ausgeführt werden – ähnlich wie das TCP/IP-Protokoll. Das Netz wird zum eigenständigen Akteur bzw. einer nicht-deterministischen Maschine im Sinne Heinz von Foersters: Man kann Inputs und Outputs noch einigermaßen feststellen, doch davon nicht auf die Prozesse schließen, die im Inneren der Black Box abgelaufen sind, um die Inputs in Outputs zu verwandeln.

    Aktuell kenne ich aber nicht besonders viele brauchbare Anwendungsfälle des Cloud/Grid-Computing. Eine spannende Sache ist das Zusammenschalten von mehreren Wörterbüchern im Wörterbuchnetz. Was gibt es da noch?

    (Abbildung “Power Grid” von JeffersonDavis)



    Verwandte Artikel:
  • Manager-Magazin macht Google überflüssig
  • Das Ende der URL – “Google ‘viralmythen’ to find out more”
  • RT: Homo sapiens sapiens
  • Die walled gardens öffnen sich ein Stückchen: Google, Facebook und Plaxo engagieren sich für Datenportabilität

    meister_des_frankfurter_paradiesgartleins_001.jpgGerade eben habe ich gelesen, dass sich Google, Plaxo und Facebook der DataPortability-Workgroup angeschlossen haben und somit vielleicht der walled garden-Charakter der digitalen sozialen Netzwerke (Kosmar nennt das ein “Datengrab“) bald der Vergangenheit angehören könnte. Worum geht es dieser Arbeitsgemeinschaft? Mit dem Slogan “Sharing is Caring” soll auf Grundlage bestehender Technologien und Standards wie OpenID, APML, Microformats, RDF, RSS, OPML und OAuth erreicht werden, dass beispielsweise die Daten zwischen sozialen Netzwerken wie Facebook, MySpace und Xing ausgetauscht werden können. Bislang war das nur schwer möglich.

    Für mich ist das nur eine folgerichtige Entwicklung, die bestehende Netzwerktechnologien näher an die immer wieder verwendete Community-Metapher heranführt. So kann man unterscheiden zwischen objektzentrierten und personenzentrierten Netzwerken. Bei objektzentrierten Netzwerken kann die Verbindung zwischen den Mitgliedern einer virtuellen Gemeinschaft auf Grundlage geteilter Objekte bestehen. Das kann das Abspeichern eines Hyperlinks sein oder die Leidenschaft für das Musikhören. Anders bei personenzentrierten Netzwerken, in denen Beziehungen zwischen Personen abgebildet werden, die ganz unterschiedlicher Art und Stärke sein können. Facebook-Mitglieder haben nicht sehr viel mehr gemeinsam als dass sie sich mit Hilfe dieser social software vernetzen. Dasselbe gilt für Xing-Nutzer.

    Da man aber die dort eingegebenen Personendaten und vor allem die dort abgespeicherten Verbindungen bislang nicht transportieren konnte, bestanden diese Verbindungen streng genommen nicht zwischen den Personen, sondern ihren jeweiligen Netzwerk-Avataren. Wenn Facebook-Bob mit Facebook-Anne verbunden ist, bedeutet das noch lange nicht, dass auch Xing-Bob und Xing-Anne eine Verbindung besitzen. De:bug fasst das schön knapp in der Formel zusammen: “Dein Social Graph war nie deiner”. Außerdem ist man in diesem Modell immer an das Wohlwollen des Anbieters gebunden, der jederzeit Personen sperren konnte wie jüngst Blogdampfinallengassen Robert Scoble.

    Genau an dieser Stelle greifen die oben erwähnten Standards ein, die für die Verwirklichung einer grundlegenden “Webdienste-Freiheit 0” sorgen könnten, also dafür, dass Daten portierbar werden und man – im Idealfall – mit wenigen Mausklicks seine soziale Umwelt, in der man sich in einem Netzwerk bewegt auch in anderen nachbauen kann. Hier kann man dann von tatsächlichen sozialen Beziehungen sprechen und in Folge auch von einer echten (plattformunabhängigen) Community. Mal sehen, was in der Praxis daraus wird und vor allem: welche Lösung die Anbieter von social networking für das Problem finden, dass mit der Transportabilität sozialer Beziehungen auch der Wert der von den Nutzern in der Software hinterlassenen Personendaten schwindet. Vielleicht erweist sich ja das targeted advertising als brauchbare alternative Monetarisierungsquelle.

    Andere zu diesem Thema:

    • Robert Basic packt die Problematik in eine Kaffeehausmetapher und stellt fest: “Sobald ich ein Cafe betrete, werde ich aufgefordert, andere User einzuladen. Wenn ich wieder rausgehe, kann ich meine Freunde nicht mitnehmen, die bleiben als Geiseln, damit ich wiederkomme, ja oft und lange wiederkomme.”
    • Thomas Pleil hält für möglich, dass Facebook und Google der Arbeitsgemeinschaft vor allem deshalb beigetreten sind, um sich auf dem Laufenden zu halten, was zu diesem Thema so alles diskutiert wird. Außerdem ist Datenportabilität nur dann sinnvoll, wenn sich die Netzwerke tatsächlich voneinander unterscheiden.
    • Ähnlich sieht das auch Uli Kutting, der einen Wandel von “SNs (Social Networks)” zu “SINs (Special Interest Networks)” sieht.

    (Abbildung: Das Paradiesgärtlein, Maria im beschlossenen Garten mit Heiligen, um 1410)



    Verwandte Artikel:
  • Wird Google die Spielregeln für das Social Networking verändern?
  • Was ist Googles Open Social und wozu brauche ich das?
  • MS Facebook