Daily Archive for Februar 27th, 2008

Reputationsmanagement und “Google’s unforgiving memory” – Soloves Buch “The Future of Reputation” als eBook downloadbar

reputation.pngDie ehrwürdige Yale University Press (vor 100 Jahren gegründet) macht es vor: Das aktuelle Buch von Daniel Solove (Unihomepage, Blog), das sich mit dem Problem des digitalen Reputationsmanagements befasst, wurde unter einer Creative Commons-Lizenz veröffentlich und lässt sich kapitelweise als PDF-Dokumente herunterladen.

Nachdem Solove in dem Vorgänger “The Digital Person” die Datensammelwut der Unternehmen und des Staats unter die Lupe genommen hat, geht es in “The Future of Reputation” jetzt um die Informationen, die wir – die Internetnutzer – freiwillig über uns verbreiten. Zum Problem wird das Ganze dann, wenn man Informationen über sich selbst veröffentlicht hat, die man später bereut (Star Wars-Kid oder gerade eben erst Nicolas Sarkozy). Oder noch schlimmer: Wenn andere Personen reputationsschädigende Informationen über einen selbst verbreiten, die dann kaum mehr kontrolliert werden können (also digitale Rufmorde oder Hexenjagden wie in dem Fall des koreanischen “dog-poop girl“, den Solove zitiert, oder z.B. die BILD-Leserreporter). Doch gleichzeitig gilt es auch das grundlegende Recht auf freie Meinungsäußerung zu bewahren. Das ist das Spannungsfeld, mit dem sich Solove in dem Buch auseinandersetzt:

This is a book about how the free flow of information on the Internet can make us less free.

Es geht also um das Problem der Freiheit im Internet. Auf der einen Seite die ganzen positiven Effekte, die zum Beispiel mit dem Bloggen verbunden sind, wie zum Beispiel die Unabhängigkeit von Redakteuren und Zeilenlimits:

Blogging brings instant gratification. I can quickly work up my thoughts into a post and publish them to the website for the world to read. People then post comments, and I can have a discussion with them. Blogging has allowed me to explore many an idea that might have languished in a forgotten corner of my mind.

Auf der anderen Seite gelangen über Blogs auch Informationen in die mittlerweile globalisierte und unvergängliche – Google ist ein “grausamer Historiker” – Internetöffentlichkeit, die die persönliche Freiheit des Bloggers oder anderer Personen einschränken können. Schnell wird dabei deutlich, dass man im Fall der “Generation Google” mit den herkömmlichen Unterscheidungen wie etwa zwischen einer (i.d.R. häuslichen) Privatsphäre und einer öffentlichen Sphäre nicht mehr so richtig weiter kommt. Sind Blogs öffentliche oder private Meinungsäußerungen? Agora oder Tagebuch?

2227505888_4bd1090c41_m.jpgDazu kommt, dass die Viralität des Internets (endlich einmal kann ich dem Titel dieses Blogs gerecht werden) die für die moderne funktional-differenzierte Gesellschaft grundlegende Unterteilung in verschiedene mehr oder weniger isolierte Sphären hinfällig machen kann. Funktionale Differenzierung (“Teilinklusion”) garantiert, dass das, was ich mit meinen Arbeitskollegen, mit meinem Weinhändler und mit meinen Kindern bespreche, nicht ineinander fließt, sondern mir erlaubt, verschiedene Rollen einzunehmen: wissenschaftlicher Mitarbeiter, Kunde und Vater. Mit MySpace, Facebook und Weblogs gibt es immer mehr Lecks in diesem Differenzierungsgebäude, die mittlerweile das neue Geschäftsfeld des Reputationsmanagements ins Leben gerufen haben:

Everybody’s googling. People google friends, dates, potential employees, long-lost relatives, and anybody else who happens to arouse their curiosity.

Mittlerweile gibt es sogar bereits spezialisierte Personensuchmaschinen wie yasni.

Der erste Teil des Buches versucht sich in einer Bestandaufnahme der digitalen Reputation von den neuen Techniken der Informationsverbreitung über den Wandel von Klatsch im digitalen Zeitalter bis hin zu Praktiken des naming and shaming. Der zweite Teil zieht dann rechtliche Schlussfolgerungen daraus und bearbeitet das Spannungsfeld zwischen freier Meinungsäußerung und Rufschädigung anderer, formuliert einen angemessenen Begriff der Privatsphäre und wirft einen Blick auf die rechtlichen Regulierungsmöglichkeiten.

Ich habe bis jetzt nur das erste Kapitel ganz gelesen und in den Rest nur kurz hineingesehen, möchte aber auf jeden Fall schon einmal eine Leseempfehlung aussprechen. Und dann am besten das Buch auch noch in der Papierversion kaufen, damit sich das CC-Experiment für den Yale-Verlag lohnt. (via)

(Abbildung “Spanish Wine Shop 1873″ von souravdas)



Verwandte Artikel:
  • Vom Ego-Googeln zum Reputationsmanagement: Vier Fragen an Klaus Eck
  • Wer bestimmt über die Werbung im Web?
  • Who owns what?
  • Wolkige Semantik – Clouds und Grids

    1807465362_128d367a84.jpg

    Dein Reich ist in den Wolken
    und nicht von dieser Erde
    (Brentano)

    In einem sehr informativen Beitrag beschreibt Martin Weigert das Phänomen des „Cloud Computing“. Was ist darunter zu verstehen?

    Als Cloud Computing wird ein Zustand bezeichnet, bei dem Anbieter von Internetdiensten die benötigte Software und Hardware nicht mehr selber betreiben, sondern an externe Dienstleister auslagern. Diese verfügen über leistungsstarke Datencenter und stellen Webunternehmen die gewünschten/benötigten Ressourcen für ihre Applikationen gegen Entgelt bereit.

    Viele der Webservices wie Gmail oder YouTube funktionieren bereits auf der Grundlage von Clouds: die Daten werden nicht auf dem heimischen Rechner gespeichert und auch nicht unbedingt auf dem Rechner, auf dem die Internetanwendung läuft – häufig ist dieser selbst gar nicht mehr eindeutig identifizierbar, sondern die Anwendungen arbeiten gewissermaßen auf einem verteilten Netz von Rechnern. Die Vorteile sind: Ausfallsicherheit und Skalierbarkeit.

    Damit wird das Grundprinzip (und Erfolgsgeheimnis) des Internet überhaupt fortgesetzt: die mehr oder weniger willkürliche Verteilung von Aufgaben auf ein Netzwerk. Schon das Protokollpaar TCP/IP funktioniert so, dass bei einer einzelnen Internetanfrage nur Start- und Zielpunkt klar identifizierbar sind, nicht aber die zahlreichen Stationen, über die eine Nachricht durch das Netz geleitet wird. Das Netz ist eine Black Box, in der zahlreiche Mikroeinheiten selbständig entscheiden, auf welchen Weg eine Nachricht weitergereicht wird.

    Mit dem Cloud Computing wird auch der Zielpunkt von Anfragen unscharf, denn dieser Rechner leitet ebenfalls nur Anfragen an ein weiteres Netzwerk – die Cloud (z.B. Amazons EC2 oder Mosso) – weiter, in der dann tatsächlich die Datenabfragen stattfinden. Im alten Netz war es tatsächlich eine Ressource, die ich abfragen konnte. Eine Textdatei, die dann physisch auf meinen Rechner transferiert („abgerufen“) wurde. Wenn jemand diese Datei gelöscht hat, war sie nicht mehr abrufbar. Mit der „Vercloudung“ des Netz wird auch diese Datei zum Simulacrum. Gleichzeitig verliert auch der Ausgangspunkt der Ressource an Bedeutung: Das Betriebssystem ist selbst eine Cloud und findet online statt. Martin nennt icloud, Cloudo, eyeOS, ajaxWindows, myGoya und jooce als frühe Beispiele – Google, Facebook und Microsoft werden vielleicht folgen.

    Doch möglicherweise ist das Cloud Computing nur der Übergang zu einer noch viel grundlegenderen Auflösung: dem Grid-Computing oder Grid-Hosting(siehe auch hier). Denn man kann einzelne Clouds wie zum Beispiel die einzelnen Datencenter von Google oder Amazon immer noch identifizieren – zwar nicht der Nutzer aber die Programmierer, die auf die Clouds zurückgreifen. Der Begriff trifft es eigentlich recht gut: Wolken kann man zumindest kurzzeitig klar voneinander abgrenzen, allerdings neigen sie dazu, ihr Erscheinungsbild über die Zeit zu verändern, sich zu teilen oder zu verschmelzen.

    Im Grid geht diese wenigstens vorübergehende Unterscheidbarkeit ebenfalls verloren und das Grid „entscheidet“ selbst, welche Schritte der Datenverarbeitung auf welchen Rechnern oder eben Clouds ausgeführt werden – ähnlich wie das TCP/IP-Protokoll. Das Netz wird zum eigenständigen Akteur bzw. einer nicht-deterministischen Maschine im Sinne Heinz von Foersters: Man kann Inputs und Outputs noch einigermaßen feststellen, doch davon nicht auf die Prozesse schließen, die im Inneren der Black Box abgelaufen sind, um die Inputs in Outputs zu verwandeln.

    Aktuell kenne ich aber nicht besonders viele brauchbare Anwendungsfälle des Cloud/Grid-Computing. Eine spannende Sache ist das Zusammenschalten von mehreren Wörterbüchern im Wörterbuchnetz. Was gibt es da noch?

    (Abbildung “Power Grid” von JeffersonDavis)



    Verwandte Artikel:
  • Manager-Magazin macht Google überflüssig
  • Das Ende der URL – “Google ‘viralmythen’ to find out more”
  • RT: Homo sapiens sapiens
  • Kurzer Blick auf scholarz.net

    scholar.pngJohannes Moskaliuk konnte sich scholarz.net, das Wissensmanagementtool der Julius-Maximilians-Universität Würzburg, schon einmal als Betaversion ansehen. Im Kern geht es dabei um die Verwaltung von Ressourcen wie Literaturangaben, Zitaten, Querverweisen, Ideen und Textteilen, die dann – wir sind hier schließlich im Web 2.0 – getaggt und mit anderen Nutzern geteilt werden können. Also eine Art mehrbenutzerfähiger digitaler Zettelkasten. Sein Fazit klingt schon einmal vielversprechend:

    Diese Verknüpfung von Datenverwaltung und sozialer Netzwerkfunktion finde ich spannend und neu. Damit werden die meiner Meinung wesentlichen Aspekte des Web 2.0, nämlich Wissensemergenz und soziale Vernetzung als Mehrwert mit einem Tools bedient. Bis jetzt habe ich meine Wissen in einem Wiki gesammelt und Kontakte über XING geknüpft. Mit Scholarz.net ich beides mit einem Tool erreichen. Schöner Zusatz: Integriert ist auch eine Mailfunktion, eine Adressbuch und ein Diskussionsforum.

    Was mich nun interessieren würde, ohne dass ich schon eine Gelegenheit hatte, mir das Programm einmal anzusehen:

    • Wie sieht es mit der Datensicherheit aus? Bei Google Docs werden die Daten, so wie ich das verstanden habe, mittels Cloud Computing verteilt in verschiedenen Datacenters abgelegt, so dass im Fall eines Ausfalls immer Sicherungskopien bereit stehen. Welche Sicherungsstrategien sind für scholarz.net vorgesehen? Was heißt “Mit scholarz.net werden alle Daten zentral an einem geheimen Ort abgespeichert und sind durch mehrere Sicherheitsschranken geschützt” konkret?
    • Was geschieht mit den Urheberrechten? Im Falle von Google Docs gab es bereits einmal einige Verwirrung darüber, inwiefern Google berechtigt ist, eingestellte Dokumente weiterzunutzen.
    • Generell ist mir nicht ganz klar, wo scholarz.net über andere Online-Textverarbeitungen oder Wikis hinausgeht. Ein Killerfeature wären sicher eingebaute Kodierungsfunktionen à la atlas.ti oder MAXQDA. Ist so etwas geplant? Wie sieht es mit dem Erstellen von Fragebögen aus, was ja mittlerweile mit Google Docs möglich ist?
    • Der aktuelle Claim “Schneller promovieren!” erscheint mir doch ein bisschen eng gefasst. Einige der angesprochenen Funktionen dürften auch für andere Zielgruppen sehr interessant sein.
    • Wie sieht das Geschäftsmodell aus? Wie läuft die Finanzierung des Dienstes nach dem Ende der Projektlaufzeit?

    Auf jeden Fall bin ich weiter gespannt auf die Entwicklung dieses Services.



    Verwandte Artikel:
  • Scholarz und eine Einführung in Web 2.0 für Sozialwissenschaftler
  • Szenenforschung: “Generic EMO Boy”
  • Update zur AG Social Media