Archive for the 'amazon' Category

Am Germanistenwesen soll das Web genesen

“Hässliches Gesicht”, “Fratze”, “Schlauchbootlippen”, “zweifelhaft”, “Laien”, “scheinbare Meinungsfreiheit”, “Mob”, “Manipulation”, “unseriös”, “Lächerlichkeit”, “Nonsense”, “Verschmutzer des Internet” – nein, hier ist nicht, wie man zunächst denken möchte, von Universitätsprofessoren die Rede, sondern vom Internet. Pardon, in diesen Kreisen sagt man ja “Selbstmach- und Mitmachweb”, damit auch dem letzten Ignoranten deutlich wird, dass nicht die Onlineausgabe von Max Webers Werken gemeint ist, sondern der nicht mehr zu bewältigenden Flut des “User-generated Nonsense”.

Dieses Mal erklärt Oliver Bendel – er ist “Germanist und Philosoph und arbeitet als Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz” – uns auf Telepolis das ganze Grauen des Web 2.0. Man kann es auch in wenigen Worten zusammenfassen: Ein Ort, an dem eine bildungsbürgerliche Ikone wie Joachim Kaiser neben Gossenkindern wie den anonymen Amazon-Rezensentinnen zu finden ist, ist ein böser Ort.

Hier könnte ich es eigentlich bei meiner Standardantwort beruhen lassen: “Lerne zu unterscheiden, und du wirst das Web lieben”. Auch ein Germanistikprofessor dürfte wenigstens im Prinzip erkenntnisfähig sein und (mühsam, aber dennoch) lernen können, einen nach allen Regeln der Literaturkritik verfassten MRR-Verriss von einem anonymen “Ist voll blöd das Buch!11!” zu unterscheiden. Auch wenn Google auf den Suchergebnisseiten diesen Qualitätsunterschied nicht farblich anzeigt. Wenn das Differenzierungsvermögen von dieser Aufgabe überfordert ist, ist das ein Problem der Medienkompetenz und kein Problem des Web 2.0!

Aber ich glaube, dass es hier um mehr geht als das bloße Überfordertsein eines Gutenbergianers, der sich widerwillig in der McLuhan-Galaxie zurechtfinden muss. An einigen Stellen schwingt eine bedrohliche Tendenz mit, die nicht allein nach besseren Filtern oder Instrumenten für den eigenen Gebrauch ruft, sondern nach einem großer Reinigungsaktion im Mitmachweb. Am Germanistenwesen soll das Web genesen. Die Gegenüberstellung der “scheinbaren, grenzenlosen Meinungsfreiheit” von Bloggern und Amazonschreibern (= “Rezensentenmob”) und der “echten Meinungsfreiheit” der kulturellen Elite von Gestern wäre ein Beispiel. Der folgende “Lösungsvorschlag” des Qualitätsproblems ein weiteres:

Wenn uns unsere Literatur etwas wert ist, sollten wir Talente mit ihr flirten und den Mob nicht über sie herfallen lassen.

Im Namen “unserer Literatur” (also des von der Literaturkritik bestimmten, definierten und verehrten Kanons) sollen also Meinungen von Laien ausgeklammert, ignoriert oder bekämpft werden? Von allen dämlichen Kampfschriften gegen das Internet der letzten Wochen ist das hier eindeutig die drolligste.



Verwandte Artikel:
  • 200% Internetwachstum in Deutschland?
  • Manager-Magazin macht Google überflüssig
  • Neues metaroll-Feature: Neue Blogs
  • Wolkige Semantik – Clouds und Grids

    1807465362_128d367a84.jpg

    Dein Reich ist in den Wolken
    und nicht von dieser Erde
    (Brentano)

    In einem sehr informativen Beitrag beschreibt Martin Weigert das Phänomen des „Cloud Computing“. Was ist darunter zu verstehen?

    Als Cloud Computing wird ein Zustand bezeichnet, bei dem Anbieter von Internetdiensten die benötigte Software und Hardware nicht mehr selber betreiben, sondern an externe Dienstleister auslagern. Diese verfügen über leistungsstarke Datencenter und stellen Webunternehmen die gewünschten/benötigten Ressourcen für ihre Applikationen gegen Entgelt bereit.

    Viele der Webservices wie Gmail oder YouTube funktionieren bereits auf der Grundlage von Clouds: die Daten werden nicht auf dem heimischen Rechner gespeichert und auch nicht unbedingt auf dem Rechner, auf dem die Internetanwendung läuft – häufig ist dieser selbst gar nicht mehr eindeutig identifizierbar, sondern die Anwendungen arbeiten gewissermaßen auf einem verteilten Netz von Rechnern. Die Vorteile sind: Ausfallsicherheit und Skalierbarkeit.

    Damit wird das Grundprinzip (und Erfolgsgeheimnis) des Internet überhaupt fortgesetzt: die mehr oder weniger willkürliche Verteilung von Aufgaben auf ein Netzwerk. Schon das Protokollpaar TCP/IP funktioniert so, dass bei einer einzelnen Internetanfrage nur Start- und Zielpunkt klar identifizierbar sind, nicht aber die zahlreichen Stationen, über die eine Nachricht durch das Netz geleitet wird. Das Netz ist eine Black Box, in der zahlreiche Mikroeinheiten selbständig entscheiden, auf welchen Weg eine Nachricht weitergereicht wird.

    Mit dem Cloud Computing wird auch der Zielpunkt von Anfragen unscharf, denn dieser Rechner leitet ebenfalls nur Anfragen an ein weiteres Netzwerk – die Cloud (z.B. Amazons EC2 oder Mosso) – weiter, in der dann tatsächlich die Datenabfragen stattfinden. Im alten Netz war es tatsächlich eine Ressource, die ich abfragen konnte. Eine Textdatei, die dann physisch auf meinen Rechner transferiert („abgerufen“) wurde. Wenn jemand diese Datei gelöscht hat, war sie nicht mehr abrufbar. Mit der „Vercloudung“ des Netz wird auch diese Datei zum Simulacrum. Gleichzeitig verliert auch der Ausgangspunkt der Ressource an Bedeutung: Das Betriebssystem ist selbst eine Cloud und findet online statt. Martin nennt icloud, Cloudo, eyeOS, ajaxWindows, myGoya und jooce als frühe Beispiele – Google, Facebook und Microsoft werden vielleicht folgen.

    Doch möglicherweise ist das Cloud Computing nur der Übergang zu einer noch viel grundlegenderen Auflösung: dem Grid-Computing oder Grid-Hosting(siehe auch hier). Denn man kann einzelne Clouds wie zum Beispiel die einzelnen Datencenter von Google oder Amazon immer noch identifizieren – zwar nicht der Nutzer aber die Programmierer, die auf die Clouds zurückgreifen. Der Begriff trifft es eigentlich recht gut: Wolken kann man zumindest kurzzeitig klar voneinander abgrenzen, allerdings neigen sie dazu, ihr Erscheinungsbild über die Zeit zu verändern, sich zu teilen oder zu verschmelzen.

    Im Grid geht diese wenigstens vorübergehende Unterscheidbarkeit ebenfalls verloren und das Grid „entscheidet“ selbst, welche Schritte der Datenverarbeitung auf welchen Rechnern oder eben Clouds ausgeführt werden – ähnlich wie das TCP/IP-Protokoll. Das Netz wird zum eigenständigen Akteur bzw. einer nicht-deterministischen Maschine im Sinne Heinz von Foersters: Man kann Inputs und Outputs noch einigermaßen feststellen, doch davon nicht auf die Prozesse schließen, die im Inneren der Black Box abgelaufen sind, um die Inputs in Outputs zu verwandeln.

    Aktuell kenne ich aber nicht besonders viele brauchbare Anwendungsfälle des Cloud/Grid-Computing. Eine spannende Sache ist das Zusammenschalten von mehreren Wörterbüchern im Wörterbuchnetz. Was gibt es da noch?

    (Abbildung “Power Grid” von JeffersonDavis)



    Verwandte Artikel:
  • Manager-Magazin macht Google überflüssig
  • Das Ende der URL – “Google ‘viralmythen’ to find out more”
  • RT: Homo sapiens sapiens
  • Amazon als Turing-Maschine

    Ein sehr beliebtes Thema in der Science-Fiction-Literatur ist der Turing-Test und die damit verbundene Frage, wie man prinzipiell zwischen menschlicher und nicht-menschlicher Intelligenz unterscheiden kann. Ich denke zum Beispiel an Nell, die Protagonistin von Neal Stephensons “The Diamond Age”, die im Schloss Turing gefangen ist und herausfinden muss, ob ihr Widersacher, der “Duke of Turing” Mensch oder Maschine ist. Schließlich kommt sie durch die Unfähigkeit, des Herzogs, zwischen den Zeilen ihrer Botschaften zu lesen, zum Ergebnis, dass sie es nur mit einer pseudointelligenten Maschine zu tun hat: “a Turing machine, no matter how complex, was not human. It had no soul. It could not do what a human did”.

    Auch im Internet kann man immer wieder auf Situationen stoßen, in denen nicht klar ist, ob eine Information menschlichen oder maschinellen Ursprungs ist. Ein aktuelles Beispiel: Betrachtet man auf der Seite von Amazon Bücher aus der aktuellen Topliste des Time-Magazine (vgl. auch die ausführliche Darstellung in der Wissenswerkstatt), dann sieht man in den Empfehlungen jeweils andere Werke aus dieser Liste, die jedoch thematisch mit dem jeweiligen Buch nicht viel zu tun haben. So empfiehlt Amazon mir zusammen mit der wissenschaftlichen Dystopie “The World Without Us” auch die Steve Martin-Biographie “Born Standing Up” zu erwerben. Und Alex Ross Darstellung der modernen Musik “The Rest Is Noise” wird gekoppelt dem Buch “The Nine: Inside the Secret World of the Supreme Court” von Jeffrey Toobin. Diese Bücher verbindet nur ihr Auftauchen in der Times-Liste.

    amazon.png

    Sind diese Verbindungen das Ergebnis der Arbeit eines echten Menschen, der die Times-Liste gelesen hat und dementsprechend die Amazon-Empfehlungen händisch in das System einträgt (auf dem DLD wurde schließlich auch das, allerdings von Marissa Meyer dementierte, Gerücht geäußert, Google bessere die Suchergebnisse per Hand nach)? Oder werden die Empfehlungen pseudointelligent-maschinell errechnet – auf Grundlage von einer hinreichend großen Menschenzahl, die ihre Privatbibliothek mit den Empfehlungen des Times-Magazine auffüllen? Oder ist die Unterscheidung zwischen “echten Menschen” und “künstlichen Maschinen” altmodisch?



    Verwandte Artikel:
  • Neue Medientheorie
  • Interaktive Fiktion auf Spreeblick
  • Jenseits der Virus-Analogie
  • Jenseits der Virus-Analogie

    marburg.jpgSurj Patel und Mark Hendrickson diskutieren über einen Ausweg aus dem Nicht-Verfügbarkeitsproblem von Facebook-Anwendung.

    Man hat die Verbreitung der Third-Party-Applications auf Facebook schon des Öfteren mit dem Begriff “viral” beschrieben, da die Verbreitung der Anwendungen ganz wesentlich darauf gründet, dass man selbst sieht, wer von den eigenen “Freunden” diese Anwendung nutzt bzw. ausprobiert. Diese Viralität hat aber auch ihre Tücken, da die Entwickler (häufig Amateure) nicht vorhersehen können, ob und wann dieser virale Effekt zuschlägt und der selbstprogrammierten Anwendung eine exponentielle Steigerung der Nutzerzahlen beschert. Die Lösung für dieses Problem, unter dem dann nicht nur die Anwendungsentwickler, sondern auch Facebook leiden, liegt nach Surj Patel in neuen Diensten wie S3 und EC2 (angeboten von Amazon), in denen man Bandbreite und Prozessorpower nach Bedarf bezahlt. Anders als im wirklichen Leben gibt es hier also eine digitale Impfung gegen den Virus-Effekt, die auch noch weitgehend nebenwirkungsfrei zu sein scheint.
    (Abbildung von AJC1)



    Verwandte Artikel:
  • Minervas Eule 2.0
  • Was sind Twitter-Blocks?
  • Wie man Shitstorms erkennt und bewertet