Archive for the 'technologie' Category

Instant-Märtyrer

Das Internet - eine hermetische Technologie

Das Internet - eine hermetische Technologie

Es gibt die eine oder andere Zeitung, von der bin ich Polemiken gegen und zwanghaftes Unverständnis für alles, was über das DSL-Kabel in den Rechner kommt, gewohnt. Jetzt ist auch die FAZ dazu gekommen und lässt Susanne Gaschke eine ebenso wirre wie peinliche Polemik gegen das Internet schreiben. [UPDATE: Die FAZ ist konsequent und hat diesen netzkritischen Artikel mittlerweile hinter einer 2€-schweren Paywall versteckt. Der alte Link führt deshalb ins Leere. What would Google do? Eine gespeicherte Version anbieten.]

Hut ab. Normalerweise schimpft man gegen die Banalität der Echtzeitnachrichten auf Twitter (okay, kommt in dem Artikel auch vor unter der etwas unbeholfenen Formel “Klima der Jederzeitigkeit”) oder gegen die undurchsichtige dunkle Macht GOOGLE (auch das kommt vor, gleich am Anfang). Aber hier geht es aufs Ganze: Das Internet ist schlecht. Und alle, die daran glauben, sind es ebenfalls.

Technologien, die jünger sind als das Felder-Bestellen der neolithischen Revolution, sind böse, weil man sie nicht intuitiv versteht. Weil diejenigen, die sich damit auseinandersetzen eine andere Sprache verwenden (“Cookies”, “Open Source Software” oder “Soziale Netzwerke”, ach wie schlimm, diese hermetische Sprachzauberey!) und ein Fachwissen besitzen, das nicht jedem zugänglich ist:

Ein großer Teil unseres Alltags, unserer Kommunikation mit anderen Menschen und der Art und Weise, wie wir uns informieren, liegt damit in der Hand von Experten, deren Überlegungen wir kaum nachvollziehen können.

[An dieser Stelle möge jeder Leser nach eigenem Geschmack eine Parallele zu dem ihr/ihm am gruseligsten erscheinenden Totalitarismus einfügen, der sich mit Sicherheit ebenfalls vehement gegen das Wissen der Experten ausgesprochen hat.]

Undurchsichtige Experten, Neoliberalismus und 70er-Jahre-Marxismus. Das ist in Gaschkes Augen der Konsens über das Netz im Jahr 2009. Und wer versucht, “zaghafte Kritik” an diesem Konsens anzubringen, wird sofort von den Netzjüngern mundtot gemacht: “Wer nicht uneingeschränkt für das Netz ist, ist gegen es.” Ein Argumentationsmuster, das Sektierer und Radikale aller Couleur in ihren Rhetorikschnellkursen gelernt zu haben scheinen: Zeichne ein Bild der Gesellschaft, in der die Gegenposition der Mainstream ist und mit einem Schlag bist du der aufrechte Streiter für eine vielfältige Meinung. Instant-Märtyrer.

Mit Kritik hat dieser Beitrag von Gaschke nichts mehr zu tun. Kritik heißt: einen Blick hinter die als gegeben erscheinende Wirklichkeit werfen, zeigen, wie es dazu kommen konnte. Davon findet man leider keine Spur.

Dabei hat sie in einigen Punkten tatsächlich recht. Zum Beispiel, was die Abhängigkeit von der Großtechnologie Internet betrifft. Ja, moderne Gesellschaften sind davon abhängig. Aber wahrscheinlich viel weniger deshalb, weil man bei einem Ausfall des Internets keine Online-Wahlkämpfe mehr führen könnte, weil man nicht mehr mit Begeisterung über “Cookies” sprechen könnte und sich auch dem “Online-Exhibitionismus” oder der “Sinnlos-Kommunikation” nicht mehr widmen könnte, sondern weil gesellschaftliche Teilsysteme von Wirtschaft über Bildung und Verkehr bis zur Strafverfolgung ohne das Internet nicht mehr voll einsatzfähig wären.

Das wäre für mich ein sinnvoller Ansatzpunkt für eine Kritik des Internet als Großtechnologie. Aber das, was Gaschke daraus macht, ist so … deutsch.



Verwandte Artikel:
  • 50.000 Unterschriften gegen Internetzensur
  • Am Germanistenwesen soll das Web genesen
  • Social Networking im Jahr 1976 – das Pew-Projekt über die Onlineavantgarde
  • Einübung und Gewöhnung – Twitter ist noch lange nicht am Ende

    In einem sehr lesenswerten Beitrag über Internetanwendungen prognostiziert Andreas Göldi dem Microblogging-Dienst Twitter: “Es droht unter seinem eigenen Gewicht zusammenzubrechen, weil das Verhältnis an unnützem Rauschen zur nützlichen Information langsam unverhältnismässig wird.”

    Das kommt ganz darauf an, wozu man so etwas wie Twitter verwenden will. Wenn ich es zum Beispiel nutze, um ein digitales Tagebuch zu führen, in dem ich dokumentiere, wo ich gewesen bin, was ich gegessen, was ich gesehen habe, ist die signal/noise-ratio irrelevant. Ebenso, wenn es darum geht, mit meinen Freunden, meiner Familie in Kontakt zu bleiben. Gerade, weil Twitter so chaotisch ist, bietet es so viele kreative Aneignungsformen, die sich eben nicht alle in das massenmediale Muster “Twitter als Recherchetool und Informationsquelle” pressen.

    Die spannende Frage ist meiner Meinung nach: Warum spielen GeoCities, Friendster und SixDegrees keine Rolle mehr, aber SMS wird nach wie vor sehr rege genutzt? Ich sehe Twitter eher auf der Ebene von SMS als auf der Ebene der anderen genannten Internetanwendungen. Twitter oder Microblogging allgemein – ich glaube, dass sich Twitter den Microblogging-Kuchen in Zukunft mit Facebook, MySpace und weiteren Anbietern (Windows Live? Google?) teilen wird – ist für mich eine der ganz wenigen echten kommunikativen Innovationen des Internetzeitalters, denn es ist:

    • global: hier wird der alte Traum eines globalen Dorfes oder einer kosmopolitischen Gemeinde wahr – Twitter never sleeps!
    • offen: sowohl thematisch als auch nutzerbezogen gibt es nur wenige Vorschriften und Voraussetzungen. Von Diskussionen über Benjamins Aurabegriff bis zum Paketsendungstracking ist alles möglich – Mein Twitter ist nicht dasselbe wie dein Twitter!
    • fluid: es lassen sich problemlos andere Medieninhalte in den Strom einfügen oder Inhalte in andere Plattformen oder Ströme einspeisen – Twitter ist überall!

    Was aber verschwinden wird, beziehungsweise im Moment abzuklingen scheint, ist die Euphorie der Early Adopters. Die nachfolgenden Twitter-Generationen der “digitalen Eingeborenen” werden Twitter ebenso unemotional verwenden wie heute SMS verwendet werden. Unemotional bezieht sich dabei nur auf die verwendete Technologie: die Inhalte können selbstverständlich traurig wie hoffnungsvoll oder fröhlich sein.

    Neu ist: Die Tatsache, dass man diese Emotionen in Kurzmitteilungen verpackt mitteilen kann, löst keine Begeisterung mehr aus. Diese Versachlichung durch Einübung und Gewöhnung ist nichts neues, das war bei der Eisenbahn nicht anders und vermutlich waren auch die Early Adopter von Faustkeilen euphorisch über die Möglichkeiten, die sich ihnen mit dieser neuen Technologie bieten.

    Nur darf man diese Versachlichung nicht mit Dekadenz und Abschwung verwechseln. Das ist nämlich eine ganz andere Geschichte.



    Verwandte Artikel:
  • Gastbeitrag für KoopTech: Messen nach dem Ende der Massengesellschaft
  • Die reichweitenstärksten Webseiten nach AdPlanner
  • Das Ende der Blogsphäre
  • Wolkige Semantik – Clouds und Grids

    1807465362_128d367a84.jpg

    Dein Reich ist in den Wolken
    und nicht von dieser Erde
    (Brentano)

    In einem sehr informativen Beitrag beschreibt Martin Weigert das Phänomen des „Cloud Computing“. Was ist darunter zu verstehen?

    Als Cloud Computing wird ein Zustand bezeichnet, bei dem Anbieter von Internetdiensten die benötigte Software und Hardware nicht mehr selber betreiben, sondern an externe Dienstleister auslagern. Diese verfügen über leistungsstarke Datencenter und stellen Webunternehmen die gewünschten/benötigten Ressourcen für ihre Applikationen gegen Entgelt bereit.

    Viele der Webservices wie Gmail oder YouTube funktionieren bereits auf der Grundlage von Clouds: die Daten werden nicht auf dem heimischen Rechner gespeichert und auch nicht unbedingt auf dem Rechner, auf dem die Internetanwendung läuft – häufig ist dieser selbst gar nicht mehr eindeutig identifizierbar, sondern die Anwendungen arbeiten gewissermaßen auf einem verteilten Netz von Rechnern. Die Vorteile sind: Ausfallsicherheit und Skalierbarkeit.

    Damit wird das Grundprinzip (und Erfolgsgeheimnis) des Internet überhaupt fortgesetzt: die mehr oder weniger willkürliche Verteilung von Aufgaben auf ein Netzwerk. Schon das Protokollpaar TCP/IP funktioniert so, dass bei einer einzelnen Internetanfrage nur Start- und Zielpunkt klar identifizierbar sind, nicht aber die zahlreichen Stationen, über die eine Nachricht durch das Netz geleitet wird. Das Netz ist eine Black Box, in der zahlreiche Mikroeinheiten selbständig entscheiden, auf welchen Weg eine Nachricht weitergereicht wird.

    Mit dem Cloud Computing wird auch der Zielpunkt von Anfragen unscharf, denn dieser Rechner leitet ebenfalls nur Anfragen an ein weiteres Netzwerk – die Cloud (z.B. Amazons EC2 oder Mosso) – weiter, in der dann tatsächlich die Datenabfragen stattfinden. Im alten Netz war es tatsächlich eine Ressource, die ich abfragen konnte. Eine Textdatei, die dann physisch auf meinen Rechner transferiert („abgerufen“) wurde. Wenn jemand diese Datei gelöscht hat, war sie nicht mehr abrufbar. Mit der „Vercloudung“ des Netz wird auch diese Datei zum Simulacrum. Gleichzeitig verliert auch der Ausgangspunkt der Ressource an Bedeutung: Das Betriebssystem ist selbst eine Cloud und findet online statt. Martin nennt icloud, Cloudo, eyeOS, ajaxWindows, myGoya und jooce als frühe Beispiele – Google, Facebook und Microsoft werden vielleicht folgen.

    Doch möglicherweise ist das Cloud Computing nur der Übergang zu einer noch viel grundlegenderen Auflösung: dem Grid-Computing oder Grid-Hosting(siehe auch hier). Denn man kann einzelne Clouds wie zum Beispiel die einzelnen Datencenter von Google oder Amazon immer noch identifizieren – zwar nicht der Nutzer aber die Programmierer, die auf die Clouds zurückgreifen. Der Begriff trifft es eigentlich recht gut: Wolken kann man zumindest kurzzeitig klar voneinander abgrenzen, allerdings neigen sie dazu, ihr Erscheinungsbild über die Zeit zu verändern, sich zu teilen oder zu verschmelzen.

    Im Grid geht diese wenigstens vorübergehende Unterscheidbarkeit ebenfalls verloren und das Grid „entscheidet“ selbst, welche Schritte der Datenverarbeitung auf welchen Rechnern oder eben Clouds ausgeführt werden – ähnlich wie das TCP/IP-Protokoll. Das Netz wird zum eigenständigen Akteur bzw. einer nicht-deterministischen Maschine im Sinne Heinz von Foersters: Man kann Inputs und Outputs noch einigermaßen feststellen, doch davon nicht auf die Prozesse schließen, die im Inneren der Black Box abgelaufen sind, um die Inputs in Outputs zu verwandeln.

    Aktuell kenne ich aber nicht besonders viele brauchbare Anwendungsfälle des Cloud/Grid-Computing. Eine spannende Sache ist das Zusammenschalten von mehreren Wörterbüchern im Wörterbuchnetz. Was gibt es da noch?

    (Abbildung “Power Grid” von JeffersonDavis)



    Verwandte Artikel:
  • Manager-Magazin macht Google überflüssig
  • Das Ende der URL – “Google ‘viralmythen’ to find out more”
  • RT: Homo sapiens sapiens
  • Tis all in pieces, all coherence gone – Wissenschaftskommunikation im Web 2.0

    god.pngAm 22. September wird Marc vom Wissenswerkstattsblog in Bamberg etwas über den “schwierigen Weg zur Wissenschaft 2.0″ erzählen. Darin wird es (sofern sich der Vortrag nicht allzustark von diesem ersten Abstract weg entwickelt hat) vor allem um die spannede Frage gehen, warum die akademische Welt so große Schwierigkeiten hat, sich dem neuen Netz zu öffnen. Mit einigem systemtheoretischen Theoriefundament kommt Marc dann zu seiner These: “so wie sich das Internet gerade in der Spielart des Web 2.0 präsentiert und konstituiert, stellt es eine Provokation und gleichzeitig eine Heraus­forderung für das etablierte Wissenschaftssystem und seine tradierten Publikationspraxen dar.” Vor allem die folgenden vier Punkte beschreiben die Probleme der Wissenschaft (welcher eigentlich? bzw: gilt dies auch für die Naturwissenschaften?) mit dem Read/Write-Web:

    1. Das grundlegende Erfordernis, die Systemgrenzen der “Wissenschaft” stabil zu halten (Stichwort: “Wahrheitsfähigkeit”), verhindert eine allzu große Öffnung zu anderen Gesellschaftsbereichen (vulgo: Subsystemen). Aber: Inwiefern ist das wirklich ein Problem? Da Wissenschaftlichkeit ein Kriterium ist, das stets durch einen Beobachter zugewiesen wird, kann dies doch ebenso auf elektronische Kommunikationen und kollaborative Prozesse angewendet werden.
    2. Im neuen Netz wird die Grenze zwischen Wissensproduktion und -darstellung unscharf. Die Frage ist, ob man hier wirklich, gerade von einem systemtheoretischen Unterbau aus, von einer kategorialen Trennung sprechen sollte. Schließlich sind doch beides kommunikative, auf Anschlussfähigkeit ausgelegte Akte (der romantisch-genialische Geisteswissenschaftler, der erst Jahrzehnte nach seinem Tod rezipiert wird, ist sicher eine Extremfigur). Oder: Wissenschaftskommunikation ist Wissensproduktion.
    3. Das kollaborative Schreiben führt zudem dazu, dass Autorschaft nicht mehr einwandfrei zugerechnet werden kann. Dazu würde ich sagen, dass die Zuschreibung von Autorschaft, gerade wenn es um Entdeckungen und Erfindungen geht, schon immer problematisch gewesen ist. Aber dafür haben wir schließlich die Wissenschaftsgeschichte, die dann genau diese Zuschreibungen leistet. Übrigens können auch Wikipedia-Wissenskommunikationen können mit den entsprechenden (neuen) Werkzeugen in ihren Autorenbeiträgen aufgeschlüsselt werden, wie ich gerade gelesen habe (vgl. dazu diesen Beitrag).
    4. Mit dem bisherigen Fokus auf die Frage des Open Access (und damit: der Zirkulation von Wissen) – ich würde an dieser Stelle auch noch auf die ebenfalls einflussreiche Debatte um “Public Understanding of Science” (PUS) hinweisen, in der es ebenfalls vor allem um die Kommunikation und Rezeption bereits produzierten Wissens geht – verstellt sich die Wissenschaft den Blick auf die neue spannende Frage danach, wie Wissen kollborativ und offen produziert werden kann.

    Die Frage, die mich an diesem Thema besonders interessiert, wäre allerdings: Entwickeln sich im neuen Netz tatsächlich neue wissenschaftliche Textgenres (also neben dem Artikel, der Monographie und der Presentation)? Gerade dem Bloggen würde ich in dieser Hinsicht ein hohes Innovationspotential zusprechen, da es sich in einem Punkt deutlich von den anderen wissenschaftlichen Textsorten unterscheidet: in der Eindringlichkeit der Kommentierungen. Seitdem es durch das exponentielle Wachstum wissenschaftlicher Veröffentlichungen einer einzigen Person nicht mehr möglich war, alle relevanten Texte auch nur im eigenen Fachgebiet vollständig zu rezipieren, konnte man Kommunikationen (Nachfragen, Kritiken, Vorschläge) ignorieren ohne damit ein großes Risiko einzugehen. Genau das ist in Weblogs nicht möglich, da die Antworten auf die eigenen Texte am selben Ort erscheinen wie die Ausgangstexte. Das Ignorieren wird damit beobachtbar und nahezu zwangsläufig zugerechnet. Oder anders ausgedrückt: das Prinzip der Anschlussfähigkeit gerät sehr viel stärker ins Blickfeld des Autors sowie anderer Beobachter.

    Interessanterweise wurde gerade jetzt wieder einmal die Frage nach den “bloggenden Professorengestellt und die zahlreichen Antworten demonstrieren, dass man hier eigentlich nicht mehr von einem Ignorieren des Web 2.0 sprechen kann. Eine wachsende Zahl von Akademikern in unterschiedlichen Disziplinen streckt ihre Fühler schon in diese Richtung aus.

    Und noch etwas: Gerade ist Burda bei der US-amerikanischen Seed Media Group eingestiegen, die man nicht nur ihres interessanten Seed Magazines wegen im Auge behalten sollte, sondern auch, weil dazu mittlerweile bereits 65 Wissenschaftsblogs gehören. Und wie sehen die Pläne der Burda Media Group aus? Nach Marcel Reichart, Geschäftsführer für Forschung und Entwicklung, soll bereits im nächsten Jahr die deutsche Version von Scienceblogs starten.



    Verwandte Artikel:
  • Habermas, Weblogs und die Mode 2-Wissensproduktion
  • Gehirn&Geist startet Brainlogs-Blogportal
  • Das Internet, die Gatekeeper und die Qualität