Archive for the 'theorie' Category

Kulturelle Vielfalt oder Einheitsbrei?

Die aktuelle Folge der Isarrunde ist ein wunderschönes Beispiel dafür, wie das Web funktioniert. Man trifft sich online und offline, diskutiert über Ereignisse, die einen bewegt haben, wie zum Beispiel den Tod des Ethnologen Claude Lévi-Strauss. Dann schreibt jemand einen Blogbeitrag darüber, inwiefern sich ein zentrales Motiv daraus (das Zerstören oder Verwestlichen von kulturellen Unterschieden durch das Reisen) auch auf das Internet übertragen lässt. Anschließend entfaltet sich auf Twitter in zahlreichen 140-Zeichenbeiträgen eine kontroverse Diskussion über dieses Thema und es folgen weitere Blogeinträge hier, hier und hier – und hier wird sogar ein Blog eigens für diesen Zweck wieder reaktiviert. Dieses Diskursnetzwerk liefert dann das fruchtbare Ferment für eine Isarrundendiskussion wie die folgende:



Verwandte Artikel:
  • Einmal mehr: Journalisten vs. Blogger
  • Karte der französischen Blogosphäre
  • Das tribale Internet
  • Soziale Medien als heroisches Projekt

    Meistens sind es gar nicht die neuen Gedanken, die einen brillianten Denker ausmachen. Oft ist es viel mehr die Fähigkeit, einen Gedanken so zu formulieren, dass seine Bedeutung, seine Folgen deutlich werden. Ein gutes Beispiel dafür ist die Definition von “Kultur” wie auch “Kommunikation” (beide Begriffe gehören hier eng zusammen), wie sie Vilém Flusser vornimmt:

    Denn worum geht es in der menschlichen Kommunikation? Es geht darum, erworbene Informationen zu speichern, zu prozessieren und weiterzugeben.

    In diesem Satz steckt ein zutiefst antibiologisches Menschenbild. Der kommunizierende oder kulturschaffende Mensch lehnt sich gegen die Natur auf. Warum? Weil er damit bewusst gegen zwei Grundgesetze der Naturwissenschaften verstößt.

    Auf der einen Seite gegen den zweiten Hauptsatz der Thermodynamik, der besagt, dass das Universum immer wahrscheinlicher, immer gleichmäßiger verteilt wird, dass also die Unordnung oder Uninformation auf lange Sicht zunimmt. Das Speichern von Informationen ist genau das Gegenteil davon. Das steckt bereits im Begriff der In-Formation, des Einprägen einer Form in einen Gegenstand. Also: Herstellen von Ordnung.

    Auf der anderen Seite verstößt dieser Kultur- und Kommunikationsbegriff gegen die Mendelsche Regel, dass erworbene Informationen nicht genetisch weitergeben werden können. Kultur vererbt dagegen auch erworbene Informationen. Flusser bezeichnet dies treffend als Engagement gegen den eigenen Tod, so wie man auch den ersten Punkt als Engagement gegen die Unordnung – Philip K. Dick-Lesern auch als “Kipple” bekannt – lesen kann. Dennoch ist der Mensch beiden Prozessen unausweichlich ausgesetzt. In diesem tragischen Spannungsfeld findet menschliche Kommunikation statt. Kein Wunder, dass Flusser seine Kommunikologie als Forschungsfeld von universeller und grundlegender Bedeutung ansah.

    Was mich jetzt besonders interessiert und weshalb ich denke, dass es eine Philosophie der sozialen Medien geben müsste (wenn es sie nicht schon gibt): Welche Schlüsse lassen sich daraus für soziale Medien (social media) ziehen? Sind Blogs, Facebook-Profile, Twitter-Statusmeldungen und Lebensströme (man beachte den Namen!) wie Friendfeed nicht ebenfalls aus dieser Perspektive zu betrachten? Nur sind es nicht mehr außergewöhnliche Individuen (Künstler) oder professionell dafür zuständige Menschen (Journalisten), die sich um diesen anti-entropischen Prozess kümmern, sondern ganz gewöhnliche Leute.

    Welche Folgen hat diese Potenzierung der Kommunikationen? Auf der einen Seite könnte man positiv sagen, dass Computer und Internet noch viel mehr Scheinerfolge im Kampf mit der Entropie erlauben. Auf der anderen Seite ist jede derartige Ausweitung immer auch auf inflationäre Effekte zu befragen. Wird dadurch, dass ich immer mehr Handlungen meines Lebens über das Netz vermittle, nicht der Informationswert sinken? Wenn jeder bloggen würde, wäre das negative oder positive Entropie?

    Es heißt immer wieder: Das Internet vergisst nichts. Handelt es sich hier vielleicht um das bislang heroischste Projekt des Menschen in der Auseinandersetzung mit seiner eigenen condition humaine?



    Verwandte Artikel:
  • Amerikaner wünschen sich mehr Social Media im Kundendialog
  • Social Networking im Jahr 1976 – das Pew-Projekt über die Onlineavantgarde
  • Was heißt Social Media?
  • Neue Medientheorie

    Wie ich bereits erwähnt habe, liegt gerade der “Reader Neue Medien” von Karin Bruns und Ramón Reichert auf meinem Schreibtisch (hier gibt’s eine Leseprobe). Sieht auf den ersten Blick sehr interessant aus zumal mir die sehr “Transcriptische” Perspektive, unter der dieser Band zusammengestellt wurde, sehr sympathisch ist:

    “Der Schwerpunkt … liegt auf einem kulturwissenschaftlichen Ansatz, der den Computer als Bedeutung generierendes Medium versteht, mit dem sich Macht erzeugen, Politik betreiben und Kunst hervorbringen lässt.”

    Auf stolzen 540 Seiten werden die Themen Digitalisierung, Virtualität, Hypertext, Cyberfeminismus, Networking, Spiele und Avatare in 38 grundlegenden Texten abgehandelt. Dabei fällt auf, dass es vor allem angelsächsische Autoren sind, die für die Theorie Neuer Medien für einflussreich gehalten werden. Die deutschsprachige Medientheorie ist durch die usual suspects Max Bense, Friedrich Kittler, Claus Pias und Siegfried J. Schmidt sowie noch Marie-Luise Angerer vertreten.

    Bei der Auswahl der Texte, von denen ich viele schon aus anderen Zusammenhängen kenne (Alan Turing, Vannevar Bush, Esther Dyson, John B. Barlow, Donna Haraway, Steven Levy, Howard Rheingold, Sherry Turkle), erkennt man deutlich die Problematik der Zusammenstellung eines solchen Readers: Auf der einen Seite möchte man aktuelles Material bieten, das den state of the art des Nachdenkens über Neue Medien repräsentiert. Auf der anderen Seite müssen die Texte aber schon ein wenig “abgehangen” sein, so dass sich überhaupt beurteilen lässt, welche Entwürfe Bestand haben werden und eine Diskussion hervorgebracht haben. So lässt sich erklären, dass nur ein einziger Beitrag jünger als fünf Jahre ist.

    Nur bedeutet das, dass der hier präsentierte Blick auf digitale Medien das Mainstreaming vieler Webanwendungen, die durch das mobile Netz mögliche Durchdringung von virtuellen und materiellen Welten sowie die Entstehung eines Teilhardschen globalen Bewusstseins (“Noosphäre”) noch nicht im Blick hat.

    Außerdem fehlen Beiträge von ausgerechnet den beiden Theoretikern, in deren Theorien die jüngsten Entwicklungen tatsächlich schon auftauchen: Vilém Flusser und Marshall McLuhan.



    Verwandte Artikel:
  • Neue Maßzahl für die Metaroll
  • Der meinVZ-Buzz ist vorbei
  • Fragebogen zur Free Burma-Blogaktion
  • Blogs als Diskurs- und Dialogmedien

    Eine grundlegende medientheoretische Unterscheidung schlägt Vilém Flusser mit seiner Differenzierung zwischen Diskurs- und Dialogmedien vor. Bei den Dialogmedien geht es um die kollaborative Produktion von neuen Informationen: “Um Informationen zu erzeugen, tauschen Menschen verschiedene bestehende Informationen aus, in der Hoffnund, aus diesem Tausch eine neue Information zu synthetisieren.” Diskursmedien dagegen zielen auf die Speicherung und Verteilung von Informationen: “Um Informationen zu bewahren, verteilen Menschen bestehende Informationen, in der Hoffnung, daß die so verteilten Informationen der entropischen Wirkung der Natur besser widerstehen” (Kommunikologie, 1996).

    Beide Formen bedingen dabei einander: Um Informationen diskursiv verteilen zu können, müssen sie zunächst dialogisch produziert worden sein. Aber der Dialog wiederum setzt als Rohstoff diskursiv verteilte alte Informationen voraus. Das Fernsehen oder die Tageszeitung sind typische Diskursmedien: die Zuschauer oder Leser haben keine Möglichkeit, im selben Medium auf die präsentierten Informationen zu reagieren: man kann bei einem Fernsehsender anrufen oder der Zeitung einen Leserbrief schreiben, aber nicht mit einer anderen Fernsehsendung oder einer alternativen Zeitung antworten. Anders beim Telefon: Hier ist der Austausch möglich. Nur der Austausch, denn das Telefonnetz, das auf Eins-zu-eins-Verbindungen beruht, eignet sich nicht zur gezielten Verbreitung von Informationen in einer großen Menschenmenge.

    Wendet man sich auf Grundlage dieser Unterscheidung zwischen Dialog- und Diskursmedien der Blogosphäre zu, so entdeckt man zunächst zahlreiche dialogische Merkmale: Weblogs charakterisiert, das man auf Beiträge per Kommentarfunktion direkt reagieren kann. Auch die Möglichkeit von Trackbacks oder Pings erleichtern eine kollaborative Produktion neuer Informationen. Zugleich bestehen dennoch deutliche Unterschiede zu typischen Dialogmedien wie dem Telefon oder auch der SMS: obwohl die Möglichkeit des Kommentierens besteht, macht nur ein geringer Teil der Leser davon Gebrauch. Der größte Teil verwendet die Blogosphäre genauso wie man eine Tageszeitung oder ein Fernsehprogramm verwendet: rezipierend. Blogs haben also auch eine diskursive Persona.

    Viele kleine Blogs im Long Tail der Blogosphäre sind im Prinzip nichts anderes als digitale Zusammentreffen befreundeter Personen, bei denen sie sich austauschen. Dagegen gibt es große Blogs wie das Bildblog oder Blogs mit einer klaren Agenda wie z.B. Filmblogs, bei denen es um die Vermittlung von (Fach-)Informationen geht — eine Struktur, die den klassischen Massenmedien sehr ähnlich ist.

    Durch diese dialogisch-diskursive Doppelfunktion von Weblogs ist auch der ewige Streit zwischen Bloggern und Journalisten nicht besonders gewinnbringend. Wollte man Journalisten erklären, was es sich mit Blogs auf sich hat, müsste man ihnen zunächst die dialogischen Bestandteile näherbringen. Blogs sind eben nicht nur — und in einigen Fällen fast überhaupt nicht — Verbreitung von Informationen wie die gedruckte Zeitung, sondern diese Verbreitungsfunktion ist durchmischt mit dialogischen Elementen, wie sie Journalisten z.B. in ihren Redaktionskonferenzen regelmäßig erfahren.



    Verwandte Artikel:
  • Wissenschaftkommunikation und Mediendialog
  • Was heißt Social Media?
  • Stapelverarbeitung – 16.4.2008
  • Failure notice – über die positive Funktion von Fehlern

    error-cover-med.jpgIm September hatte sich schon Brand eins diesem Thema gewidmet, jetzt gibt es dazu die passende wissenschaftliche Aufarbeitung in dem australischen Journal of Media and Culture: die Fehler. Beide Ausgaben bemühen sich vor allem, das negative Image von Fehlern, seien es Fehlentscheidungen oder Fehler in Kommunikationssystemen, aufzupolieren und ihre wichtige Funktion für die Ermöglichung von Innovationen etwas in den Vordergrund zu rücken.

    Wolf Lotter formulierte das in Brand eins wie folgt:

    Der noch bei Weitem größere Teil hingegen verschanzt sich hinter dem Wahn, dass Fehler und Irrtümer erst gar nicht entstehen dürfen und dass sie demnach selbst keine Fehler machen können. Diese Anmaßung ist nur mit dem 1870 unter der Bezeichnung “Pastor Aeternus” – der Ewige Hirte – erlassenen Dogma von der Unfehlbarkeit des Papstes vergleichbar. In den profanen Werkstätten des Managements trägt die Unfehlbarkeit den Namen Null-Toleranz.

    Auf ganz ähnliche Weise kritisiert Mark Nunes in seiner Einführung zum JMC-Heft das von ihm als augustinisch bezeichnete Fehlerverständnis (Fehler als Abfall von einer perfekten Ordnung im Gegensatz zu der manichäischen Idee des intentionalen Provozierens von Fehlern):

    In each of these essays, error, noise, deviation, and failure provide a context for analysis. In suggesting the potential for alternate, unintended outcomes, error marks a systematic misgiving of sorts—a creative potential with unpredictable consequences. As such, error—when given its space—provides an opening for artistic and critical interventions.

    Dieses Motiv wird in den zehn Aufsätzen durchgespielt:

    Benjamin Mako Hill betont zum Beispiel den erkenntnistheoretischen Wert von Fehlern bzw. technischem Versagen, die einen technologisch-aufklärerischen Wert dadurch erhalten, dass sie eigentlich unsichtbare technologische Hintergründe (man denke etwa an Internet- oder Emailprotokolle) sichtbar machen.

    In dem Beitrag von Su Ballard geht es um den künstlerischen Einsatz von Fehlern bzw. provozierten Misreadings, um einem Publikum neue Sichtweisen nahezulegen. Auch Tim Barkers Essay dreht sich um Fehler in der Kunst, genauer: um das Phänomen des “glitch” in der digitalen Kunst, denn diese Ästhetik des Versagens (vgl. dazu den klassischen Aufsatz von Kim Cascone, hier als pdf) verweist auf das Element des Unkontrollierbaren, dass in den meisten Kunstwerken eine wichtige Rolle spielt.

    Mit Mehrdeutigkeiten, Potentialen und Rauschen im Zusammenhang mit Agenturbildern und Platzhalterinhalten befasst sich der Aufsatz von Christopher Grant Ward. Die dahintersteckende Industrie erscheint aus dieser von Derrida inspirierten Perspektive als Lieferant von kultureller Uneindeutigkeit und bekommt dadurch schon fast eine aufklärerisch-kritische Rolle. Adi Kunstman berichtet in seinem Beitrag von Lücken in Archiven, auf die sie während ihrer Internetethnographie in queeren russisch-israelischen Migrantencommunities gestoßen ist. Ihr Fokus richtet sich darauf, aus diesen Fehlern und “hauntings” auf die Spur der Funktionsweise von onlinebasierten kollektiven Gedächtnissen zu kommen.

    Computerspiele und Avatare sind dann das Thema von Kimberly Gregsons Aufsatz. Sie versucht, eine Typologie von abweichendem Verhalten in Onlinespielen zu entwickeln, um auf diese Weise – ganz ähnlich wie Harold Garfinkels “Krisenexperimente” – auf die Funktionsweisen und Basisselbstverständlichkeiten dieser Spiele zu kommen. Sehr spannend auch das Thema von Michael Dieter, der sich mit dem Hacken von Internetangeboten wie Amazons Search Inside-Feature befasst und auf das kreative Potential dieser “tactical media performances” hinweist.

    Mit der erkenntnisfördernden Kraft von Missverständnissen und Misreadings setzt sich Elizabeth Losh auseinander und demonstriert an dem Beispiel der Battlefield 2-Fehlinterpretation im US-Kongress (“SonicJihad“) die Möglichkeiten, solche Fehlleistungen für die Medienkritik fruchtbar zu machen. Sehr schön zur aktuellen Call-In-TV-Diskussion in Deutschland passt der Aufsatz von Yasmin Ibrahim, der die Fehler in interaktiven Fernsehformaten ebenfalls als aufklärerisches Projekt umschreibt, das in der Lage ist, das blinde Vertrauen der Zuschauer in die “Realität der Massenmedien” zu erschüttern. Zum Abschluss widmet sich Martin Mantle noch dem merkwürdigen Verhältnis von genetischen Mutationsängsten und den Fähigkeiten von Comic-Superhelden.

    Insgesamt also sehr spannendes und anregendes Heft, das trotz der Vielfalt der behandelten Themen (vielleicht bis auf den letzten Essay) sehr integriert und schlüssig wirkt. Etwas skeptisch bin ich jedoch, was die Basisannahmen angeht, die sich durch das Heft ziehen: die Netzwerk-Gesellschaft wird dort überzeichnet als informationelle Massengesellschaft, die dem Prinzip der Nullfehlertoleranz unterliegt, wenn nicht sogar in Anlehnung an Theoretiker wie Deleuze und Guattari als “informationelles Terrorregime”, das um jeden Preis den Abbruch von Kommunikationen vermeiden muss. Das erscheint mir doch etwas zu überzeichnet, während im Gegenzug die Kommerzialisierung von (scheinbaren) Fehlleistungen fehlt, die jedoch vielen viralen Kampagnen zu Grunde liegt.



    Verwandte Artikel:
  • Aktuelles Lexikon: Blogger (2004)
  • metaroll jetzt blitzschnell
  • Gastbeitrag für KoopTech: Messen nach dem Ende der Massengesellschaft
  • Netz, Web und Graph: Idealismus reloaded

    Das weltweite Netz ist nicht genug – zumindest, wenn es nach Tim Berners-Lee geht, der einer umfangreichen Graphisierung des WWW das Wort redet. Doch zunächst einmal zurück an den Anfang: Mit Netz ist, so Berners-Lee, in erster Linie die Vernetzung von Rechnern gemeint, die es ermöglicht, Nachrichten von einem Rechner zu einem anderen zu schicken, ohne sich Gedanken darüber zu machen, auf welchen Wegen die Nachricht letztendlich ankommt. Das Netz ist also die auf den TCP/IP-Protokollen beruhende Infrastruktur bzw. das Internet.

    Das WWW liegt wieder eine Ebene darüber, da hier nicht mehr die Rechner, geschweige denn die physischen Kabel, interessieren, sondern die Dokumente: “Now you could browse around a sea of documents without having to worry about which computer they were stored on. Simpler, more powerful. Obvious, really.” Das WWW ist ein Textuniversum.

    Darüber liegt aber noch eine weitere Ebene, auf der nicht mehr die Dokumente die Schlüsselrolle spielen, sondern die Dinge selbst:

    net-web-ggg.png

    Dahinter kann sich alles mögliche verstecken, ab wichtigsten jedoch: die Menschen: “Its not the Social Network Sites that are interesting — it is the Social Network itself. The Social Graph. The way I am connected, not the way my Web pages are connected.” In diesem Netz der Dinge – einem diskursiven Universum im weitesten Sinne – ist das Paradigma nicht mehr der Hyperlink, der zwei Texte miteinander verbindet, sondern z.B. die mit Mikroformaten wie XFN ausdrückbare Beziehung zwischen Dingen, Personen, Leidenschaften etc. oder mit Friends-of-a-Friend-Daten (FOAF) Berners-Lee schlägt vor, dieses Paradigma mit dem Begriff “Giant Global Graph” (kurz: GGG) zu bezeichnen. Eine URI bezeichnet nicht mehr zwangsläufig ein Dokument im WWW, sondern kann auch auf eine Person oder einen Gegenstand verweisen (ich würde hierfür den Begriff des Aktanten vorschlagen, der sich in der soziologischen Actor-Network-Theorie eingebürgert hat).

    Ich bin skeptisch, ob sich dieser Begriff durchsetzen wird. Aber die Idee, dass man mit jedem Schritt auf eine abstraktere Protokollebene Kontrolle abgibt und dafür neue Handlungsmöglichkeiten dazugewinnt, hat etwas. Nur fallen mir auf Anhieb nur wenige Beispiele für funktionierende Techniken des Umgangs mit sozialen Graphen dieser Art ein. Was ich bezeichnender für das neue Netz finde, ist die Tatsache, dass das Netz tatsächlich als Netz (oder von mir aus als Graph) wahrgenommen wird. Denn auf der Anwenderebene wurde das WWW nur selten wirklich als Netzwerk wahrgenommen, sondern eher als Menge von WWW-Seiten, die jeweils auf andere Seiten verweisen. Aber eben nicht als Ganzes. So hießen z.B. die Übersichten von Websites “Sitemap” – und eine “Karte” ist etwas ganz anderes als ein “Netzwerk”, dessen Punkte nicht räumlich verortenbar sind, sondern nur in der Beziehung zu ihren Nachbarn. Der Übergang zum social graph bezeichnet also eine Enträumlichung des WWW.

    Dazu gehört dann aber auch, und an dieser Stelle finde ich den Gedanken sehr verführerisch, die deutlichere Trennung der sozialen Netzwerke von der darunterliegenden Protokollebene des WWW: Ein social graph muss demnach nicht zwangsläufig auf dem WWW basieren, sondern kann auch in anderen Gebieten “wildern” wie z.B. der materiellen Umwelt, wie auch das WWW prinzipiell auch auf anderen Protokollen laufen könnte als den Internet. Und schon gar nicht passt es dazu, dass Netzwerke an Plattformen wie Facebook, Orkut, Xing etc. gebunden sein müssen. Der Giant Global Graph führt also zu einer Entmaterialisierung oder Idealisierung der sozialen Netzwerke.

    Weiterlesen zu diesem Thema:

    • Nicholas Carr fragt sich, ob das Denken in Graphen tatsächlich den Sprung von der Mathematik in den Alltag schaffen wird und ob Facebook tatsächliche eine neue Plattform darstellt oder doch nur eine Webseite.
    • Olaf Kolbrück ist sich nicht ganz sicher, ob die Bezeichnung GGG wirklich ernst gemeint ist, sieht aber durchaus die Notwendigkeit, einen Begriff für dieses Phänomen zu finden, der nicht nach Windows 3.1 klingt.
    • Siggi fühlt sich an eigene Gedanken über die Verteilung von Tupeln im Wissensraum erinnert.
    • Anna Zelenka bezweifelt, das wir Menschen tatsächlich von dem GGG-Paradigma profitieren, oder ob es nicht eigentlich nur an Computer adressiert ist.
    • Auch JD weist auf die Enträumlichung hin und stellt eine bezeichnende Nähe zum Korzybskischen Aphorismus “the map is not the territory” fest.
    • Konstantin Klein kann dem Paradigmenwechseln nicht viel abgewinnen, sondern sieht das Ganze nur als Hype.
    • Auch der Guardian ist skeptisch und zitiert Dave Winers Vorschlag, den mathematischen Jargon beiseite zulassen und Graphen einfach wieder Netzwerke zu nennen – womit man sich allerdings dem Risiko aussetzt, verstanden zu werden.


    Verwandte Artikel:
  • Visualisierung von Netzwerken: GraphGear
  • Unterwegs ins Semantische Netz oder: Was sind XFN, FOAF und SPARQL?
  • Woher kommen die Nutzer?
  • Von der Gruppen- zur Netzwerkgesellschaft (und wieder zurück?)

    Wenn man sich mit sozialen Netzwerken beschäftigt, stößt man schnell auf den etwas seltsamen Doppelcharakter des Netzwerkbegriffs: zum einen ist damit die Methode (also Netzwerkanalyse) benannt, mit der man gesellschaftliche Verbindungen (bzw. Verbindungen aller Art) in Gegenwart und Vergangenheit untersuchen kann (vgl. dazu auch die vielzitierte Analyse der Medici-Familie). Zum anderen schwingt aber immer auch die zweite Bedeutung mit, die darauf verweist, dass moderne Gesellschaften sich zunehmend netzförmig organisieren und insofern Netzwerke einen immer wichtigeren Beobachtungsgegenstand für die empirische sozialwissenschaftliche Forschung darstellen (also Netzwerkanalyse).

    Obwohl diese Bedeutungsfelder häufig zusammenfallen, jedoch findet man nur selten explizite Versuche, gesellschaftstheoretische Aussagen aus der Netzwerkforschung abzuleiten (also jenseits des im allgemeinen Sprachgebrauchs verwendeten Netzwerkbegriffs). Eine spannende Ausnahme ist Barry Wellmans Begriff des “networked individualism”, der auf einen fundamentalen Wandel der Vergesellschaftung von gruppenbasierten hin zu netzwerkförmigen Assoziationsmustern beschreibt (pdf hier). Oder anders ausgedrückt: Die Leute leben nicht mehr in Gruppen, sondern in Netzwerken. Merkmale dieser neuen Lebensweise sind:

    1. Glokalisierung von Gemeinschaft: ausgedehnte (z.T. globale) Netzwerke bei weiter bestehender Bedeutung von home bases wie dem Haushalt oder der Arbeit
    2. Netzwerkmanagement: Man ist nicht nur einem/dem direkten Vorgesetzten rechenschaftspflichtig, sondern mehreren Personen z.T. in unterschiedlichen Arbeitsgruppen
    3. Unternehmensnetze: Auch Unternehmen sind nicht mehr autark, sondern in Netzwerke unterschiedlicher Stärke eingebunden
    4. Politiknetzwerke: Etwas argumentationsbedürftig ist die vierte Feststellung, dass auch die internationale Politik zunehmend netzwerkförmig organisiert ist. Das mag plausibel erscheinen, wenn man die gegenwärtigen wechselnden Koalitionen mit der Blockstruktur des Kalten Krieges vergleicht; geht man aber darüber hinaus erscheint diese These schwierig, zumal mir nicht klar ist, was in diesem Netzwerk die Knoten, was die Kanten sind. Länder? Diplomaten? Verträge?

    Interessanterweise liefert Wellman seine Antithese gleich mit: Nach dem 11. September zieht sich das Sozialleben in einem gegenläufigen Trend immer stärker in “little boxes” zurück. Indizien dafür sind: gated communities, Verkehrshindernisse, Wartezeiten und Sicherheitsanforderungen im Luftverkehr, neue Blockbildungen (Nord-Süd).

    Wellman neigt dazu, diese beiden Perspektiven als Entweder-oder-These zu formulieren. Kann man sich diese beiden Pole nicht z.T. auch als Sowohl-als-Auch, wenn nicht gar als Steigerungsverhältnis vorstellen? Was sagt ihr dazu?



    Verwandte Artikel:
  • Rascheln im Spießernetz? Horx sieht Ende der Weblog-Euphorie
  • Twitter, Metcalfe’s Law und die Kommunikation mit verschwommenen Gruppen
  • Shopping the global boutique
  • Food for thought: Liste sozialwissenschaftlicher Open-Access-Zeitschriften

    Natürlich wird Wissen nicht allein dadurch besser, dass es in Open-Access-Zeitschriften frei verfügbar ist. Aber besser zugänglich. Mittlerweile haben sich im Directory of Open Access Journals auch einige sozialwissenschaftliche Zeitschriften angesammelt. Hier die meiner Ansicht nach spannendsten OA-Zeitschriften aus Soziologie, Sozialforschung und Medienwissenschaften:

    Eine besondere Publikation ist das eJournal Philica, das nicht nur alle denkbaren disziplinären Richtungen abdeckt, von der Soziologie bis zur Kosmologie, sondern auch einen transparenten und dynamischen Reviewprozess besitzt: jeder kann die Gutachten einsehen und diese können auch mit der Zeit geändert werden. Das führt dann zu Erkenntnissen der merkwürdigen Art wie zum Beispiel über das tageszeitenabhängige Überholverhalten von Autofahrern.



    Verwandte Artikel:
  • Wissenschaftler: Online-Verwertungsrechte schützen!
  • Galerie des Wissens 1.0
  • Galerie des Wissens 1.0 (Folge 2)
  • Was Facebook so unwiderstehlich macht

    Viel wurde bereits geschrieben über die Einzig- oder Neuartigkeit des sozialen Netzwerks Facebook. Für mich sind es folgende vier Merkmale, die einen Unterschied machen und mit denen Facebook seinen Konkurrenten deutlich voraus ist:

    1. Natürlich ist die Strategie, Third Party Applications nicht nur zuzulassen, sondern bewusst in das System zu integrieren, eine geniale Entscheidung gewesen. Dass auf vielleicht 10-20 brauchbare Anwendungen massenhaft Schrott kommt, ist wahrscheinlich nicht einmal ein schlechtes Verhältnis.
    2. Der zweite Vorteil von Facebook gegenüber anderen professionellen sozialen Netzwerken ist, dass man ständig das Gefühl hat, dass sich etwas tut. Im Unterschied zu Xing bekommt man hier immer wieder Nachrichten darüber, was der eigene “Freundeskreis” gerade tut, schreibt, ausprobiert etc.
    3. Damit eng verbunden ist die Möglichkeit, die eigenen Kontakte mit ausgesprochen niedrigschwelligen Kommunikationsformen zu erreichen. Die Schwelle, einem Kontakt bzw. vielen Kontakten eine Email zu schreiben oder etwas ins Gästebuch zu tippen, dürfte einiges höher liegen, als ein Webfundstück oder einen Blogeintrag als “Notiz” kurz zu kommentieren und ins System zu “heften”. Der Witz ist, dass man in Wirklichkeit nicht nur “heftet”, sondern dass die Notiz direkt auf die Facebook-Startseite von zahlreichen der eigenen “Freunde” gelangt.
      post.png
      Eine Push-Kommunikation, die sich als Pull-Kommunikation verkleidet hat. Dasselbe passiert, wenn einer der Kontakte in einer der zahlreichen Gruppen etwas schreibt: per Startseite wird meine Aufmerksamkeit genau dorthin gelenkt.

    4. Viertens spricht auch die Binsenweisheit “Die Leute wollen dort sein, wo auch die anderen Leute sind” für Facebook. Man braucht nur einen Blick darauf werfen, welche namhaften Soziologen und Medienwissenschaftler (als Fake oder in Person) dort angemeldet sind und sich z.B. an Diskussionsgruppen beteiligen, um zu verstehen, warum dieses Netzwerk momentan in bestimmten professionellen Milieus konkurrenzlos ist.


    Verwandte Artikel:
  • Das Internet ist keine Modeerscheinung
  • Die Facebookisierung von Xing
  • Interessante Kriminalprozesse gefällig? Die digitale Bibliothek als Open Content
  • Die Tyrannei der Authentizität

    In der Rockmusik wurden Blut, Schweiß und Tränen schon so oft als einzige Grundlage für das Schaffen wahrer Musik beschworen (die letzte Aktualisierung dieses Denkens war das “keep it real” des Hiphop), dass die Popkritik seit den 1980er Jahren diese Ideologie unter dem Stichwort “Rockismus” abkanzelt und sich lieber mit der Realität einer zu großen Teilen massenindustriell verfertigten Popmusik befasst. Auf einmal taucht in den Debatten um Sinn und Zweck des Bloggens wieder dieses A-Wort auf: “Authentizität”. Gute Blogs, so Cem Basman, müssen authentisch sein. Im Mittelpunkt steht dieser Satz: “Autor und Inhalt stimmen überein und geben nicht vor, etwas anderes zu sein als sie sind.” Man braucht nicht den Tod des Autors beschwören, um eine leise Ahnung zu bekommen, dass mit dieser Forderung etwas nicht stimmen kann. Denn gemeint ist nicht etwa der Autor als Konstruktion, die vor allem in der Blogosphäre immer einschließt, in welchem Medium zu welchem Publikum kommuniziert wird, sondern der Autor als ein Du-Selbst:

    Der einzige Rat als halbwegs erfahrener Blogger, den ich jemandem auf dem Weg mitgeben könnte, wäre: Sei authentisch! Sei du selbst!

    Seit der modernen differenzierten Gesellschaft kann solch eine Forderung jedoch nur noch als Fiktion, als Fassade aufrechterhalten werden. Das, was hier Du-Selbst genannt wird, zerfällt in viele Teil-Selbste, die in den unterschiedlichen Lebenssphären (Beruf, Familie, Beziehung, Weblog) gelebt werden. Das ist in vielen Fällen nicht so sehr Problem als vielmehr Lösung, Entlastung von der Zumutung, überall mit der “ganzen Person” einstehen zu müssen. Gute Blogger sind nicht authentisch, sondern zeichnen sich in erster Linie dadurch aus, darauf weist auch Björn hin, die Technik des Bloggens (und seine vielfältigen Diskursregeln) zu beherrschen. Dazu kann auch gehören, Offenheit darzustellen. Dass MC Winkel am Freitag darüber spricht, wie er “MC Winkel” als Marke aufbauen konnte, ist keine Bankrotterklärung eines inauthentischen Subjekts, sondern der Werkstattbericht eines erfolgreichen Praktikers des Bloggens. Das finde ich sehr viel ehrlicher als alle Versuche, mir als Leser um jeden Preis ein authentisches Selbst verkaufen zu wollen.

    Und: Die Tatsache, dass man das A-Wort nach einigen Bier nicht mehr aussprechen kann, beweist doch eindrucksvoll, dass das Wort nicht für Menschen gemacht ist, sondern eigentlich nur noch von Computern ausgesprochen werden sollte.

    UPDATE: Mittlerweile hat sich auch miss sophie mit einem Lesenswerten Beitrag zu dem Thema geäußert, der mit folgender Pointe aufwarten kann: “‘Authentisch’ ist eine Kategorie, die mittlerweile mehr über den aussagt, der es verwendet, als über den, den es bezeichnet.”



    Verwandte Artikel:
  • Die Least Popular Stories dieses Blogs