cover
utb 3065utb.

 

Eine Arbeitsgemeinschaft der Verlage

Böhlau Verlag • Wien • Köln • Weimar

Verlag Barbara Budrich • Opladen • Toronto

facultas • Wien

Wilhelm Fink • Paderborn

A. Francke Verlag • Tübingen

Haupt Verlag • Bern

Verlag Julius Klinkhardt • Bad Heilbrunn

Mohr Siebeck • Tübingen

Nomos Verlagsgesellschaft • Baden-Baden

Ernst Reinhardt Verlag • München • Basel

Ferdinand Schöningh • Paderborn

Eugen Ulmer Verlag • Stuttgart

UVK Verlagsgesellschaft • Konstanz, mit UVK/Lucius • München

Vandenhoeck & Ruprecht • Göttingen • Bristol

Waxmann • Münster • New York

Wikis, Blogs, Social Networks und Microblogging haben sich zu wichtigen Publikations- und Kommunikationsmitteln entwickelt und führen zur Bildung von Gemeinschaften. Diese Entwicklung impliziert einen in den Massenmedien bisher nicht erreichten Grad an Partizipation und Demokratie.

Ausgehend von der Geschichte des Social Webs werden zunächst dessen Erscheinungsformen vorgestellt. Darauf folgt eine Beschreibung der technischen Grundlagen sowie der auftretenden Gruppenprozesse und der gesellschaftlichen Bedeutung.

In der 3. Auflage wurde die Geschichte des Social Webs fortgeschrieben, durch relevante Neuerungen ergänzt und alle Beispiele und Referenzen auf den neuesten Stand gebracht.

Anja Ebersbach Markus Glaser, Richard Heigl - Social Web - 3., überarbeitete Auflage - UVK Verlagsgesellschaft GmbH • Konstanz mit UVK/Lucius • München

Online-Angebote, elektronische Ausgaben sowie zusätzliche Materialien zum Buch sind erhältlich unter www.utb-shop.de.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

1. Auflage 2008

© UVK Verlagsgesellschaft mbH, Konstanz und München 2016

Einbandgestaltung: Atelier Reichert, Stuttgart

UVK Verlagsgesellschaft mbH

UTB-Band-Nr. 3065

Inhalt

Vorwort

Einleitung

1.1 Perspektiven für eine wissenschaftliche Beschäftigung mit dem Social Web

1.2 Geschichte des Internets als sozialer Treffpunkt

1.2.1 Vernetzte Computer als Kommunikationsmedien

1.2.2 Die ersten selbstverwalteten Computernetze

1.2.3 Kommerzialisierung und Professionalisierung

1.2.4 Web 2.0 – die Aneignung des Netzes

1.3 Begriffsklärung und Abgrenzung

1.3.1 Social Web und Web 2.0

1.3.2 Definition »Social Web«

Praxis des Social Webs

2.1 Einteilungskriterien

2.2 Wikis

2.2.1 Geschichte

2.2.2 Öffentliche Wikis

2.2.3 Funktionsweise

2.2.4 Komponenten

2.2.5 Anwendungsgebiete

2.2.6 Der Wiki-Effekt

2.2.7 Ein kleiner Kulturschock

2.2.8 Schattenseiten

2.2.9 Ein eigenes Wiki erstellen

2.3 Blogs

2.3.1 Geschichte

2.3.2 Einteilungskriterien

2.3.3 Beliebte Blogs

2.3.4 Funktionsweise

2.3.5 Komponenten eines Blogs

2.3.6 »Wie ich blogge!?«

2.3.7 Die Blogosphäre

2.3.8 Zwischen Tagebuch und Graswurzel-Journalismus

2.3.9 Podcast

2.3.10 Schattenseiten

2.3.11 Einen eigenen Blog betreiben

2.4 Microblogs

2.4.1 Die Erfolgsgeschichte von Twitter

2.4.2 Twitterfunktionen

2.4.3 Twitter-Lingo

2.4.4 Wer twittert was?

2.4.5 Werkzeuge für Twitter

2.4.6 Ein eigenes Microblogsystem betreiben

2.5 Social Networks

2.5.1 Soziale Netzwerkforschung

2.5.2 Prominente Beispiele

2.5.3 Eigenschaften und Unterschiede

2.5.4 Mehr-Ebenen-Networking

2.5.5 Facebook – ein exemplarischer Sonderfall

2.5.6 Schattenseiten

2.5.7 Messaging

2.5.8 Ein eigenes Netzwerk erstellen

2.6 Social Sharing

2.6.1 Funktionsweise

2.6.2 Social Bookmarking

2.6.3 Mediale Inhalte

2.6.4 Produktbewertung

2.6.5 Eine eigene Sharing-Plattform?

2.7 Weitere Konzepte des Social Webs

2.7.1 Tagging

2.7.2 Newsfeeds

2.7.3 Mashups

2.7.4 Funktionen, die die Community unterstützen

2.8 Die Technik des Social Webs

2.8.1 Grundlagen der Web-Anwendung

2.8.2 Benutzerfreundlichkeit durch Scripts und Ajax

2.8.3 Viele neue Schnittstellen

2.8.4 Verwendete Sprachen

2.8.5 Mikrodata

Theorie des Social Webs

3.1 Gruppenprozesse

3.1.1 Computervermittelte Kommunikation

3.1.2 Medienwahl

3.1.3 Online-Communitys

3.1.4 Das Individuum in der Gruppe

3.1.5 Dynamik der Kooperation

3.1.6 Kollektive Intelligenz

3.1.7 Das ewige Beta

3.1.8 Web Monitoring

3.1.9 Wie starte ich meine eigene Community?

3.2 Gesellschaftliche Bedeutung

3.2.1 Was zieht das Individuum ins Social Web?

3.2.2 Die Gesellschaft im Ringen mit den neuen Medien und mit sich selbst

3.2.3 Neue Geschäfts- und Finanzierungmodelle

3.2.4 Eine webgerechte Rechtsordnung

3.2.5 Sicherung freien Wissens

3.2.6 Schutz persönlicher Daten

Ausblick

4.1 Herausforderungen der Technik

4.2 Gesellschaftliche Herausforderungen

4.3 Anforderungen

Anhang

Glossar

Literatur & Links

Besprochene Websites

Sekundärliteratur

Bildnachweis

Index

Vorwort

Warum eine dritte Auflage? Ganz sicher deswegen, weil uns der Verlag mit großer Beharrlichkeit gebeten hat, das Buch zu aktualisieren. Was ja nur umgekehrt wieder zeigt, dass es immer noch eine Nachfrage und einen Orientierungsbedarf beim Thema Social Web gibt und eine neue Auflage rechtfertigt. Gerade für Menschen, die sich das Thema neu aneignen und die Debatten in den letzten zehn Jahren nicht verfolgen konnten, leistet dieses Überblicksbuch nach wie vor sehr gute Dienste.

Als das Buch 2008 zum ersten Mal erschien, dachten viele Rezensenten und auch wir, dass es sich inhaltlich schnell überholen würde. Und selbstverständlich gibt es heute für viele Themenfelder, die 2008 noch »neu« waren, weitergehende Erfahrungen und eingehendere Studien. Doch die Grundlinien haben sich bis heute nicht verändert.

Und so konnte »Social Web« trotz seiner begrenzten Auflage sogar zu einem kleinen Standardwerk werden. Uns freut es besonders, wenn Lehrerinnen und Lehrer, Schüler, aber auch der wissenschaftliche Nachwuchs auf unser Überblickswerk zurückgreifen, um ihre Hausarbeiten und Veranstaltungen zu gestalten. Das Buch hat aber auch jenseits der Bildungseinrichtungen ein Publikum gefunden. Das motiviert natürlich, das Buch noch einmal herauszubringen.

Wir haben das Buch noch einmal durchgesehen, fortgeschrieben und aktualisiert. Und auch wenn wir gerade in den Schlusskapiteln vieles gründlich überarbeitet und nachgezogen haben, waren wir doch überrascht, dass sich die wesentlichen technologischen und sozialen Konzepte des Social Webs kaum verändert haben. Es gibt nach wie vor fünf Medientypen (Blog, Wiki, Social Network, Social Sharing, Microblogging). Und auch die gesellschaftlichen Konfliktlinien und Fragestellungen haben sich im Kern nicht verändert: Das Social Web ist nach wie vor ein Leitmedium einer sich tiefgreifend verändernden Gesellschaft, das von politischen, sozialen und kulturellen Kämpfen durchzogen ist, auch wenn sich die Beteiligten dessen nicht bewusst sind.

Würde man das Buch heute komplett neu schreiben, gäbe es dennoch einige Akzentverschiebungen.

• Wenn das Social Web seine Möglichkeiten für eine offene Gesellschaft entfalten soll, ist der Blick stärker auf die Bedingungen einer kollaborativen Kultur zu richten, die immer noch aussteht. Die Formen der Zusammenarbeit und des Umgangs miteinander sind für das gemeinsame Erarbeiten und Verteilen von Wissen zentral und werden vielfach blockiert. Diesen Zusammenhang müssen wir besser verstehen lernen.

• Es wäre auch genauer nach den ökonomischen Bedingungen des Social Webs zu fragen. Gibt es so etwas wie eine Ökonomie des freien Wissens? Und wie würde sie aussehen? Wer hat Einfluss? Wer hat Zugriff? Die ökonomische Zukunft der digitalen Medien ist nicht nur ein Thema von Lobbyisten großer Player, sondern von Bedeutung für alle, die das Social Web als möglichst offenen medialen Raum erhalten wollen.

• Nach dem NSA-Schock steht das Thema Datenschutz und Bürgerrechte ganz oben auf der digitalen Agenda. Das Social Web und die privaten Daten sind dem Zugriff von Geheimdiensten und Konzernen maßgeblich ausgesetzt.

Wir werden diese Punkte vor allem im Ausblick ansprechen. Es sind Zukunftsfragen, die auch nicht in wenigen Jahren erledigt sind.

So liegt nun eine entsprechend aktualisierte Neuauflage vor. Wir möchten an dieser Stelle den Leserinnen und Lesern, aber auch den Rezensenten für ihr Feedback und ihre Unterstützung danken. Wir danken aber auch nicht zuletzt unserem Lektor Rüdiger Steiner bei der UVK Verlagsgesellschaft, der Geduld bewahrt und unser Buchprojekt zum Glück nicht aufgegeben hat.

Regensburg, April 2016Anja Ebersbach, Markus Glaser, Richard Heigl

Einleitung

1.1 Perspektiven für eine wissenschaftliche Beschäftigung mit dem Social Web

Worum geht es im Social Web? Eigentlich nicht um die Technik. Sie ist nur Bedingung. Im Mittelpunkt stehen die medial vermittelten Kooperationsformen, die kollektive Meinungsbildung und der kulturelle Austausch sozialer Gruppen. Das Verhalten im Netz ist eine spezifische Form sozialen Verhaltens mit Zusammenschlüssen und Abgrenzungen. Deshalb kann eine sinnvolle Analyse des Social Webs eigentlich nur sozialwissenschaftlich sein. Und dazu gehören natürlich auch die Ebenen des Kulturellen und des Politischen. Diese drei Ebenen müssen zusammengedacht werden. Schließlich ist das Social Web eng mit allen gesellschaftlichen Bereichen verzahnt: Es greift in die Arbeits- und Lebensweisen von Menschen ein, es gibt klare ökonomische Interessen, politische und rechtliche Implikationen, Auswirkungen auf die Erschließung von Inhalten für Bildung und Wissenschaft. Das Öffentliche und das Private, Fragen des Eigentums müssen neu bestimmt werden. Ganz generell erweitert das Social Web Horizonte der Nutzer und grenzt sie gleichzeitig wieder ein. Es ist ein Unterhaltungsmedium, das Spaß bereitet. Auf der privaten Ebene lernt man Menschen und Sichtweisen kennen, erlebt Erfolge und Enttäuschungen – auch Bedrohungen. Man erfährt sich als Teilhabender an einem Medium. Für Jugendliche, aber auch Ältere ist das Social Web längst Teil ihrer Sozialisation und Teil ihres kulturellen Austauschs.

Dies alles unterstreicht, dass man sich dem Thema nur interdisziplinär nähern kann. Die Politologin, der Medienwissenschaftler oder der Sozialpsychologe sind hier verloren, wenn sie sich nur in den engen Grenzen ihrer Disziplinen bewegen. Die unendliche Vielfalt der Beziehungen von Individuen über das Internet lässt sich aber nur wissenschaftlich ordnen, wenn man eine konkrete, sinnvolle Fragestellung an den zu untersuchenden Gegenstand hat.

Wir wollen in diesem Zusammenhang daran erinnern, dass die moderne Wissenschaft im Zeitalter der Aufklärung mit dem Programm antrat, den Menschen als gesellschaftliches Wesen zum selbstkritischen Subjekt seiner Geschichte zu machen. Mit diesem Auftrag in der Tasche will sie auf das Bewusstsein der Menschen wirken und ihnen ihre emanzipatorischen Perspektiven aufzeigen. Das heißt konkret: Wie können Menschen über das Web ihre gesellschaftlichen Verhältnisse, ihre soziale Lage verändern oder auch nur besser erkennen? Was tun sie, bewusst oder unbewusst? Wo liegen Potenziale, wo Lernblockaden?

Das ist ein anderes Programm als das einer rein anwendungsorientierten Wissenschaft. Die wissenschaftliche Beschäftigung mit Medien wie dem Social Web kann und muss mehr sein als der Erwerb eines weiteren Passierscheins auf dem persönlichen Karriereweg, möglicherweise in ein Unternehmen, das sich zum Ziel gesetzt hat, Communitys aufzubauen, um diese oder die gewonnenen privaten Profile zu vermarkten.

Eine in unserem Sinne gefasste Wissenschaft der Medien ist praxisorientiert, nicht nur, weil eine mediale Praxis ihren Gegenstand bildet, sondern weil sie diese Praxis analysiert und Theorien darüber ausarbeitet, die auf diese Praxis zurückwirken und sie verändern. Dies ist schon deshalb dringlich, weil der Umgang und die notwendigen Kulturtechniken für das Social Web erst noch von allen Beteiligten zu erlernen sind.

Das sind hochgesteckte Ziele für ein Themengebiet, für das wir eine erste Einführung mit Lehrbuchcharakter vorlegen. Entsprechend können wir vieles nur andeuten. Und es ist uns bewusst, dass dieser Versuch, das Social Web etwas systematischer zu erfassen, oft Wirklichkeitsebenen auseinanderreißt, die eigentlich zusammengehören. Aber sollte es Sie zum Weiterdenken und Weiterarbeiten anregen – und sei es nur aus Widerspruch –, so haben wir unser Ziel erreicht.

Eine Wissenschaft der Medien kann eine spannende, fundierte, aber auch notwendig kontroverse Auseinandersetzung mit dem Gesellschaftlichen, dem »Sozialen«, in Gang setzen. Dazu muss sie ihren passiven Beobachterstandpunkt verlassen. Frei nach Brecht: Man kann die Welt nur erkennen, wenn man sie verändert.

1.2 Geschichte des Internets als sozialer Treffpunkt

Ab wann kann man eigentlich von einem »Social Web« sprechen? Die Begriffe »Social Software« und »Social Web« selbst gibt es erst seit vergleichsweise wenigen Jahren, aber die Entwicklung des Social Webs reicht bis in die Anfänge des Internets zurück.

Neue Perspektiven in der Internetgeschichte. Seit ein paar Jahren rücken die politischen Aspekte der Netzentwicklung in den Vordergrund. Wurde uns bislang die Geschichte des Internets oft nur als Geschichte technischer Entwicklungen und ihrer Erfinder präsentiert, so arbeitet beispielsweise Grasmuck (2002) in seiner Geschichte der freien Software den Kampf um Ordnungsmodelle und öffentliches Eigentum heraus. Der deutsche Wikipedia-Artikel zur Geschichte des Internets stellt den Konflikt zwischen basisorientierten Entwicklern und zentralistischen Tendenzen durch staatliche Kontrollorgane und Medienkonzerne dar (Wikipedia 2015)1.

Umkämpfter sozialer Raum. Die beiden genannten Artikel sind erste Versuche, die Entwicklung des Internets in seinen historisch-gesellschaftlichen Kontext zu stellen und das Netz als umkämpften sozialen Raum zu begreifen. Die wissenschaftliche Forschung steht hier aber immer noch völlig am Anfang. Die Hervorhebung bisher unberücksichtigter Akteure und ihrer Intentionen ist dabei immer in Gefahr, alte Mythen durch neue Mythen zu ersetzen. Die 1970er-Jahre gelten beispielsweise als »wilde Phase« mit einer »Tauschökonomie für Software und Information«, einer »graswurzelbasierten Selbstorganisation«, »emergierende[n] Communities« und einem »Hacker-Geist, der jede Schließung, jede Beschränkung des Zugangs und des freien Informationsflusses zu umgehen weiß« (vgl. Grasmuck 2002: 180). Dieser Idealzustand wurde dann, folgt man dem eben genannten Wikipedia-Artikel, durch staatliche Eingriffe und vor allem durch die Kommerzialisierung des Internets in den 1990er-Jahren zerstört.

Sehen wir uns diese Entwicklung etwas genauer an, auch wenn wir dazu nur wenige Einzelereignisse aus der Geschichte herausgreifen können.

1.2.1 Vernetzte Computer als Kommunikationsmedien

Großrechner als Kooperations- und Kommunikationsinstrumente. Der erste Schritt auf dem Weg zum Social Web war eine veränderte Sichtweise auf den Computer. Computer dienten in den 1950er-Jahren ausschließlich als Rechenmaschinen des Militärs und der Wirtschaft. Doch in den 1960er-Jahren wurden Computer zunehmend auch als Kommunikationsmedium verstanden. Dieser bedeutende Schritt wird mit dem Psychologieprofessor Joseph Carl Robnett Licklider in Verbindung gebracht. Licklider, ein Pionier der Internetentwicklung, arbeitete ab 1957 beim Rüstungslieferanten BBN und hatte dort Erfahrungen mit einem Time-Sharing-System, einem ersten Mehrbenutzersystem für Großrechneranlagen, gesammelt. Damit konnten mehrere Teilnehmer über Terminals gleichzeitig einen Großrechner bedienen. Licklider nahm den Teamgeist unter den Nutzern des ersten Time-Sharing-Systems wahr und wies auf die Gemeinschaftsphänomene hin, die zum Teil durch den gemeinsamen Zugriff auf die Ressourcen des Systems aufkamen (vgl. Grasmuck 2002: 181).

image

Abb. 1.1: Geschichte des Social Webs

image

Abb. 1.2: IBM-Großrechneranlage IBM 704

Erste Communities. Wir sehen, dass schon mit der ersten Zusammenarbeit mehrerer Menschen an einem Rechner jene Phänomene auftraten, die wir heute im World Wide Web mit seinen vielen Servern beobachten können. Die Computerpioniere der 1960er-Jahre bildeten die ersten Onlinegemeinschaften (»Communitys«). Ein Beispiel für eine Online-Community dieser Periode ist PLATO. Das PLATO-System war in den frühen 1960er-Jahren auf dem Urbana Campus der University of Illinois für ein computerbasiertes Lernen entwickelt worden. Aber viele Leute nutzten das System lieber als unkompliziertes Kommunikationssystem (vgl. Woolley 1994)2. Das zeigt, dass sich auch die Pioniere der ersten Periode die Computertechnologie spielerisch aneigneten.

E-Mail-Kommunikation. Die Erfindung der E-Mail 1965 unterstützte diesen Paradigmenwechsel. Die elektronische Post, ein asynchrones Kommunikationsmedium, war nicht nur viel schneller als die normale Post und billiger als ein Ferngespräch, in den E-Mails konnte man auch auf viele Formalitäten bei der Formulierung und bei der Gestaltung verzichten. Auch die ersten E-Mails wurden zunächst über Einzelrechner verschickt.

Erstes Computernetzwerk. Als erstes landesweites Computernetzwerk entstand das ARPANET. Mit diesem wurde ein dezentrales Netzwerk geschaffen, über das die unterschiedlichen US-amerikanischen Universitäten, die für das Verteidigungsministerium forschten, verbunden sein sollten. Das dezentrale Konzept des über Telefonleitungen verbundenen ARPANETs war revolutionär. Im Jahr 1969 konnten die ersten vier Knoten des ARPANETs in Betrieb gehen. Anfang 1975 verfügte es bereits über 61 Knoten.

Mailinglisten. Ende der 1970er-Jahre wurde dort die erste E-Mail-Diskussionsgruppe eingerichtet: die Liste SF-LOVERS war nicht zufälligerweise eine Science-Fiction-Liste. Mailinglisten wurden zusammen mit den Requests for Comments (RFC) zum wichtigsten Mittel der offenen Kooperation der technischen Community. RFCs dienten der Entwicklung von Standards im Internet: Die Vorschläge wurden zur Diskussion gestellt. Schließlich ging 1978 die erste Mailbox in Betrieb. Eine Mailbox, im englischen Sprachbereich auch als Bulletin Board System (BBS) bekannt, ist ein meist privat betriebenes Rechnersystem, das per DFÜ zur Kommunikation und zum Datenaustausch genutzt werden kann.

1.2.2 Die ersten selbstverwalteten Computernetze

Zentrale vs. dezentrale Organisation. Generell können wir feststellen, dass in den 1960er-Jahren ein technischer Diskurs über die Vor- und Nachteile zentraler und dezentraler Rechnerarchitekturen einsetzte. Mit dieser Debatte war die Frage verbunden, ob dezentrale und offene Organisationsmodelle generell zentralistischen Ansätzen überlegen sind – und ob, wie im Falle der RFCs, die Einbindung aller Nutzer in Entscheidungsprozesse nicht zu stabileren Ergebnissen führen würden. In den Auseinandersetzungen zwischen Anhängern des Betriebssystems Linux und Windows wird dieses Thema ebenso wieder aufgegriffen wie im Zeitalter des Social Webs bezüglich der Vorzüge einer von vielen Nutzern geschriebenen Wikipedia gegenüber einem redaktionell betreuten, gedruckten Lexikon.

Zivile Nutzung durch Privatpersonen. Dieser Diskurs schloss auch eine Diskussion über alternative Nutzungspotenziale des Computers ein. Philosophierten in der Pionierzeit des Computers vor 1960 Einzelpersonen und kleine Kreise über das Verhältnis von Mensch und Computer, so erhielt diese Debatte in den radikalen 1960er-Jahren neue Impulse und überhaupt einmal eine soziale Trägerschicht, weil neue gesellschaftliche Gruppen, vor allem Studentinnen und Studenten, mit dem Medium Computer experimentierten und beispielsweise nach 1969 Zugriff auf das ARPANET erhielten.

Hackerkultur. In diesem Zusammenhang wurde die Open-Source- und Free-Software-Hackerkultur bedeutsam, die in den 1960er-Jahren im akademischen Umfeld entstand. Ihr Anliegen: Der Kampf gegen die Bildung von Informationseliten (vgl. Raymond 1999)3. Das war damals ein verhältnismäßig kleiner und elitärer Kreis. Die ersten Hacker bildeten sich als eine Gruppe, die sich u. a. über die spielerische Verwendung der Technik formierte. Dabei entwickelte sich, wie Steven Levy schreibt, »ein neuer Way of Life, mit einer Philosophie, einer Ethik und einem Traum heraus« (vgl. Levy 1984)4. Diese Ethik wurde zunächst nicht formuliert, sondern entstand durch stille Übereinstimmung. Aber sie entsprach dem liberalen Selbstverständnis vieler Akademiker und korrespondierte mit den sozialen Bewegungen gegen die atomare Bedrohung und gegen den Autoritarismus in der Gesellschaft. Levy fasste die Hackerethik 1984 so zusammen:

1. Access to computers – and anything which might teach you something about the way the world works – should be unlimited and total.

2. Always yield to the Hands-on Imperative!

3. All information should be free.

4. Mistrust authority – promote decentralization.

5. Hackers should be judged by their hacking, not bogus criteria such as degrees, age, race or position.

6. You can create art and beauty on a computer.

7. Computers can change your life for the better.

Hier entstand eine neuartige, weltweit vernetzte Technik-Community mit einem eigenen Selbstverständnis und identitätsstiftenden kulturellen Codes: Das Jargon File, ein Wörterbuch der Hackerkultur, wurde 1975 zum ersten Mal im Netz publiziert. Die Hackerkultur entwickelte sich weiter und etablierte sich als Anwalt eines freien Zugangs zu Wissen über digitale Medien. Diese Kultur blieb allerdings immer eine Subkultur verhältnismäßig weniger avantgardistischer Technikakteure, die jedoch eine Öffentlichkeit schufen und eine bedeutende meinungsbildende Rolle in Fragen der Informations- und Kommunikationstechnologien erlangen konnten.

Erstes alternatives Netz. Ein weiterer Meilenstein in Richtung eines öffentlichen Netzes wurde 1979 das USENET als freie Alternative zum ARPANET. USENET funktionierte als internetweites schwarzes Brett. Die Kommunikation dort ist mit den heutigen Foren zu vergleichen. Im Prinzip konnte sich jeder Nutzer mit Postings an der Diskussion beteiligen und eigene Bereiche eröffnen. Besonders berüchtigt war die alt.*-Gruppe, in der sich alle möglichen und unmöglichen Interessengruppen zusammenfanden. Sozial bildete sich mit dem USENET ein öffentlicher Raum, in dem jeder zu jedem Thema lesen und schreiben konnte. Aktuell erlebt das USENET eine unerwartete Renaissance als unkontrollierte Tauschbörse für Musik und Videos.

Geburtsstunde des technischen Internets. Auf technischer Ebene vollzogen sich Anfang der 1980er-Jahre zwei wichtige Durchbrüche. 1981 stellte IBM seinen Personalcomputer vor. Damit wurde der Zugang zum Netz räumlich unabhängig von den großen Rechenzentren. Ein Jahr später wurde das Internetprotokoll TCP/ IP zum Standard, als die Defence Communications Agency und die ARPA diese beiden Protokolle implementierten. Mit der Implementierung wurde auch zum ersten Mal der Begriff »Internet« wirklich definiert. Von nun an bezeichnete man damit die Menge der verbundenen Netzwerke, die auf dem Protokoll TCP/IP basieren.

Separate Communities mit eigenen Computernetzwerken. Mitte der 1980er- Jahre entdeckten schließlich auch Menschen außerhalb der Hochschulen Computernetze als Medium. Im Jahr 1985 gründete Stewart Brand und Larry Brilliant das Whole Earth ’Lectronic Link (WELL) in San Francisco, eine der ältesten noch aktiven Online-Communitys im Internet. Über dieses Forum fanden dann auch die Gründer der Electronic Frontier Foundation zusammen, einer Organisation der Free-Speech-Bewegung. Dies ist neben den Hackern ein weiteres Beispiel für die enge Verzahnung von politischen Bewegungen mit progressiven Szenen in der Medienwelt. Howard Rheingold, ein frühes und sehr aktives Mitglied von The WELL, verarbeitete schließlich seine Erfahrungen in einem Buch mit dem sprechenden Titel »The Virtual Community« (1993).

Freenets. Für Menschen außerhalb der Universitäten entstanden zudem eine Reihe sogenannter Freenets, mit denen man Zugang zum Internet erhielt. Das erste, das Cleveland Freenet, wurde 1986 von der Society for Public Access Computing (SoPAC) in Betrieb genommen. Das Cleveland Freenet war zunächst ein separates, lokales Netz mit 10 Modems, das sich erst nach einer Weile mit dem Internet verband. Ausgehend von diesem Beispiel entstanden weitere Freenets als Orte technischen Experimentierens, aber auch für Debatten und den täglichen Klatsch und Tratsch. Erwähnenswert ist an dieser Stelle, dass Ende der 1980er-Jahre mit dem Internet Relay Chat (IRC) von Jarkko Oikarinen ein synchrones Kommunikationsformat hinzukam, das in Konkurrenz zum Telefon trat und bis heute ein beliebtes Medium von Schülern und Studenten ist.

1.2.3 Kommerzialisierung und Professionalisierung

Kommerzielle Dienste. Für unser heutiges Bild vom Internet war jedoch der Aufstieg der ersten Onlinedienstleister und hier vor allem der kommerziellen Onlinedienste, wie CompuServe, The SOURCE und AOL in den 1980er-Jahren prägender. Diese Unternehmen wandten sich zunächst nur an Großkunden, boten aber bald auch normalen PC-Besitzern Zugänge zu Computernetzwerken. Diese separaten Netze richteten Ende der 1980er-Jahre Gateways zum Internet ein, über die sie seither E-Mail und News austauschen können.

Außerdem wurde das Internet in den 1980er-Jahren international, so dass die Onlinedienstleister ein transnationales Medium zur Verfügung stellten, mit dem sich zukünftig eine global verteilte Produktion neu organisieren ließ. Das Internet wurde so zum zentralen Medium für die weltweite Güterproduktion und zum Transfer von Finanzdienstleistungen. Letzteres war, wie wir heute wissen, der Beginn einer neuen globalen hochtechnologischen Produktionsweise.

Übergang zum marktgesteuerten Internet. Die radikale Veränderung der makropolitischen Rahmenbedingungen mit dem Zusammenbruch des Staatssozialismus hatte ab 1989 auch Auswirkungen auf das Internet zur Folge. Während des Kalten Krieges entwickelte sich das Internet auf der Basis einer engen Verzahnung von Industrie, wissenschaftlichem Apparat und Politik. So war das ARPANET zweifellos ein Projekt eines tonangebenden Warfare States, der wirtschaftliches Wachstum über Rüstungsanstrengungen und Wissenschaftsförderung generierte. Im Jahr 1990 wurde das ARPANET abgeschaltet. Dies gilt heute als ein Wendepunkt in der Geschichte des Internets hin zur Kommerzialisierung des Netzes. Der Staat trat erkennbar als maßgeblicher Impulsgeber auch bei der Entwicklung des Netzes zurück. Die weitere Gestaltung wurde ab jetzt von der Initiative privater Unternehmen geprägt.

Schließlich verhieß die »Informationsgesellschaft« neue wirtschaftliche Wachstumschancen und Renditen. Deshalb veränderte die Politik die Rahmenbedingungen hin zu einer marktgesteuerten Entwicklung. Die öffentliche Hand stellte nur noch die teure technische Infrastruktur bereit und bewarb diese mit dem Schlagwort des »Information Super-Highways«. Charakteristisch war hierfür die Initiative des späteren Vizepräsidenten der USA, Al Gore. Dieser hatte während seiner Amtszeit als Senator 1991 den »High Performance Computing Act« zur Förderung des Internets initiiert, was als wichtiger Schritt zur Verbreitung des Internets gilt. Im Ergebnis kam es zu einem euphorischen Run privater Unternehmen auf das Internet hin zur »New Economy«.

Konzeption des Webs. Technisch eröffnete die Erfindung des WWW, ein über das Internet abrufbares Hypertextsystem, durch Tim Berners-Lee im Jahr 1989 neue Horizonte für die öffentliche Nutzung des Netzes. Die Idee einer dezentralen, netzartigen Speicherung des Wissens war eigentlich schon in den 1940er-Jahren entstanden. In seinem Essay »As we may think« beschrieb Vannevar Bush5 (1945) ein System, das elektronisch an eine Bibliothek angeschlossen ist und dort enthaltene Bücher und Filme anzeigen sowie untereinander referenzieren konnte. Sein System Memex sollte es zudem jedem Benutzer erlauben, eigene »Spuren«, wir würden heute Links sagen, zu setzen. Schon damals war die massive Beteiligung aller Nutzer fest in das Konzept eingeplant.

image

Abb. 1.3: Skizze des Memex-Systems

1965 hatte dann Ted Nelson ein Hypertextsystem kreiert, das nichts »vergisst«: Xanadu. Er stellte sich darunter eine unbegrenzte Informationsdatenbank vor. Sämtliche Information der Welt sollte darin gespeichert werden. Der Gegensatz zwischen Autor und Leser sollte aufgehoben sein, weil die darin enthaltenen Dokumente simultan und kollektiv bearbeitet werden können. Auch war geplant, alle alten Versionen weiter zu erhalten, falls die Texte aktualisiert würden. Dabei sollte jedes »Stück Information« eine eigene Adresse erhalten, um die Linkstrukturen konsistent zu halten. Auch hier war die aktive Beteiligung aller Benutzer angedacht. Damit hatte Nelson nicht nur die Technologie des WWW vorweggenommen, sondern auch viele Elemente des Social Webs beschrieben.

»Web 1.0« – Das Internet wird zum Massenmedium. Das Internet wurde mit dem WWW, das technisch gesehen als Dienst auf dem Internet aufsetzt, visuell spannender und weitete die Möglichkeit digitaler Publikationen. Die neuen grafischen Benutzeroberflächen der Browser ermöglichten es auch Computerlaien, das Internet zu nutzen. Der Webbrowser Mosaic eroberte ab 1993 das Internet im Sturm. Leider besaß dieser im Gegensatz zu seinem Vorläufer Nexus keine Editierfunktion. Nexus erlaubte das gleichzeitige Editieren und Verlinken mehrerer Seiten in verschiedenen Fenstern. Ohne diese Funktion konnten dann später nur noch technisch versierte Menschen Homepages erstellen. Dennoch stellten damals private Homepages einen Großteil des WWW. Sie enthielten sehr unterschiedliche Inhalte. Dominant waren: die Bereitstellung von spezifischem Wissen, private Fotoalben sowie kommentierte Linklisten. Darüber hinaus entstanden sogenannte Webringe, die auf befreundete Webseiten verlinkten.

Zunehmend entdeckte die Wirtschaft das WWW als Kommunikationsmedium zwischen Standorten und Abteilungen. Das Internet wurde damit auch Teil des Vertriebs. Für Provider, Webdesigner und Nachrichtenanbieter boten sich neue Handlungsfelder und Internetseiten wurden zunehmend als Werbeträger entdeckt. So kam es zu einer verstärkten Professionalisierung, mit deren inhaltlichen Qualität und optischer Ästhetik private Homepages kaum mehr mithalten konnten. Sie wurden – mit wenigen Ausnahmen – in einen marginalen Bereich des WWW gedrängt, wo sie weiterhin ihre Subgruppen bildeten.

1.2.4 Web 2.0 – die Aneignung des Netzes

Webradio, Wikis, Blogs und Foren. Die Aneignung des Netzes durch immer neue Nutzergruppen blieb an den technischen Fortschritt gebunden. Aus Sicht der Produzenten und Nutzer wurde das Internet allmählich multimedial. Die ersten regelmäßigen »Radiosendungen« im Netz waren die Audiodateien von Interviews mit Netzpionieren, die Carl Malamud ab 1993 unter dem Namen Internet Talk Radio ins Netz stellte. Überhaupt weiteten sich die Möglichkeiten für einfache Nutzer, das Netz mit Inhalten zu füllen. Ein großer Schritt in Richtung user-generated content waren Mitte der 1990er-Jahre die ersten Weblogs und Wards Wiki. Frühe webbasierte Foren, beispielsweise mit der Software UBB.classic betrieben, komplettieren das Bild.

Instant Messaging und Online-Spiele. Ende der 1990er-Jahre erhielt das Internet zusätzliche populäre Funktionen: Ab 1996 stand der beliebte Instant Messenger ICQ des israelischen Start-up-Unternehmens Mirabilis zur Verfügung. Massive Multiplayer Online Games (MMOG) machten das Internet vor allem für Schülerinnen und Schüler zur beliebten Spielwiese. Die ältesten MMOGs entstanden Anfang der 1990er-Jahre als Online-Rollenspiele. Das Platzen der sogenannten Dotcom-Blase im März 2000, die erste Wirtschaftskrise der IT-Branche, hatte auf die steigende Nutzung des Internets zumindest keine Rückwirkungen. Vielmehr wurden neue Geschäftsmodelle und Angebote entwickelt.

Das Web als Dokumentationsplattform. Mit neuen datenbankbasierten Applikationen und der Erweiterung der Bandbreiten wurde es möglich, immer größere Datenmengen über das WWW zur Verfügung zu stellen. Dies veränderte das Wesen des Internets insoweit, als nun das Netz zunehmend als Plattform wahrgenommen wurde, auf der man Inhalte hinterlegen konnte.

Blogosphäre und Wikipedia. Der wachsende Anteil der von privaten Nutzern erstellten Inhalte schmälert die exklusive Stellung der etablierten Nachrichtenportale und Wissensdatenbanken. Im Zusammenhang mit der globalisierungskritischen Bewegung wurden alternative und offene Medienprojekte wie »indymedia« gestartet. Vor allem die aufkommenden Blogs und die entstehende Blogosphäre eröffneten Hoffnungen auf einen Journalismus »von unten«. Weblogs wurden als neue Mitteilungsform populär. Gleichzeitig explodierte die Anzahl der Online-Communitys und ehrenamtlichen Beiträger. Mit Wikipedia startete 2001 das bislang wohl erfolgreichste Community-Projekt überhaupt.

Die Bedeutung der Blogosphäre und des Wikipedia-Projekts für die Diskussion um die Möglichkeiten eines Netzes, das als offenes Kommunikations- und Dokumentationsmedium verfügbar wurde, kann nicht überschätzt werden. Mit Wikipedia besetzte zum ersten Mal ein nicht-kommerzielles Projekt einen absolut zentralen Kommunikationsknoten. Nach Google ist Wikipedia der zweite Rechercheort für Erstinformationen. Die Blogosphäre zeigte neue Möglichkeiten dezentraler Nachrichtenverbreitung. Mit dem Erfolg der Blogosphäre und dem Wikipedia-Projekt mussten sich nun auch die Öffentlichkeit, Organisationen, Staaten, Unternehmen und die etablierten Massenmedien mit den Steuerungsmodellen im neuen Web auseinandersetzen.

Begriff »Social Software«. Im Zusammenhang mit Wikis und Weblogs fiel dann auch um 2002 zum ersten Mal der Begriff »Social Software« im Rahmen einer Tagung »Social Software Summit« des Internetexperten Clay Shirky (Himpsl 2007). Nun entstanden in kürzester Zeit die bekanntesten Vorreiter der Social Softwareanwendungen: Mit Flickr wurde im Jahr 2002 das öffentliche Sharing zu einer Massenveranstaltung. Der Anbieter del.icio.us wies mit seinem Social Tagging neue Wege in der kollektiven Verschlagwortung. Ab 2003 konnte man bei OpenBC (Open Business Club, heute Xing) und MySpace kostenlose Benutzerprofile mit Fotos, Videos, Blogs, Gruppen usw. einrichten und mit Facebook nahm 2004 ein weiteres großes Social Network seinen Anfang. Als große Player kamen Twitter 2006 und 2011 Google+ ins Spiel.

Mobile Web. Wireless LAN und Bandbreitentechnologien wie UMTS oder LTE machten es Ende der 2000er-Jahre in bislang nie gekanntem Umfang möglich, über mobile Geräte (Laptops, Smartphones, Tablets) mit dem Internet und dem Web in ständiger Verbindung zu bleiben. Die zunehmende Erreichbarkeit des Internets erweitert die Interaktionsmöglichkeiten der Nutzer erheblich, beispielsweise was die Orientierung und Terminplanung betrifft. Die Wahrnehmung der Welt wird mit dem mobilen Web aber nicht nur erweitert, sondern gleichzeitig wieder eingeschränkt, weil etwa jedes Ereignis dokumentiert und geteilt, aber in dem Moment nur eingeschränkt erlebt werden kann. Der breiten Bevölkerung sind in jedem Fall mit dem mobilen Web mächtige Tools an die Hand gegeben. Und so überrascht es nicht, dass das mobile Web seit wenigen Jahren das Web insgesamt formt. Einige wie die Geschäftsführerin der Wikimedia Foundation Lila Tretikov (2014)6 prognostizieren sogar ein Sterben klassischer Websites. In jedem Fall verlagert sich der Entwicklungsschwerpunkt, so dass auch klassische Social-Web-Anwendungen wie Wikipedia mit Hochdruck den Anforderungen des mobilen Webs und seiner Nutzer angepasst werden.

Crowd. Unter den verschiedenen Online-Communities (Entwicklercommunities, Wikicommunities, Ratingcommunities) lassen sich seit einigen Jahren Gruppen identifizieren, die als »Crowds« beschrieben werden. Das Zusammentragen von Wissen wird als »Crowdsourcing« bezeichnet. Die Vorfinanzierung von Projekten wird über Crowdfunding- oder Crowdinvesting-Plattformen organisiert. Crowds schaffen bewusst über Arbeit oder finanzielle Beteiligung Werte. So öffnen sich völlig neue Möglichkeiten, über das Web nachfrageorientiert die Herstellung teurer Produkte und Dienstleistungen zu koordinieren und bereitzustellen. Crowds decken einen allgemeinen Bedarf und die Beteiligten unterstützen ein gemeinsames, meist auch gemeinnütziges Ziel, das sie meist emotional berührt, indem sie einen begrenzten persönlichen Beitrag leisten. Eine negative Entwicklung kennzeichnet dagegen der Begriff des Crowdworkings. Dieser beschreibt die Entstehung eines neuen Niedriglohnbereichs, in dem Menschen prekär Akkordarbeit für Unternehmen leisten.

Eroberung des Öffentlichen. Was bleibt von dem oben skizzierten Bild eines früher freien Netzes, das heute durch die Kommerzialisierung und den Zugriff der öffentlichen Gewalt bedroht bzw. zerstört ist? Hier wird ein differenzierterer Blick nötig. So haben zwar große Bevölkerungsteile in den hochindustrialisierten Ländern Zugang zum Web. Sie erobern das Netz aber unter kommerzialisierten Bedingungen, die gleichzeitig die Möglichkeiten dieser Eroberung schufen. Auch bei der der oft vorgebrachten These der Rückeroberung einer Öffentlichkeit im Internet feststellen, dass die Öffentlichkeit des Netzes vielfach erst hergestellt werden muss.

Die Entwicklung der Social Software und des Social Webs ist gegenwärtig nicht abzusehen, da sie sehr widersprüchlich verläuft. So sind Medienkonzerne an der Verknappung der Ware Wissen interessiert, was sich mit der Offenheit des Mediums Internet, die nun zur größten Kopiermaschine der Welt wurde, nicht verträgt. Dadurch entsteht gegenwärtig eine neue Konfliktlinie um Fragen des Urheberrechts, freier Software und geistigen Eigentums. Hier gibt es Selbstorganisationsprozesse, die auf die Verwertungsinteressen großer Konzerne antworten. Die File Sharing Communities und jüngst auch die Crowdfunding-Communities entwickeln über ihre große Anzahl an teilnehmenden Nutzern eine erste wirtschaftlich ernstzunehmende Gegenbewegung.

1.3 Begriffsklärung und Abgrenzung

1.3.1 Social Web und Web 2.0

Warum heißt dieses Buch eigentlich nicht »Web 2.0«? Eine sehr gute Frage, die wir uns auch schon wiederholt gestellt haben. Um es ganz kurz zu beantworten: Web 2.0 ist ein Begriff, der zwar häufig synonym mit dem Social Web benutzt wird, jedoch viel umfassender ist. Hier werden – je nach Blickwinkel – technische, ökonomische und rechtliche Aspekte mit einbezogen, die wir in diesem Buch nur behandeln, wenn sie unmittelbar mit unserem enger gefassten Thema, dem Social Web, zu tun haben. Zudem widerstrebt es uns ein wenig, einen derart kommerziell belegten und unscharfen Begriff für eine wissenschaftliche Publikationsform zu verwenden, auch wenn »Web 2.0« lange als ideenleitendes Schlagwort benutzt wurde. Um zu einer Einschätzung zu gelangen, ist es dennoch wichtig, zu wissen, wie der Begriff entstand und welche Implikationen mit ihm verbunden sind.

Entstehung des Begriffs. Anders als es die Versionsnummer vermuten lässt, ist das Web 2.0 keine neue technische Ausführung des WWW, die man sich von irgendeiner Website herunterladen und installieren kann. Vielmehr spielt der Begriff auf eine gefühlte Veränderung des WWW während der letzten Jahre an.

Er entstand während eines Brainstormings zwischen dem O’Reilly Verlag und MediaLive International. Der Vizepräsident von O’Reilly, Dale Dougherty, stellte dabei fest, dass das Internet durch das Zerplatzen der Dotcom-Blase 2000 nicht zusammengebrochen war, sondern heutzutage wichtiger denn je sei. Der seither festzustellende Wandel des WWW wurde mit einem starken Schlagwort belegt: »Web 2.0«. Man beschloss eine Konferenz zu organisieren, bei der genau dieses Thema Mittelpunkt sein sollte. Dass nicht nur das Management von O’Reilly die vielschichtigen Veränderungen im WWW spürte, zeigt die enthusiastische Aufnahme des Begriffs: Nach jener ersten Web-2.0-Konferenz im Jahre 2004 verbreitete sich der Ausdruck unaufhaltsam im Internet und wurde schnell zum Oberbegriff für alle möglichen Neuerungen im Web 7.

Die sieben Punkte von O’Reilly. Tim O’Reilly hatte sich ein Jahr nach der legendären Webkonferenz die Mühe gemacht, den Begriff in dem Artikel »What is the Web 2.0?«7 zu präzisieren und nannte folgende Aspekte:

1. Web als Service-Plattform. Das WWW ist mittlerweile überall. Es ist daher nahe liegend, alltägliche Aufgaben ins Netz zu verlegen. Terminplanung, Projektmanagement und Text- oder Bildverarbeitung verlassen die Grenzen lokaler Desktopanwendungen und werden im Internet abgelegt und verwaltet. Steigende Kapazitäten in der Breitbandkommunikation und die neue Funktionalität moderner Webapplikationen machen dies möglich.

image

Abb. 1.4: Bildbearbeitung im WWW mit Fotor

Hier sind nur einige Beispiele von einer Fülle an neuen Webapplikationen:

• Pixlr: Bildbearbeitungsprogramm,

• Lino: Haftnotizzettel und Fotos teilen,

• Doodle: Tool für Umfragen,

• Google Drive/Microsoft Office 365: Ein komplettes Office-Paket im Netz,

• Dropbox: Cloud-Speicherdienst (auch »Filehosting«),

• Trello: Tool für Projektmanagement und Workflows,

• Tricider: Brainstorming- und Abstimmungsprozesse.

Der Nutzer genießt durch diese WWW-Dienste einige Vorteile:

• Programme müssen nicht mehr auf dem lokalen Rechner installiert und gepflegt werden.

• Der User kann unabhängig vom Betriebssystem sämtliche Dienste nutzen.

• Zudem kann er von überall auf seine persönlichen Daten, wie z. B. seine Fotos, Adressen oder Lesezeichen, zugreifen und sie bearbeiten.

• Kooperative und kollaborative Arbeitsformen werden möglich.

Diesen Annehmlichkeiten steht natürlich die entscheidende Frage nach dem Datenschutz gegenüber, die erheblich an Bedeutung gewinnt, wenn persönliche und daher zu schützende Dateien zunehmend direkt im Web gespeichert werden.

2. Einbeziehung der kollektiven Intelligenz der Nutzer. Schlagworte wie Mitmach-Netz oder user-generated content fallen unter diesen Punkt. Es ist also nicht mehr der Betreiber, der die Inhalte seiner Website gestaltet, sondern der Nutzer selbst, der die jeweiligen Plattformen mit Bildern, Videos, Informationen und seinen Meinungen füllt. Selbst die Struktur einer Seite kann gemeinsam verändert werden. Durch einfache, benutzerfreundliche Oberflächen werden die Einstiegshürden so gering wie möglich gehalten, so dass die Nutzer fast ohne jegliche technische Vorkenntnisse aktiv an der Veränderung der Website mitwirken können. Ein beliebtes Beispiel ist die Enzyklopädie Wikipedia, auf der jeder Nutzer Wissen niederschreiben und ein anderer beliebiger User diesen Artikel ändern darf. Anders als vermutet, hat das Fehlen eines zentralen Redaktionsprozesses keine Qualitätseinbußen zur Folge. Vielmehr steigert die Teilhabe vieler Nutzer am Gesamtwerk den Wert der Anwendung und jeder Teilnehmer profitiert davon.

3. Daten stehen im Mittelpunkt der Anwendungen. Die Anwendungen stehen und fallen mit den Daten, die von Nutzern permanent generiert werden. Die Qualität und Quantität der Datenbestände spiegeln das Kapital der Webanwendungen wider. Die Inhalte sind damit wesentlich wichtiger als ihre Darstellung. Datenbestände wie das gesammelte Wissen von Wikipedia oder die Strukturen landesweiter sozialer Netze samt Adressen und Telefonnummern bei XING konnten bisher nur mit hohem Aufwand und viel Fleißarbeit gewonnen werden. Jetzt geht es darum, sie zu verbinden und zu nutzen. Dabei hat das Rennen um die wichtigsten Daten bereits begonnen, vor allem um geografische, persönliche, terminliche und produktspezifische.

4. Neue Formen der Softwareentwicklung. Software wird im Web 2.0 nicht mehr als Produkt ausgeliefert, sondern als Service. Denn ein Produkt aktuell zu halten, ist wesentlich schwieriger als einen Service, bei dem die Software zentral auf einem Server vorgehalten wird.

Die aus der Softwareentwicklung traditionsgemäß gepflegte Versionsnummerierung und die Publikation von neuen Versionen einer Software alle paar Jahre gelten seit dem Web 2.0 als überflüssig und inkonsistent. Neue Versionen werden möglichst früh und möglichst oft im Betastadium veröffentlicht.

Der Entwickler profitiert davon:

• Bei einem Millionenpublikum bekommt man selbst auf kleinste Veränderungen hin ein schnelles, aussagekräftiges Feedback.

• Neue Praktiken können schnell ausprobiert und frische Ideen sofort umgesetzt werden.

• Das Publikum, also diejenigen, die eine Software nutzen werden, weiß oft besser als die Entwickler, was verbessert werden soll.

• Auch aus dem Verhalten, z. B. der Reihenfolge von Klicks, lassen sich Rückschlüsse ziehen.

Im Social Web ist das Image des permanenten Beta so gut, dass es sogar dem Anwender gegenüber immer wieder als Qualitätsmerkmal und als Zeichen für eine besonders innovative Plattform dargestellt wird. Ganz nach dem Motto: »It’s not a bug, it’s a feature!«

image

Abb. 1.5: Logo mit »Beta«

5. »Leichtgewichtige« Programmiermodelle. Um die Daten einer breiten Menge zugänglich zu machen, werden »Lightweight Programming Models« implementiert. Das heißt, dass die Daten sehr einfach über eine HTTP- oder Web-Service-Schnittstelle bereitgestellt werden. Neue offene, flexible, leicht zu bedienende Schnittstellen, sogenannte APIs, ermöglichen den Zugriff auf die global gesammelten Daten, die auf den Servern großer Onlineunternehmen, wie z. B. eBay, abgespeichert und ständig aktualisiert werden.

Verschiedenste digitale Daten lassen sich beliebig vermischen und in neue Formen bringen. So entstehen sogenannte Mashups, die Inhalte von verschiedenen Anwendungen des Internets zusammenbringen, z. B. Placeopedia, die die Funktionalitäten von Google Maps und Wikipedia vereinigt, so dass sämtliche Plätze der Welt mit Wikipedia-Einträgen angereichert werden können.

6. Software, die auf vielen Geräten nutzbar wird. Nicht nur der PC kommt als Endgerät in Frage, sondern auch mobile oder sonstige Geräte. Damit wird ein altes Ziel von Webseiten wieder belebt. Sie sollen so gestaltet werden, dass die Darstellung auf verschiedenen Medien möglich ist. Mittlerweile ist es weder schwierig noch kostenintensiv, über Smartphones und Tablets ins Internet zu gelangen. Da diese Helfer zu unseren täglichen Begleitern geworden sind, liegt es nahe, die erwähnten Datenbestände auch mit solchen Geräten abzurufen. Ein Beispiel ist das Mobile Tagging mit zweidimensionalen Strichcodes, die an Gegenständen angebracht werden können und eine URL kodieren. Mit einem Fotohandy können diese gelesen und via mobilem Browser abgerufen werden.

7. Rich User Experience. Der letzte Aspekt bezieht sich noch einmal auf den ersten Punkt in O’Reillys Liste, geht dabei jedoch direkt auf die konkrete Bedienbarkeit der Software ein. Wenn der Desktop zum Webtop mutiert und kein Unterschied zwischen einer Applikation im Netz und einem lokal installierten Programm besteht, bedeutet dies, dass die Webapplikationen einen riesigen Sprung in Sachen Usability gemacht haben. Und in der Tat ist es auf einmal möglich Drag & Drop, ausgereifte Fenstertechniken und andere bequeme Funktionalitäten zu nutzen, die man bisher nur von der Desktopsoftware kennt. Der »Touch«-Screen erweiterte die Interaktionsformen. Eine Schlüsseltechnologie dabei ist Ajax (siehe Kapitel 2.8.2).

Soweit also die sieben Punkte, die O’Reilly angeführt hat. Mittlerweile haben sich mindestens drei zusätzliche Aspekte herauskristallisiert, die immer wieder im Zusammenhang mit dem Web 2.0 auftauchen.

Juristische Herausforderungen. Eine nicht zu unterschätzende Gefahr stellt die Transparenz persönlicher Informationen im WWW dar. Da das Web 2.0 davon lebt, dass Nutzer ihre Vorlieben, Interessen und Meinungen gerne ins Web verlagern und offenlegen, hat jeder Zugriff darauf. Dies wirft ganz neue rechtliche Problemstellungen auf, die natürlich auf das reale Leben abfärben und damit auch dort nach der momentanen Gesetzeslage behandelt werden müssen. Leider ist die Rechtsprechung mit der neuen Technologie zum Teil überfordert, so dass wenig Rechtssicherheit besteht und manchmal skurrile Urteile gesprochen werden1. Es ist anzunehmen, dass es noch Jahre dauern wird, bis der rechtspolitische Klärungsprozess tragfähige Ergebnisse bringt.

Neue Geschäftsmodelle. Die Frage, wie man momentan mit Dienstleistungen im WWW Geld verdienen kann, ist nicht trivial: Die Basissoftware läuft zum großen Teil auf Open-Source-Technologie, die meisten Dienste werden kostenlos zur Verfügung gestellt und die Konkurrenz ist riesig. Keine guten Voraussetzungen also, um einen Mehrwert zu generieren. Doch es gibt durchaus Ideen, mit denen Unternehmen im Web 2.0 Profite machen, z. B. über Premiummitgliedschaften, Werbung oder Nischenprodukte (siehe Kapitel 3.2.3).

10. Eigene Web-2.0-Ästhetik. Mit dem Web 2.0 entwickelte sich ein ganz eigenes Look&Feel. Dieses ist sehr verspielt, farbenfroh und kennt im Prinzip keine strengen Gestaltungsregeln. Das zeigten schon die für das frühe Web 2.0 so typischen lustigen, vokalarmen, zum Teil lautmalerischen Titel an, die mit Punkten und Zahlen angereichert wurden – z.