Web 2.0 – eine vorläufige Bestandsaufnahme

//Web 2.0 – eine vorläufige Bestandsaufnahme

Web 2.0 – eine vorläufige Bestandsaufnahme

Wie ich bereits in einem kurzen Artikel erwähnt habe, beschreibt der Begriff Web 2.0 eher vage eine veränderte Wahrnehmung und Nutzung des Internet. Einiges hat sich getan und so wird es Zeit für eine erneute, wenn auch vorläufige Bestandsaufnahme sowie für etwas Kritik.

Web 2.0 Begriff und Geschichte

Die Versionierung des Webs kann man vornehmen in Web 0.5 (vor Einführung bzw, Popularität des WWW), Web 1.0 (seit 1996, Einwegkommunikation, klassische Websites), Web 1.5 (DotCom-Hochzeit, dynamische Websites, Shopsysteme und CMS) sowie in die Version Web 2.0, um die es hier gehen soll.
Zunächst möchte ich nochmals zur Entstehungsgeschichte des Begriffs Web 2.0 einige Worte verlieren: Zuerst genannt wurde der Begriff von Tim O’Reilly. Sein Verlag ist insbesondere bekannt durch Computer-Bücher, die markenrechtlich freie Grafiken von Tieren tragen.

Der Begriff Web 2.0 entstand während eines Brainstormings zwischen O’Reilly und MediaLive International am Rande einer Konferenz. Nach O’Reilly ist nach dem Platzen der ersten DotCom-Blase, als viele Kapitalgeber aber auch Firmen sich aus dem Internet-Geschäft zurückzogen, ein Vakuum entstanden, das die Spreu vom Weizen getrennt hat aber relativ unabhängigviele Internet-Projekte entstehen ließ, die innovative Geschäftsideen und Technologien entwickeln haben.

Viele dieser Unternehmungen sind mittlerweile profitabel , einige haben gar einen Aktienwert, der auf den Niveau von Anfang des Jahres 2001 oder sogar darüber liegt. Für genau diesen neuen Boom prägt O’Reilly den Begriff Web 2.0. Aus diesen Überlegungen entstand auch die von O’Reilly initiierte Web 2.0 Konferenz, die erstmals im Oktober 2004 stattfand.

Die Gegenüberstellung, die O’Reilly im Artikel “What is Web 2.0” macht möchte ich hier kurz wiedergeben, da Sie recht gut das Brainstorming verdeutlicht:

Web 1.0 Web 2.0
DoubleClick –> Google AdSense
Ofoto –> Flickr
Akamai –> BitTorrent
mp3.com –> Napster
Britannica Online –> Wikipedia
personal websites –> blogging
evite –> upcoming.org and EVDB
domain name speculation –> search engine optimization
page views –> cost per click
screen scraping –> web services
publishing –> participation
content management systems –> wikis
directories (taxonomy) –> tagging (”folksonomy”)
stickiness –> syndication

Die Zusammenhänge dieser Tabelle sind in O’Reillys Artikel beispielhaft erklärt.

Web 2.0 Prinzipien und Praktiken

O’Reilly identifiziert einige Prinzipien und Praktiken, die Web 2.0 kennzeichnen. Zu diesen Prinzipien komme ich im Folgenden, wobei ich O’Reillys Ansätze noch ergänzen werde.
O’Reilly geht davon aus, dass Plattformen immer den reine (Software-) Applikation überlegen sind. So ist Microsoft ein gutes Beispiel der Nutzung einer etablierten Plattform. Microsoft erlaubte es zwar zunächst Software-Applikationen wie Lotus 1-2-3 oder dem Netscape Navigator die “Plattform MS-Windows” zu nutzen, jedoch konnte die Stärke der Plattform diese Applikationen schnell durch MS-Excel oder dem Internet-Explorer verdrängen.

Mittlerweile geht es aber nicht (nur) um die Gegenüberstellung von Plattformen und Applikationen – vielmehr stehen Plattformen anderen Plattformen gegenüber. Nicht umsonst kämpft Microsoft an einer Front gegen umfangreiche Open-Source-Systeme. Hier zeichnet sich gleichsam ein Kampf der Web-Versionen 1.0 und 2.0 ab. Die Open-Source-Systeme basieren grundlegend auf der Beteiligung von Usern (im Falle von Open Source Entwicklern – von denen es ja auch eine größere Anzahl gibt). Zum Prinzip der Beteiligung werde ich gleich noch kommen.

Reine Software-Programme auf dem heimischen PC werden also durch Web 2.0 in Frage gestellt, das Internet selbst wird zurAnwendung. Google ist eine weitere Front, an der sich der Software-Gigant Microsoft behaupten muß. Lokalen Datenhaltung wir abgelöst durch “Network-Storage”. Das bezieht sich nicht mehr auf das Firmennetzwerk sondern auf das gesamte Netz der Netze. Zunehmende Mobilität ist dabei ein wichtiger Faktor – Inhalte liegen im Netz, darstellbar auf kleinstem Raum und mobil abrufbar (vgl. web-zweinull.de – “Was ist Web 2.0“).

Vielen Web 2.0 Applikationen ist eines gemeinsam: Sie legen einen Teil Ihrer Hoheit in die Hände Ihrer User. Im Beispiel von Wikipedia die redaktionelle Kontrolle. Dafür bekommen Sie eine der wichtigsten Rescourcen als Gegenleistung: Content, den Sie in Ihren Datenbanken organisieren können. User-Beteiligungssysteme sind also ein wesentlicher Bestandteil von Web 2.0 Software und die an das System gebundenen User bzw. deren zugesteuerter Beitrag ein wesentliches Kapital von Web 2.0 Unternehmen.

Ein Prinzip von Web 2.0 ist das des “Users add value“. User werden demnach am Entstehungsprozess der Web-Appikation beteiligen. Dafür bedarf es laut O’Reilly verschiedener Netzwerk-Effekte, welche die Software der Web 2.0 Applikation von vornherein einbeziehen muß.
Software entwickelt sich weg vom reinen Produkt – sie wird wahrgenommen als Service und ist eng verknüpft mit zugehörigen Inhalten. “Data is The Next Intel Inside” sagt O’Reilly. Daten zu halten und zu organisieren ist daher eine der größten Herausforderungen. Schaut man in die Copyright-Hinweise von MapQuest, maps.yahoo.com, maps.msn.com, or maps.google.com, findet man wiederholt den Hinweis “Maps copyright NavTeq, TeleAtlas“. Diese Daten, kombiniert mit den User-generierten Inhalten stellen ein wahres Potential dar.

Nicht mehr die Hardware (”Intel Inside”) sondern der Content der umfangreichen Datensysteme ist wichtig geworden. Für Web-Applikationen, Navigationssysteme, Mobile und vernetzte Endgeräte ist ein Aufdruck wie “NavTeq enabled” ein Garant für qualitative Nutzung.

Kritikpunkte an Web 2.0 und Gefahren eines Web 2.0 Hypes

Nicht zuletzt die Blogosphäre war Auslöser und Ideengeber vieler Web 2.0 Anwendungen. In den Nischen entstehen verschiedenste Konzepte, die den Nutzer bewust einbeziehen.
Die Aufbruchstimmung erinnert an die Anfänge des WWW, als Amateure mit Ihren Homepages den größten Anteil am WWW für sich beanspruchten. Der fast religiöse Eifer , mit dem Web 2.0 Anwendungen aus dem Datenstrom schießen findet bereits Kritiker.

Anscheinend bieten die Web 2.0 Applikationen, einen Technologiesprung, bei dem alle bisherigen Erkenntnisse und Umsetzungen tatsächlich etwas Neues formen. Etwas Neues oder doch nur eine logisch-konsequente Nutzung – und im besten Fall Weiterentwicklung – bestehender Praktiken und Technologien? Wird das Gefühl etwas neues zu schaffen verstärkt durch das ekstatische Gefühl, ein Mitspracherecht zu haben? Ist dies nicht wieder das erhebende Gefühl, mit der auf Wackelgifs basierenden eigenen Homepage der Autor zu sein, das wir aus den Zeiten vor der Kommerzialisierung des Internets kennen? Diese Zeit, wo jeder sein eigener Verleger war und dachte, etwas bewegen zu können? Diese subjektive Wahrnehmung wird verstärkt durch die Erinnerung an die Faszination der interaktivität, die bereits Teenager in den 90er Jahren in die Schuldenfalle trieb, weil sie beim Chat mit Ihren Schulfreunden die Telefonrechnung aus den Augen verloren.

Haben wir nicht schon vor Jahren Jahren Berwertungssysteme gesehen? Sei es in Form von Produktbewertungen wie bei Amazon oder bei Idealo. Diese Unternehmen haben schon früh den Nutzen von “User-generated-Content” erkannt. Auch Foren, als Anhängsel von Unternehmensseiten oder auf Privatinitiative sind uns seit Internet-Jahrhunderten bekannt. Und hatte nicht jede private Homepage, die etwas auf sich hiet ein Gästebuch?

Foren und Gästebüchern wehte jedoch ein immer stärkerer Wind entgegen. Forenbetreiber haften mittlerweile bereits für Beiträge, von denen sie gar keine Kenntnis hatten. Diese (vieleicht auch sehr speziell deutsche) Einschränkung schränkte die Fortentwicklung und Lust so manchen Betreibers ein, zu interaktiv zu agieren.

Web 2.0 Anwender können sich bereits heute genau auf diesen Gegenwind einstellen. So manches Web 2.0 Unternehmen ist gut beraten, sich in ein “sicheres Drittland” wie z.B. Panama oder Rumänien zurückzuziehen, um die Verfolgung zu umgehen, wenn z.B. ein User Verleumdungen auf die Plattform stellt oder z.B. ein urheberrechtlich geschütztes Video überspielt. Der deutsche Ableger der Wikipedia hat dies schon zu spüren bekommen und mußte zeitweise seine Website schließen.

Halten wir also fest: Interaktivität und User-Beteiligungssysteme sind nicht neu – sie bestehen eigentlich seit dem Anfang des Internet. Lediglich die Nutzung der Technologien ist ausgefeilter. Interaktivität wird konsequenter angewandt, sie gehört jetzt sozusagen “zum guten Ton” – und es sie wird ein Kernbestandteil des Businessmodells. Handelt es sich um ein altes Web in neuen Tüten?
Was ist mit dem Prinzip des Webstorage? Daten im Web vorhalten und von überall erreichbar zu machen ist sicher bei zunehmendem Informationsbedürfnis und Mobilität ein logischer Ausweg. Auch hier scheint aber die Faszination teilweise den Verstand auszuschalten. Bislang herrschte die Meinung vor “meine Daten gehören mir”. Interessant zu beobachten ist die Freimütigkeit, mit der ein User jetzt seine Kalendereinträge, Fotos und persönlichen Nachrichten an web 2.0 Unternehmen ausliefern soll. Das scheint zu funktionieren, weil der User ermüdet und nicht als ewig gestriger gelten will.

Ein aufgeklärter User mag beurteilen können, welche Dienste er nutzen möchte und in wie weit er sich aus verschiedenen Gründen zur öffentlichen Person machen will. Ich möchte jedoch behaupten, dass ein Großteil der Nutzer von social-software dies nicht überblicken kann. Die Auswirkungen kann er dann z.B. beim nächsten Vorstellungsgespräch zu spüren bekommen, wenn der Personalchef bereits die Flickr-Fotos vom letzten Saufgelage gesehen hat.
Handelt es sich jedoch nicht nur um persönliche Daten, sondern um die Sammlung von Daten in Form von oben erwähntem NavTeq / TeleAtlas oder auch um die Sammlung öffentlich zugänglicher Daten, wie es der Gigant Google betreibt, könnte die Auswirkung kaum weniger beunruhigend sein.

Bleiben wir beim Beispiel von Google: Das Unternehmen sammelt Daten jeglicher Art. Dazu gehören z.B. auch Personendaten, die im Web frei verfügbar sind, mitunter auch Daten, die gar nicht für die Öffentlichkeit bestimmt waren, jedoch durch Fehler von Webmastern erreichbar wurden. Das kann bereits so weit gehen, dass es selbst Google selbst unheimlich wurde. Das Unternehmen verhängte kurzerhand eine Nachrichtensperre für den News-Dienst CNet, weil dieser ergoogelte Informationen über den Vorstandschef von Google, Eric Schmidt veröffentlichte.

Verantwortliche bei eCommerce-Unternehmen müssen sich bereits heute Gedanken machen, was passiert, wenn Google selbst einen eigenen Businesszweig in Ihrer Branche eröffnen will. Die Überlegung ist also, was z.B. eine Autobörse tun kann, wenn Google auf die Idee käme selbst eine Autobörse zu eröffnen. Alle relevanten Daten zur über Infrastrukturen, Händlernetze etc. sind bereits Heute in der Hand von Google. Dazu kämen Daten von potentiellen Auto-Käufern, die Google anhand seines Kleinanzeigenprotals Google-Base oder sogar auf Grundlage seines eMaildienstes GMail evaluieren könnte.

Webstorage birgt also in Zusammenhang mit intelligentem Data-Mining immer die Gefahr von Monopolbildungen und Missbrauch.

Web 2.0 ist eng verknüpft mit Begriffen z.B. AJAX. Das sind Systeme Technologien, die auf Javascript und ActiveX Elementen basieren, arbeiten. Das ist nicht neu, allerdings waren solche Technologien in der Vergangenheit teilweise verpönt. Jahrelang wurde dem User erzählt, das Javascript, Cookies und ActiveX eine Gefahr für die Datensicherheit darstellen. So mancher User schaltete dies daher in seinem Browser ab.

Noch gravierender wäre eine Beinträchtigung der Barrierefreiheit von Websites. In Deutschland sind Webauftritte von öffentlichen Einrichtungen verpflichtet, auch z.B. sehbehinderten Menschen den Zugang zu ihren Websites zu ermöglichen (BITV). Sicher können Entwickler von web 2.0 Anwendungen darauf achten, alternative Möglichkeiten zu bieten, um auch z.B. ohne Javascript eine Website zu bedienen. Die Gefahr ist alledings, dass genau dies nicht beachtet wird.

Zu guter letzt sei noch die Auswirkungen einer möglichen Überbewertung eines Web 2.0 Hypes zu erwähnen. Die Momentane Entwicklung, inkusive Presseecho und Feedback aus dem Netz, erinnert stark an den DotCom-Boom zum Jahrtausendwechsel. Wieder geht es um viel Geld, wieder sind Investoren auf der Jagt, um Ihr lange gehortetes Geld einzusetzen, wieder will jeder dabei sein. Seit Anfang des Jahres 2006 wurde soviel investiert wie schon lange nicht mehr. Doch welche Unternehmen auf dem web 2.0 Markt sind es wert, diese Investitionen später auch in schwarze Zahlen umzusetzen?

Internet-Unternehmen, welche die DotCom-Krise überstanden haben und jetzt solide dastehen könnten als rückständig angesehen werden, weil sie vieleicht nicht jedes Feature von web 2.0 bieten. Diese Unternehmen würden damit aber massiv abgewertet bzw. unterbewertet werden.

Die Gefahr besteht erneut mit Kopfschmerzen aufzuwachen, wenn auch diese Blase platzt. Oder wie es ein Bekannter formulierte – “hoffentlich gibt es noch genug Nieren- und Blasentee in Deutschland”.

Wer sich einen Überblick über web 2.0 Applikationen verschaffen möchte, dem sei die Slide-Show mit über 1400 Projekten bei web2.0slides.com empfohlen. Zum Weiterlesen (oder hören) empfieht sich die Quellensammlung bei Dr. Web Weblog.

By | 2017-01-24T16:07:07+00:00 13.05.2006|Categories: Archiv|0 Comments

About the Author:

Als Media-Experte habe ich mich auf die Beratung von Internetunternehmen, technisches Projektmanagement sowie Webpromotion spezialisiert. Ein wesentlicher Schwerpunkt liegt dabei auf der Produktion und Entwicklung von mehrsprachigen Webapplikationen und Special-Interest-Portalen. Meine Dienstleistungen umfassen sowohl Online-Marketing, Online-Publishing, als auch Online-Development. raquo; Mehr erfahren...

Leave A Comment