Mirko Tobias Schäfer / Assistant Professor
University of Utrecht Department for Media and Culture Studies
Spätestens als das US-amerikanische Time Magazine den User („You“) zur Person des Jahres kürte und die Anwender als die Helden des Informationszeitalters feierte, wurde Partizipation als große Legende des sogenannten Web 2.0 explizit sichtbar [1]. Bereits zuvor betonte wurde die zentrale Rolle der Anwender betont und deren kollektive und gemeinschaftsorientierte Arbeit als charakteristisches Kennzeichen einer „Generation C“, C für Content, hervorgehoben [2] Anwender stellen ihre Produktionen auf populäre Webplattformen wie MySpace, YouTube, Flickr, Delicious, Last.FM, Twitter. Dies und die Arbeit an den dazugehörigen Application Programming Interfaces (API) und die Kreation von sogenannten MashUp Sites zog nicht nur die Aufmerksamkeit der Mainstream-Medien an, sondern auch das Kapital der Investoren. Während die Marketingagenturen und Journalisten das Medienphänomen Web 2.0 vielmehr als Realisierung einer lang ersehnten Gemeinschaftsutopie beschreiben, ist zu fragen, ob das Web 2.0 nicht eher als Beispiel für die geschickte Implementation der User-Aktivitäten in Software-Design und neue Geschäftsmodelle ist. Das stellt nicht nur das utopische Versprechen auf Demokratisierung der Machtverhältnisse in der Medienproduktion in Frage, sondern wirft grundsätzliche Fragen nach der gesellschaftspolitischen Rolle von technischem Design und unserem Verständnis von Kulturproduktion auf. Unbestritten wird Partizipation generell positiv bewertet. Sie impliziert demokratische Prinzipien und fördert Ansehen und Selbstbewußtsein der Beteiligten, indem sie unmittelbar Bedeutung generiert und erfahrbar macht. Ein Blick hinter die Benutzeroberflächen von Web-Applikationen und in die Organisationsstrukturen von kollektiver Produktionsmethoden zeigt inwiefern dieser Anspruch tatsächlich 'integriert' wird, oder ob lediglich die Arbeit von Usern unbezahlt in neue Geschäftsmodelle 'implementiert' wird. Durch die Implementation von Medienpraktiken in das Software-Design, findet die vielbeschworene User-Partizipation oftmals implizit statt.User-Aktivitäten, die sich in den vergangenen zehn Jahren als charakteristische Merkmale der Internetkultur entwickelt haben werden in einfach zu bedienende Benutzeroberflächen eingebunden. Beispiele für Applikationen, deren Design zahlreiche User-Aktivitäten und Medienpraktiken steuert und geschickt in neue Businessmodelle implementiert, sind Online-Dienste wie Rapidshare, Facebook, Flickr, Twitter, oder YouTube [3]. Das technische Design trägt hier nämlich ganz wesentlich zum Entstehen diverser Formen sozialer Interaktion und kollektiver Produktion bei.
Dieser Artikel beschreibt die Dynamik der Übersetzung von Medienpraktiken in technisches Design, und untersucht das Beziehungen zwischen Anwendern und Anbietern von Webapplikationen. Ohne jede kulturpessimistische Tendenz und fern eines techno-deterministischen Verständnisses, soll dieser Artikel die Dynamik der Übersetzung von Medienpraktiken in technisches Design als 'Implementation' und 'Integration' analysieren. Als Implementierung von Partizipation, wird die Steuerung von User-Aktivitäten, und die (unbezahlte) Verwertung der von Usern geleistete Arbeit verstanden. Integration hingegen beschreibt nicht nur die Mitarbeit von Usern an der Entwicklung von Software-Applikationen und der Produktion von Inhalten, sondern auch das Potential für Mitverwaltung und Mitsprache, sowie die Akzeptanz und Integration kultureller Werte und Arbeitsmethoden, die sich distinktiv in der Internet-Kultur entwickelt haben. Darüber hinaus sollen auch die sozialen Aspekte im Prozess der Design-Programmierung selbst berücksichtigt werden. Hier interessieren mich sozialpolitische Prozesse, bei denen das technische Wissen der User formalisiert und strukturell in kollaborative Prozesse der Software-Programmierung integriert werden. Institutionen wie die Wikimedia Stiftung oder Firmen wie Google haben in der Interaktion mit ihren Usern Methoden entwickelt, um gemeinsam Produkte und Dienste (Wikipedia oder Google Maps) zu verbessern. Die Integration des technischen Wissens der Anwender in die kollaborativen Produktionsprozesse hat auch politische Qualität. Während Prozesse zur Diskussion und Entscheidungsfindung hinsichtlich von Fragen der Programmierung von Software entwickelt werden, entsteht möglicherweise so etwas wie ein gesellschaftspolitisches Verständnis für eine partizipative Medienpraxis. Google kommuniziert mit seinen Entwickler-Gemeinschaften auf verschiedenen Ebenen, stellt Räume für Konferenzen zur Verfügung, und diskutiert seine Entscheidungen hinsichtlich Copyright-Fragen im firmeneigenen Public Policy Blog. Wikipedia ist Beispiel für einen Entwicklungsprozess, der auf zahlreichen Ebenen von demokratischer Entscheidungsfindung und der Implementation von sozialen Regeln und Werten charakterisiert ist.
Ein gegenwärtiger Trend der Kulturindustrien läßt sich an der Inkorporation von Anwenderpraktiken in Web-Applikationen und neuen Geschäftsmodellen ablesen. Dabei werden Praktiken, die sich innerhalb der letzten zehn Jahre oftmals außerhalb der etablierten Medienbetriebe entwickelt haben, auf kommerziellen Plattformen angeboten. Die bestehenden Medienpraktiken werden mit Hilfe von einfach zu bedienenden User-Interfaces einem breiten Publikum zugänglich. Darüber hinaus steuert das Softwaredesign nicht nur die Anwenderaktivitäten, sondern erlaubt einen hohen Grad an Kontrolle über die generierten Daten, Inhalte und die zur Verfügung gestellten Ressourcen. Anstatt Medieninhalte zu produzieren, bieten Betriebe Plattformen an, auf denen die Anwender selber Inhalte produzieren und verbreiten. Figur 1 zeigt eine Auswahl solcher Plattformen, die es Usern ermöglichen,
Diese unvollständige Liste zeigt bereits, dass diese Plattformen in ihrer vielseitigen Verwendbarkeit im Grunde Infrastrukturen für alles Mögliche sind. Bewußt scheint das Software-Design viele Optionen anzubieten, die neben der möglichst einfach zu bedienenden Nutzung dem User selbst überlassen, wie die Infrastruktur genutzt werden kann und inwieweit soziale Interaktion mit anderen Usern aufgenommen werden soll. Die Kommunikation der Anwender untereinander und eine Vernetzung in Freundeskreise und/oder Gruppen ist, abgesehen von den sozialen Netzwerkseiten, nicht notwendig für das Funktionieren der Web-Applikation. Im Folgenden soll anhand von drei Beispielen gezeigt werden, wie User Aktivitäten durch Softwaredesign gesteuert und Medienpraktiken in Geschäftsmodelle implementiert werden.
Seit 1996 hat sich die nicht autorisierte Webseite The Force.Net zu der größten Plattform für Star Wars-Fans entwickelt [4]. Neben den typischen Community-Aktivitäten wie der Publikation und Besprechung von Nachrichten zum Thema Star Wars und Star Wars-Fandom, wurde TheForce.Net auch außerhalb der Star Wars Fan-Gemeinschaft bekannt als Plattform für fanproduzierte Star Wars-Filme, Fake-Trailer und Persiflagen. TheForce.net vermittelte enthusiastischen Fans das Know-how für selbstgemachte Science Fiction Abenteuer und speicherte außerdem die Produktionen auf seinen Servern speicherte. Die in zahlreichen Fan-Communities verbreitete Praxis populäre Medieninhalte collagenartig mit anderen Inhalten zu 'remixen' und zu persiflieren, wurde von Lucasfilm 2007 in der unternehmenseigenen Plattform Starwars.com als Star Wars MahUps implementiert [5]. Das vom Copyright-Inhaber angebotene Material wird dabei nur beschränkt zugänglich gemacht und die Kreationen der Anwender sowie deren Distribution weitestgehend kontrolliert und hinsichtlich eventueller Nacktaufnahmen zensiert. Nachdem Lucasfilm die Abenteuer in der weit entfernten Galaxie nicht mehr fortsetzen will, kann das Unternehmen die Abenteuer von Luke Skywalker und Han Solo mit den Remix-Aktivitäten der Fans fortsetzen, indem es die Originalinhalte als Rohmaterial für neue Medieninhalte anbietet, und sich deren kommerzielle Verwertung exklusiv vorbehält. Lawrence Lessig vergleicht diese Praxis mit feudaler Landpacht und bezeichnet die Nutzer als „sharecropper of the digital age“ [6].
File-Hosting-Services wie Rapidshare oder Megaupload sind ein weiteres Beispiel für die Implementation von User-Aktivitäten [7] Die Dienste bieten eine über Web-Browser bedienbare Infrastruktur zum Speichern und Downloaden von großen Datenbeständen an. Der deutsche Anbieter Rapidshare bot 2007 eine Gesamtspeicherkapazität von 3,5 Petabyte und eine Bandbreite von 140GB/s an und bereits ein Jahr später 4,5 Petabyte Speicherkapazität und 240 GB/s Bandbreite [8]. Zwar weisen die Betreiber der Dienste Vorwürfe, Copyright-Verletzungen Vorschub zu leisten, weit von sich, aber ihre einfach zu bedienenden Interfaces und die dahinterliegende Infrastruktur zielen auf die weitverbreitete Praxis des Filesharing. Anstatt ein Filesharing-Programm (wie z.B. eMule) zu installieren, oder einen Bittorrent-Client (wie z.B. μTorrent) zu verwenden, können User mit Diensten wie Rapidshare, Megaupload, Flyupload große Dateien mit ihrem Webbrowser online speichern und mit anderen teilen. Speichern und downloaden der Dateien ist limitiert gratis [9]. Die Anbieter nutzen, wie ein deutsches Gericht kürzlich feststellte, die Praxis der User, unlizenzierte Kopien von Filmen, Musik, Texten und Software zu speichern und Dritten zur Verfügung zu stellen [10]. Natürlich werden diese Dienste auch genutzt, um Dateien, die zu groß für den E-Mailversand sind, dort zu speichern und nur den Link dazu Dateien weiterzusenden. Dennoch sammeln sich auf den Servern der File-Hoster Medieninhalte in großer Menge, die unlizenziert verbreitet werden. Der Verpflichtung, nicht lizenzierte Kopien zu löschen und ihre Verbreitung zu unterbinden, können die File-Hoster gar nicht so schnell nachkommen, wie Dateien erneut und oft gleichzeitig auf verschiedenen Servern gespeichert werden [11].
Janko Röttgers hat zu Recht darauf hingewiesen, dass sich rund um diese Dienste eigene Netzwerke, einem Ökosystem gleich, entwickeln [12]. User unterhalten Webseiten oder engagieren sich in Foren, wo Links zu Dateien kommentiert und ausgetauscht werden. Dritte bieten Suchmaschinen an, mit deren Hilfe man gezielt nach Dateien bei den verschiedenen Anbietern suchen kann [13]. Zahlreiche Weblogs und Foren, spezialisiert auf verschiedene Inhalte, publizieren regelmäßig Links und oft auch ausführliche Kommentare zu Dateien [14]. Dies trifft auch auf zahlreiche andere populäre Web-Dienste und Web-Applikationen zu. Die von den Unternehmen angebotenen Infrastrukturen werden nicht nur von den Usern zu verschiedenen kommerziellen und nicht-kommerziellen Zwecken genutzt, sondern auch durch vielfältige Angebote angereichert und erweitert. Damit erhöht sich auch die Attraktivität der jeweiligen Applikation. Es ist also im Interesse der kommerziellen Anbieter, dass die User Möglichkeiten haben und aktiv nutzen, um die angebotene Infrastruktur weitgehend ihren eigenen Vorstellungen entsprechend zu nutzen und mit Inhalten zu füllen, sowie in andere Web-Applikationen und Plattformen zu integrieren. Der Star Wars MashUp Editor zeigt wie ein Unternehmen die im Web weitverbreitete Praxis der Remixe in seine eigene Infrastruktur implementiert und sich nicht nur die Kontrolle über sein intellektuelles Eigentum sichert, sondern auch die Kreativität der Fans für sein Geschäftsmodell nutzten möchte [15].
Die File-Hosting-Dienste zeigen hingegen, wie das Anbieten einer reinen Infrastruktur zum Selbstläufer werden kann und eine große Zielgruppe anspricht. Es muß allerdings betont werden, dass diese Dienste vor allem wegen der dort frei erhältlichen Inhalte so attraktiv sind, und die Unternehmen hier von der unerlaubten Verbreitung urherberrechtsgeschützter Titeln profitieren. Sie implementieren also nicht nur eine Medienpraxis in ihr Geschäftsmodell, sondern implizit auch die dabei zu tauschenden Dateien. Während also Lucasfilm sein eigenes Bild-Material als Anreiz zur Nutzung der Star Wars MashUps Plattform anbietet, bieten die File-Hosting-Services eine Infrastruktur, die sich zur web-basierten und oftmals nicht lizensierten Distribution von Inhalte Dritter eignet. Die technische Eintrittsschwelle zum Filesharing wird dabei nochmals gesenkt. Was der StarWars MashUps Editor von Lucasfilm und die File-Hosting Services gemeinsam haben, ist die aktive Partizipation ihrer Anwender. Graduell ist diese bei letzteren schwächer ausgebildet als bei den Star Wars-Fans. Dennoch bedarf es in beiden Fällen einer aktiven und bewußten Entscheidung der Nutzer, Material für andere bereitzustellen und im Falle der Star Wars-Remixe erst herzustellen. Die Arbeit, die hier geleistet wird, ist nicht zu unterschätzen. Nicht nur die Herstellung eines Fanfilms kostet Zeit und Mühe, auch die Digitalisierung von Schallplatten, das 'Rippen' von CDs und DVDs, sowie der Upload zu verschiedenen File-Hostern sind ein nicht zu unterschätzender Zeitaufwand, der hier von den Usern erbracht wird. Auch die Indexierung von Dateien und das Publizieren von Links oder gar die Kreation von beschreibenden Kommentaren zum Inhalt der jeweiligen Dateien kann als explizite Partizipation der Anwender am kommerziellen Angebot verstanden werden. Dem gegenüber steht eine oft unbewußte und implizite Partizipation, die sozusagen als Nebeneffekt der Nutzung eines jeweiligen Angebotes produziert wird. Was Tim O'Reilly als „architecture of participation“ (O'Reilly 2005) beschrieben hat, erweist sich als eine geschickte Strategie, nicht nur die Medienpraktiken der User zu implementieren, sondern diese mit Hilfe des Software-Designs zu formalisieren und auch anderweitig nutzbar zu machen.
Populäre Web-Applikationen wie Delicious, Flickr, oder YouTube bieten eine Infrastruktur für verschiedene Aktivitäten an, wie z.B. das Speichern und Teilen von Lesezeichen (Delicious), Photos (Flickr) und Videos (YouTube). Keine dieser Aktivitäten ist neu, sondern einzig und allein sind die kommerziellen Plattformen einfacher zu bedienen und dieses meistens gratis. Die Interfaces sind bewußt so gestaltet, dass User ohne jegliche Kenntnis von Web-Technologien Webseiten kreieren können. Flickr bietet die Möglichkeit Fotoalben anzulegen, sie mit anderen zu teilen oder limitierten Zugang zu den Fotos anzubieten. Das ist auch bei YouTube der Fall, nur eben mit Videos. YouTube bietet allen Usern außerdem die Möglichkeit, beliebige Videos in andere Webseiten zu integrieren, und trägt die anfallenden Kosten für den Datenverkehr. Für das Funktionieren dieser Plattformen spielt es letztendlich keine Rolle, ob und in welchem Umfang die User Kontakte mit anderen aufnehmen. Sie unterscheiden sich damit sehr deutlich von Foren, indenen der Austausch von Links zu Filmen und anderen Dateien explizit von der sozialen Interaktion getragen wird. Hier werden sogenannte „Leechers“ sanktioniert und regelmäßige „Filler“ mit einem besseren Status innerhalb der Community belohnt. Für Web-Dienste wie Flickr, YouTube oder Delicious ist das kaum relevant. Soziale Interaktion, sowie die aktive oder passive Nutzung ist nur eine von vielen Optionen, die diese Plattformen anbieten. Als reine Infrastrukturen, die auf eine möglichst große Nutzergruppe abzielen, ist die notwendige intrinsische Motivation zur Nutzung bewußt gering gehalten.
Um Flickr zu nutzen, ist einzig und allein das Interesse von Usern notwendig, ihre Fotos online zu speichern. Es ist vollkommen gleichgültig, ob diese User ihre Fotos mit anderen teilen wollen oder nicht. Die Stärke dieser Plattformen liegt in der Möglichkeit zur „weak cooperation“, wie es Prieur et al. ausdrücken [16]. Ihre Auswertung der gesamten Nutzergruppe von Flickr zeigt, dass 62% der registrierten User keine Fotos öffentlich teilen. Von den verbleibenden 38% teilte die eine Hälfte ihre Fotos öffentlich, aber macht keinerlei Gebrauch von den Kommunikationsmitteln, die Flickr zur sozialen Interaktion anbietet. Die andere Hälfte (also 19% der Flickr-Nutzer) veröffentlicht und macht aktiv Gebrauch von den Möglichkeiten Fotos zu kommentieren, sich in Gruppen auszutauschen und soziale Netzwerke (Kontakte) zu unterhalten [17]. Die registrierten Flickr-User mit einem Premium-Account stellen insgesamt 59,5% aller auf Flickr gespeicherten Fotos, obwohl sie nur 3,7% aller registrierten Flickr-User repräsentieren [18]. Fotos oder Videos zu Flickr und YouTube hochladen ist aber nur ein Teil der Useraktivitäten. Die gespeicherten Daten müssen darüberhinaus für effizientes Informationsmanagment aufbereitet werden. Eine Aufgabe, die angesichts der großen Datenmengen unerschwinglichen Kapital- und Personalaufwand erfordern würde [19]. Statt dessen implementieren Plattformen wie YouTube und Flickr neben automatisierten Prozessen zur Inhaltskontrolle und zum Informationsmanagement auch noch das Potential ihrer User, um Meta-Informationen zu kreieren und anstößige Inhalte zu melden [20]. Bereits der simple Vorgang, Fotos auf den Flickr-Server zu übertragen, versorgt Flickr mit zahlreichen Informationen [21]. Darüber hinaus tragen Besucher der Webseiten bereits durch die einfache Nutzung der Dienste, wie das Betrachten von Bildern und Videos zum Datenmanagement bei [22]. Aus der Menge der Ansichten (views), die ein Video oder ein Foto erzielt, kann das Informationsmanagement im Zusammenhang mit den zugewiesenen Treffwörtern die Relevanz für die Suchanfragen von Usern berechnen [23].
Die Einrichtung von Supermärkten und die Präsentation von Waren ist so gestaltet, dass die Klientel zum Kaufen animiert und optimal durch das Warenangebot gelenkt wird. Ganz ähnlich steuern die graphischen User-Interfaces von Web-Applikationen die User-Aktivitäten. Die Benutzeroberflächen von Flickr- und YouTube laden dazu ein, Fotos oder Videos Treffwörter (sogenannte Tags) zuzuweisen, mit deren Hilfe die eignen Dateien und die anderer durchsucht werden können. Auch hier ist es wieder relativ irrelevant, ob die Tags zugefügt werden, um die Popularität und Auffindbarkeit des eigenen Fotos zu erhöhen, oder ob es nur aus privatem Interesse geschieht. Ausschlaggebend ist, dass Meta-Informationen an das Informationsmanagement-System gesendet werden. Mit Hilfe dieser Informationen, können die Fotos der gesamten Flickr Datenbank unterschiedlichen Clustern zugewiesen werden. Fotos die Tags wie 'Paris' und 'Eiffelturm' aufweisen, werden mit großer Wahrscheinlichkeit nicht in dem Cluster von Fotos auftauchen, die mit 'Paris' und 'Hilton' gekennzeichnet sind.
Motiviert von den zu erzielenden „views“ erstellen die User, Fotos bzw. Videos, die versehen mit geeigneten Treffwörtern zahlreiche Betrachter finden sollen. Bei den aktiven Teilnehmern der jeweiligen Plattformen ist das sowohl in der Produktion qualitativ guter und inhaltlich geeigneter Produktionen zu erkennen, aber auch in der Verwendung von geeigneten Treffwörtern und Beschreibungen der Inhalte. Ein Zusammenhang zwischen qualitativ guten Fotos und erzielten „views“ läßt sich auf Flickr in 'Communities' erkennen, die Fotos nach meritokratischen Kriterien bewerten [24]. Wie Lerman und Jones festhalten, ist hier vor allem die explizite Partizipation der Teilnehmer von Bedeutung, sowie der Grad ihrer sozialen Interaktion durch gegenseitiges Kommentieren der Fotos und die Platzierung der Bilder in unterschiedlichen themenorientierten Gruppen (Groups) [25].
Die oben angeführten Beispiele zeigen, dass die Partizipation von Usern in Web-Applikationen in direktem Zusammenhang mit dem Software-Design steht. Darüberhinaus wird deutlich, dass die User mit ihren Aktivitäten, unabhängig davon, ob sie mit anderen kooperieren oder Inhalte beitragen, immer implizit das Informationsmanagement der Datenbank erweitern. Im Falle von Flickr geht es sogar soweit, dass die Konstruktion von Meta-Informationen durch die Flickr-User zur Verbesserung der Bildersuche in der Suchmaschine Yahoo beiträgt. Da Bilder oder Filme von Suchmaschinen nur schwer ihrem semantischen Inhalt nach indexiert werden können, sind die von Usern produzierten Tags als semantische Beschreibung der Inhalte für die Yahoo Suchmaschine sehr nützlich. Google versucht etwas ähnliches mit seinem Image Labeler, der allerdings komplett von der expliziten Partizipation von Usern abhängig ist [26]. Web-Applikationen wie Flickr und YouTube zeichnen sich aber dadurch aus, dass sie eine essentiell hybride Konstellation von Usern und Informationsmanagement-System konstituieren. Ein Interface-Design, das User zur intuitiven Kreation von Meta-Informationen und der Bewertung von Inhalten bewegt, ist zentraler Bestandteil impliziter Partizipation. Darüberhinaus bieten diese Plattformen eine möglichst weite Bandbreite von Möglichkeiten zur expliziten Partizipation.
Der Aspekt der impliziten Partizipation und die hybride Qualität der Kollaboration der User untereinander und mit dem Informationsmanagement-System relativiert die oftmals zu optimistisch bewerteten emanzipatorischen Aspekte des sogenannten Web 2.0. Die oft schwer zu analysierenden Aktivitäten der User werden umschrieben mit vagen Metaphern wie „social bookmarking“, „folksonomies“, „social software“, „collective intelligence“, oder „user-led production“. Besonders betont wird dabei eine angeblich neue Partizipation, während historische Kontinuität von Amateurkultur, Gegenöffentlichkeit und alternativer Medienproduktion genauso vernachlässigt wird wie die technischen Aspekte, die das gegenwärtige Medienphänomen mitkonstituieren [27]. Die Metaphern, mit denen die Partizipation der Anwender beschrieben wird, legen nahe, dass die konventionellen Begriffe für soziale Formationen hier nicht greifen. Stellen die hybriden Konstellationen von sozio-technischen Ökosystemen das Ineinandergreifen einer Vielzahl von Usern mit dem technischen Design informationsverarbeitender Algorithmen nicht eher die Konstitution von gesellschaftlichen Formationen unterhalb der Schwelle von 'Community' und 'social network' dar? Hier scheint sich vielmehr eine 'ephemere' Kommunikation zahlreicher Teilnehmer zu entwickeln, die beinahe auf den bloßen Kontakt reduziert ist, und ohne zahlreiche Aspekte konventioneller Kommunikation auskommt. Auch die häufig diskutierte Produktion von „User-Generated-Content“ verläuft hier nicht entsprechend den traditionellen Begriffen von Team-Arbeit oder kollektiver Produktion, sondern entwickelt sich vielmehr implizit als 'Nebeneffekt' der bloßen Nutzung von Web-Applikationen. Tim O'Reilly betont, dass der entscheidende Aspekt des Web 2.0 nicht die Benutzeroberflächen, sondern die Programmierung des Back-ends ist, also die geschickte Implementation von Medienpraktiken in Software-design [28].
Während die oben angeführten Beispiele von einer Implementation von User-Aktivitäten in Software-Design und Geschäftsmodelle sprechen, soll im Folgenden von einer Integration der User in die Entwicklung von Software-Design die Rede sein. Anstatt sich bestimmte User Aktivitäten zu eigen zu machen, und diese möglichst weitgehend durch das technische Design zu steuern und zu kontrollieren, müssen Unternehmen und Organisationen, die ihre Anwender aktiv in die Entwicklungsprozesse einbinden, sie in zahlreiche Entscheidungsprozesse aktiv mit einbeziehen. Die Partizipation ist dabei vor allem explizit, konstituiert aber auch oft Designentscheidungen, die wiederum die Implementation bestimmter User-Aktivitäten oder aber die Einschreibung bestimmter Regeln und Ordnungen in das technische Design nach sich ziehen. Wie im Folgenden erkennbar wird, entfalten sich dabei oftmals Prozesse, in denen Organisationen und Unternehmen die distinktiven Werte und Praktiken der Entwickler-Communities in ihre Produktionsprozesse integrieren oder ihnen aber entgegenkommen. Die Praxis der Integration findet sich im Bereich von Software-Entwicklung und Web-Design, aber auch in der kollaborativen Herstellung von Medieninhalten und deren Distribution. Zahlreiche Qualitäten der Computertechnologie, elektronischer Kommunikation und digitalisierter Artefakte werden dabei geschickt genutzt: Die Modularität von Software ermöglicht es, komplexe Projekte in kleine Module zu teilen, die von einer weltweit verteilten Gemeinschaft der Entwickler individuell bearbeitet werden können. Durch die Praktik der Integration weiten Organisationen und Unternehmen ihre Produktion direkt in die Sphäre ihrer Nutzer aus und diese aktiv am Entwicklungsprozeß teilnehmen. Anstatt User für die Appropriation von Produkten abzumahnen, ist sie hier sogar erwünscht.
Der Service Google Maps ist ein Beispiel für eine solche Integration. Die Applikation für geographische Daten und Luftaufnahmen zog das rege Interesse einer großen Entwickler-Community auf sich, die mit dem weitgehend offenen Application Programming Interface (API) eine Vielzahl von neuen Nutzungsmöglichkeiten entwarf, und aktiv an der Entwicklung des Programmcodes des API teilnahm. [29]
Google Maps ermöglicht wie viele andere Web 2.0
Applikationen die Synchronisation seiner Datenbank mit anderen Webseiten und Applikationen, so dass diese Daten auch anderweitig nutzbar gemacht werden können. Google stellt Kartenmaterial, Luft- und Satellitenaufnahmen für die Visualisierung und Navigation von Landkarten und Stadtplänen. Diese Daten können über das Application Programming Interface (API) für zahlreiche Funktionen verwendet werden. [30] Google Maps ermöglicht wie viele andere Web 2.0 Applikationen die Synchronisation seiner Datenbank mit anderen Webseiten und Applikationen, so dass diese Daten auch anderweitig nutzbar gemacht werden können. Google stellt Kartenmaterial, Luft- und Satellitenaufnahmen für die Visualisierung und Navigation von Landkarten und
Stadtplänen. Diese Daten können über das Application Programming Interface (API) für zahlreiche Funktionen verwendet werden. [30] Mit Yahoo! Maps und Microsoft Virtual Earth bieten auch Googles Mitbewerber ähnliche Anwendungen an und konkurrieren um User und eine möglichst breite Diffusion in zahlreiche Webapplikationen und Dienste. Bernhard Rieder zeigt, dass Google sehr bewußt eine enge Zusammenarbeit mit den Usern ihres API aufgebaut hat. [31] Mit dem Developers Day bietet Google einer oft losen Entwicklergemeinschaft eine Plattform für persönliche Begegnung, Diskussion und gemeinsame Projektpräsentationen; ein Forum auf Google Groups stellt die wichtigste Plattform für die tägliche Kommunikation dar. So wie sich auch rund um die oben genannten File-Hosting-Services eine Vielzahl anderer Webseiten und Dienste vernetzt, bildet sich auch rund um Google Maps ein Ökosystem mit einer Vielzahl an Usern, Online-Communities sachkundiger User, sowie kommerziellen Anwendern, die Googles Datenbank für ihre eigenen Zwecke nutzen und additive Infrastrukturen entwickeln. Unabhängig von den unternehmenseigenen Plattformen von Google verbreiten sich zahlreiche Weblogs, Foren und Newsgroups, die sich mit der Entwicklung der Google Maps API beschäftigen. [32]
Bernhard Rieder identifiziert vier verschiedene Ebenen, auf denen User an der Google Maps API partizipieren. Auf der Ebene der praktischen Nutzung von Datenbankeinträgen, kreieren User permanent neue Anwendungsmöglichkeiten der Google API. Auf einer weiteren Ebene entwickeln User Werkzeuge und Erweiterungen, um die API besser nutzen zu können. Technisch versierte User beteiligen sich auf einer dritten Ebene direkt an der Weiterentwicklung des Application Programming Interfaces selbst. Sie identifizieren dabei nicht nur Programmierfehler, sondern erarbeiten selbständig Lösungen und Verbesserungsvorschläge. Die vierte Ebene der User-Partizipation betrifft den Bereich von Wissen und Kultur. Rieder betont hier die Schlüsselrolle, die den Entwicklergemeinschaften bei der Generierung, Administration und Distribution von Wissen zukommt, sowie ihren Beitrag zur Kreation von kulturellen Werten und Normen, die von der Gemeinschaft verbindlich geteilt werden. Die ersten drei Ebenen der User-Partizipation wurden bereits mehrfach als ausschlaggebende Faktoren für die erfolgreiche Entwicklung und Verbreitung von Software und Informations-Systemen beschrieben. [33]
Die Komplexität, die sich in diesen
kooperativen Prozessen entfaltet und sich vor allem auf der von Rieder beschriebenen vierten Ebene der Partizipation manifestiert, wird oftmals zuwenig berücksichtigt. Die Interaktion mit einer heterogenen, ausgesprochen diversen, aus zahlreichen individuellen Usern, verschiedenen Gruppen und Unternehmen bestehenden Entwicklergemeinschaft erfordert Zugeständnisse. Das Unternehmen benötigt Plattformen zur Kommunikation und Diskussion mit seinen Entwicklern. Es muß Standpunkte beziehen, vermitteln und gegenüber seiner Community hinsichtlich Copyright, sogenannten Fair-Use Praktiken, kollaborativer Produktionsprozesse sowie der unbezahlten Arbeit seiner erweiterten Entwicklergemeinschaft verantworten. Mit dem Google Public Policy Blog demonstriert das Unternehmen Bewußtsein für die gesellschaftspolitische Qualität seiner Design-
Entwicklungsprozesse. Der Blog wird zur Kommunikation von Unternehmensrichtlinien verwendet und bietet eine Möglichkeit für Diskussion und Feedback. Die User-Kommentare fallen dann auch nicht durchweg positiv aus, sondern sind sogar oft sehr kritisch und widersprechen deutlich dem
vom Unternehmen vorgeschlagenen Kurs. [34]
Die Integration der User erfordert also von den Unternehmen, seinen Nutzern die Möglichkeit zur Diskussion und Kritik an den Unternehmensrichtlinien einzuräumen. Transparenz und Verantwortung sowie die Fähigkeit, sich
die kulturellen Werte einer Entwicklergemeinschaft zu respektieren, erweisen sich dabei als ausgesprochen wichtige Aspekte. Rieder betont, dass Google bemüht ist, eventuelle Konfrontationen oder Copyrightverletzungen ohne Rückgriff auf rechtliche Mittel zu lösen, indem in persönlicher Kommunikation Googles Position und die Rechtslage erklärt werden. Im Falle von Google Maps ist das ein delikates Unterfangen, da der Zugriff auf die Datenbank reguliert und das Kartenmaterial, sowie die Luft- und Satellitenaufnahmen urheberrechtlich geschützt sind. Auch wenn der kollaborative Prozess mit der Entwicklergemeinschaft an die Arbeitsmethoden von Open Source Software-Communities erinnert, ist Google Maps keinesfalls Open Source: Das Urheberrecht für Luft- und Satellitenaufnahmen verbleibt bei den Dienstleistern Tele Atlas und NavTeq, von denen Google lediglich Nutzungslizenzen erworben hat. Darüber hinaus ist es letztendlich Google vorbehalten, welche Änderungen und Entwicklungen an der API vorgenommen werden. Rieder findet dennoch gute Argumente für die Zusammenarbeit von Entwicklergemeinschaften und Unternehmen. Dabei können die partizipierenden User einen Service nutzen, der geographische Daten und Aufnahmen zur Verfügung stellt, sowie eine Infrastruktur, die nur ein äußerst finanzkräftiges Unternehmen bieten kann. Das Unternehmen
profitiert auch von der Zusammenarbeit, wie die technische Qualität der Google API und deren weite Verbreitung zeigen.
Wikipedia ist ein weiteres Beispiel für die Integration von Usern und zeigt außerdem deutlich, dass die Partizipation nicht nur Produktion von Inhalten, sondern auch direkte Mitsprache bei demokratischen Entscheidungsprozessen ist. Basierend auf der expliziten und oftmals anonymen Partizipation seiner Autoren und Leser wurde Wikipedia ein kontrovers diskutiertes Beispiel für die veränderte Perzeption von Wissen im digitalen Zeitalter. Die zahlreichen wünschenswerten und weniger erfreulichen Appropriationen, sowie Vandalismus und bewußte Mißinformation zwingen die Wikimedia Stiftung und die sogenannten Wikipedians Verantwortung zu übernehmen und Strukturen zu entwickeln, die Wikipedia Stabilität und Vertrauenswürdigkeit verleihen. Dieser Prozeß entfaltet sich auf allen Ebenen der sozialen Interaktion zwischen den einzelnen Autoren, den Lesern und den leitenden Mitgliedern der Wikimedia Stiftung, deren gemeinsam entworfene und
weiterentwickelte Grundsätze und Methoden sich auch direkt in das technische Design der MediaWiki-Software einschreiben. Auch wenn nach wie vor oft behauptet wird, Wikipedia sei lediglich eine digitalisierte Enzyklopädie, muß betont werden, dass Wikipedia vor allem eine Infrastruktur und ein sozio-technisches Ökosystem ist, das durch intrinsische Motivation und den Rückgriff auf traditionell aufklärerische Ideale genährt wird. [35] Der Grad der Partizipation reicht dabei vom simplen Abrufen der Wikipedia-Artikel bis hin zur
aktiven Mitgliedschaft und Mitarbeit als Redakteur (oder sogenannter Admin). Die Schwelle zur Mitarbeit liegt niedrig und lädt auch nicht registrierte User ein, schnell und unkompliziert Artikel zu erstellen oder zu verbessern. [36] Natürlich kann genausogut ein Artikel bewußt verfälscht, gelöscht, oder fehlerhaft und nicht den formalen Kriterien entsprechend erstellt werden. Die Wikipedia-Community hat zahlreiche Richtlinien zur Erstellung von Artikeln entwickelt, sowie Maßnahmen, um deren Umsetzung zu formalisieren. [37] Das reicht von den Wahlen der Admins, über kollektive Entscheidungsfindungsprozesse zu individuellen Artikeln, Richtlinien, Fragen der Administration, zur Nutzung und Erstellung von Software, die zur Einhaltung der Qualitätskriterien beitragen soll. Das Changelog der verschiedenen Versionen der MediaWiki-Software zeigt wie Richtlinien für Artikel und Qualitätssicherung zunehmend auch an Software delegiert und in das Design eingeschrieben werden. Dabei wurden Funktionen integriert, die es ermöglichen, gelöschte Artikel schnelle wiederherzustellen, Autoren zu kontrollieren oder auszuschließen, sowie die Möglichkeit, Artikel zu fixieren, so dass sie temporär nicht verändert werden können. [38] Zahlreiche additive Softwareapplikationen unterstützen die Wikipedia-Autoren in ihrer Arbeit. Bots werden verwendet, um automatisiert Fehler aufzuspüren und zu verbessern. [39] Nachdem zahlreiche Wikipedia-Einträge durch Firmen, Politiker und Mitglieder von Sicherheitsdiensten und Regierungen verfälscht worden sind, wurden zeitweise alle User, die durch ihre IP-Adresse dem US-amerikanischen Kongreß zugeordnet werden konnten, an der Bearbeitung von Artikeln gehindert. Virgil Griffith, Student am California Institute of Technology entwickelte daraufhin den WikiScanner, eine Software, mit der die IP-Adressen der Wikipedia-Autoren den Eigentümern eines IP-Adressen-Blocks zugeordnet werden können. [40] Anonym ausgeführte Änderungen, können so dem amerikanischen Kongress,
Dow Chemicals, dem FBI, Scientology, dem türkischen Finanzministerium oder dem Wahlmaschinenhersteller Diebold nachgewiesen werden. [41]
Die Richtlinien, die zur Qualität von Wikipedia beitragen sollen, werden also durch die Kombination aus sozialer Kontrolle durch die Administratoren und die zahlreichen individuellen Autoren eingehalten. Dazu kommt eine Formalisierung zahlreicher Editieraufgaben durch Software und eine Integration der Richtlinien in das Software-Design selbst. Ein anderes und oft zitiertes Beispiel für solch eine 'hybride' Form der sozialen Organisation ist der Slashcode, der von den Betreibern der populären Techniknachrichten-Webseite Slashdot.org entwickelt wurde, um zu gewährleisten, dass die Leserkommentare den selbst definierten Qualitätsansprüchen entsprechen. [42]
Bei Wikipedia geht das soweit, dass alle Software-Werkzeuge erstellen können, um entweder Editieraufgaben zu vereinfachen und zu automatisieren, oder aber um die Grundsätze von Wikipedia effizienter durchzusetzen. [43] Eine Anleitung zum Erstellen von Wikibots findet sich dafür auf Wikipedia. Der von Griffith entwickelte Wikiscanner kann von allen Interessenten verwendet werden, um eventuelle Verfälschungen zu verfolgen. Wikipedia erweist sich also als Infrastruktur zur Erstellung von enzyklopädischen Einträgen, als auch demokratischen Entscheidungsfindung und Verwaltung. Die Administration erfolgt dabei nicht einfach Top-Down von der Wikimedia Foundation, sondern entfaltet sich als dynamische Interaktion einer Vielzahl von Partizipanten, die auf verschiedenen Ebenen involviert sind, um Wikipedia zu erweitern und zu unterhalten. Auf der Ebene der sozialen Interaktion der User und Autoren sind die Rollen unterschiedlich verteilt, und verdiente Autoren können als Administratoren vorübergehend Artikel und User sperren, über die Verwendung von Bots entscheiden und im Falle von Disput zwischen verschiedenen Autoren vermitteln oder eine Entscheidung herbeiführen. Eine Vielzahl von Software-Anwendungen unterstützt die Autoren in ihrer Arbeit. Diese werden nicht nur durch die Wikipedia-Autoren oder die Wikimedia Foundation entwickelt, sondern auch von Dritten, und erweitern so den Vorrat an Technologien, mit denen die Infrastruktur verbessert und verwaltet werden kann. Darüber hinaus schreiben sich die sozialen Rollen der verschiedenen Nutzer und Autoren mit dem Ziel, die
Grundsätze von Wikipedia durchzusetzen, in das Design der Software ein.
Mit Hilfe der neuen Technologien (Computer, Software und Internet-basierte Netzwerke) hat sich die kulturelle Produktion explizit in die Domäne der User ausgebreitet. Dabei entwickelten sich neue Medienpraktiken, sowie neue Konventionen und ein Verständnis für die Produktion und Distribution von Kulturgütern. Etablierten Medienindustrien, deren Gewinne aus der Kontrolle von Produktion und Distribution ihrer urheberrechtlich geschützten Medieninhalte resultieren, haben große Schwierigkeiten, sich an die Materialität der neuen Technologien und Medienpraktiken anzupassen. Sie reagieren nicht nur mit rechtlichen Schritten gegen all jene, denen eine Schuld an den einbrechenden Gewinnen unterstellt wird, sondern versuchen auch auf der Ebene des technischen Designs die unkontrollierte Verbreitung von Medieninhalten zu limitieren. [44] Während sich die Abwehrmaßnahmen der etablierten Medienindustrien oft als eine Dynamik der Konfrontation entfalten, zeigen die oben genannte Beispiele, dass sich die Ausbreitung der Kulturindustrie auch als Implementation und Integration entwickeln kann. [45]
Dabei zeigt die Implementation vor allem den Versuch, die User-Aktivitäten, die sich vor allem seit 1995 mit der massiven Ausbreitung des World Wide Web entwickelt haben, in einfach zu bedienende Benutzeroberflächen zu übersetzen und kommerziell zu verwerten. Diese neue Form des Medienangebotes konzentriert sich im Gegensatz zur konventionellen Medienproduktion weniger auf die Kreation von Inhalten, sondern auf das Angebot von Plattformen für eine Vielzahl von Funktionen. In dynamischen Koproduktion von Inhalten und technischem Design durch Unternehmen und Anwender entfalten sich dabei auf diesen Plattformen komplexe soziale Prozesse. Dabei sind es nicht allein die User, die sich das Design von Unternehmen aneignen und verändern, sondern auch die Unternehmen wissen diese Appropriation zu nutzen und in neue Design-
Entwicklungen integrieren. [46] Die Eigentümerstrukturen und Geschäftsmodelle der beschriebenen
Web-Applikationen werfen natürlich berechtigte Fragen nach dem durch die User produzierten
Mehrwert, und der durch die Unternehmen exekutierte Kontrolle auf. [47]
Die Technik darf dabei keineswegs als neutrales Artefakt betrachtet werden, sondern muß auf die in das Design eingeschriebenen 'sozialen Programme' untersucht werden. Wiebe Bijker und John Law haben diese gesellschaftskonstituierenden Aspekte von Technik in dem treffenden Buchtitel „Shaping Technology / Building Society“ zusammengefasst. [48] Wie Regeln und Normen in technisches Design eingeschrieben werden und so Handlungen 'programmieren' zeigt Bruno Latour am Beispiel eines Zimmerschlüssels im Hotel. Der schwere Anhänger verleiht der Aufforderung, den Schlüssel an der Rezeption zu hinterlegen, sprichwörtlich Gewicht. [49] Dabei ist das Stück Eisen die Übersetzung einer Regel, die auch verbal oder schriftlich formuliert werden kann, in technisches Design. Dergleichen geschieht natürlich auch in den besprochenen Beispielen. Im Falle der
Wikipedia ist der Prozess der Design-Entwicklung stark durch den demokratischen Charakter der Gemeinschaft aus Entwicklern und Autoren geprägt, während die Nutzer des StarWars MashUps Editors sich nicht nur mit einem äußerst beschränkten Handlungsspielraum zufrieden geben müssen, sondern darüber hinaus weder Mitsprache an den Nutzungsbedingungen noch Kontrolle über ihre eigenen Produktionen haben. Die Analyse von Software-Applikationen und deren Entwicklung offenbart also nicht nur Hinweise auf die kulturellen Werte der Entwickler und das Anwender-Produzenten-Verhältnis, sondern repräsentiert auch sozialpolitische Konflikte und Debatten.
Die politische Qualität von Design und die unterschiedlichen ökonomischen Bedingungen der kulturellen Produktion in Online-Communities wirft zahlreiche Fragen und Probleme auf. Dabei wird natürliche eine historische Kontinuität fortgesetzt, die spätestens seit Karl Marx den Zusammenhang zwischen technischem Design und Machtverhältnissen diskutiert. Es ist nicht verwunderlich, dass dieser Tradition folgend, die, wenn auch freiwillige, aber dennoch unbezahlte Arbeit der User im Web 2.0 als kapitalistische Mehrwertproduktion kritisiert wird. [50] Im Alltag von YouTube, Facebook, MySpace oder Flickr richtet sich die Kritik der User allerdings vor allem gegen eventuelle Verletzungen der Privatsphäre, gegen Zensur und gegen die kommerzielle Nutzung der von Usern erstellten Inhalte. [51] Dabei wird leider selten differenziert zwischen Inhalten, wie selbstgemachten Filmen, Musik, Softwaremodifikationen oder ähnlichem und den Nutzungs-Daten, sowie Userprofilen. Während letztere Fragen des Datenschutzes sind, betrifft die Koproduktion von Medieninhalten das Urheberrecht. [52] Darüberhinaus wird der Wert von Plattformen wie YouTube, Flickr, Facebook oder MySpace sowohl durch die Beiträge von Inhalten, als auch durch die Reaktionen anderer User, sowie die soziale Interaktionen bestimmt. Es entstehen kulturelle Ressourcen an denen zahlreiche Teilnehmer beteiligt sind. Die Frage nach der Nutzung sollte sich dabei weniger um eine eventuelle Entlohnung der User drehen, als um eine Neudefinition von kulturellen Ressourcen und derer Bedeutung für das Gemeinwohl. In der Auseinandersetzung mit Unternehmen und der Debatte werden, laut William Uricchio, die Anwender zu Bürgern, die ihre kulturellen Freiheiten einklagen und eine Diskussion der technischen Leitmotive fordern. [53]
Wikipedia versucht dem weitgehend entgegen zu kommen, indem es sich als gemeinnütziges Projekt versteht und eine niedrige Schwelle zur Mitarbeit und Mitverwaltung anbietet. Der gesamte Inhalt der Wikipedia-Projekte wird durch bewußt nicht restriktive Urheberlizenzen weitestgehend zum Allgemeingut, das nicht so einfach kopiert und verkauft werden kann, aber dennoch auch Möglichkeiten zur kommerziellen Verwertung für Dritte anbietet. [54] Einer Ausbeutung der kulturellen Ressourcen, die durch die kollektive Arbeit einer Vielzahl von Usern (inklusive großer Unternehmen) bei der Programmierung von Software, dem Digitalisieren und Anbieten von Texten mit abgelaufenem Copyright muß vorgebeugt werden. [55]
In der Frage nach einer partizipativen Kultur geht es also nicht darum, Anwendern die Möglichkeit zu geben in bunten Benutzeroberflächen den programmatischen Vorschriften von Unternehmen zu entsprechen, sondern diese durch die Diskussion und Konstitution von technischen Leitmotiven mitzugestalten, oder zumindest kritisch zu diskutieren.
[1] Der Begriff Web 2.0 geht zurück auf Tim O'Reilly: What is Web 2.0? Design Patterns and Business Models for the Next Generation of Software, online: http://oreilly.com/web2/archive/what-is-web-20.html. O'Reilly diagnostiziert eine grundlegende Veränderung im Softwaredesign von Webdiensten, die er als „Architecture of Participation“ beschreibt.
[2] Die Generation C ist eine Wortschöpfung der Trendforschungsagentur Trendwatching: http://trendwatching.com/trends/GENERATION_C.htm
Optimistische Beschreibungen der Partizipationskultur, die eine Evolution vom passiven Konsumenten zum aktiven Produzenten beschreiben, finden sich vor allem bei:
Charles Leadbeater, Paul Miller. The Pro-Am Revolution. London, 2004.
James Surowiecki. The Wisdom of Crowds. New York 2004.
Yochai Benkler. Wealth of Networks. New Haven, London, 2006.
Henry Jenkins. Fans, Bloggers, and Gamers: Exploring Participatory Culture. New York, 2006.
Don Tapscott, Anthony D. Williams. Wkinomics. How Mass Collaboration Changes Everything. New York, 2006;
Clay Shirky. Here Comes Everybody. The Power of Organizing Without Organizations. New York, 2008.
[3] Rapidshare ist ein sogenannter One-Click-Hosting oder File-Hosting Service, der Speicherplatz für große Dateien anbietet, die über ein Web-Interface hoch- bzw. runtergeladen werden können, www.rapidshare.com. Facebook ist eine sogenannte Social Networking Site (SNS), auf der Anwender Profile publizieren und mit den Profilen anderer Anwender vernetzen www.facebook.com. Auf Flickr publizieren User Fotos und kurze Videos www.flickr.com. Twitter ist ein sogenannte Micro-blogging Service, der von Mobiltelefonen und Web-Interfaces gesendete kurze Nachrichten und Links verbreitet www.twitter.com. YouTube ist ein Video-on-Demand Service über den Anwender Videos verbreiten und konsumieren können www.youtube.com.
[4] The Force.Net ist vermutlich die größte inoffizielle Star Wars Webseite mit 244262 registrierten Mitgliedern und über 20,4 Millionen Einträgen im Forum. Mit 65% zieht das Forum den Großteil der Besucher an. Quelle Big-
Boards.com und Alexa.net, Juli 2009. Copyright-Inhaber Lucasfilm duldete diese Aktivitäten und profitierte
sicherlich auch von einer dynamischen und authentischen Fansite, deren Kreativität und soziale Interaktion jeder
offiziellen Webseite überlegen war. Gewinne konnten und wollten die Fans mit ihren Produktionen nicht generieren, und stellten daher her auch keinerlei Konkurrenz für den Produzenten der Weltraumsaga dar.
[5] Dabei sicherte sich das Unternehmen eine größtmögliche Kontrolle über die Produktionsprozesse, die Inhalte und die Distribution der durch die Anwender hergestellten Remixe. Die Editing Software Eyespot arbeitet ausschließlich web-basiert, und es wird dabei verhindert, dass User Teile der von Lucasfilm angebotenen 250 60-Sekunden Ausschnitten aus den Star Wars Filmen oder gar die fertigen Remixe downloaden und auf ihren eigenen Computern speichern oder in anderen Video-on-Demand Diensten anbieten können. Ein Nudity-Filter verhindert die Verwendung von Nacktaufnahmen und die Terms-of-Use garantieren Lucasfilm alle Rechte an den durch die Fans produzierten Filme, die zudem vor Veröffentlichung auf der unternehmenseigenen Plattform von einem Team begutachtet werden. Sarah McBride: Make-it-Yourself Star Wars, in Wall Street Journal, 24. Mai 2007, http://online.wsj.com/article/SB117997273760812981.html (aufgerufen März 2010).
[6] Lawrence Lessig: Lucasfilm's Phantom Menace, in The Washington Post, 12 July 2007. Online:
http://www.washingtonpost.com/wp-dyn/content/article/2007/07/11/AR2007071101996_pf.html (aufgerufen März 2010).
[7] File-Hosting-Services erfreuen sich seit 2005 zunehmender Popularität. Wikipedia vergleicht in einer unvollständigen Auflistung 20 der populärsten File-Hosting Services: Wikipedia: Comparison of one-click hosters, http://en.wikipedia.org/wiki/Comparison_of_one-click_hosters (aufgerufen März 2010). Das 110MB
Diskussionsforum listet über 200 verschiedenen File-Hosting-Dienste auf: Biggest List of Free File Hosting Sites,
http://www.110mb.com/forum/general-chat/biggest-list-of-free-file-hosting-sites-updated-monthly-t1428.0.html
(aufgerufen März 2010).
[8] Rapidshare Website, 6. August 2007, http://web.archive.org/web/20070814115534/rapidshare.com/en/news.html (aufgerufen März 2010). 2008 verfügte Rapidshare über 240 GB/s Internetbandbreite und eine Speicherkapazität von 4,5 Petabyte, die dann in 2009 auf 10 Petabyte erhöht wurde: http://rapidshare.com/en/news.html.
[9] Der einzelne Download wird dabei jedoch auf unangenehme Weise verlangsamt oder mit Werbeinschaltungen versehen, so dass Anwender geneigt sind die relativ geringen Monatsgebühren für einen Premiumaccount zu entrichten. Angesichts der breiten Vielfalt an Inhalten, zu denen den Premium-Usern dann uneingeschränkt Zugang gewährt wird, scheint das ein lockendes Angebot. Es ist natürlich deutlich, dass dieses Modell nur funktioniert, wenn es genügend interessante Inhalte zum Download gibt.
[10] Robert A. Gehring: OLG Hamburg: Rapidshare zu Recht als Mitstörer verurteilt, in Golem.de, 7. Oktober 2008. Online: http://www.golem.de/0810/62813-2.html (März 2009).
[11] Rapidshare, der Service, der sich vor allem von der deutschen GEMA vorwerfen lassen muß den Tausch von nicht lizenzierten Kopien vorsätzlich zu fördern, erntete für seine konsequente Praxis, betreffende Dateien schnell zu löschen, die Bezeichnung „Rapidshit“. In zahlreichen Foren ist die Verwendung von Rapidshare als File Hoster untersagt, da die Dateien nicht lange genug erhältlich seien.
[12] Janko Roettgers: Piracy Beyond P2P, in NewTeeVee, 17. Juni 2007. Online: http://newteevee.com/2007/06/17/oneclick-hosters. (aufgerufen März 2010).
[13] Eine unvollständige Auswahl an Suchmaschinen für die Datenbestände auf File-Hosting-Services: Filefield
www.filefield.net; Filestube www.filestube.com; Filesbot www.filesbot.com; Rapidsharefilms.com
http://rapidsharefilms.com/; Rapidfox www.rapidfox.com; Rapidgoogle www.rapidgoogle.com, Rsdown
www.rsdown.com; Rapidsharefilms.com http://rapidsharefilms.com/; Search.jrfreelancer.com,
http://search.jrfreelancer.com. (alle URLs zuletzt aufgerufen März 2010)
[14] Die Webseite Avaxhome.ws bietet zahlreiche Links zu eBooks, Musik, Software, Filmen und Spielen an, die auf den verschiedenen File-Hosting-Services gespeichert sind www.avaxhome.ws. Ein sehr aktives Netzwerk findet sich für digitalisierte Aufnahmen klassischer Musik auf nachstehenden Weblogs: P.Q.P. Bach
http://pqpbach.opensadorselvagem.org/, The Concert Hall http://theconcerthall.blogspot.com/, Classics
http://classiclibrary.blogspot.com/, Music is the key, http://orchestralworks.blogspot.com/, Blogger Musical (Basic Library) http://i-bloggermusic.blogspot.com/ (alle URLs zuletzt aufgerufen März 2010)
[15] Es ist nicht möglich zu sagen inwiefern dieses Ziel erreicht wird, aber es kann vermutet werden, dass sich Lucasfilm erhoffte, mit dem Angebot der Fanfilme Werbeeinnahmen zu generieren. Eyespot, der Hersteller der von Lucasfilm verwendeten Editing-Software, unterhält eine Kooperation mit Tremor Media, einem Unternehmen, das auf In-Stream-Werbung spezialisiert ist.
[16] 16 Christophe Prieur, Dominique Cardon, Jean-Samuel Beuscart, Nicolas Pissard und Pascal Pons. The Stength of Weak Cooperation: A Case Study on Flickr. 2008, online: http://arxiv.org/abs/0802.2317 (aufgerufen März 2010).
[17] Ebd. S. 4-5
[18] Ebd. S. 2
[19] Schätzungsweise wurden bereits 2007 ungefähr sechs Stunden Videomaterial pro Minute zu YouTube hochgeladen; im Januar 2009 waren es bereits 20 Stunden Videomaterial pro Minute, wie YouTube Produkmanager Ryan Junee in einem Blog-Eintrag berichtet: Zoinks! 20 Hours of Video Uploaded Every Minute!, in Broadcasting Ourselves, The YouTube Blog, 21. Mai 2009, online: http://youtubeukblog.blogspot.com/2009/zoinks-20-hours-of-video-uploadedevery.html
Auch Flickr verzeichnet eine sprunghaften Zuwachs an Bildmaterial. Prieur et al beziehen sich in ihrer Studie auf eine Gesamtmenge von 156,84 Millionen öffentlichen Fotos im Jahr 2006 (Prieur et al, The Strenght of Weak
Cooperation, S.:2), der Flickr Weblog berichtet im November 2008 von 3 Milliarden Fotos auf Flickr:
http://blog.flickr.net/en/2008/11/03/3-billion. Wired nennt für Januar 2009 eine Gesamtzahl von 3,6 Milliarden
Fotos; siehe Douglas Wolk. Future of Open Source. Collaborative Culture, in Wired, 15. Juni 2009, online:
www.wired.com/dualperspectives/article/news/2009/dp_opensource_wired0616 (aufgerufen März 2010).
[20] Wenn Bilder oder Videos zu Flickr oder YouTube hochgeladen werden, bietet das Interface an, die Inhalte mit Treffwörtern zu beschreiben, oder wie im Falle von YouTube auch das Video einer von mehreren Kategorien zuzuweisen. Mit Hilfe dieser Daten können leichter passende Resultate zu entsprechenden Suchanfragen angeboten werden. Um anstäßige Inhalte zu vermeiden, befinden sich sowohl auf Flickr, als auch auf YouTube neben jedem Foto bzw. Video ein Link „Flag this photo“, respektive „flag“ auf YouTube. Um die Popularität von Inhalten einschätzen zu können, werden die „Views“ und die von Usern hinzugefügten Kommentare gezählt. Auf YouTube können Inhalte zusätzlich durch das vergeben von einem bis zu fünf Sternen beurteilt werden, und auch wie auf Flickr als persönliche Favoriten gekennzeichnet werden.
[21] Digitale Fotos verfügen, sofern nicht durch die User zuvor entfernt, über Meta-Informationen, die dem
Exchangeable Image File Format (EXIF) zugefügt sind, und die Daten zum Kameramodell und -einstellungen,
sowie Datum und Zeit der Aufnahme. Diese Daten werden auch auf Flickr publiziert, wie z.B. die Anzahl aller
verwendeten Kameratypen: http://flickr.com/cameras/brands, (aufgerufen März 2010).
[22] Frank Kessler, Mirko Tobias Schäfer. Navigating YouTube. Constituting a Hybrid Information Management System, in: Patrick Vonderau, Pelle Snickars (Hrsg.), The YouTube Reader. Stockholm, 2009, S. 275-291.
[23] Meeyoung Cha, Haewoon Kwak, Pablo Rodriguez, Yong-Yeol Ahn, Sue Moon. I Tube, You Tube, Everybody Tubes: Analyzing the World's Largest User Generated Content Video System. San Diego, 2007, (Proceedings ACM Internet Measurement Conference).
[24] Kristina Lerman, Laurie A. Jones. Social Browsing on Flickr. San Jose, 2007, (Proceedings Int'l Conf. Weblogs and Social Media, ICWSM 07).
[25] Ebd. S. 7.
[26] Der Google Image Labeler ist eine Webapplikation, die zufallgesteuert zwei zeitgleich anwesenden Besuchern ein Foto vorlegt, das diese mit Treffwörtern versehen sollen. Sind die Treffwörter identisch, wird das Bild mit diesen als Meta-information versehen und die User erhalten ein neues Bild, Bilder mit nicht identischen Treffwörtern, werden erneut in den Pool der durch Zufall selektierten Bilder gesandt und erneut zur Vergabe von Treffwörtern vorgelegt: Google Image Labeler http://images.google.com/imagelabeler
[27] Eggo Müller. Formatted spaces of participation, in Marianne van den Boomen et al. Digital material: Tracing new media in everyday life and technology. Amsterdam, 2009, S. 49-64 .
[28] Diese Debatte wird vor allem im Zusammenhang mit Konzepten des Semantic Web geführt. Siehe Tim O'Reillys Kommentar zu dem Blogbeitrag Web 3.0. The Best Official Definition Imaginable, online NovaSixpack.com: http://novaspivack.typepad.com/nova_spivacks_weblog/2007/10/web-30----the-a.html#comment-85164360, (aufgerufen März 2010).
[29] Auch der Online-Musik Service Last.fm bezieht wertvolle Entwicklungsarbeit von einer losen Gemeinschaft
Entwicklern, mit deren Hilfe die Software auch für von Last.fm nicht unterstützten Geräte, wie iPods, mobile
Telefone und andere tragbare MP3-Spieler verwendbar wird.
[30] Auf der Webseite The Programmable Web findet sich eine Auflistung von populären Application Programming Interfaces und eine Liste von über 4000 MashUps, die mit damit produziert wurden. 32% aller MashUps verwenden die Google Maps API. http://www.programmableweb.com (aufgerufen März 2010).
[31] Ich beziehe mich hier auf die Forschung von Bernhard Rieder zur Google Maps API und ihrer
Entwicklergemeinschaft. Rieder stellte mir freundlicherweise seine Forschungsaufzeichnungen zur Verfügung.
Bernhard Rieder. Teilhaben am Objekt. Adaptierbarkeit als Knotenpunkt von Kultur und Technik. Hamburg:
Universität Hamburg, 2007, (Proceedings Kongress Kulturwissenschaftliche Technikforschung 2007)
[32] Zu Google Maps http://maps.google.com und dem Application Programming Interface (API)
http://maps.google.com finden sich Links von den Webseiten der Entwicklergemeinschaften, wie der infoffiziellen Dokumentation der API http://mapki.com/wiki/Main_Page, zahlreichen Weblogs über Google MashUps, wie z.B. Google Maps Mania http://mapki.com/wiki/Main_Page, aber auch zahlreiche kommerzielle Dienste wie, Maps24 http://mapki.com/wiki/Main_Page, und Webseiten von Institutionen wie z.B. United Nations Cartographic Section or the http://www.un.org/Depts/Cartographic/english/htmain.htm oder die NASA Worldwind Webseite http://worldwind.arc.nasa.gov. Google Maps ist aber auch mit dem offiziellen Weblog des Unternehmens verbunden, auf den wiederum zahlreiche Online-Magazine und andere Webseiten verweisen. Aus diesem weitverzweigten Netzwerk wird deutlich wie ein einziger Service, wie Google Maps die Entstehung eines ganzen Ökosystems von miteinander verbunden Dienste und Applikationen stimuliert (alle URLs zuletzt aufgerufen März 2010).
[33] Siehe: Janet Abbate. Inventing the Internet, Cambridge, MA, 1999
Claudio Ciborra. The Labyrinths of Information. Challenging the Wisdom of Systems, Oxford, New York, 2002;
Eric Raymond. The Cathedral and the Bazaar. Musings on Linux and Open Source by an Accidental Revolutionary, Sebastopol, CA, 2001;
Eric von Hippel. Democratizing Innovation, Cambridge, MA: MIT Press, 2005.
Die Web-Design Firma 37Signals integriert bewußt ihre User in den Prozeß der Software-Entwicklung. Zusätzlich zu den zahlreichen Applikationen für Projektmanagement und kollaborative Dokumentenbearbeitung hat das Unternehmen das Open Source Web Development Framework Ruby on Rails entwickelt. Dabei vertraut 37 Signals, wie zahlreiche andere Unternehmen auch, auf eine Gemeinschaft von Entwicklern, die permanent an der Verbesserung und Weiterentwicklung der Software arbeiten. Jason Fried, Heinemeier David Hansson, Matthew Linderman: Getting Real. The Smarter, Faster, Easier Way to Build a Successful Web Application, 37 Signals, 2006, http://gettingreal.37signals.com (aufgerufen März 2010).
[34] Der Google Public Policy Blog ist auf der Weblog-Plattform des Tochterunternehmens Blogger zu finden:
http://googlepublicpolicy.blogspot.com (aufgerufen März 2010).
[35] Zu den Kritikern der Wikipedia gehören vor allem der ehemalige Encyclopedia Britannica Chefredakteur Robert McHenry, der Wikipedia als eine „faith based encyclopedia” beschreibt, und vor allem die Anonymität der
Wikipedia-Autoren kritisiert, sowie bemängelt, dass Wikipedia nicht von institutionell anerkannten Experten
geschrieben wird: Robert McHenry, Robert: The Faith-based Encyclopedia, in TCS Daily, 15. November 2004,
online http://www.tcsdaily.com/article.aspx?id=111504A.
Im Zusammenhang mit dem Dokumentarfilm The Truth according to Wikipedia, der im niederländischen Fernsehen
VPRO, am 7. April 2008 gesendet wurde, habe ich deutlich gemacht, dass Wikipedia nicht einfach als digitales
Equivalent zur Encyclopedia Britannica betrachtet werden kann, da es sich um eine Vielzahl von verschiedenen
nationalen Wikipedia-Projekten handelt, deren Einträge unterschiedlich sind, und sich alle in der Produktionsweise völlig von der konventionellen Enzyklopädie unterscheiden, online:
www.vpro.nl/programma/tegenlicht/afleveringen/39405191/items/39459200/.
Der Dokumentarfilm The Truth According to Wikipedia ist auch auf YouTube zu finden:
http://www.youtube.com/watch?v=WMSinyx_Ab0 (alle URLs zuletzt aufgerufen März 2010).
[36] Es scheint, dass ein beträchtlicher Teil der Wikipedia-Einträge von anonymen Autoren erstellt wird, während viele der registrierten User sich der Aufgabe widmen Artikel zu verbessern und Veränderungen an Artikeln zu überprüfen und eventuell rückgängig zu machen. Siehe Denise Anthony, Sean W. Smith, und Tim Williamson. The Quality of Open Source Production: Zealots and Good Samaritans in the Case of Wikipedia. Darthmouth, 2007, online: http://www.cs.dartmouth.edu/reports/TR2007-606.pdf.
Dies hatte bereits Aaron Swartz vermutet, der die von Wikipedia-Gründer Jimmy Wales kolportierten Daten (ca 500 User hätten den größten Teil der Wikipedia-Einträge geschrieben) einer Überprüfung unterzieht. Anstatt „Edits“ zu zählen wie Wales es tut, zählt Swartz in seiner Stichprobe die Anzahl der Wörter, die individuelle User beitragen. Er stellt dabei fest, dass die Autoren, die den Großteil eines Artikels erstellen, sich kaum am Editieren der Artikel beteiligen. Aaron Swartz: Who writes Wikipedia, Blog-Eintrag auf Rawthoughts, 4. September 2006, online: http://www.aaronsw.com/weblog/whowriteswikipedia, (alle URLs aufgerufen März 2010).
[37] Die Grundprinzipien für Wikipedia-Einträgen enthalten beispielsweise den Neutral Point of View (NPOV), der eine sachliche Darstellung des Themas, quellenbasiert, ausgewogen, und objektiv, verlangt. Die persönlichen
Überzeugungen des Autors sollen im Artikel nicht zum Vorschein kommen. Andere Grundprinzipien sind die
Möglichkeit, dass jede Person Autor und Editor sein kann, alle Beiträge sogenannten Copyleft-Lizenzen unterliegen, und sich Autoren an die Umgangsformen der sogenannten Wikiquette halten. Siehe Wikimedia: Founding Principles http://meta.wikimedia.org/wiki/Foundation_issues (aufgerufen März 2010).
[38] Die Entwicklung der MediaWiki-Software ist auf Wikipedia zusammengefasst: Wikipedia.org/Mediawiki
http://en.wikipedia.org/wiki/Mediawiki#Release_history (aufgerufen März 2010).
[39] Im Juli 2009 werden für die englischsprachige Wikipedia über 1000 Bots gezählt, wovon aber ein beträchtlicher Teil als inaktiv eingeschätzt werden kann. Auch die Bots müssen festgesetzten Grundsätzen entsprechen und durch eine Gruppe Administratoren anerkannt werden, bevor sie eingesetzt werden dürfen. Bots kontrollieren und verbessern beispielsweise ISBN-Nummern (Smackbot), entfernen automatisch Bilder, deren Quelle und Urheberrechts-Status unbekannt ist (OrphanBot), oder spüren Vandalismus in Artikeln auf und benachrichtigen zuständige Administratoren (ClueBot). Siehe Wikipedia.org/WPbots http://en.wikipedia.org/wiki/WPBots (aufgerufen März 2010).
[40] Siehe Virgil Griffith, WikiScanner, http://wikiscanner.virgil.gr
Siehe auch John Borland: See, Who is Editing, in Wired Magazin, 14. August 2007, online:
http://wired.com/politics/onlinerights/news/2007/08/wiki_tracker (aufgerufen März 2010).
[41] Die Beispiele sind der vom Wired Magazin geführten 'Hitliste' der „most shameful Wikipedia spin jobs“ entnommen http://www.wired.com/threatlevel/2007/08/vote-on-the-top/. (aufgerufen März 2010).
[42] Slashdot teilt zufallsgeneriert täglich einer Gruppe von Usern das Recht zu Leserkommentare zu bewerten. Für den Fall, dass diese Administratoren ungerecht bewerten, also nicht den Grundsätzen von Sachlichkeit und Objektivität genüge tun, werden sie selber von anderen Lesern mit dem Abzug von „Karmapunkten“ bestraft. Das „Karma“ der User ergibt sich aus ihren als wertvoll bewerteten Leserkommentaren, sowie aus der verantwortungsvoll ausgeführten Administratorentätigkeit; das „Karma“ stellt also eine Art sozialer Währung dar, die auch für das Platzieren der Leserkommentare verwendet wird. Der Kommentar eines Lesers mit hohen Karma hat automatisch einen höheren Wert als der Kommentar von einer Person, die durch negativ bewertete Beiträge und Admnistratorentätigkeit aufgefallen ist.
Siehe: Nathaniel Poor. Mechanisms of an online public sphere. The website Slashdot. Journal of Computer-
Mediated Communication, 10(2), 2005, online: http://jcmc.indiana.edu/vol10/issue2/poor.html, (aufgerufen März 2010).
[43] Auch andere Verwendungszwecke sind denkbar. Um Die Entstehungsgeschichte von Wikipedia-Einträgen zu analysieren eignet sich beispielsweise HistoryFlow, das in Zusammenarbeit mit IBM entwickelt wurde:
http://www.research.ibm.com/visual/projects/history_flow (aufgerufen März 2010).
[44] Im Falle der Musik- und Filmindustrien beinhaltet dieses Engagement unter anderem das Überfluten der File-
Sharing-Netzwerke mit wertlosen Dateien, über die Implementation von sogenannten Digital-Right-Management und sollen, aber auch die zunehmende Überwachung und Kontrolle von Kinobesuchern, um das Mitschneiden von Filmen zu verhindern. Darüber hinaus macht sich die Copyright-Industrie für eine verstärkte Zensur des
Internetverkehrs stark und fordert vom Gesetzgeber starke Überwachungs- und Kontrollmaßnahmen, die
letztendlich die bürgerlichen Grundrechte beschränken werden. Die Wünsche der Copyright-Industrie zur
Durchsetzung eines restriktiven Copyrights als auch die mangelhafte Transparenz, sowie die weitgehende
Umgehung demokratischer Prozesse geht sehr deutlich aus dem vorgeschlagenen ACTA Agreement und den
Versuchen seiner Durchsetzung hervor. Siehe Wikileaks. Proposed US ACTA Multi-lateral Intellectual Property
Trade Agreement, 2007, online: http://wikileaks.org/wiki/Proposed_US_ACTA_multilateral_
intellectual_property_trade_agreement_(2007). (aufgerufen März 2010).
[45] Mirko Tobias Schäfer. Bastard Culture! How User Participation Transforms Cultural Production, Amsterdam, 2011, S. 125-126, online: http://mtschaefer.net/media/uploads/docs/Schaefer_Bastard-Culture_2011.pdf, (aufgerufen März 2011).
[46] Microsofts Xbox war zeitweise die beliebteste Video-Game-Plattform für Hacker. Mit Hilfe der von Hackern
entwickelten Modifikationen, war es dann auch technisch unbegabten Nutzern möglich, sogenannte Homebrew-
Software, also Applikationen, die nicht durch Microsoft oder lizenzierte Partner entwickelt wurden, auszuführen. Für die Entwicklung des Nachfolgemodells, Xbox 360, hat Microsoft teilweise von den Erfahrungen gelernt und das Design dementsprechend entwickelt (siehe Schäfer 2008:144). Das Wechselspiel aus Design und Appropriation zeigt sich auch im File-Sharing. Die Film und Musikindustrie machte sich die Praxis des File-Sharing zu eigen, indem sie mit falschen und wertlosen Dateien die Netzwerke zu überfluten suchte. File-Sharing-Netzwerke, die Gebrauch von zentralen Servern machten, wie z.B. Napster konnte die Industrie dagegen leicht mit juristischen Maßnahmen begegnen. Letztendlich haben diese Strategien nur zur Entwicklung besserer und vor allem dezentraler Protokolle für File-Sharing geführt. Siehe Thomas Mennecke: End of the road for Overpeer, Slyck News, December 10 2005, http://www.slyck.com/story1019.html (aufgerufen März 2010).
[47] Mark Andrejevic. The work of being watched. Interactive media and the exploitation of self-disclosure. Critical Studies in Communication, Vol. 19, No. 2, 2002, S. 230-248.
Michael Zimmer. The Externalities of Search 2.0: The emerging privacy threats when the drive for the perfect search engine meets Web 2.0. First Monady, Vol 13, No. 3, 2002, online:
http://www.uic.edu/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/2136/1944, (aufgerufen März 2010).
[48] Wiebe E. Bijker, John Law. Shaping Technology / Building Society. Cambridge, MA, 1992.
[49] Bruno Latour. Technology is society made durable, in John Law (Hrsg.) A Sociology of Monsters. Essays on Power, Technology and Domination, London 1991, S. 103-131, hier S. 106f.
[50] Eine große Debatte zu der Problematik wird zwischen Juni und Juli 2009 auf der iDC Mailingliste geführt.
http:distributedcreativiry.org, (aufgerufen März 2010).
[51] Facebook wurde in der Vergangenheit mehrfach durch User und Konsumentenschützern für eventuelle Verletzungen durch sein Werbesystem Beacon kritisiert. Siehe: Steve Anderson. Our Web, Not Theirs, in COA News, 4. Dezember 2007, online: http://coanews.org/article/2007/our-web-not-theirs
Auch Flickr spürte die Empörung der deutschen User, die nur als „unbedenklich“ markierte Fotos abrufen konnten. Das Flickr Filtersystem soll verhindern, dass User anstößigen Inhalten begegnen. Alle User, mit Ausnahme von Singapur, Korea oder Deutschland, können diese Funktion deaktivieren. Da Forenbetreiber in Deutschland für die Inhalte haftbar gemacht werden können, und pornographische Inhalte grundsätzlich eine Altersverifikation erfordern schreckt Flickr davor zurück den Deutschen die Kategorie „eingeschränkt - Fotos, die Sie nicht Ihren Kindern, Ihrer Großmutter oder Arbeitskollegen zeigen würden“ zugänglich zu machen. Siehe Konrad Lischka: Flickr verbietet den Deutschen Nacktfotos, in Der Spiegel Online, 14. Juni 2007, online http://www.spiegel.de/netzwelt/web/0,1518,488542,00.html (alle URLs aufgerufen März 2010).
[52] Lawrence Lessig. Free culture. How big media uses technology and the law to lock down culture and control creativity. New York, 2004. Ders. Remix. Making Art and Commerce Thrive in the New Economy. London, 2008.
William Patry. Moral Panics and the Copyright Wars. Oxford, New York, 2009.
[53] William Uricchio. Cultural Citizenship in the Age of P2P Networks, in Ib Bondebjerg, Peter Golding (Hrsg.)
European Culture and the Media, Bristol, 2004, S. 139-164. Ders. Beyond the Great Divide. Collaborative Networks and the Challenge to Dominant Conceptions of Creative Industries. The International Journal of Cultural Studies. Vol 7, No. 1, 2004, S. 79-90.
[54] Microsofts Tochterfirma Powerset ist eine Suchmaschine, die zur Beantwortung der durch ihre Nutzer gestellten Fragen, die Einträge der englischsprachigen Wikipedia nutzt. Der deutsche Verlag Directmedia bot 2005 eine DVD mit ausgewählten Artikeln der deutschen Wikipedia an, sowie ein Buch über die Entstehungsgeschichte der Wikipedia
[55] Während deutsche Verlage noch befürchten, dass Google ihr Geschäftsmodell beschädigt, hat Kessinger Publishing die vom Suchmaschinen-Riesen eingescannten Bücher mit abgelaufenen Copyright als Quelle für neuen Umsatz entdeckt und sichert sich unter dem Vorwand einer kritischen Neu-Edition das Urheberrecht. Siehe Charles Eicher. Copyfraud. Poisening the Public Domain, in The Register, 26. Juni 2009, online
http://www.theregister.co.uk/2009/06/26/copyfraud/print.html
Ähnliche Probleme ergeben sich für Museen, die in Zeiten knapper Kassen versuchen ihre Sammlungen
kommerziell zu verwerten. Dabei werden auch oft Werke deren Urheberrecht abgelaufen ist der Public Domain
wieder entzogen. Microsofts Tochterunternehmen Corbis verwertet Rechte für Museumssammlungen und kauft
Fotosammlungen auf, deren Inhalte keinem Copyright mehr unterliegen. Die National Portrait Gallery in London
führt derzeit Klage gegen die Verwendung von Fotos ihrer Sammlung in Wikipedia, obwohl die betroffenen Werke nicht mehr vom Urheberrecht geschützt werden. Das Software-Unternehmen SCO hat über Jahre ohne Beweis behauptet, das Teile des Quellcodes von Linux Urheberrechte von SCO verletzen. Diese Versuche ungerechtfertigte Urheberrechtsansprüche zu postulieren, werden als 'Copyfraud' bezeichnet.
Date June 2014 Category Publications
Programmierte Gesellschaft? Zur Konstitution inhärenter Partizipation in Web Applikationen. In: Mersch, Dieter and Joachim Paech (eds.). Programm(e). Proceedings DFG Research Symposium Media 2010, Berlin: Diaphanes, 2014, pp. 299-324.