Kultureller Stellenwert und politische Bedeutung von Open Source und freier Software
Open Source, Free Software, Linux, Apache. Das alles sind Namen, die in den unterschiedlichsten Bereichen für Verwirrung und Aufsehen sorgen. Spätestens seit dem Boom des freien Betriebssystems Linux und der Ausrufung von Apache zum beliebtesten Webserver der Welt wird das Phänomen Open Source ernst genommen.
Open Source, Free Software, Linux, Apache. Das alles sind Namen, die in den unterschiedlichsten Bereichen für Verwirrung und Aufsehen sorgen. Spätestens seit dem Boom des freien Betriebssystems Linux und der Ausrufung von Apache zum beliebtesten Webserver der Welt wird das Phänomen Open Source ernst genommen. Was genau unter Open Source oder Free Software verstanden wird, ist höchst unterschiedlich und zersplittert. In den Konzernzentralen der Software-Riesen versteht man unter Open Source einen Entwicklungsprozess, der das Finden und Beheben von Fehlern erleichtern soll, auf Universitäten und Forschungsinstituten versteht man darunter einen völlig neuen Denkansatz ökonomischer Muster und Prozesse, stark ideologisierte Linke meinen, in Free Software den Anbruch eines digitalen Sozialismus erkennen zu können. All diese unterschiedlichen Verständnisse von Open Source wurzeln in einem ganz bestimmten Prinzip, Software zu entwickeln. Bevor dieses Prinzip näher betrachtet werden kann, muss zunächst ein Begriff geklärt werden: Source Code.
Der Source Code (oft mit ,Quellcode' mehr schlecht als recht ins Deutsche übersetzt) besteht aus einer Reihe von Instruktionen für die Hardware. Diese Instruktionen können in unterschiedlichen Programmiersprachen verfasst sein. Ein spezielles Programm - ein sogenannter Compiler - übersetzt diese Instruktionen in Befehle der Maschinensprache, also in ein von der CPU ausführbares Programm. Jede Software, die auf beliebiger Hardware läuft, ist auf diese Art entstanden; das Betriebssystem ebenso wie Applikationen oder Gerätetreiber. Der Source Code ist also dasjenige Element in der Kette, das alles erzeugt, das alle Leistungsmerkmale der Software definiert. Im Grunde ist der Source Code damit auch die Software an sich. Was für Menschen wie eine Reihe mehr oder minder verständlicher Instruktionen aussieht, verwandelt sich durch den Compiler in Textverwaltungsprogramme, Webserver, Betriebssysteme, Browser, Hardware-Treiber.
Unter Open Source versteht man nun, dass der gesamte Source Code oder Teile davon der Öffentlichkeit oder zumindest einer Teilöffentlichkeit zugänglich gemacht werden. Dies bedeutet, dass zwar eine (Teil)Öffentlichkeit sehen kann, wie das Programm geschrieben wurde, aber niemand darf das Programm verwenden, kopieren, weiterverbreiten, verbessern oder irgendwie anders modifizieren, da der Hersteller der Software nach wie vor alle Rechte - das Copyright - auf die Verwendung des Source Codes besitzt. Konzerne wie Sun oder Microsoft setzen auf die Veröffentlichung ihres Produkt-Source Code im Rahmen von sogenannten Peer Review Programmen, die Großkunden die Möglichkeit geben, tiefere Einblicke in die Produkte zu bekommen, um ihre eigenen Applikationen auf die Funktionsweisen des Betriebssystems ausrichten zu können.
Im Gegensatz dazu ist Free Software mehr als ein Software Engineering Konzept: Das Credo von Free Software ist "Information should be free". Und tatsächlich handelt es sich bei Source Code ja um nichts anderes als Information. Die Idee von Free Software ist gar nicht einmal so neu, wie man vermuten könnte. Bereits 1983 schrieb Richard Stallman sein GNU Manifesto, in dem er ankündigte, einen Klon des Betriebssystems Unix zu entwickeln, und andere Programmierer um ihre Mithilfe bat. Damit war das Projekt GNU geboren. GNU wird heute von der Free Software Foundation getragen, als Eckpfeiler der Free Software Bewegung gilt die GPL - die GNU Public License. In der GPL wird der Unterschied zwischen Open Source und Free Software deutlich: Open Source beschreibt einen Produktentwicklungsprozess, Free Software hingegen einen Eigentumssachverhalt. Während die Entwickler proprietärer Software über ihr Copyright auf den Source Code verfügen, verzichten die Entwickler von Free Software explizit unter der Wahrung bestimmter Umstände auf ihre Eigentumsrechte. Dieses Entwickler-Software-Verhältnis bezeichnet man als Copyleft.
Die GNU Public License gestattet den Nutzern von Free Software folgendes: Source Code ist frei distribuierbar (wobei für die Distribution eine Gebühr verlangt werden darf), Source Code ist frei editierbar, solange die Änderungen deutlich sichtbar gemacht werden und das aus den Änderungen heraus entstehende Programm wiederum mit der GPL lizenziert wird. Was soviel bedeutet wie: Free Software ist für alle und für jeden Zweck einsetzbar. Free Software ist für alle und für jeden Zweck adaptier- und erweiterbar, solange die aus diesem Prozess entstehende Software wiederum öffentlich für alle verfügbar und editierbar ist.
Man sollte also darauf achten, Free Software und Open Source nicht miteinander zu verwechseln, da es sich um grundsätzlich andere Konzepte handelt. Leider wird einem das nicht immer leicht gemacht, da streng genommen nur Code, der unter der GPL veröffentlicht wird, als Free Software bezeichnet werden kann. Es werden aber nicht alle Produkte, die gemeinhin der Free Software zugerechnet werden, unter diesem Lizenz-Schema veröffentlicht; so verfügt z.B. der Webserver Apache über eine eigene Lizenzform (Apache Software License 1.1). Ich werde im Weiteren ausschließlich von Free Software sprechen.
Free Software unterscheidet sich von herkömmlichen Software-Entwicklungsprozessen in einigen Aspekten:
Zum einen ist da die Tatsache, dass der Source Code öffentlich ist. Das ist weder eine Selbstverständlichkeit, noch üblich. Da die GPL es zwar ausdrücklich gestattet, für die Distribution (aber nur für die Distribution!) einen entsprechenden Kostenersatz zu verlangen, mit dem Erwerb der Distribution aber auch das Recht einhergeht, die Software weiter zu verbreiten (ohne Lizenzabgaben an den Hersteller abliefern zu müssen), ist dieses Modell gänzlich ungeeignet, den Ansprüchen eines kommerziellen Software-Herstellers zu genügen. Zum anderen unterscheidet sich auch der Entwicklungsprozess von Free Software meist recht erheblich von den Entwicklungsprozessen kommerzieller Software. Free Software ist ein Paradebeispiel für die Netzwerkökonomie: Eric Raymond beschreibt dies sehr anschaulich in seinem Buch "The Cathedral and the Bazaar", in dem er ausführt, dass gute Software vor allem dadurch entsteht, dass einzelne Programmierer an der Lösung eines für sie selbst wichtigen Problems arbeiten - und sich später herausstellt, dass es sich um ein Problem für viele Menschen handelt. Stellt man nun die Lösung für das Problem einer Öffentlichkeit zur Verfügung, so werden sich in kürzester Zeit andere Menschen finden, die das Programm weiterentwickeln, verbessern, adaptieren, erweitern. Davon wiederum können alle anderen (inklusive dem ursprünglichen Entwickler) profitieren. Das Ergebnis ist ein sich selbst tragendes Netzwerk von Menschen, die gemeinsam an der Lösung gemeinsamer Problemen arbeiten.
Der Grundgedanke der Netzwerkökonomie ist ja nicht ohne Charme: Statt zwischen mehrwertabschöpfenden Produzenten und mehrwerterzeugenden Abnehmern zu unterscheiden, sind im Netzwerk alle Beteiligten sowohl die Abnehmer einer Leistung, als auch die Profiteure des durch die Leistung erzeugten Mehrwerts (meist in Form der Leistung selbst). Es gibt zwar einige gute Argumente, warum dieser Ansatz aus ökonomischer Sicht nicht tragfähig ist, aus gesellschaftlicher Sicht ist das Netzwerk als Portal zur Entwicklung und Verfeinerung von Werkzeugen aber ein höchst spannendes Konzept: Das Netzwerk impliziert einen anderen Umgang mit Information und deren Zugänglichkeit.
Um die Notwendigkeit des offenen und freien Zugangs zu Information deutlich zu machen, ist es notwendig, einen Blick auf die Genese des Internet zu werfen. Das Netz wird gerne durch drei besondere Charakteristika von anderen Netzen unterschieden: Es ist hierarchielos, dezentral und offen. Hierarchielos, weil es niemandem gehört, sondern ein Zusammenschluss unterschiedlicher Netze ist. Deshalb, und aufgrund der Eigenschaften des verwendeten Netzwerkprotokolls IP, ist es auch dezentral. Und offen ist es schließlich, weil die verwendeten Kommunikationsprotokolle (wie z.B. IP selbst, aber auch HTTP, FTP, SMTP, POP, usw.) öffentlich in Form von RFCs (Requests for Comments) bei der IETF (Internet Engineering Task Force http://www.ietf.org) zugänglich sind. Diese offenen Standards können von allen implementiert werden - diese Möglichkeit war die Basis für den Erfolg des Netzes. Da sehr rasch Implementierungen von IP und Client Software wie HTTP-, FTP- oder SMTP-Clients auf unterschiedlichen Hardware- und Betriebssystemplattformen verfügbar waren, konnte sich das Netz so rasch und über Plattformgrenzen hinweg verbreiten.
Auf der anderen Seite bewirken nicht-öffentliche Protokolle und Strukturen (sog. proprietäre Technologie) das genaue Gegenteil: Sie wirken als starke Marktzutrittsbarrieren, die durch die Marktlogik bedingt zu völligem Marktversagen und damit zu Monopolbildungen führen. Ein Effekt der Netzwerkökonomie sind Marktdynamiken, die oft zu "Winner takes all"-Märkten führen, womit gemeint ist, dass ein Markt vollständig von einem bestimmten Produkt oder Service dominiert wird, während Konkurrenten aus dem Markt gedrängt werden. Diese Marktdynamik gepaart mit dem technischen Phänomen der geschlossenen Standards stellen eine echte Bedrohung für die Freiheit des Netzes dar. Beispiele dafür gibt es viele, man denke nur an die Instant Messenging Systeme AOL Instant Messenger oder Mirabilis ICQ (beide im Eigentum von AOL Time Warner). Auch Microsoft konnte bereits mehrmals beweisen, wie man mittels einer starken Position in einem Schlüsselmarkt (dem Desktop-Markt) und proprietärer, benutzungsfreundlicher Technologie de facto-Monopole in anderen Märkten erzwingen kann. Der Trend bei der Vermarktung von Medienprodukten geht weg vom Medienprodukt als Ware hin zum Medienprodukt als Dienstleistung. Diese Vermarktungsstrategie präferiert geschlossene, proprietäre Systeme, da sie wesentlich zur Sicherung des Content beitragen. Sie sind ein inhärenter, technologischer Schutz vor missbräuchlicher Verwendung von Inhalten ohne die Notwendigkeit einer Rechtsdurchsetzung durch juristische Mittel. Die (klassische) Content Industry hat naturgemäß ein massives Interesse an der kommerziellen Verwertung von Informationen - sowohl in klassischen Medienmärkten als auch im Internet.
Unabhängig von der Frage des urheberrechtlichen Schutzes von Information an und für sich, kann Free Software die willkürliche Limitierung des Zugangs zu Information (man denke an die Ländercodes der DVD, die den global verschobenen Gliedern der Filmverwertungsketten folgen) effektiv verhindern: Wenn die Mechanismen für Informationszugang und -verarbeitung bekannt und öffentlich verfügbar sind, sind sie auch beliebig implementierbar. Aus dieser Perspektive besteht durch Free Software tatsächlich die Möglichkeit, dass der Zugang zum Netz und seinen Einrichtungen weiterhin Teil der öffentlichen Sphäre bleibt, und nicht in den Bereich der Medienkonzerne integriert wird. Damit gewinnen die Nutzer des Netzes ein wesentliches Stück Freiheit zurück: Sie sind nicht den Vermarktungsstrategien der Content Industry ausgeliefert, sondern können selbst und aus freien Stücken entscheiden, wann sie welche Services in Anspruch nehmen wollen. Diese Unabhängigkeit kann im weiteren auch dazu dienen, eigene Infrastruktur, die von kommerziellen Angeboten unabhängig ist, zu entwickeln und einzusetzen. Diese unabhängige, selbstorganisierte und selbstverwaltete Infrastruktur ist wohl auch der Nährboden für eine kritische Auseinandersetzung mit dem Netz, die sich nicht auf die von Medienkonzernen vorgegebenen Rahmenbedingungen beschränken muss.
Peter Riegersperger ist Aktivist der Salzburger Internet-Kulturplattform subnet und Vorstandsmitglied des konsortium.Netz.kultur.