GNU/Linux und Open Source:
Die Reformation zum Anfassen

von Erik Möller

Die vorliegende Version des Textes unterscheidet sich von der bei Telepolis veröffentlichten Variante. Alle Teile wurden auf einer Seite zusammengefasst. Die Bilder sind größer und in besserer Qualität. Einige Tipp- und Stilfehler wurden korrigiert. Sollten Sie auf Fehler im Text stoßen, schicken Sie mir bitte eine Mail. Inhaltliche Ergänzungen oder Aktualisierungen beabsichtige ich jedoch nicht vorzunehmen.

Teil 1: Die Befreiung von Unix


Der in Tokio entwickelte Isamu-Roboter läuft mit RTLinux, dem Linux für Echtzeit-Anwendungen.
Linux ist für viele ein schwer erklärbares Phänomen - ein Betriebssystem für PDAs und Supercomputer, völlig kostenlos entwickelt mit der kollektiven Intelligenz seiner Nutzer. Es widerspricht in seiner Natur der klassischen ökonomischen Lehre ebenso wie den kommerziell üblichen Software-Entwicklungsmodellen. Ist Linux der Vorbote einer neuen Epoche der Massenaufklärung? Was steckt hinter der Utopie?

Das Projekt Linux begann mehr oder weniger offiziell am 25. August 1991 mit einer Mitteilung in einer Newsgroup. Das Usenet ist ein dezentrales Diskussionsnetz, das in Gruppen unterteilt ist. News-Server synchronisieren gegenseitig den Bestand einzelner Diskussionsgruppen. Ein Beitrag (Posting) in einer Newsgroup ist damit innerhalb von Sekunden auf Hunderten von Servern auf der ganzen Welt verfügbar (siehe Schöner Tauschen IV für eine kurze Einführung). Redundanz erhöht die Zuverlässigkeit, und so funktionierte das Usenet auch an jenem Tag, als der Finne Linus Torvalds einen berühmt gewordenen Beitrag in die Gruppe "comp.os.minix" postete [1]:

Von: torvalds@klaava.Helsinki.FI (Linus Benedict Torvalds)
Newsgroups: comp.os.minix
Betreff: Was würdet Ihr am liebsten in Minix sehen?
Zusammenfassung: kleine Umfrage für mein neues Betriebssystem
Nachrichten-ID: <1991Aug25.205708.9541@klaava.Helsinki.FI>
Datum: 25. August 1991 20:57:08 GMT
Organisation: Universität von Helsinki

Hallo an alle da draußen, die minix benutzen -
Ich entwickle ein (freies) Betriebssystem (nur ein Hobby, wird nicht professionell und groß sein wie gnu) für 386er (486er) AT Clones. Das läuft jetzt etwa seit april und fängt langsam an, fertig zu werden. Ich hätte gerne Rückmeldung darüber, was Ihr an minix mögt oder weniger mögt, da mein Betriebssystem etwas daran erinnert (gleiches physikalisches Layout des Dateisystems (aus praktischen Gründen) neben anderen Dingen). Ich habe zur Zeit bash(1.08) und gcc(1.40) portiert, und es scheint zu funktionieren. Ich werde also in den nächsten Monaten etwas Brauchbares ans Laufen bekommen, und ich wüsste gerne, welche Funktionen Ihr gerne drin hättet. Alle Vorschläge sind willkommen, aber ich verspreche nicht, dass ich sie auch implementiere :-)
Linus (torvalds@kruuna.helsinki.fi)
PS: Ja - kein minix Code ist enthalten, und es hat ein multi-threaded Dateisystem. Es ist NICHT portabel (verwendet 386er-Taskwechsel etc), und es wird wahrscheinlich nie etwas anderes unterstützen als AT-Festplatten, weil das alles ist, was ich habe :-(.

Um diese Anfrage entziffern zu können, muss man ein wenig über Unix wissen. Um die Programmierung von großen Rechenanlagen zu erleichtern und zu standardisieren, entwickelte ein Team von Informatikern an den Bell Laboratories (Bell war bis zur staatlich erzwungenen Aufspaltung 1984 das Telefonmonopol der USA) ein Betriebssystem namens Unix, das bis heute - natürlich in stark veränderter Form, aber mit einer prinzipiell ähnlichen Architektur - den Standard auf Großrechnern setzt.

Von allen Programmen, die auf einem Computer laufen, ist das Betriebssystem das grundlegendste. Es stellt Basisfunktionen für die Ein- und Ausgabe von Daten bereit, steuert Geräte an und verwaltet die laufenden Programme. Das Betriebssystem sorgt auch dafür, dass mehrere Programme gleichzeitig laufen können, indem es einzelnen Programmen jeweils Prioritäten zuweist und je nach Priorität einen unterschiedlichen Anteil an der Rechenzeit zuteilt (man spricht hierbei auch von Prozessen - ein Prozess ist eine "Instanz" eines Programms, das ja durchaus auch mehrfach aufgerufen werden kann).

Als Unix 1974 das erste Mal in einem Paper beschrieben wurde, hatte es bereits diese als Multitasking bekannte Fähigkeit (der Name Unix leitet sich von seinem gescheiterten Vorgänger Multics ab). Unix konnte außerdem mit mehreren Nutzern auf einem Rechner umgehen: Jeder Nutzer hat ein "Heimatverzeichnis", in dem seine Dateien liegen, und kann nicht auf die Dateien anderer Nutzer zugreifen. In einer Welt, in der sich viele Menschen einen Großrechner teilen mussten, war sowohl Multitasking- als auch Multiuser-Fähigkeit ein Muss. Man konnte beliebige Programme installieren und schreiben, die, ggf. mit geringen Veränderungen, auch auf anderen Unix-Systemen lauffähig waren.


Dennis Ritchie und Ken Thompson von den Bell Labs portieren das Betriebssystem Unix auf einen PDP-11 Großrechner

Unix war ein kommerzielles Projekt, das durch Copyrights, Markenrechte und Patente "geschützt" wurde. Der Monopolist Bell/AT&T wurde aber aus Antitrust-Gründen bereits 1956 dazu gezwungen, alle seine Patente an interessierte Parteien zu lizenzieren. [2] Nur so konnten Derivate von Unix überhaupt entstehen, und Unix konnte sich als Standardplattform etablieren. Mit anderen Worten: Die Abwesenheit des überlicherweise durch Patente gewährten Monopolrechts führte zu einer drastischen Steigerung des Wettbewerbs, der Innovation und der Standardisierung. Die US-Justiz hatte ja bereits Erfahrungen mit Bell: Im 19. Jahrhundert hatte "Ma Bell" durch Patente jede Konkurrenz erstickt. Als die schließlich 1893 und 1894 ausliefen, gründeten sich über 6000 unabängige Telefonfirmen in den USA. [3]

Was ist GNU?

Obwohl Unix zunehmend zur Standardplattform wurde, waren die existierenden Varianten immer noch durch Schutzrechte in ihrer Verwendung eingeschränkt - AT&T verlangte Lizenzgebühren für jedes installierte Unix und für Unix-Derivate. Das dürfte ein Hauptgrund sein, warum Unix heute nicht den Standard auf PCs bildet. Denn Microsoft entwickelte als Alternative zu dem extrem primitiven DOS ein eigenes Unix, Microsoft Xenix. Für die PC-Plattform wurde jedoch DOS (und später das darauf aufsetzende Windows) bevorzugt, wohl vor allem, so wurde gemutmaßt, aus Lizenzgründen. Windows wurde der Standard, Xenix an Entwicklerfirma SCO verkauft, die heute zu Caldera gehört.

Programme für Unix wurden häufig nur in Binärform weitergegeben. Das bedeutet, dass es nicht möglich war, sie zu verändern - die "binäre" (aus Einsen und Nullen bestehende) Computersprache kann von Menschen kaum noch nachvollzogen werden (selbst wenn man sie in Instruktionen und Parameter zerlegt), weshalb es eine Vielzahl von Programmiersprachen gibt, die nach dem Schreiben oder während der Ausführung in Maschinencode übersetzt werden. Wenn der Quellcode also überhaupt verfügbar war, dann meist nur unter einer Lizenz, die Weitergabe und Veränderungen einschränkte.

1983 hatte Richard Stallman, Forscher in der Abteilung für Künstliche Intelligenz des renommierten MIT, genug von den Beschränkungen, denen das Unix-Betriebssystem und die dazugehörigen Programme unterlagen. Als er 1971 am MIT anfing, wurde dort ausschließlich freie Software eingesetzt: Man konnte sie für alle Zwecke einsetzen, verändern und weitergeben. Doch mit Unix waren diese Freiheiten verschwunden. Stallman rief also zur Befreiung von Unix auf. Das neue Projekt trug den Namen GNU, eine rekursive Abkürzung für "GNU ist nicht Unix" (der erste Buchstabe steht wohl deshalb dort, weil er der einzige einsetzbare ist, der ein reales Wort ergibt).

Nach und nach kamen die einzelnen Bestandteile des freien Betriebssystems zusammen: ein Compiler für die Programmiersprache C, die dazugehörigen Bibliotheken mit Standardprogrammfunktionen, der mächtige Editor emacs, der Kommandozeilen-Interpreter bash usw. (eine vollständige Liste der offiziell zum GNU-Projekt gehörenden Programme findet sich hier). Stallman gründete die "Free Software Foundation", die freie Programme unter ihre Fittiche nimmt, rechtlichen Beistand erteilt und Medien informiert.

Aus GNU wird GNU/Linux

Was dem GNU-Projekt jedoch bis heute fehlt ist der Kernel, der die Systemhardware Programmen zugänglich macht. Seit ca. 1990 bemüht man sich darum, das GNU-Betriebssystem mit einem eigenen Kernel namens Hurd zu vervollständigen. 1991 entwickelte der finnische Student Linus Torvalds schließlich, inspiriert durch das experimentelle PC-Unix Minix, wie oben erwähnt, seinen eigenen Kernel, den er Linux nannte. Torvalds entschied sich, den Code frei zur Verfügung zu stellen, und dank des damals an vielen Universitäten bereits vorhandenen Internet erfuhren schnell Tausende von Interessierten davon.

Für Hurd gab es zu diesem Zeitpunkt kaum noch Hoffnung, auf absehbare Zeit fertig zu werden - so liefen die Entwickler in Heerscharen zu Linux über und bereicherten den Kernel um Treiber, Dateisysteme und weitere grundlegende Funktionen. Doch Linux wäre wertlos gewesen, hätte es zu diesem Zeitpunkt nicht die riesige GNU-Toolsammlung gegeben - dank des freien C-Compilers gcc, der Teil des GNU-Projekts ist, konnten z.B. sofort Programme für Linux entwickelt werden.


Richard Stallman und Linus Torvalds: Das Verhältnis zwischen den GNU/Linux-Visionären ist gestört

Als Linux und Linus bekannt wurden, erhielten Richard Stallman und das GNU-Projekt kaum die ihnen gebührende Wertschätzung. Stallman besteht deshalb seit einiger Zeit darauf, dass man nicht von Linux, sondern von GNU/Linux sprechen soll. Doch der holprige Name konnte sich bislang nicht exklusiv durchsetzen, was sicher auch mit Stallmans legendärer Sturheit zu tun hat, die viele Entwickler abschreckte. Ganz im Sinne der Konkurrenz kam es zu Grabenkämpfen innerhalb des Linux-Lagers bis hin zu Boykottaufrufen gegen GNU.

Software soll frei sein

Alle GNU-Programme werden unter eine spezielle Lizenz gestellt, die "GNU General Public License" ( GPL) für Programme mit offenem Quellcode. Auch der Linux-Kernel und viele weitere Programme stehen unter der GPL, ohne jedoch offizieller Bestandteil des GNU-Projekts zu sein (was auch eine Verwaltung des Copyrights durch die "Free Software Foundation" einschließen würde - wenn es dann rechtliche Probleme gibt, springt die FSF ein).

Die GPL erlaubt im Wesentlichen die beliebige Verwendung der entsprechend lizenzierten Programme, verbietet es jedoch, das Programm oder Ableitungen davon in Umlauf zu bringen, ohne wiederum den Quellcode unter den Bedingungen der GPL freizugeben. Wer also GPL-Programme verbessert, muss diese Verbesserungen wiederum der Community von Nutzern zur Verfügung stellen. So soll Software "frei" bleiben von den sonst üblichen Zwängen des Urheberrechts - Closed-Source-Software nennt man dagegen auch "proprietär" (in exklusivem Besitz).

Neben der GPL gibt es noch andere Lizenzen für Open-Source-Software, die sich insbesondere in Hinblick auf die Verpflichtung zur Freigabe des Quellcodes bei Veränderungen und die Einschränkung der direkten Verknüpfung mit proprietären Programmen beziehen (Übersicht). Die Präferenzen der Entwickler sind stark unterschiedlich und hängen von den jeweiligen ideologischen Vorstellungen ab: Soll alle Software frei sein, oder soll es eine pragmatische Mischlösung geben?

Die GPL spielte auch eine Rolle in einem Propagandafeldzug Microsofts gegen Open-Source-Software. Es begann mit einem Vortrag des Microsoft-Vizepräsidenten Craig Mundie im Mai an einer Wirtschaftshochschule, in dem er die GPL als "viral" bezeichnete und damit einen Begriff prägte, den Microsoft noch weiter einsetzen sollte. Durch die Lizenz werde das geistige Eigentum von Firmen infiziert, da jede Software, die GPL-Code implementiere, ebenfalls unter die GPL gestellt werden müsse. "Diese virale Eigenschaft der GPL stellt eine Bedrohung des Eigentums jeder Organisation dar, die von ihr Gebrauch macht."

Während diese Aussagen vor allem irreführend waren (und die Assoziation von GNU/Linux mit Viren sicher kein Zufall), greift Microsoft zur Verteufelung von GNU/Linux auch auf glatte Lügen zurück: In einem Interview mit der Chicago Sun Times sagte Microsoft-Chef Steve Ballmer:

"Wir haben ein Problem damit, wenn die Regierung Open-Source-Software unterstützt. Von der Regierung unterstützte Software sollte für jedermann verfügbar sein. Open-Source-Software ist nicht für kommerzielle Unternehmen verfügbar. So, wie die Lizenz formuliert ist, muss man, wenn man beliebige Open-Source-Software benutzt, den Quellcode seiner gesamten Programme veröffentlichen. (..) Linux ist ein Krebsgeschwür, das im Sinne geistigen Eigentums alles infiziert, was es berührt."

In der GPL heißt es dagegen ausdrücklich: "Ferner bringt ein einfaches Zusammenstellen eines anderen Werkes, das nicht auf dem Programm basiert, zusammen mit dem Programm oder einem auf dem Programm basierenden Werk auf ein- und demselben Speicher- oder Vertriebsmedium das andere Werk nicht in den Anwendungsbereich dieser Lizenz." Die Zusammenstellung von freier Software mit proprietärer ist also völlig legal. Auch die kommerzielle Verwertung von GPL-Programmen wird implizit erlaubt. Es ist nicht notwendig, private Weiterentwicklungen von GPL-Programmen zu veröffentlichen - nur wenn man Programme, die GPL-Code beinhalten, veröffentlicht, muss man den gesamten Code freigeben. Darüber hinaus stehen viele Linux-Anwendungen gar nicht unter der GPL.

Entwicklungsprinzipien freier Software

Das Wachstum von GNU/Linux hat viele Beobachter überrascht. Innerhalb weniger Jahre wuchs das Betriebssystem um (fast) alle Funktionen, Treiber und Programme, die ein modernes System auszeichnen -- und ein Großteil dieser Software wurde wiederum anderen Entwicklern kostenlos und im Quellcode zur Verfügung gestellt. Von Anfang an beruhte die Linux-Entwicklung auf der häufigen Kommunikation aller Beteiligten über das Internet. Weltweit ist die Linux-Community heute wohl die am besten vernetzte Entwicklergemeinde überhaupt. Praktisch jeder Entwickler einer Systemkomponente ist per Email erreichbar - man versuche im Gegensatz dazu zum Vergleich einmal, auch nur dem Entwickler des Windows-Taschenrechners zu erreichen.

Das "Closed Source" Modell von Windows ähnelt den sozialen Verhältnissen des Mittelalters. Mönche (Microsoft-Entwickler) bereiten die Wahrheit auf, Priester (Marketingstrategen) reduzieren sie nach Kriterien der Verbreitbarkeit und Unantastbarkeit des kirchlichen Monopols, und das gemeine Volk hat sie unkritisch aufzunehmen - eine andere Wahrheit neben dem Monopol ist nicht zulässig und wird mit allen möglichen Mitteln bekämpft. Die GNU/Linux-Entwicklergemeinde ähnelt funktional eher studentischen Diskussionszirkeln oder ehrenamtlichen Vereinen: Am gemeinsamen Ziel mitwirken kann grundsätzlich jeder, der dazu willens und in der Lage ist.

Machtausübung oder das Streben nach Profit spielen eine untergeordnete Rolle. Im Gegenteil: Die Linux-Entwickler erfreuen sich daran, anderen Menschen etwas geben zu können. Das dürfte ein Hauptgrund sein, warum Linux aus ökonomischer Sicht auf viele Betrachter die gleiche Wirkung hat wie ein lila Elefant, der auf einem Hügel aus Marzipan steht und einer Erklärung harrt. Nach den klassischen Modellen handelt der Linux-Entwickler entgegen seinem "rationalen Eigeninteresse", da er eine Entwicklung, die er genauso gut zu Profitzwecken vermarkten könnte, lieber zum Nutzen der Allgemeinheit freigibt.

Was also ist die Motivation der GNU/Linux-Entwickler? GNU-Gründervater Richard Stallman beschreibt die möglichen Motivationsfaktoren wie folgt:

Es wird schnell klar, dass die Kommunikation mit den Nutzern eine entscheidende Rolle für die weitere Entwicklung spielt. Da ist zum einen das einfache "Dankeschön", das bei so vielen ehrenamtlichen Tätigkeiten für das Weitermachen entscheidend ist. Bei freier Software, die für den Eigenbedarf entwickelt wird, kommt hinzu, dass man nur dann von den intellektuellen Leistungen der Nutzer profitieren kann, wenn man den Quellcode der Software freigibt: So dient die Freigabe des Quellcodes auch dem ökonomischen Eigeninteresse.

Schwierig ist es, die Wichtigkeit von Altruismus als Motivationsfaktor zu definieren. Mam könnte auch argumentieren, dass letztlich jedes Handeln der Befriedigung von eigenen Bedürfnissen dient und damit egoistisch ist - schließlich steht hinter altruistischen Handlungen oft die Erwartung der Erwiderung des Gefallens oder zumindest des Dankes. Doch wenn jedes Handeln egoistisch ist, ist das Wort Egoismus unsinnig. Altruistisch ist demnach solches Handeln, dem kein konkretes Eigeninteresse gegenübersteht -- und das spielt wohl für einen Großteil der Open-Source-Entwicklung eine wesentliche Rolle.

Freie Software unter Windows

Auch unter Windows existiert freie Software, teilweise portiert von Linux oder exklusiv unter der GPL für Windows entwickelt, wobei zur Entwicklung oder Portierung oft wiederum die portierten Compiler und Interpreter eingesetzt werden. Doch die Mehrzahl der Programme ist nicht im Quellcode verfügbar. Dabei wäre es unter Windows prinzipiell wie unter Linux möglich, viele Programme offen zu entwickeln. Warum geschieht es dann nicht häufiger?

Ursächlich dafür ist zum einen die simple Tatsache, dass ein Windows-Betriebssystem nach der Installation nicht programmierbar ist. Das Betriebssystem enthält keinerlei Werkzeuge, um über kleine Skript-Spielereien (Dateien löschen, "ILOVEYOU" an alle Freunde im Outlook-Adressbuch verschicken etc.) hinausgehend Programme zu entwickeln. Microsoft bietet die entsprechenden Entwicklungswerkzeuge separat an. Visual Basic kostet für Schüler rund 100 Euro, die Profi-Version des Entwicklungstools Visual C++ kostet ca. 700 Euro. Wer also freie Software für Windows entwickeln will, muss zunächst einmal Geld ausgeben.

Bei der normalen Benutzung seines Betriebssystems wird der Nutzer aber zum Kauf eines Entwicklungstools nie veranlasst: Da ja alle Programme ohnehin nur in binärer Form vorliegen, muss der Windows-User zu keinem Zeitpunkt lernen, mit einem Compiler umzugehen, um Quellcode in ausführbare Programme zu übersetzen - und selbst wenn er es wollte, er kann es bei den Standardprogrammen nicht tun.

Hinzu kommt, dass die Windows-Programmierung durch oft unlogische Schnittstellen (APIs) erschwert wird - an diese Schnittstellen muss man sich aber halten, wenn die eigenen Programme im Betriebssystem wie andere funktionieren sollen. Aus Gründen der ewigen Abwärtskompatibilität enthalten viele APIs noch unnötige Überbleibsel aus frühren Zeiten - die man aber lernen muss, um Windows programmieren zu können. Als Windows-Entwickler ist man also wie der Mönch im Mittelalter in das Weltbild Microsofts eingebunden, und hat praktisch keine Möglichkeit, es aktiv zu verändern. Die Abwärtskompatibilität ist aber nur deshalb so wichtig, weil man keine Möglichkeit hat, ein altes Programm, das vielleicht wegen einer Zeile Code nicht mehr funktioniert, anzupassen - denn der Code liegt meist nicht vor.

Während Unix-Systeme sich um Interoperabilität bemühen, Programme also mit wenig Aufwand von einem Unix zu einem anderen portiert werden können, ist Windows eine Sackgasse: Wer für die Windows-APIs entwickelt, kommt so schnell nirgendwo anders hin, schließlich liegt der Quellcode der Windows-Bibliotheken nicht offen. Selbst IBM entschied sich deshalb, den Code von Windows für sein gescheitertes Betriebssystem OS/2 zu lizenzieren. Wenn ein Windows-Programm auf mehreren Plattformen läuft, ist das meist der Open-Source-Community zu verdanken, die mit WINE mühselig seit Jahren an einer von Grund auf selbst geschriebenen Windows-Emulation arbeitet. (Daneben gibt es noch Hardware-Emulatoren, die einen "PC im PC" erzeugen, innerhalb dessen dann beliebige Software installiert werden kann, unter anderem eben auch Windows samt Software.)

Learning By Doing

Software-Entwicklung lernt man am besten anhand komplexer Beispiele -- doch wenn diese nur in geringer Zahl existieren, hilft nur der Kauf von Literatur. Während die Linux-Community mit freien Dokumenten und viel Rat und Tat zur Seite steht, ist man unter Windows häufig auf den Kauf zusätzlicher Referenzwerke angewiesen, was auf Dauer noch einmal mit Hunderten von Euro zu Buche schlagen kann. Oft ist es aus Lizenzgründen gar nicht möglich, den Quellcode von Windows-Programmen freizugeben: Wenn diese nämlich lizenzierte Komponenten dritter Hersteller behinhalten, die nur in Binärform vorliegen -- was besonders bei aufwendigen grafischen Oberflächen schnell der Fall sein kann.

Die Windows-Kultur behandelt somit die Mehrzahl der Nutzer wie TV-Konsumenten (um einmal die Analogie zu wechseln), die an der Programmgestaltung nicht mitwirken, sondern nur die Programme anderer konsumieren sollen. Praktisch für Microsoft & Co.: So besteht keine Gefahr, dass aus den Reihen der Nutzerschaft ernsthafte Konkurrenz zu den kommerziellen Lösungen der Großanbieter entsteht. Die Motivation für Entwickler, den Quellcode ihrer Programme freizugeben, ist gering: Sie müssen die höheren Kosten der Entwicklung decken, und die Mehrzahl der Nutzer verfügt ohnehin nicht über die Werkzeuge oder das Wissen, um selbst etwas zur Entwicklung beizusteuern. Statt Lob wird der Open-Source-Entwickler unter Windows Häme und Beschwerden ernten, wenn er sein Programm nicht in einer einfach zu installierenden Binärvariante bereitstellt.

Hochgeschwindigkeits-Entwicklung

"Die Fähigkeit von Open-Source-Entwicklung, die gemeinsame Intelligenz Tausender Entwickler aus dem Internet zu sammeln und nutzbar zu machen, ist einfach unglaublich." Dies sagte nicht etwa Richard Stallman oder Linus Torvalds, es ist vielmehr einem internen Strategiepapier Microsofts entnommen, dem sogenannten Halloween Document I, das im Herbst 1998 an die Öffentlichkeit gelangte. "Was noch wichtiger ist, Open-Source-Evangelisierung wächst gemeinsam mit der Größe des Internet viel schneller als unsere eigenen Envangelisierungs-Bestrebungen", fährt das Dokument fort.

Tatsächlich scheint der hohe Vernetzungsgrad der Open-Source-Entwickler eine wesentliche Rolle für die Geschwindigkeit sowohl der Entwicklung als auch der Verbreitung von Open-Source-Software zu spielen. In seinem bekannten Essay Die Kathedrale und der Basar bemüht sich Eric Raymond, das Open-Source-Phänomen zu erklären. "Die Anwender als Mit-Entwickler zu sehen ist der Weg zu schnellen Verbesserungen und Fehlerbehebungen, der die geringsten Umstände macht", schreibt Raymond.

Viele Open-Source-Programme werden gar nicht als Binärversionen angeboten, sondern nur im Quellcode: Ein potenzieller Nutzer muss das Programm erst kompilieren (was im Regelfall sehr einfach ist). So wird auch die Schwelle reduziert, gegebenenfalls selbst Veränderungen vorzunehmen, da man ja bereits weiß, wie man aus dem veränderten Code wieder eine lauffähige Version macht. Viele OSS-Projekte nutzen sogenannte CVS-Server. Damit lässt sich ein Projekt effizient von mehreren Entwicklern bearbeiten, Veränderungen durch andere können einfach sichtbar gemacht und Kollisionen bei der gemeinsamen Entwicklung leichter verhindert werden.

Der derzeit noch kostenlose Dienstleister SourceForge bietet Open-Source-Projekten ein Zuhause. Das beinhaltet nicht nur Speicherplatz und Bandbreite, sondern auch CVS-Funktionen, die Überwachung und Verwaltung von Fehlern und Vorschlägen, Diskussionsforen und Mailing-Listen, Aufgabenverwaltung, Dokumentmanagement und vieles mehr. SourceForge-Nutzer haben eindeutige Nutzernamen und können sich gegenseitig mit Bewertungen versehen, so dass z.B. Benutzer mit besonders guter Teamfähigkeit oder besonders großen technischen Fähigkeiten schnell erkannt werden können. Das System bietet eine direkte Kommunikationsschnittstelle für Entwickler und Nutzer gleichermaßen, so dass jeder an der Optimierung eines Programms mitwirken kann. Die Software von SourceForge, Alexandria, steht selbst unter der GPL und wird z.B. von dem öffentlich und privat geförderten deutschen Pendant BerliOS genutzt.

Damit Open-Source-Projekte auch auf anderen Betriebssystemen als auf Linux problemlos laufen, bietet SourceForge sogar kostenlos Zugang zu einer sogenannten "Compile-Farm": Man kann sich bei Rechnern mit anderen Betriebssystemen einloggen und prüfen, ob der eigene Code dort problemlos läuft. Das Non-Profit-Projekt OSDLab bietet Entwicklern außerdem die Möglichkeit, ihre Projekte auf größeren Rechneranlagen zu testen und so die Skalierbarkeit zu prüfen.

Diese kostenlosen Projekte machen Open-Source-Plattformen attraktiver und nützen damit allen, die mit diesen Systemen Geld verdienen wollen. Dennoch stellen sich viele Entwickler die Frage, wie lange solche Projekte noch existieren können.

Kritik an freier Software

Kritiker bemängeln, Open-Source-Entwicklung sei chaotisch: Es fehle an Management, Controlling und Marketing, zu selten würden definitive richtungsgebende Entscheidung getroffen. Tatsächlich kann ein Open-Source-Projekt genau wie ein Closed-Source-Projekt auf unterschiedliche Weise "gemanagt" werden. Wie Eric Raymond in seinem Essay Homesteading the Noosphere beschreibt, werden viele Open-Source-Projekte von einem "wohlwollenden Diktator" geleitet, der entscheidet, welche Veränderungen den Weg in die offizielle Version eines Programms finden. Je nach Projekt hat dieser Leiter einen unterschiedlich starken Einfluss, und manche Projekte werden demokratisch oder anarchistisch verwaltet: Es wird abgestimmt, oder jeder Autor hat die gesamte "Macht" über das Projekt, und Fehler werden von der Mehrzahl der Autoren letztlich gegenseitig ausgeglichen, ähnlich wie bei Wiki-Webs wie Wikipedia.

Welches dieser Modelle das "richtige" ist, hängt letztlich auch vom Projekttyp ab, woraus sich z.B. eine unterschiedlich große Zahl von Entwicklern, Häufigkeit von Veränderungen und Wichtigkeit schneller Veröffentlichung ergibt.

Kritiker merken weiterhin an, dass unzählige Open-Source-Projekte schlicht inaktiv bleiben - SourceForge ist voll von solchen "Projektleichen". Das hat mit mehreren Faktoren zu tun:

Fast alle diese Probleme - und einige spezifische - gelten in anderer Form auch für Closed-Source-Software. Der wesentliche Unterschied ist, dass sie bei Open-Source-Software offener sichtbar sind. Natürlich kann man aber auch für diese Probleme Lösungen erarbeiten.

Als Beispiel für Open-Source-Software von minderwertiger Qualität wird oft der Web-Browser Mozilla angeführt: Im Januar 1998 wurde der Code des Netscape-Browsers freigegeben und so eine offene Weiterentwicklung ermöglicht, in der Hoffnung, dem Beinahe-Browser-Monopolisten Microsoft auch ohne Mammut-Investments Paroli bieten zu können. Doch das Projekt war bislang ein Fehlschlag: Zwar verfügt Mozilla über exzellente Funktionalität und hält sich penibel an die Standards des W3C, doch Speicherbedarf, Geschwindigkeit und Stabilität lassen nach wie vor sehr zu wünschen übrig. So sehr, dass viele Stimmen (unter anderem das Online-Magazin Suck) gar forderten, das Projekt endlich zu begraben und neu anzufangen.

Mozilla und auch das von Sun freigegebene StarOffice unterscheiden sich jedoch von der meisten Open-Source-Software insofern, als dass der ursprüngliche Code nach dem traditionellen Closed-Source-Modell entwickelt wurde. Die Version von Mozilla, die den Open-Source-Hackern 1998 zur Verfügung gestellt wurde, war keineswegs identisch mit Netscape 4, den viele immer noch als Alternative zu IE benutzen. Vielmehr handelte es sich um eine interne Entwicklungsversion, die von Netscape als "nicht einmal Alpha" bezeichnet wurde - im Alpha-Stadium gilt eine Software als mit Sicherheit fehlerbehaftet, bis sie dann in der Beta-Phase zum Test freigegeben werden kann. Das Programm war so voller Bugs, dass sich die Entwickler entschieden, große Teile neu zu schreiben.

Dies geschah aber immer noch im Rahmen des von Netscape vorgegebenen Funktions-Frameworks, das ziemlich gigantisch war. Zu allem Überfluss scheinen aufgrund von Koordinationsproblemen immer mehr Funktionen hinzugefügt worden zu sein, während prinzipielle Fehler teils über Monate hinweg im Code verblieben. Eigens für die Verwaltung von Bugs und Vorschlägen wurde ein System namens Bugzilla entwickelt, das es unter anderem erlaubt, über die wichtigsten Fehler abzustimmen.

Da Bugzilla jedoch ein recht komplexes Interface verwendet und primär von Entwicklern genutzt wird, bleiben die meisten Bugs ohne Bewertung. Hier wären sicherlich Verbesserungen und eine größere Einbeziehung der Nutzer möglich. Denn wenn das Beseitigen wichtiger Fehler Entwicklern in der gesamten User-Community einen höheren Statusgewinn verschafft als das Hinzufügen hübscher neuer Features, könnte sich die Richtung der Entwicklung drastisch ändern.

Das eigentlich Erstaunliche an Mozilla ist, dass der Browser trotz allem stetig besser und stabiler geworden ist und trotz aller Kritik (die, wenn sie bösartig formuliert ist, für Freiwilligenprojekte oft tödlich sein kann) die Arbeit an dem Projekt emsig fortgesetzt wird. Während man es bei proprietärer Software oft erlebt, dass die nächste Version eines Programms deutlich schlechter ist als die vorherige, gilt es in der Open-Source-Gemeinde fast schon als selbstverständlich, dass ein neues Programmrelease besser sein muss als das vorherige. Das liegt nicht nur am Entwicklungsprozess, sondern auch an der stets gegebenen Möglichkeit, ein Programm zu "forken" (von engl. "fork", Gabel).

Wenn die neueste Version eines Programms nicht tut, was man will, und der Projektleiter Sturheit signalisiert, können sich andere Entwickler abspalten und das Projekt selbst weiterentwickeln. Da oftmals Nutzer und Entwickler identisch sind, ist die Motivation hierfür groß. Im Falle von Mozilla gibt es sowohl unter Windows als auch unter Linux Mozilla-Forks, die den Funktionsumfang des Browsers auf das Wesentliche reduzieren: K-Meleon und Galeon.

Was Open-Source-Projekten oft als Nachteil vorgehalten wird, nämlich die vielfach parallelen Entwicklungen, ist in Wirklichkeit ein großer Vorteil, der an die biologische Evolution erinnert: Veränderungen, die sich als nachteilhaft erweisen, sterben aus, während sich die beste Lösung langfristig durchsetzt. Dass ein solches System von seinen Partizipanten mehr kritisches Denken erfordert als eine Monokultur, ist klar.

Das Konzept der Distribution

Microsoft Windows und GNU/Linux unterscheiden sich auch fundamental in der Art und Weise, wie Software freigegeben wird. Mit dem Wachstum von GNU und Linux wurde es für Linux-Einsteiger immer schwerer, sich ihr System aus den vorhandenen Quellen selbst zusammen zu bauen. Zwar gibt es viele Bastler, die das nach wie vor tun, aber die große Mehrzahl der Nutzer bevorzugt es, eine Sammlung von Standardprogrammen mit Hilfe einer einfachen Installationsroutine auf den Rechner zu spielen. Mittlerweile gibt es so viele solcher so genannten Distributionen, dass das Satiremagazin BBSpot ironisch titelte: "Zahl der Linux-Distribution übertrifft Zahl der Nutzer".

Viele von diesen Hobby-Distributionen bestehen aus mittlerweile veralteten Programmen und krude zusammengebauten Installationsroutinen. Einige kommerzielle und ein paar nichtkommerzielle Distributionen dominieren derzeit das Feld, sie haben Namen wie Debian, Redhat, Mandrake und SuSE. Die in Deutschland mit Abstand beliebteste Distribution ist das in Nürnberg produzierte SuSE-Linux, das von 74% der ca. 10.000 Leser, die an der Heise-Online-Umfrage zu Linux teilnahmen, bevorzugt eingesetzt wird. In den USA dominiert die kommerzielle Redhat-Distribution das Feld, während eher technisch orientierte Nutzer die nichtkommerzielle Debian-Distribution einsetzen, die mit sehr vielen Raffinessen aufwartet, aber als etwas schwerer zu installieren und zu erlernen gilt. China hat sich dazu entschieden, eine eigene Distribution mit dem Namen Red Flag Linux zu entwickeln - doch die Hacker unter der roten Fahne werden von ihren Kollegen kritisiert, ihre Veränderungen am Quellcode nicht der restlichen Linux-Gemeinde zugänglich zu machen.

Viele Distributionen kann man von Linuxiso.org als CD-Images herunterladen. Mit einem CD-Brenner kann man sie dann völlig legal selbst herstellen. Was fehlt, sind die Handbücher und der Support. SuSE hat sich allerdings dazu entschieden, kein CD-Image seiner Distribution freizugeben, was sicherlich strategische Gründe hat, aber auch damit zusammenhängt, dass in der Distribution einige kommerzielle Demos enthalten sind, die nicht unbeschränkt weitergegeben werden dürfen.

Immerhin kann man sich von SuSEs FTP-Server die um die kommerzielle Software erleichterte Distribution aus dem Netz holen - Profis mit schneller Leitung können das Betriebssystem so komplett aus dem Internet installieren. SuSE weist andernorts auch explizit darauf hin, dass die Distribution frei kopiert und beliebig oft installiert werden darf. Auch die SuSE-eigenen Programme stehen im Quellcode bereit. So zeigt sich, dass viele Linux-Unternehmen eben auch eine andere Firmenphilosophie haben als im Software-Bereich üblich. Dass es auch anders geht, demonstriert Caldera mit seinem "OpenLinux": Für den kommerziellen Einsatz muss man hier eine Lizenzgebühr für jeden Nutzer im Unternehmen bezahlen

Das Konzept der Linux-Distribution unterscheidet sich fundamental von dem Distributionskonzept von Microsoft Windows. Während Microsoft selbst als Hersteller oder Lizenznehmer aller Programme auf einer Windows-Installations-CD fungiert, basteln Firmen wie SuSE und Redhat die Programme anderer zu einem runden Paket zusammen. Gleichzeitig unterstützen die Distributionshersteller Open-Source-Projekte, die nicht nur ihre eigene Distribution, sondern auch die der Konkurrenten wertvoller machen. Schließlich geht es allen darum, den Marktanteil von Linux zu erhöhen - außerdem ist der internationale Markt bereits recht gut aufgeteilt.

Während aktuelle Versionen des Microsoft-Betriebssystems nicht einmal einen brauchbaren Dekomprimierer für ZIP-Dateien enthalten, findet sich in einer Linux-Distribution fast alles, was die Linux-Welt an Software zu bieten hat. Wer z.B. SuSE-Linux kauft, findet auf den CDs Office-Software neben Programmiertools, Internet-Server neben Browsern, einen Napster-Client und Emulatoren für Spielekonsolen, etliche Texteditoren, ein Textsatzsystem, mehrere grafische Oberflächen, Instant-Messaging-Software usw. Da die Distributionshersteller meist nicht mit den Entwicklern direkt zusammenarbeiten oder gar identisch sind, werden oft Konkurrenzprodukte gemeinsam in der gleichen Distribution angeboten.

Wie groß ist GNU/Linux?

Die Natur des freien Betriebssystems macht es schwer, fundamentale Kenngrößen zu erfassen. Verkaufszahlen der einzelnen Distributionen sagen fast nichts über die eigentliche Verbreitung, da viele Nutzer nie eine Distribution kaufen oder mit einem Paket Dutzende oder gar Hunderte Rechner konfigurieren. Auch Umfragen sind problematisch, da Linux häufig an den Chefs vorbei (die oft der Microsoft-Rhetorik aufsitzen und Linux für eine Art Virus halten) in Unternehmen installiert wird. Webserver-Statistiken sind ebenfalls fragwürdig, da Linux-Browser sich oft als Windows-Browser ausgeben, um nicht auf Kompatibilitäts-Probleme zu stoßen. Sie bemessen außerdem nur den Einsatz von Linux auf dem Desktop, nicht auf dem Server.

Immerhin gibt es einen Linux-Counter, bei dem Linux-Nutzer sich registrieren lassen können. Etwa 190.000 User haben das bis Oktober 2001 getan - obwohl die Registrierung nicht Teil der Installation von Linux ist, außerdem die Eingabe einer gültigen Email-Adresse erfordert und nur per WWW möglich ist. Der Counter liefert auch wertvolle Statistiken z.B. über die geographische Verbreitung von Linux und erlaubt es, den Kontakt zu anderen Linuxern in der eigenen Region herzustellen.

1998 hat Red Hat, als Distributionshersteller nicht unbedingt unbefangen, in einem Paper die Zahl der Linux-Nutzer aufgrund verschiedener Daten weltweit auf 7,5 Millionen geschätzt. Mittlerweile liegen die Schätzungen teils deutlich höher, teils niedriger. Im Web hat Linux Windows bereits überholt. Google meldet im Oktober rund 37 Millionen Seiten mit dem Suchbegriff "Linux" und 33 Millionen mit dem Suchwort "Windows" (das deutlich weniger eindeutig ist). AltaVista bestätigt das Ergebnis mit rund halb so vielen Resultaten. Das zeigt zumindest, dass Linux-Nutzer an den Internetmedien einen überraschend hohen "Mindshare" halten, während Windows-Nutzer hier deutlich unterproportional ausfallen. Hier fällt sicher auch der starke Einsatz von Linux im akademischen Bereich und durch Power- wie Dauer-User ins Gewicht.

Größere Klarheit als bei der Frage der Verbreitung herrscht beim Umfang des Betriebssystems selbst. Einen guten Überblick liefert David Wheeler in dem Artikel Estimating GNU/Linux's Size: "Red Hat Linux 7.1 enthält über 30 Millionen Zeilen Quellcode. Mit Hilfe des COCOMO-Kostenmodells lässt sich eine Anforderung von 8.000 Mannjahren Entwicklungszeit errechnen." Würde man ein System dieser Größe kommerziell entwickeln, so Wheeler, müsste man dafür mindestens eine Milliarde Dollar ausgeben.

Linux Means Business

Eine Milliarde Dollar, das ist auch die Summe, die der größte IT-Konzern IBM in Linux investieren möchte. Seit der Ankündigung im Dezember 2000 hat sich tatsächlich einiges getan. Zu den Linux-Initiativen von IBM gehören:

Bereits vor der Milliarden-Ankündigung hat IBM mit der Portierung von Software und dem Aufbau von Linux-Clustern dem OS einigen Respekt verschafft. Natürlich handelt Big Blue nicht uneigennützig: Die Förderung von Linux anstelle hauseigener Lösungen ermöglicht es IBM, gleichzeitig Linux als Standard und sich selbst als das dazugehörige Unternehmen zu etablieren. Denn die Entwicklung von "Solutions", maßgeschneiderten Hard- und Software-Lösungen, ist IBMs Kerngeschäft, und neben Expertise zählt hier vor allem Marketing. Ganz nebenbei kann IBM auf diesem Wege Unternehmen wie Sun und Microsoft, die auf eigene, meist proprietäre Lösungen setzen, ins Abseits drängen.


"Peace, Love and Linux" verheißt IBM von Gebäudewänden und Bürgersteigen.

Ob das gelingt, hängt vor allem davon ab, ob IBM es schafft, Manager von der Ernsthaftigkeit des Unterfangens zu überzeugen. Kampagnen wie "Peace, Love and Linux" zielen klar auf die Allgemeinheit, was darauf deutet, dass IBM Linux auch auf dem Desktop etablieren möchte. Unauffälliger wird IBM das Betriebssystem in seine eBusiness-Lösungen integrieren und so als unvermeidliche Standardplattform für den Server verbreiten. Klar ist: Linux hat sich eindeutig als sicheres Unix für unternehmenskritische Anwendungen bewährt - und das auch in Anwendungsbereichen, in denen Windows keine ernstzunehmende Alternative darstellt.

Riese in Bedrängnis

In vielen Bereichen, insbesondere in denen, die für das Internet relevant sind, liegen Microsofts Lösungen derzeit hinter der Konkurrenz zurück oder sind nicht profitabel. Microsofts Webserver IIS lag laut der regelmäßig aktualisierten Netcraft-Studie im September 2001 mit 28% Marktanteil deutlich hinter dem vor allem auf Unix-Systemen laufenden Open-Source-Webserver Apache, der mit 60% auf dem Löwenanteil der Systeme (mit eigener Domain) hält. Microsoft-spezifische Viren und Würmer wie Code Red und Nimda haben die Consulting-Gruppe Gartner veranlasst, ihre typischerweise sehr Microsoft-freundliche Haltung zu überdenken und in einem Bericht Unternehmen zum Wechsel auf Alternativen aufgefordert.

Im Datenbank-Bereich liegt Microsoft mit rund 15% Marktanteil wiederum hinter den Branchenriesen Oracle und IBM - kleine Websites setzen zudem oft auf kostenlose Open-Source-Lösungen wie MySQL und PostgreSQL. eCommerce-Gesamtlösungen sind die Spezialität von IBM, während die bedeutenden Internet-Redaktionssysteme ein Betätigungsfeld für viele Start-Ups sind. Auch hier existiert z.B. in Form des beliebten Zope-Applikationsservers eine mächtige Open-Source-Lösung.

Auch die Web-Entwicklungsumgebungen konnte Microsoft bisher nicht monopolisieren. Trotz Versuchen mit Skript-Standards wie ASP und VBS den Markt zu dominieren, entscheiden sich Entwickler lieber für offene Programmiersprachen, deren Werkzeuge sie kostenlos auf allen Plattformen einsetzen können und an deren Standards sie mitwirken können. Skript-Sprachen wie PHP, Perl und Python sowie die von Sun entwickelte plattformunabhängige, objektorientierte Sprache Java genießen eher das Vertrauen von Web-Entwicklern.

Und dann ist da noch der Markt für mobile Endgeräte und "Thin Clients" (Client-Rechner mit geringeren Anforderungen). Hier stehen Java, Palm OS & Co. gegen Microsofts Windows CE. Unter dem Namen Embedded Linux wird seit einiger Zeit auch eine Mini-Variante von Linux gestrickt, die auf das absolut Notwendige zurechtgestutzt ist. Mittlerweile gibt es Handies, Web-Telefone, PDAs, Spielekonsolen, Set-Top-Boxen, Web-Pads, Audio-Systeme, digitale Videorekorder und sogar Roboter, auf denen Linux läuft (eine gute Aufstellung findet sich bei Linux Devices).

Bei den Medienformaten hat Microsoft ebenfalls Nachholbedarf: Die Surfer bevorzugen derzeit Lösungen ohne Kopierschutz. DivX ;-) für Videos sowie MP3 und der patentfreie Audio-Codec Ogg Vorbis dominieren das Feld. Kopierschutz ließ sich bisher lediglich in Offline-Medien etablieren, etwa beim Vertrieb von DVDs oder in einigen Marktversuchen mit kopiergesperrten Audio-CDs. Microsofts eigenes Windows Media Format blieb bislang weitgehend glücklos, nur einige treue Microsoft-Fans setzen das proprietäre Format ein. Selbst als Player bevorzugen viele Nutzer den cooler aussehenden WinAmp von AOL.


"Hello watch": IBM hat es geschafft, Linux sogar auf einer Armbanduhr unterzubringen.

Die Browser-Statistik von MetaGer sieht Microsofts IE zwar derzeit bei rund 80%, aber Netscape hält immer noch einen Anteil von rund 18% - mit dem bald erwarteten Final Release von Mozilla und dem kostenlosen Opera besteht außerdem für Microsoft die Gefahr, dass viele Microsoft-kritische Windows-Nutzer bei der erstbesten Gelegenheit umsteigen. All das macht es derzeit noch problematisch, den IE als Motor für proprietäre Standards zu nutzen.

Noch schlimmer für Microsoft sieht es bei den Instant Messengern aus. Instant Messenger führen eine Art Echtzeit-Adressbuch über die eigenen Freunde und Bekannten - man sieht, wann diese online sind und kann ihnen ggf. Nachrichten oder Dateien schicken. Hier dominieren die AOL-Messenger ICQ und AIM mit zusammen rund 150 Millionen Nutzern. Microsofts Messenger-Dienst verzeichnet dagegen nur 32 Millionen Nutzer, während mit rund 12 Millionen Nutzern Yahoo! auf Platz drei folgt. Die Open-Source-Gemeinde lässt sich nicht lumpen und schickt den offenen Jabber-Standard ins Rennen.

Und dann sind da noch die Inhaltsportale. Das Portfolio an Dienstleistungen, das Microsoft im Internet anbietet, ist bereits gigantisch. Wie auch Yahoo! und AOL betreibt Microsoft ein Portal, das Nachrichten, Suchmaschinen, diverse Inhalte, Email Funktionen, Messenger-Dienste, Verzeichnisse und vieles mehr vereint und mit Microsofts Desktop-Software wie dem MSN Messenger und dem Internet Explorer integriert ist. Doch obwohl in vielen Bereichen mehr Werbung als Inhalt zu finden ist, ist klar, dass dies nicht das Geschäftsmodell für Microsofts Internet-Service-Palette sein und bleiben kann.

Dank Sun, IBM, Linux & Co. ist die Vormacht von Microsofts Betriebssystem gefährdeter als je zuvor. Problematisch ist auch, dass Microsoft mit zunehmender Bandbreite für Heimbenutzer immer mehr von illegalen Kopien bedroht ist. CD-Brenner sind mittlerweile so schnell und günstig, dass auf jedem Schulhof Software im Nominalwert von Tausenden Euro getauscht wird. Wenn aber in wenigen Jahren jeder Nutzer durch den einfachen Login in eine P2P-Tauschbörse innerhalb von Sekunden ein Hunderte Megabytes großes Programmpaket auf seine Hunderte Gigabytes fassende Festplatte herunterladen kann, ist klar, dass das kommerzielle Verbreitungsmodell von Software in Gefahr ist. Microsoft realisiert solche Gefahren eher als z.B. die Musikindustrie - und weiß auch, welche Lösungen funktionieren und welche nicht.

Der Master-Plan von Microsoft zur Beseitigung der Konkurrenz heißt .NET - und er scheint aufzugehen.


Teil 2: Streit der Kulturen


Anfang 2000 übernahm Steve Ballmer die Führung von Microsoft. Ex-CEO Gates konzentriert sich seitdem auf die Leitung der Software-Entwicklung und die Verbreitung seines Reichtums. Dank einiger zirkulierender interner Videos hat Anfeuer-Experte Ballmer auch unfreiwillige Karriere als Musikstar gemacht.
Immer aggressiver bemüht sich der Quasi-Monopolist Microsoft darum, Windows-Nutzer in ein strategisches Korsett zu zwängen, um die größtmögliche Kontrolle über Inhalte und Dienstleistungen zu erlangen. Doch immer lauter werden auch die Rufe der Open-Source-Evangelisten nach einer grundlegenden Software-Reformation. Der Streit der Kulturen nähert sich seinem Höhepunkt, und es ist wichtiger denn je, die Bedeutung von freiem Wissensaustausch auf der einen und zentralistisch-proprietären Kontrollstrukturen auf der anderen Seite zu verstehen, um eine informierte Entscheidung zu treffen. Denn wenn die Gegenreformation in Form von Patenten und neuen Copyright-Gesetzen auf die Open-Source-Gemeinde niederprasselt, könnte die Hoffnung auf Veränderung dauerhaft erstickt werden.

Microsoft bündelt wie Linux-Distributoren viele Programme mit dem Betriebssystem - Programme, die natürlich fast ausschließlich von Microsoft selbst stammen. So sorgte die Verbündelung von Windows 98 mit dem Microsoft Internet Explorer als Webbrowser für Aufsehen, gilt sie doch als ein Hauptgrund für den massiven Verlust von Marktanteilen des ehemaligen Browser-Königs Netscape. Doch das Bundling blieb ohne rechtliche Konsequenzen, und mittlerweile ist der IE fester Bestandteil aller Microsoft-Betriebssysteme. Wer ein Windows-System installiert und Microsofts Browser im Lieferumfang findet, wird sich kaum die Mühe machen, Netscapes Browser zu installieren, wenn er nicht weiß, worum es geht.

Und worum geht es? Microsoft hat als rein profitorientiertes Unternehmen natürlich kein Interesse daran, Programme zu verschenken (Netscape hatte dies ursprünglich auch nicht vor - man wollte den Browser eigentlich als kommerzielles Produkt verkaufen, sah sich jedoch durch Microsoft dazu gezwungen, das Programm kostenlos abzugeben). Die Microsoft-Strategie, den Browser-Markt zu dominieren, ist das Ergebnis kühler wirtschaftlicher Überlegungen: Sind erst mehr als 80% der Browser aus Redmond, kann Microsoft auf diesem Wege kommerziell relevante Standards etablieren. Neue Medienformate können in den Browser eingebunden werden und dafür Lizenzgebühren von Medienanbietern gefordert werden. Mit Inhalten wie ActiveX, die nur auf Microsoft-Systemen laufen, können Nutzer zunehmend dazu gebracht werden, ein Microsoft-OS zu installieren oder weiter einzusetzen. Und Microsoft-Dienstleistungen im Web können fest mit dem Betriebssystem verankert werden.

Nachdem der Software-Hersteller sein Ziel "Windows auf jedem Desktop" praktisch erreicht hat, tritt er auch in zahllosen anderen Bereichen als mächtiger Marktteilnehmer auf: Ob Handy oder PDA, Datenbank- oder Web-Server, Content-Management-System oder HTML-Editor, Spielekonsole oder eigenes Spieleangebot, ob Entwicklungsplattformen oder Enzyklopädie, Redmond ist überall. Nur im Internet ist es Microsoft bislang kaum gelungen, relevante Umsätze zu generieren.

Was ist .NET?

Im Juni 2000 stellte Microsoft, nun unter der Führerschaft von Steve Ballmer, seinen Master-Plan fürs Internet vor. Unter dem Namen .NET (sprich "dot-net") will Microsoft bisher von Konkurrenten dominierte Geschäftsfelder erobern und neue Bereiche erschließen. Da der Plan von so entscheidender Bedeutung für das Unternehmen ist, werden große Bereiche unter Verschluss gehalten, Pressemitteilungen nachträglich "korrigiert" und Artikel oder Leserbriefe lanciert, um die Entwicklung zu beschönigen. Was Microsoft plant, lässt sich am ehesten absehen, wenn man die Frage stellt: "Where is the money?" Denn im Gegensatz zu vielen New-Economy-Pleitiers ist Microsoft ein Unternehmen, das von allen Dingen vor allem eines versteht: die Maximierung des Profits. Und der lässt sich zum einen in den bereits erwähnten Bereichen machen, zum anderen in bisher unbesetzten oder unprofitablen Marktfeldern:

Der Einstieg: Windows XP

Fast all das ist in der Tat Bestandteil des .NET-Konzepts und der damit verbundenen Lösungen. .NET spielt erstmals eine Rolle im neuen Microsoft-Betriebssystem Windows XP. Wie c't im Test der finalen Version von Windows XP berichtet [4], sind Kernelemente der neuen Strategie fest mit dem Betriebssystem verknüpft. Die mit dem Internet Explorer erfolgreich erprobte Verbündelung von Software- und Service-Komponenten wird in XP konsequent fortgesetzt.

Den Authentifizierungsdienst und damit die Grundlage für spätere Entwicklungen wie E-Payment und Abonnement-Channels für Inhalte bietet Microsoft derzeit unter dem Namen Passport an. "Ein einfacher Weg zur Anmeldung und zum Einkaufen", verspricht Microsoft und konkurriert damit mit Yahoo! ("IDs") und AOL ("ScreenName"), die über ihre Portale die gleiche Leistung anbieten möchten. Passport verwendet konventionelle Cookies und JavaScript (nicht zu verwechseln mit Java), um die Login-Informationen auf dem Rechner des Nutzers zu speichern. Wer einen Hotmail-Account nutzt oder elektronische Bücher mit dem Microsoft Reader lesen möchte, muss bereits seit längerer Zeit einen Passport-Zugang einrichten.

In Windows XP wird der Nutzer bei der ersten Internet-Verbindung ermahnt: "Sie brauchen ein Passport-Konto, um Windows XP Internet-Kommunikationsfunktionen zu nutzen und auf .NET-basierte Internetdienste zugreifen zu können." Hier wird der Sinn der Microsoft-Terminologie klar: Im Englischen kürzt man Internet oft schlicht mit "Net" ab, und auch der Rest der Formulierung legt dem Nutzer nahe, Internet ginge ohne Passport gar nicht. Wer im Mehrbenutzer-System XP neue Nutzer einrichtet, soll diesen ebenfalls einen Passport verschaffen: virales Marketing.


Microsofts Flagge auf der Seattle Space Needle. Mit Windows XP will der Konzern den endgültigen Siegeszug antreten.

Während die Sicherheit von Passport vernichtend kritisiert wurde [5], überraschte Microsoft mit der Ankündigung, Passport nicht als Monopolist handhaben zu wollen, sondern mit anderen "Universal Sign In" Anbietern (also AOL und Yahoo!) zusammen zu arbeiten. Die verschiedenen "Identities" würden schlicht auf unterschiedlichen Servern verwaltet, aber einen gemeinsamen Standard nutzen. Dahinter können verschiedene Überlegungen stecken. Zum einen besteht die Möglichkeit, Interoperabilität nur vorzutäuschen und in der Praxis über Implementierungsdetails, insbesondere bei der Vergabe von Rechten auf einer Website, Mitbewerber auszuspielen - dies befürchtet Andrew Orlowski vom industriekrisischen The Register und verweist darauf, dass Microsoft vor einiger Zeit das Internet-Magazin Slashdot mit rechtlichen Schritten bedroht hat, weil dort die technischen Spezifikationen der Microsoft-Implementierung des Authentifizierungsprotokolls Kerberos veröffentlicht worden.

Solche Maßnahmen sind eher untypisch für Microsoft: Man bemüht sich sehr, das Unternehmen als wettbewerbsfreundlich, kritikfähig und offen darzustellen, um dem Bild vom bösartigen Großunternehmen, das wie ein Krebsgeschwür langsam alle Industriebereiche verschlingt und so die gesamte Volkswirtschaft Zelle für Zelle zerstört, vorzubeugen. Wenn Microsoft rechtliche Schritte androht, geht es also ums Ganze. Daraus kann man ziemlich sicher schließen, dass Microsoft nach außen hin Offenheit vortäuschen möchte, über die eigene Implementierung aber die Konkurrenz sabotieren will. Denkbar ist aber auch, dass man dank der Verknüpfung von Passport mit Windows schlicht keine Angst vor Mitbewerbern hat - wenn jeder Windows-Nutzer ohnehin Microsofts Dienst in Anspruch nimmt, kann der Rest getrost bei anderen Anbietern unterkommen, was gleichzeitig ein gutes Argument in Anti-Trust-Verhandlungen ist.

Der Microsoft Messenger, der (wenig überraschend) mit Windows XP verbündelt ist, fordert vor der Nutzung ebenfalls zur Einrichtung eines Passport-Zugangs auf. Das ist deshalb bedeutsam, weil mit dem Messenger eine Microsoft-eigene Remote-Access-Lösung verknüpft ist. Damit lässt sich ein anderer Rechner fernwarten, was vor allem auch PC-Anbieter nutzen sollen, um per Internet Support zu leisten.

Programme zu vermieten

Ob das jedoch die primäre Intention von Microsoft ist, darf bezweifelt werden -- schließlich hat man vor Windows 2000 die wichtigen grafischen Fernwartungsfunktionen nicht ins System integriert und es Fremdanbietern überlassen, hier Lösungen zu entwickeln. Das plötzliche Interesse von Microsoft ist vermutlich eher mit dem Wunsch erklärbar, den Nutzer über den Messenger und andere Anwendungen mittelfristig mit Applikationsservern vertraut zu machen.

Denn die Fernwartungstechnik benötigt man auch zur Vermietung von Software. Damit lässt sich langfristig das Software-Angebot von Microsoft immer mehr ins Internet verlagern. Von Microsofts Servern (oder denen anderer Anbieter) kommen nur hochkomprimierte Bild- und Tondaten, die mit Programmen erzeugten Daten werden entweder auf dem eigenen Rechner oder auf dem Server gespeichert. Für eine monatliche "Flatrate" oder zeitgebundene Gebühren erhält der Nutzer dann das Recht, ein bestimmtes Programm zu benutzen.

Um die Nutzer an die Technik zu gewöhnen, könnte Microsoft z.B. jedem Passport-Neukunden eine kostenlose "Probezeit" von Tagen oder Wochen einräumen, innerhalb derer Software wie Word, Excel und Outlook, aber auch z.B. die Enzyklopädie Encarta oder Microsofts HTML-Editor Frontpage kostenlos genutzt werden kann. Flaschenhals ist allein die Bandbreite, ist diese ausreichend vorhanden, lassen sich auch Spiele oder Virtual Reality übers Netz streamen. Bestimmte Anwendungen könnten sogar komplett kostenlos angeboten werden, sofern der Nutzer einwilligt, alle Daten für Profilzwecke Microsoft zu überlassen.

Wenn bestimmte Programme irgendwann nur noch "mietbar" sind, besteht zwar die Gefahr, Kunden zu verlieren, doch die langfristige Sicherheit eines Abonnenten könnte Microsoft dieses Risiko akzeptieren lassen. Letztlich wäre ein solches Szenario die Rückkehr ins Terminal-Zeitalter, als Firmenangestellte mit "dummen" Endgeräten auf große Rechneranlagen zugriffen, wo alle Daten und Programme gespeichert waren, damals noch meist durch den ehemaligen Oberbösewicht IBM. Die Konsequenzen sind leicht ausmalbar: mangelnder Datenschutz, Geschwindigkeits- und Verfügbarkeitsprobleme, höhere Kosten für den Endnutzer, stärkere Monopolisierung über Dauerverträge und langfristige Förderung einer Software-Monokultur, Einschränkung der Möglichkeiten der persönlichen Datenverwaltung, mögliche Gefährdung der Meinungsfreiheit [6], Sicherheitsmängel usw. usf.

Für eine solche Strategie spricht auch Microsofts umstrittene "Aktivierung" von Windows XP: Bestätigt man nicht, dass man der legitime Käufer ist, darf man das OS nicht nutzen. Hier wird erstmals das Betriebssystem unvermeidlich mit einer externen Stelle (man hat noch die Wahl zwischen Telefon- und Internet-Aktivierung) verknüpft. Doch während dieser Schutz sich von Crackern noch ohne Probleme aus dem Betriebssystem entfernen ließ, kann stufenweise der "Schutz" des Systems erhöht werden, indem mehr und mehr Software auf Microsofts Server verlagert wird.

Microsofts Inhalte

Am Rande ist erwähnenswert, dass Microsoft natürlich auch seine eigenen Inhalte immer stärker ins Betriebssystem und in die Anwendungen integriert. So verfügt das neue Office XP über sogenannte "Smart Tags", die z.B. bei der Eingabe eines Aktiensymbols dieses hervorheben und auf einen Mausklick hin weitere Informationen aus dem Internet holen. Das Feature war ursprünglich auch für den neuen Internet Explorer 6 vorgesehen und sollte dort Links in fremde Seiten einfügen, hat aber für viel Kritik gesorgt - Web-Autoren sehen ihre Werke der mutwilligen Verfälschung durch Microsoft ausgesetzt. Microsoft hat sich deshalb entschieden, die Smart Tags vorläufig aus dem Browser zu entfernen.

Langfristig möchte man auch andere Service-Anbieter in die Microsoft-Strategie einbinden. Deshalb fördert Microsoft offene Standards wie SOAP und UDDI, die die Kommunikation unter verschiedenen Endgeräten erleichtern und die Abfrage von Services nicht nur aus dem Browser, sondern aus beliebigen Programmen erlauben. Dahinter steckt die Überlegung, dass man sowohl bei den Endgeräten als auch bei den Services selbst auf absehbare Zeit kein Monopol haben wird -- um die Akzeptanz und Verbreitung der eigenen Services sicher zu stellen, müssen diese deshalb interoperabel sein. Das wird Microsoft natürlich nicht daran hindern, auch in diesen Bereichen langfristig eine Markführerschaft anzustreben und über Implementierungsdetails wie bei Passport Interoperabilität zu verhindern, sobald in einem Bereich ein Monopolstatus erreicht ist.

Write Once, Run on Microsoft

Auf mobilen Endgeräten und auf Servern muss Microsoft langfristig der Sun-Programmiersprache Java dem Garaus machen. Java hat den Vorteil, tatsächlich auf jeder Plattform zu laufen -- wenn auch in vielen Bereichen mit starken Performance-Einbußen. "Write Once, Run Anywhere" (WORA) - mit diesem Lockruf hat Sun Tausende von Entwicklern mobilisiert.

Erreicht wird die Plattformunabhängigkeit durch eine sogenannte "Virtuelle Maschine", eine Art simulierter Rechner im Rechner, der auf jedem Java-System identisch ist. Gegenüber der als kompliziert, unsicher und umständlich geltenden Programmiersprache C++ genießt Java den Ruf, vergleichsweise leicht erlernbar, schneller programmierbar und absturzsicher zu sein. Kritiker weisen auf die deutlich schlechtere Performance in allen Bereichen hin, die man z.B. im Great Computer Language Shootout nachprüfen kann: Java schneidet sogar oft schlechter ab als Skriptsprachen wie Perl und Python, die noch einfacher zu erlernen und genauso plattformunabhängig sind.

Vor allem im Servereinsatz ist Java aber weiterhin beliebt, und der GNU Java Compiler (gcj) verspricht höhere Performance durch Verzicht auf die virtuelle Maschine. Der Quellcode bleibt trotzdem plattformunabhängig, muss aber in diesem Fall für jede Plattform neu kompiliert werden.

Java war aus Microsofts Sicht schon immer eine massive Bedrohung. Denn während ein Windows-Programm nur mit viel Mühe auf ein anderes Betriebssystem portierbar ist, ist plattformunabhängige Programmierung praktisch das Ende des Betriebssystem-Monopols. Und weil Java im Gegensatz zu den meisten Skript-Sprachen auch mehrere grafische Oberflächen mitbringt, lassen sich darin beliebige Desktop-Anwendungen entwickeln.

Von Microsofts Seite hat man versucht, dies zum Teil durch "Verunreinigung" des Java-Standards mit Microsoft-spezifischen Erweiterungen zu verhindern: Die gleiche Strategie, die auch in vielen anderen Bereichen, in denen Microsofts Plattformmonopol in Gefahr ist, angewendet wird oder werden könnte. Sun hat daraufhin im Januar 2001 Microsoft die Lizenz entzogen, neue Java-Entwicklungssoftware zu produzieren.

Damit war die "Verunreinigungs"-Strategie nicht mehr gangbar, was sich schon seit längerer Zeit abgezeichnet hat. Microsoft hat deshalb die wenig überraschende Konsequenz gezogen und die Java-Unterstützung aus der neuesten Version des Internet Explorer entfernt: Wenn Java schon auf Windows läuft, dann nicht mit Microsofts Hilfe. Suns Java-Strategie ist durchaus umstritten. Mittlerweile muss man rund 5,5 MB downloaden, nur um Java-Programme überhaupt ausführen zu können, und Programme mit grafischer Oberfläche sind unter Windows erschreckend langsam und speicherintensiv. Entwickler und Universitäten nahmen die Programmiersprache dennoch mit Begeisterung an, in der Hoffnung, ohne Microsoft auch für Windows-Systeme entwickeln zu können -- und zwar kostenlos. Akademiker loben die Sprache wegen ihrer technischen Überlegenheit, während viele Endnutzer die Nase rümpfen, wenn sie das Wort Java hören.

Microsoft hat also gute Chancen, Java zu begegnen. Dies tut man innerhalb des .NET-Konzepts mit der sogenannten Common Language Runtime. Die CLR funktioniert ähnlich wie der Bytecode von Sun: Beliebige Sprachen lassen sich in diese Zwischensprache übersetzen. Doch im Gegensatz zu Suns Bytecode lässt sich der CLR-Code natürlich, wie beabsichtigt, nur auf Microsoft-Systemen ausführen. Das bietet Entwicklern immerhin den Vorteil, z.B. mobile Endgeräte gleichzeitig mit Desktop-PCs zu bedienen, außerdem kann Microsoft die CLR ja durchaus für ausgewählte Betriebssysteme wie MacOS lizenzieren (Microsoft und Apple kooperieren im Software-Bereich).

Um den Java-Ersatz zu vervollständigen, setzt Microsoft noch eine eigene Programmiersprache, C# (sprich "C-Sharp"), obendrauf und aktualisiert Visual Basic für die .NET-Unterstützung. Damit sollen Javas sprachliche Vorteile assimiliert werden, während man gleichzeitig Java performance-mäßig ausbooten kann: Da die CLR für Windows-Systeme optimiert ist, kann sie weitaus schneller laufen als Java, das z.B. eine ganz eigene grafische Benutzeroberfläche verwendet.

Rettung durch Mono?

Wieder einmal scheint es die Open-Source-Gemeinde zu sein, die Microsofts ratloser kommerzieller Konkurrenz aus der Patsche helfen muss. Zum Entsetzen mancher Microsoft-Gegner hat Ximian, die Mutterfirma des GNOME-Desktops, angekündigt, Teile des .NET-Konzepts als Open-Source-Projekt vor allem für Linux zu implementieren. Dabei soll es nicht um Passport, "Smart Tags" oder ähnliche fragwürdige "Innovationen" gehen, sondern um die Entwicklung eines Compilers für C# und eine Implementierung der Common Language Runtime sowie bestimmter notwendiger Bibliotheken (Grafik, Web-Zugang usw.).

Dabei kann sich das Team rund um den gebürtigen Mexikaner Miguel de Icaza beim Projekt mit dem Namen Mono auf die von Microsoft veröffentlichten Spezifikationen stützen. Microsofts Vorzeige-Entwickler David Stutz, der oft eine kritische Haltung zu Microsofts Unternehmenspolitik einnimmt, begrüßt in einem Interview den Vorstoß von Ximian: "Wir brauchen Interoperabilität, weil unsere Kunden sie brauchen, und weil unsere Kunden sie brauchen, brauchen wir sie."

Ximian traut dem Frieden weniger. "Wir versuchen, was Patente angeht, auf der sicheren Seite zu bleiben", sagt Icaza im Slashdot-Interview. "Das bedeutet, dass wir Mono mit Techniken implementieren, die in der Vergangenheit erfolgreich verwendet wurden, und dass wir derzeit noch nicht sehr effizienten oder überlegten Code entwickeln. Davon sind wir noch weit entfernt. Aber dafür setzen wir nur existierende Techniken ein." Das Patent-Problem schwebt also wie ein Damoklesschwert über dem Open-Source-Projekt.

Diese Befürchtung teilt auch das DotGNU-Projekt, das eine komplett eigene Alternative zu .NET entwickeln will, inklusive einer dezentralen Authentifizierung als Antithese zu Microsoft Passport. Hier will man durch möglichst viel dokumentierte Eigenentwicklung der Patentierbarkeit der verwendeten Konzepte vorbeugen. Sicherlich besteht auch die Gefahr, dass Microsoft zwar Entwicklungen wie Mono nicht auf rechtlichem Wege begegnet, aber den Standard so häufig verändert, ohne dies zu dokumentieren, dass Mono nicht mehr mithalten kann. Diese Gefahr besteht bei DotGNU nicht, und die unterschiedlichen Strategien haben bereits zum Streit zwischen den beiden Projekten geführt -- was vielleicht besser ist, als es klingt, denn so können beide Ansätze parallel erprobt werden.

Patentierte Programme

Die internationale Patentierbarkeit von Software ist ein wesentliches Hindernis für die Entwicklung freier Software. Patente können auch gegen nichtkommerzielle Projekte eingesetzt werden, sofern die entsprechenden "Erzeugnisse" öffentlich angeboten werden (vgl. z.B. §11 PatG). In seinem Artikel Wettbewerb im Gerichtssaal (c't 17/2001) beschreibt Richard Sietmann detailliert, wie die Erfindungshöhe, vorgeblich Maßstab für die Patentierbarkeit einer Erfindung, mit zunehmender technischer Komplexität an Bedeutung verliert. Die Patentprüfer sind nicht in der Lage, eingereichte Patente zu bewerten, so dass die einzige verbleibende Prüfungsinstanz die Gerichte sind. Dort kommt es dann nur noch auf die technischen Experten an, die nicht unbedingt kompetent sein müssen, sondern vor allem überzeugend. Gleichzeitig wird seitens der Großunternehmen, Patentanwälte und Venture-Capital-Gesellschaften massiv Lobbyismus für immer stärkeren Patentschutz betrieben - eine Spirale, die kein Ende zu nehmen scheint und nun auch auf genetische Informationen eskaliert.

Das gilt auch für Patente auf Verfahren, die lediglich in Software-Form, also in Form von Information, implementiert werden - ein zusätzliches Monopolrecht für Erfinder neben dem schon international geltenden Copyright und dem Markenrecht. Das "Free Patents" Projekt dokumentiert in zahlreichen Beispielen die Grenzenlosigkeit des Patentwahns in den USA und zunehmend auch in Europa - einige der skandalösesten Fälle findet man auch in Slashdots Patentrubrik. Vom Online-Einkaufswagen bis zur Web-Datenbank, von der Online-Auktion bis zum Hyperlink - ob eine Technologie schon tausendfach implementiert wurde oder selbst von einem Schimpansen mit genügend großem Futteranreiz problemlos entwickelt werden könnte, scheint sowohl bei Software-Patenten als auch bei traditionellen wie dem berühmt gewordenen Erdnussbutterbrot-Patent selten eine Rolle zu spielen. Bei der Patentschrift wird mehr Wert auf die Form und die Eloquenz als auf den Inhalt gelegt.

Das erinnert an die Situation im England des 17. Jahrhunderts, als eines der ersten Patente, das vor Gericht angefochten wurde, das Spielen mit Karten betraf. [7] Der Unterschied heute: Mit genügend großen finanziellen Mitteln lässt sich selbst das unsinnigste Patent oft bis zu seinem Verfall (der bei Software genauso lange dauert wie z.B. bei einer patentierten Bohrmaschine) aufrecht erhalten.


Nicht nur Software steht zunehmend unter Monopolschutz: Greenpeace-Aktion vor dem Europäischen Patentamt in München gegen Patente auf Leben. Foto: Christian Lesten.

Patente fördern praktisch nur die Unternehmen, die es sich leisten können, sie zu verteidigen -- und zementieren so Monopole. Sie machen Open-Source-Entwicklung in vielen Bereichen schlicht völlig unmöglich, da man ein Programm, das ein Patent verletzt, eben nicht freigeben darf. Das weiß natürlich auch Microsoft, so dass es im Halloween-Dokument 1 unter anderem hieß: "Der Effekt von Patenten und Copyrights bei der Bekämpfung von Linux muss untersucht werden." Der Widerstand gegen Patente kommt wie auch bei .NET fast ausschließlich aus der Open-Source-Community und von einigen wenigen kleinen und mittelständischen Unternehmen, die langfristig denken.

Die "KMUs" gehen dem Gerede von "Intellectual Property Rights" nur zu häufig auf den Leim. Aus der Sicht der Großunternehmen ist es von Vorteil, dass die Mehrzahl der aufstrebenden Konkurrenz Closed-Source-Software einsetzt und so isolierte Lösungen nutzt, anstatt die gemeinsame Intelligenz über Open-Source-Software und Patent-Pools zu bündeln und damit gestärkt größeren Unternehmen entgegenzutreten. Das stünde nicht im Widerspruch zu einer gesunden Konkurrenzsituation, aber sehr wohl zu dem Gedanken, jedes Unternehmen müsse ein absolutes Monopol anstreben. Es werden also vor allem Unternehmen mit modernen Philosophien sein, die Open-Source-Software einsetzen und damit der Konkurrenz ein Schnippchen schlagen.

Mehrheit in Euros

In einem Auftragsbericht analysierte die Europäische Union die öffentliche Reaktion auf die geplante Gesetzgebung zu Software-Patenten. Zwar seien 91% der Befragten gegen Software-Patente gewesen, stellte der Report fest, aber diese stammten fast ausschließlich aus der Linux-Gemeinde. Dagegen gebe es eine "wirtschaftliche Mehrheit" für Software-Patente. In der Beschreibung der Reaktionen ist auch die Wortwahl interessant: Wer eine breitere Patentierbarkeit von Software fordert (also größere Monopolrechte), ist demnach "liberal", diejenigen, die keine Software-Patente wollen, sind "restriktiv".

Ein Grund für den geringen öffentlichen Widerstand gegen Patente ist sicherlich, dass das gesamte Patentproblem aus der Sicht eines Windows-Benutzers keine große Rolle spielt: Er kann sicher sein, dass Microsoft stets alle Schlüsseltechnologien lizenzieren oder sich aufrichtig um ihre Vernichtung bemühen wird. Gleichzeitig wird in den nationalen Medien über Entwicklungen auf europäischer Ebene ohnehin kaum berichtet - viele EU-Kritiker sehen die Entfernung der Demokratie von den Bürgern als ein Hauptproblem des Vereinigungsprozesses. Internationale Schattenorganisationen wie WIPO und WTO tun ihr Übriges, um eine Teilnahme der Öffentlichkeit am entscheidungsrelevanten Diskurs zu verhindern.

In den USA ist der Patentkrieg längst verloren, in Europa wird er noch gefochten, doch die Zeichen stehen auf Sturm. Dabei gäbe es juristisch eine einfache Lösung für die Problematik, mit der auch Patentfreunde leben können sollten: Software mit offenen Quellcode prinzipiell von allen Lizenzgebühren freizustellen. Denn wer argumentiert, dass Software-Patente notwendiger Innovationsschutz seien, wird einsehen müssen, dass dieser Schutz überflüssig ist, wenn die Innovation in gleicher Qualität auch von der Free-Software-Kultur bereitgestellt wird. Eine Analogie aus der realen Welt wäre es, Patentverletzungen dann zu erlauben, wenn der patentierte Gegenstand nicht verkauft, sondern verschenkt wird, mitsamt allen Konstruktionsunterlagen. Doch dafür würden sich europäische Politiker wohl nur auf Druck ihrer jeweiligen Landesmedien einsetzen -- Medien, die oft nur eine diffuse Vorstellung davon haben, was ein Betriebssystem eigentlich ist.

Vielleicht gibt es die Möglichkeit, das Prinzip der GPL auf Patente zu übertragen - z.B., indem Open-Source-Entwickler selbst möglichst viele Patente anmelden und diese in einen gemeinsamen Pool übertragen, der auch die Patentkosten tragen würde. Nur wer selbst freie Software entwickelt oder eigene Patente dem Pool beisteuert, dürfte die enthaltenen Patente kostenfrei nutzen. So könnte das Patentsystem langsam von innen zersetzt werden, da der gemeinsame Pool von Open-Source-Entwicklern und kleineren Unternehmen mit der Zeit auch für Großunternehmen gefährlich werden könnte, die dann keine andere Wahl mehr hätten, als selbst ihre Patente beizusteuern. Ein Ansatz in diese Richtung ist z.B. das Open-Patents-Projekt. Ob eine Idee von dieser Radikalität, die unter underem voraussetzen würde, auch fragwürdige Patente anzumelden, von der Linux-Community akzeptiert würde, darf allerdings bezweifelt werden.

Geschützte Bits

Ein weiteres Problem für Open-Source-Entwickler ist der Verfall des Copyright-Systems. Was viele Downloader freut, wird von der "Content-Industrie" derzeit mit Panikreaktionen beantwortet. Jedes Bit, das beim Kunden landet, ob zu einem Musikstück, einem eBook oder einem Film gehörend, soll "unkopierbar" gemacht werden. Dafür bieten sich verschiedene Techniken an, vor allem die temporäre Verschlüsselung der Inhalte, die erst mit einem z.B. in der Wiedergabesoftware enthaltenen Key aufgehoben werden kann, sowie die Versehung der Daten mit einem "Wasserzeichen", was sich bei Kopiervorgängen von der Hardware und Software erkennen lässt, woraufhin das Kopieren unterbunden werden soll.

Dass keines dieser Systeme sicher ist, wird von nahezu allen Experten, auch industrieeigenen, akzeptiert. In seinem berühmt gewordenen Paper zum Wasserzeichen-Verfahren SDMI resümiert Professor Edward Felten: "Letztendlich wird ein Konsument, der in der Lage ist, geschützte Inhalte zu hören oder zu sehen, technisch auch immer in der Lage sein, sie zu kopieren."

Das weiß auch die Content-Industrie, die Felten und andere in einem Wettbewerb zum Cracken von SDMI aufgefordert hatte - und anschließend bei der Veröffentlichung der Ergebnisse mit rechtlichen Schritten bedrohte. Kopierschutz beruht nicht auf technischen Verfahren, sondern auf Gesetzen, die es verbieten, ihn zu umgehen. In den USA existiert das wesentliche Gesetz hierzu bereits in Form des DMCA, in Europa muss die entsprechende EU-Richtlinie nur noch von den Mitgliedsstaaten umgesetzt werden. So kann jeder, der einen Kopierschutz umgeht, verklagt und eventuell sogar eingesperrt werden, selbst wenn das der Wiederherstellung ansonsten eingeschränkter Rechte (z.B. dem Kopieren von Text in die Zwischenablage) dient. Typisch dafür ist der Fall des in den USA festgenommenen russischen Programmierers Dmitry Sklyarov, der Adobes teils lächerlichen eBook-Kopierschutz geknackt hatte.


"Lesen ist ein Recht, kein Feature": Proteste in San Jose für die Freilassung des russischen Programmiers Dmitry Sklyarov

Auch Wissenschaftler bewerten mittlerweile den DMCA als eine Gefahr für die freie Meinungsäußerung. In einem Artikel für die Zeitschrift Science gebraucht Professor Pamela Samuelson von der Universität Kalifornien ungewöhnlich deutliche Worte: "Die wissenschaftliche Gemeinde muss die Auswirkungen dieser neuen Regeln erkennen", warnt Samuelson. "Nur zu oft haben in der Vergangenheit die Gerichte in Konflikten zwischen geistigem Eigentum und dem Recht auf freie Meinungsäußerung das Eigentum als höher bewertet." Weitaus weitergehend als der bereits heftig kritisierte amerikanische DMCA (der ein Ergebnis internationaler WIPO-Veträge ist, siehe Understanding WIPO) ist ein derzeit vorliegender Gesetzentwurf, der sogenannte SSSCA, der es gar verbieten würde, Geräte zu verkaufen, die keine Kopierschutz-Funktionen enthalten: Der Traum der Content-Industrie.

In seinem Artikel Was ist falsch am Kopierschutz? erklärt John Gilmore von der EFF im Detail die mit Kopierschutz verbundenen Probleme, insbesondere für die Open-Source-Community. Kopierschutz und die Ideale freier Software widersprechen sich fundamental. Der einzige Grund, warum z.B. DVDs derzeit unter Linux nicht vernünftig abspielbar sind, ist der Kopierschutz CSS. Abspielen unter Umgehung des Kopierschutzes zu ermöglichen ist in den USA illegal und wird von der Filmindustrie teils massiv verfolgt. Kopierschutz in offenem Quellcode zu implementieren ist offensichtlich ein hoffnungsloses Unterfangen, da er ja jederzeit entfernt werden kann. Kostenlose Programme in binärer Form nur für diese Aufgabe dem Betriebssystem beizufügen, würde viele Open-Source-Freunde ärgern, aber auch nicht funktionieren, da für die verschiedenen DVD-Standards Lizenzgebühren zu entrichten sind. Und so wie es bei DVDs geht, geht es auch bei eBooks, neuen "sicheren" Musikformaten usw.

Die Konsumenten, die mit ihrem Player DVDs ohne Nachdenken abspielen können, sind sich der Problematik natürlich meist nicht bewusst. Und das, obwohl z.B. durch DVDs ihre Rechte bereits stark eingeschränkt werden: Schnelles Vorspulen ist während der Werbeblöcke in DVDs nicht mehr möglich, und man kann nur DVDs aus einer Verkaufsregion auf dem Player abspielen. Aus den USA importierte DVDs funktionieren also nicht in deutschen Playern. Der Hintergrund: In Europa sind DVDs oft etwa doppelt so teuer wie in den USA. Deshalb geht jetzt auch die EU-Kartellbehörde gegen die Filmindustrie vor.

Wer Windows benutzt, wo die entsprechenden Kontrollschemata immer weitgehend problemlos funktionieren werden, stimmt damit der Einschränkung seiner Rechte zu - selbst wenn das Betriebssystem raubkopiert ist. Je mehr Nutzer dagegen Linux & Co. verwenden, desto schwieriger wird es, Kopierschutz in Massenprodukte zu integrieren, ohne auf breiten Widerstand zu stoßen.


Was hätte George Orwell zum DMCA gesagt? "Kein Tier soll die Redefreiheit eines anderen einschränken - ohne Grund". Mit freundlicher Genehmigung von Keith Handy.

Open-Source-Freunde sind oft der Meinung, dass die Mainstream-Kultur bald durch ein freies, offenes Äquivalent ersetzt werden kann und die Content-Industrie damit überflüssig wird. Das Problem mit dieser Sichtweise sind die durch Lobbyismus erreichten Gesetze wie der DMCA, die nicht so schnell verschwinden und die freie Entwicklung und freie Rede massiv bedrohen. Weiterhin wird eine langfristige Nichtverfügbarkeit von Mainstream-Medienformaten in Linux-Distributionen die Entwicklung dieser "freien Kultur" gefährden. Denn wenn eine friedliche Koexistenz nicht möglich ist, ist das so, als würde man vor der Anmeldung eines Internet-Zugangs seinen Fernseher abschaffen müssen.

Propaganda und Ideologien

Dass sich Vertreter von Open Source und Closed Source zunehmend als Parteien in einer Art Software-Krieg begreifen, wird auch deutlich durch die etwas unbeholfene, aber recht praktische Software War Map, eine Art Strategiekarte der derzeitigen Konflikte. An allen Fronten wird gegen "Imperator Bill" gekämpft. Dabei geht es nicht nur um die Entwicklung von Software, sondern auch um Propaganda von beiden Seiten.

Die Propaganda von Microsoft gegen die GPL wurde bereits erwähnt. Im Rahmen des Antitrust-Verfahrens gegen Microsoft wurden noch andere Mittel eingesetzt. Ein Artikel in der LA Times von 1998 beschreibt einen Plan Microsofts zur Image-Aufbesserung:

Den Dokumenten zufolge sollen lokale PR-Agenturen ab nächster Woche Kommentare bei den Medien einreichen, weitere Veröffentlichungen sollen in den nächsten Monaten folgen, dazu gehören glühend verehrende Aussagen von Microsoft-Partnern, Konsumentenumfragen und Studien, die den Einfluss der Firma auf die Wirtschaft jeder Region zeigen sollen.

Leserbriefe sollen von erfolgreichen Unternehmern der jeweiligen Region erbeten werden. Kommentare sollen von freien Journalisten und eventuell einem "Volksökonom" geschrieben werden, so ein Dokument. Die Autoren sollen bezahlt werden, indem sie ihre Kosten "Microsoft als Auslagen in Rechnung stellen".

Durch solche Kampagnen wird eine breite Unterstützung von Wirtschaft und Verbrauchern vorgetäuscht, ergänzt durch die üblichen Anzeigenkampagnen und Sponsorveranstaltungen von Microsoft, in denen auf die "Freiheit der Innovation" hingewiesen wird. Während das Graswurzel-Projekt von Microsoft einen kleinen Proteststurm auslöste, merken die Autoren John Stauber und Sheldon Rampton in ihrem neuen Standardwerk über die PR-Industrie, "Trust Us, We're Experts!" [8], an:

Ein Jahr später blieb es [in der Computerpresse] unerwähnt, als mehrere Artikel einen "Offenen Brief an Präsident Clinton von 240 Wirtschaftsexperten" diskutierten, der in Form von ganzseitigen Anzeigen in der Wahshington Post und der New York Times erschien. Die Anzeigen wurden bezahlt durch einen nichtgewerblichen "Think Tank" namens "Independent Institute" mit Sitz in Kalifornien.

Der Brief der Experten kritisierte das Kartellverfahren gegen Microsoft, da es die US-Wirtschaft gefährde und nur ein Schachzug der Konkurrenz sei, nicht von den Microsoft-Konsumenten gewünscht. Später kam unter anderem durch einen Bericht der New York Times heraus, dass Microsoft der größte Geldgeber des Instituts war und den vollen Preis der Anzeigen bezahlt hatte.


"Ein offenes Betriebssystem kann schon mal mutieren". Nicht immer ist Microsofts Propaganda so leicht durchschaubar wie in dieser doppelseitigen Werbeanzeige.

Diese Form der Propaganda über Dritte ist bei Großkonzernen sehr beliebt, vor allem, weil es dabei besonders schwer ist, einen eindeutigen Ursprungsnachweis zu führen. Das Independent Institute behauptet z.B., es würde doch überhaupt keinen Unterschied machen, dass Microsoft für die PR bezahlt habe - das ändere ja nichts an der Wahrheit der Behauptungen (und weil es so unwichtig ist, muss man es natürlich auch nicht veröffentlichen).

"Think Tanks" wie das II werden eher gemietet als für eine bestimmte Fragestellung bezahlt: Man "spendet" regelmäßig und erhält dafür in gegenseitigem Einvernehmen "kostenlose" Propaganda. Das Cato Institut kümmert sich z.B. darum, parallel das Passivrauchen für unschädlich zu erklären, die globale Erwärmung als Mythos zu deklarieren und Antitrust-Verfahren als unamerikanisch zu diffamieren. [9] Die Aufgaben der Tanks schließen nicht nur Anzeigenkampagnen ein, sondern vor allem auch "Studien" mit vordefiniertem Ergebnis sowie an die Medien gerichtete eloquente Kommentare. In der Inanspruchnahme der Tanks zu Propagandazwecken unterscheidet sich Microsoft nicht von anderen Großunternehmen, auch in der IT-Industrie, wie Stauber und Rampton belegen.

Bashing Microsoft

Die Open-Source-Community ist sich dieser Zusammenhänge oft nicht bewusst, werden sie doch weder von den Mainstream-Medien noch von den alternativen Medien ausreichend behandelt. Auch Zusammenstellungen von Microsofts Fehlverhalten existieren zwar in großer Zahl, doch eine Qualitätsauswahl ist stets mit Zeit und Mühe verbunden. So ist es zu erklären, dass viele Microsoft-kritische Kommentare nur auf den Gefühlen ihrer Autoren beruhen. Das sind dann eben Unmutsäußerungen der Form: "Wer so ein Schrott-Betriebssystem einsetzt, ist selbst schuld, mit Linux wäre das nicht passiert." Eine bessere technische Organisation des Diskurses wäre bereits mit den heutigen Mitteln möglich - dies belegen z.B. die Streiter für eine in den USA nicht minder kontroverse Sache, die Evolutionstheorie: Als Ergänzung zu der entsprechenden Newsgroup talk.origins existiert im Web ein Faktenportal, das alle wesentlichen Argumente summiert und detailliert behandelt.


"Kein Mitleid für Microsoft" - die Radikalisierung von Teilen der Linux-Bewegung zeigt sich auch in der Ikonographie, die hier an die Poster und Cover der Musikgruppe KMFDM angelehnt ist.

Eine gewisse Unreife ist großen Teilen der Linux-Community nicht abzusprechen. Da das Betriebssystem so umfassend ist und gleichzeitig aufgrund seiner Marktstellung eine Art Counterculture darstellt, zieht es magisch solche Nutzer an, die über einen Elitismus verfügen, den sie nach dem Erlernen des Systems stolz zur Schau stellen können. Arroganz bei der Diskussion mit "Unwürdigen" ist die Folge. Und dann sind da noch die "Skript-Kiddies", die Linux verwenden, weil sie die destruktiven Aspekte des "Hackens" reizen -- entsprechend destruktiv sind sie auch in ihrer Kommunikation.

Selbst der Gründer des Pro-Linux-Weblogs Slashdot, Rob Malda, musste kürzlich in einem Editorial seinem Unmut über die Linux-User Luft machen. "Linux wird niemals als Mainstream-Betriebssystem akzeptiert werden", erklärt Malda. "Der Grund sind ganz einfach die Nutzer." Als Beispiel zitiert er ein Message-Board über einen HP-Scanner, der nicht von Linux unterstützt wird. "Die Leute bei HP sind Arschlöscher", schreibt "Muttley", und: "DUMME BILL GATES SCHWANZLU***ER!" "HP=HORSE PECKER" (Pecker=Penis), ergänzt Gary. Und so weiter. Einige vermelden stolz, ihre Meinung auch per Email an HP Kund getan zu haben. Die Mehrzahl durchaus in zivilem Ton, doch eine kleine Minderheit schädigt die Reputation des Betriebssystems erheblich. Ob es diese Nutzer in vergleichbarem Anteil unter Windows auch gibt, spielt dabei keine große Rolle, denn Microsoft braucht keine Lobby außer sich selbst. Auch diesem Problem ließe sich durch eine bessere, "offiziellere" Organisierung der Linux-Lobby begegnen.

Wie emotionalisiert die Debatte bereits ist, wurde auch auf der holländischen Hackers at Large-Konferenz im August 2001 deutlich. Als kleine Fußnote des Konferenzprogramms fand sich der Hinweis: "Rituelle Microsoft Handbuch-Verbrennung, heute Abend 22:30 am Feuerplatz beim Matenweg." Dort versammelte sich eine beachtliche Gruppe von MS-Gegnern, um vor Kameras Microsoft-Publikationen aller Art in Flammen aufgehen zu lassen. Stolz dokumentierten Teilnehmer die Verbrennung im Web, z.B. auf der Trierer CCC-Website. Natürlich handelt es sich bei den verbrannten Büchern nicht um literarische Werke. Doch dass Open-Source-Anhänger das Symbol der Bücherverbrennung nutzen, um sich Gehör zu verschaffen, ist nicht nur ein Zeichen bedenklicher historischer Ignoranz, sondern auch ein Sinnbild für Selbstgerechtigkeit und Fanatismus. Damit wird Microsoft nicht nur die Munition für den PR-Kampf geliefert, sondern gleich noch eine Ladung Waffen dazu.


Microsoft-Gegner bei der "rituellen Microsoft-Handbuch-Verbrennung" in Holland

Der Extremist und der Dogmatiker

Wo von Waffen die Rede ist, ist Eric S. Raymond, einer der prominentesten "Evangelisten" der Open-Source-Community, nicht weit. Auf seiner Homepage oder in Emails wird er nicht müde, auf sein durch die US-Verfassung garantiertes Recht hinzuweisen, Waffen zu tragen. Denn Waffen sind Raymonds liebstes Hobby nach dem Hacken. Mit Genuss beschreibt er, einen Klick von seinen Linux-Papers entfernt, seinen ersten Kontakt mit einer Schusswaffe, berichtet mit vielen Fotos von Schießübungen mit den Geeks with Guns, den Hackern mit Knarren. Bei einer Schießstrecke in Colorado, erklärt Raymond fröhlich, gibt es zerlöcherte Autos mit darin sitzenden Puppen "in Posen der Angst und des Todes". Daneben stehen Schilder wie "Diese Frau hat versucht, Dragonman [Betreiber des Geländes] auf Unterhalt zu verklagen", oder "Beim Diebstahl von Dragonman erwischt - erschossen am 1. Februar 1992. Sie kamen nicht weit - sie sitzen noch im Auto!!!".


Uzi-Fan: Eric Raymond (vorn) mit Kameraden bei Schießübungen

Sein Fetisch wäre wohl für die meisten Linuxer (zumindest in den USA) kein Problem, würde Raymond ihn nicht oftmals direkt mit seiner Rolle als einer der meistzitierten Open-Source-Befürworter verknüpfen. Jede Email, auch an Journalisten, ist mit einem möglichst radikalen libertären Zitat unterzeichnet, etwa: "Amerika befindet sich in einer dummen Phase. Es ist zu spät, um im System zu arbeiten, und zu früh, um die Bastarde zu erschießen."

Nach den Anschlägen in New York und Washington am 11. September musste auch Raymond sich zu Wort melden - und forderte in seinem Artikel wie viele die Bewahrung der Bürgerrechte in der unvermeidlichen Reaktion. Da zu diesen Rechten nach Raymond ja auch das Waffentragen gehört, merkte er an: "Es ist in der Tat diskutabel, dass die Gesetzgeber, die alle Nichtterroristen auf den vier Flugzeugen entwaffneten, so dass die Entführer nicht gestoppt werden konnten, einen Teil der moralischen Verantwortung für diese Katastrophe tragen." Wenn jeder verdeckte Waffen trüge, könne so etwas nicht passieren. Verbreitet wurde das Ganze an etliche Medien, die es teils mit der Signatur "Eric Raymond - Open Source Befürworter" veröffentlichten.

Raymond spielt tatsächlich neben Richard Stallman eine zentrale Rolle bei der öffentlichen Darstellung von GNU/Linux. Die beiden werden so häufig zitiert, dass man sie in der Community nur noch unter ihren Initialen, ESR und RMS, kennt. ESR und RMS vertreten in vielen Fragen gegensätzliche Positionen: Während Stallman das Ideal freier Software über alles stellt, kommt es Raymond nur auf den offenen Quellcode an. Was andere damit machten, müsse ihnen überlassen bleiben, auch wenn dies bedeute, vormals freie Software nur noch in binärer Form weiterzugeben. Er unterstellt Stallman, am liebsten "proprietäre Software verbieten" zu wollen (was ein Widerspruch ist, da Copyright selbst ein vom Staat garantiertes Privileg ist).

Stallman tendiert eher zu linken Ansichten, wie er auf seiner vom GNU-Projekt getrennten Homepage dokumentiert. Dass ESR in der Community überhaupt eine so große Rolle spielt, ist wohl auch darauf zurückzuführen, dass Stallman mit seiner Vorstellung von der "reinen Lehre" freier Software schon viele Entwickler vor den Kopf gestoßen hat. Proprietäre Software sei zu "verdammen" und sollte nicht mit offener gebündelt werden, verkündet der GNU-Papst. Sein hartnäckiger Kampf dafür, statt Linux ausschließlich "GNU/Linux" zu schreiben, hat viele GNU-Fans, die den längeren Namen unhandlich und unnötig finden, abgeschreckt. Auf die Frage hin, ob eine Umfrage unter GNU- und Linux-Entwicklern das Problem lösen könne, antwortet er: "Es ist klar, dass eine Umfrage uns nur mitteilen würde, was die Leute wissen und was sie nicht wissen, nicht, was richtig und was falsch ist." Wer dadurch abgeschreckt würde, den könne man ohnehin nicht brauchen, da er das GNU-Projekt nicht "verstehe".


Richard Stallman, der heilige IGNUzius in der Kirche von Emacs, verdammt proprietäre Software und betrachtet Linus Torvalds als Verräter an der reinen Lehre

Unfehlbar geht er gegen Abtrünnige vor, zu denen er mittlerweile auch Linus Torvalds zählt: "Er steht unseren Zielen und unseren grundsätzlichen Ansichten entgegen! Torvalds sagt, unfreie Software sei legitim, er schreibt sie sogar in seinem Job [bei Transmeta]." Obwohl der GNU-Kernel Hurd, ein Ersatz für Linux, nur in Babyschritten voran kommt, glaubt RMS, ultimativ werde man Linux besiegen.

Dass Extremismus und Dogmatismus nicht immer so weit voneinander entfernt sind, zeigte sich bei einem Schießtreffen der Geeks with Guns: Gemeinsam ballerten die Software-Revoluzzer ESR und RMS auf Pappscheiben mit Menschen-Silhouetten.

Linux als neue Chance für Europa

Die Probleme der Linux-Lobby ändern nichts an ihrer Wichtigkeit. Für viele Linux-Entwickler war die Arbeit an dem offenen Betriebssystem immer nur eine Freizeittätigkeit. Linus Torvalds selbst musste sich während der Arbeit mit mäkelnden Professoren herumschlagen. Historisch ist seine Newsgroup-Diskussion mit Minix-Erfinder Andy Tannenbaum aus Holland - "Sei dankbar, dass Du nicht zu meinen Studenten gehörst. Du würdest für so ein Design keine gute Note bekommen :-)" schrieb Tannenbaum. Worauf Linus antwortete: "Nun, ich werde wohl auch ohne Dich keine guten Noten bekommen: Ich hatte gerade einen Streit (völlig ohne Bezug zu unserer Diskussion) mit dem Betriebssystem-Dozenten an unserer Uni. Ich frage mich, wann ich endlich dazulerne :)" Linus hob immer wieder hervor, dass er das System in seiner Freizeit auf seinem eigenen Rechner entwickelte.

Es ist traurig, dass Universitäten so funktionieren, und fast jeder Informatikstudent weiß über den mangelnden Praxisbezug in den Vorlesungen ein Lied zu singen. Aus den USA kommt die Anregung, einen "Master of Fine Arts" für Software-Entwicklung zu schaffen, wo ein autodidaktischer Lernprozess im Vordergrund stehen soll. Entscheidend ist aber ein ganz anderer Faktor: Kinder müssen früh anfangen, einen Computer als mehr zu verstehen als nur den Zugang zu Programmen, die andere schreiben. Eine Windows-Installation auf Papas PC hilft dabei herzlich wenig - die einzige Programmiersprache im Lieferumfang: QBASIC für DOS.

Viele angehende Informatiker haben zum Zeitpunkt ihres Studienbeginns nur rudimentäre Programmierkenntnisse, oft allenfalls Bruchstücke von Sortieralgorithmen, die noch im Gedächtnis herumschwirren, einst mühsam und weitestgehend sinnlos auf 286ern in Turbo-Pascal programmiert. Dabei gibt es kaum einen Grund, Informatik nicht als reguläres Unterrichtsfach an allen europäischen Schulen einzuführen. Entscheidend wäre auch hier nicht eine theoretische Vorgehensweise, sondern ein spielerisches, gemeinsames Herangehen unter gewissen Rahmenbedingungen (Lernen der Shell, Kennenlernen des Texteditors, Schreiben erster Programme etc.) - wobei die Schüler stets selbst Projekte einbringen könnten.

Der Gebrauch von Linux-Software im Unterricht würde eine langfristige stabile Nutzerbasis für Open-Source-Software schaffen und somit der gesamten Infrastruktur nützlich sein. Wer als 11jähriger lernt, dass der Quellcode fast jedes relevanten Programms jederzeit verändert werden kann, der wird als 19jähriger diese Erkenntnis und die damit verbundene Ideologie kaum aufgeben wollen.

Doch die Anschaffung adäquater Rechner kostet Geld, das im Bildungsbereich bekanntlich nicht vorhanden ist, und Bildungsmaßnahmen sind schon bundesweit schwer zu vereinheitlichen, weil die Länderhoheit gilt. Dabei würde ein solches Bildungsprogramm Europa einen massiven Vorsprung im Software-Entwicklungsbereich verschaffen.

Nicht nur in der Schule, sondern auch in der Verwaltung könnte Open-Source-Software eine echte Revolution auslösen. Statt krude Nischenlösungen oder kommerzielle Massenprodukte zu verwenden, könnten Beamte auf einen über das Internet organisierten Fundus von Lösungen zurückgreifen, die, je nach Aufgabe, an spezielle Bedürfnisse angepasst werden könnten. Jede Neuerung käme sofort kostenlos allen Beamten zugute -- und, wenn es sich um Standardprobleme handelt, auch Industrie und Privatpersonen. Der Sicherheitsaspekt ist natürlich ebenfalls von entscheidender Bedeutung: Schutz vor Datendiebstahl und zerstörerischen Viren kann nur in einem offenem Systemumfeld gewährleistet werden.

Diese Gründe stützen das Argument, dass es prinzipiell unzulässig sein sollte, dass der Staat unfreie Software verwendet, wenn freie Alternativen existieren. Ein solches Gesetz plant z.B. Argentinien: "Die öffentliche Verwaltung, dezentrale Organisationen und Firmen, in denen der Staat die Mehrheit hält, werden auf ihren EDV-Anlagen ausschließlich freie Software einsetzen", so das Gesetz, wobei frei im Sinne Richard Stallmans definiert ist. In dieser Gänze ist das in Europa wohl noch nicht machbar, aber mit einem Zusatz wie "wann immer möglich" wohl durchaus. Insbesondere könnte sicher gestellt werden, dass jedes Software-Projekt, in das der Staat direkt oder indirekt Geld investiert, im Quellcode und unter einer freien Lizenz vorliegen muss.

Bleibt Europa bei den derzeitigen Gesetzen und macht auch keine neuen Vorstöße im Bildungsbereich, dann ist das IT-Wettrennen mit den USA nicht mehr zu gewinnen. Linus Torvalds war und ist kein Albert Einstein - es gibt viele Menschen wie ihn, sie bedürfen der Förderung, und man sollte versuchen, ein Klima zu schaffen, in dem Innovation im Software-Bereich gedeihen kann. Bei den derzeitigen Ansätzen hat der Staat an allen Entwicklungen im Free-Software-Bereich den geringsten Verdienst.

Die Gewöhnung von Kindern und Jugendlichen an Microsoft-Produkte, die Zulassung von Software-Patenten, Gesetze wie der DMCA und der SSSCA und in antiterroristischer Hast verabschiedete Anti-Hacker-Maßnahmen gefährden hingegen freie Software und freie Rede in höchstem Maße. Europa darf hier nicht amerikanische Fehler wiederholen. Eine Informationsgesellschaft lebt von ihren Hackern. Sie sollte sie nicht bestrafen, sondern auf den rechten Weg führen.


Teil 3: Ausgebootet und eingerichtet

Über restriktive Verträge mit PC-Herstellern verhindert Microsoft echten Wettbewerb im Betriebssystem-Umfeld. Doch während kommerzielle Vorhaben wie OS/2 und BeOS eingestellt werden mussten, lässt Linux seit über 10 Jahren nicht locker. Wer Geduld und Spucke investiert, dem erschließt sich schnell die bestechende Logik von Unix.

Die Installation und Konfiguration eines neuen Systems gehört zu den schwierigsten administrativen Aufgaben überhaupt. Das gilt ganz besonders dann, wenn ein langsamer Übergang von einem bestehenden System zu einem neuen geschafft werden soll, also z.B. von Windows zu Linux. In Unternehmen ist schon der Wechsel eines einzelnen Programms oft mit wochenlangen Testphasen verbunden, ganz zu schweigen von der Umstellung des Betriebssystems. Hinzu kommt natürlich das unvermeidliche Erlernen der neuen Software.

Die wenigsten Benutzer basteln sich ihren PC von Grund auf selbst zusammen. Für die Massenverbreitung des PC war die Vorinstallation von Betriebssystem und Standardsoftware durch Händler und Hersteller unerlässlich. Mutige Anwender probieren vielleicht neben der Installation von Software aus dem Internet gelegentlich ein Upgrade zu einer neuen Windows-Version aus, in der Erwartung, alte Soft- und Hardware ohne weitere Einstellungen auch in der neuen Version verwenden zu können. Tatsächlich bemüht sich Microsoft meist um möglichst reibungslose Updates, um auch jenen Kundenstamm zu gewinnen, der die Software häufiger aktualisiert als die Hardware.

Wer die Installationsprozedur von Linux kritisiert, muss sich also zunächst einmal der Tatsache bewusst sein, dass Windows-Nutzer in der Regel ihr Betriebssystem nicht von Grund auf installieren - ganz besonders nicht in Verbindung mit einem anderen Betriebssystem.

Prinzipiell können auf einem Computer problemlos nahezu beliebig viele Betriebssysteme parallel installiert werden. Nach dem Booten des Rechners erscheint dann ein einfaches Auswahlmenü, mit dem man z.B. mehrere Windows-Varianten, ein paar Unixe und auch noch den einen oder anderen Exot wie BeOS oder OS/2 starten kann. Solche Mehrfachinstallationen ermöglichen es dem Anwender, alle Systeme auf ihre Praxistauglichkeit zu testen und letztlich das für seine Zwecke beste System zu wählen.

Microsofts Monopol-Geheimnis: OEM-Verträge

Um den Anwendern den Installations-Ärger zu ersparen und ihnen gleichzeitig mehr Wahlmöglichkeiten zu bieten, könnten PC-Hersteller eigentlich Windows z.B. standardmäßig in Verbindung mit Linux installieren. Heutige PCs verfügen über Festplatten im zwei- bis dreistelligen Gigabyte-Bereich. Eine Installation von Linux schlägt mit etwa 0,5 bis 3 Gigabyte zu Buche (was auch Anwendersoftware beinhaltet), ist also vernachlässigbar klein. Für die meisten Linux-Distributionen sind keinerlei Lizenzgebühren zu zahlen. Die Installation ist für einen geschulten PC-Bastler Routine - Serienhersteller müssen ohnehin nur einmal das entsprechende Festplatten-"Image" produzieren, das dann auf allen PCs aufgespielt wird. Selbst Feinheiten der Hardware-Konfiguration sind in Serienproduktion kein relevanter Kostenfaktor. Support könnte für das Zweit-Betriebssystem in Rechnung gestellt oder unterlassen werden.

Da Linux-Distributionen nicht nur aus dem Betriebssystem, sondern auch aus Unmengen freier Software bestehen (vgl. Teil 1 - Das Konzept der Distribution), würde ein PC-Hersteller, der seinen Kunden Linux und Windows gemeinsam anbietet, einen erheblichen Wettbewerbsvorteil erlangen. Denn die Linux-Software, von der Datenbank über den Synthesizer bis zum Malprogramm, ist den mit Windows verbündelten Gegenstücken (wenn es sie denn überhaupt gibt) in der Regel weit überlegen, aber mindestens ebenbürtig.

Nun muss man wissen, dass der PC-Markt in relativ fester Hand einiger weniger Hersteller ist. Dazu gehören Vobis, Sony, Dell, Acer, Compaq/HP, Fujitsu-Siemens, Gateway 2000 und einige andere. Viele lokale PC-Händler agieren primär als Reseller dieser Marken. Jeder dieser Hersteller hat einen sogenannten "Tier One" OEM-Vertrag ("Original Equipment Manufacturer") mit Microsoft. Es gibt noch andere Arten von OEM-Verträgen für kleinere Hersteller.

T1-OEM-Verträge sind streng geheime Überabkommen, die bevorzugten Herstellern erhebliche Preisnachlässe gewähren. Im Gegenzug muss der Hersteller verschiedene Bedingungen erfüllen, die teils im Vertrag festgelegt sind, teils über "Ergänzungen" schriftlicher Art oder "Interpretationen" nachträglich geprüft werden. Dies wurde im Rahmen des Antitrust-Verfahrens gegen Microsoft durch die US-Regierung bekannt und untersucht. Das Beweismaterial gegen Microsoft, das zu großen Teilen aus MS-internen Dokumenten besteht, ist online verfügbar. Die Lektüre dieser Dokumente ist wesentlich interessanter als die der Gerichtstranskripte, da man hier einen direkten Einblick in die Funktionsweise des Milliardenkonzerns erhält (während im Zeugenstand die Microsoft-Vertreter so lange selbst die banalsten Behauptungen abstritten, bis die Beweislast zu erdrückend wurde).

Im Verfahren ging es primär um Microsofts Kampf gegen Netscape. Hier spielten auch die OEM-Verträge eine große Rolle, da Microsoft über die Verträge die Hersteller dazu zwang, keinen Browser außer Internet Explorer auf den Systemen zu installieren. Nicht nur das: Auch Microsofts Internetprovider MSN sollte exklusiv auf dem Desktop vermarktet werden, und von den Unternehmen wurde erwartet, selbst unternehmensintern IE einzusetzen (s. entsprechende Gateway-Korrespondenz) und auf ihren Websites das IE-Emblem sichtbar zu machen, als "Co-Marketing"-Maßnahme.

Ein Microsoft-Dokument legt die OEM-Preisstruktur von 1990-1996 offen. Demnach wurden die durchschnittlichen OS-Lizenzgebühren pro Rechner in dieser Zeit erheblich und kontinuierlich erhöht, nämlich von 19$ auf 49$. Weitere interne Dokumente diskutieren aufgrund der sinkenden PC-Preise einen Stop der Preiserhöhung, so dass man wohl davon ausgehen kann, dass OEM-Hersteller derzeit maximal etwa 60-70$ pro OS bezahlen, stark bevorzugte Hersteller noch einmal deutlich weniger. Der Endkunde bezahlt dagegen für eine Kopie von Windows XP (Home Edition) rund 240 Euro. [10]

Bis zu einem Verbot 1995 wurden Microsoft-Betriebssysteme außerdem pro Prozessor lizenziert, wie Konsumentenrechtler James Love erklärt. Das bedeutete, dass Hersteller für MS-DOS/Windows selbst dann bezahlen mussten, wenn sie es auf bestimmten Systemen überhaupt nicht installierten, was den Tod von MS-DOS-Konkurrenten wie DR-DOS zur Folge hatte. Mittlerweile gibt es stattdessen Systemlizenzen, wobei ein Hersteller eine neue Serie unabhängig von den bestehenden OEM-Verträgen vermarkten kann. Nur so wurde es überhaupt profitabel möglich, alternative Betriebssysteme neben Windows zu verkaufen.

In einem typischen Microsoft-Brief an einen OEM, in diesem Fall Gateway 2000, heißt es, die OEM-Lizenz für Gateway 2000 werde innerhalb von 60 Tagen terminiert, wenn Gateway nicht die MSN- und IE-Icons auf dem Windows-Desktop wiederherstellt (zu diesem Zeitpunkt, 1996, war Netscape noch beliebter als IE). Die resultierende Verteuerung der PCs hätte für Gateway womöglich das Ende bedeutet, hat aber auf jeden Fall jeden potenziellen Deal mit Netscape oder anderen Providern als MSN unprofitabel gemacht.

Für die Betreuung der OEMs ist ein Deutscher zuständig: Joachim Kempin ist Microsofts "Geheimwaffe" - er stieg in den Achtzigern in der US-Hierarchie von Microsoft auf und gehört nun als Leiter der OEM-Abteilung zu den bedeutendsten Microsoft-Managern. Google fand im Oktober 2001 auf seinen Namen gerade einmal 1380 Treffer, und die meisten davon haben mit seiner Aussage im Microsoft-Prozess zu tun. Dabei ist er der Mann, von dem ein Großteil von Microsofts Einkünften abhängt - zum Zeitpunkt des Antitrust-Verfahrens kamen rund ein Drittel aller Einnahmen von den Konten der OEMs. Microsoft ist sich der Bedeutung des OEM-Kanals bewusst: Kempin gibt grundsätzlich keine Interviews und verhandelt mit seinen Partnern am liebsten mündlich. Ein Portrait von Business Week bezeichnet ihn als Microsofts "Enforcer", der knallhart und in schlechtem Englisch ("developpers", "promisses", "in my believe") jede Konkurrenz im Betriebssystem-Markt eliminiert. So geschehen z.B. im Falle von Vobis, schreibt Business Week:

1991 verkaufte [Theo] Lieven [von Vobis] eine große Zahl von Computern mit DR-DOS von Digital Research. Aber er behauptet, Kempin habe damit gedroht, den Preis für Windows mehr als zu verdoppeln, wenn Vobis weiterhin DR-DOS verkaufe. Drei Jahre später blieb er standhaft, als es um den Verkauf von PCs mit IBMs OS/2 ging. Er sagt, Microsoft antwortete, indem Vobis untersagt wurde, eine frühe Version von Windows 95 drei entscheidende Monate lang zu testen, wodurch die pünktliche Plazierung von Windows-PCs gefährdet wurde. "Wir mussten aufgeben", sagt er.

Wer OEMs nach solchen Praktiken befragt, wird nur Schweigen ernten, denn alle Verträge stehen unter strikten Verschwiegenheitsabkommen (s. Beispiel für ein NDA mit Compaq). In einem nur über das Verfahren gegen MS bekannt gewordenen Brief schreibt HP-Produktmanager John Romano: "Wenn wir die Wahl eines anderen Anbieters hätten, würden wir Sie aufgrund Ihres Verhaltens mit Sicherheit nicht als Anbieter auswählen." Solche Aussagen sind den OEMs öffentlich praktisch auch durch die Co-Marketing-Vereinbarungen untersagt, die es vorschreiben, dass die OEMs Windows als Produkt fördern.

Hinzu kommt, dass den OEMs, so sehr sie die Repressalien von Kempin & Co. fürchten, die Verträge in gewisser Weise lieb und teuer sein dürften, denn sie sichern ihnen eine Vormachtstellung. Nur durch Gerichtsverfahren wie in den USA können sie also bekannt gemacht werden.

Die Dual-Boot-Problematik

Für Linux sind die OEM-Verträge in mehrfacher Hinsicht von Bedeutung. Zum einen beeinträchtigen sie die Möglichkeit von OEMs, Linux-PCs gemeinsam mit Windows-PCs zu verkaufen: Wenn schon geänderte Icons zu wochenlangen Diskussionen führen, kann man sich vorstellen, welchen Ärger sich Dell durch die optionale Installation von Linux (anstelle von Windows) eingehandelt hat - da verwundert es nicht, dass das Projekt kurze Zeit später "mangels Interesse" eingestellt wurde. Dass im Rahmen der OEM-Verträge so etwas erlaubt ist, spielt keine Rolle, denn Microsoft kann hier über die Interpretation anderer Klauseln einige Repressalien ausüben.

Zum anderen verbieten OEM-Verträge die Einrichtung von Dual-Boot-PCs, auf denen sowohl Windows als auch Linux installiert ist. Wie oben erläutert wäre das aber eine wesentliche Voraussetzung, um Linux oder beliebigen anderen Betriebssystemen weitere Verbreitung zu ermöglichen. Das Dual-Boot-Verbot ist ausreichend belegt, um ein Kartellverfahren einzuleiten:

In seinem BYTE-Artikel He Who Controls the Bootloader hat Scot Hacker die Problematik eingehend beleuchtet. Weil die Verträge streng geheim sind, ist es schwer, einen direkten Nachweis zu führen, aber die Beweislast ist erdrückend. Ich habe deshalb eine Zusammenfassung der Situation an die EU-Kartellbehörde geschickt, die Microsofts Praktiken derzeit unter die Lupe nimmt.

Immerhin wurden dem Konzern mittlerweile die unlauteren OEM-Praktiken in dem Vergleich zwischen Microsoft und der US-Regierung untersagt: "Microsoft darf die OEM-Lizenznehmer nicht davon abhalten .. Nutzern die Option anzubieten, andere Betriebssysteme vom BIOS oder einem Nicht-Microsoft-Bootloader oder einem ähnlichen Programm aus, das vor der Ausführung von Windows geladen wird, zu starten", heißt es in Sektion C4. Das ist zwar eindeutig, aber ob es angesichts der geheimen Verträge ausreicht, ist fraglich.

Booten ist nicht leicht

Wer nicht warten will, bis das Microsoft-Monopol auf juristischem Wege gebrochen wird, der hat zwei Möglichkeiten: Entweder einen Linux-PC zu kaufen (auch auf das Risiko hin, wenn dieser sich nicht für die eigene Arbeit eignet, eine teure Windows-Version aufspielen zu müssen) - wobei die wenigsten Händler dies direkt anbieten - oder Linux selbst zu installieren, z.B. neben einer existierenden Windows-Version. Die Basisinstallation selbst experimenteller Betriebssysteme ist eigentlich nicht schwieriger als die Installation neuer Programme. Grafikausgabe, Maus- und Tastatureingabe und zu einem gewissen Grad auch Sound- und Netzwerkfunktionen sind immerhin soweit standardisiert, dass ein grafisches System auf den meisten Rechnern sofort lauffähig sein sollte (unkonventionelle Eingabegeräte können gelegentlich Probleme verursachen). Demonstriert wird das z.B. durch das Echtzeit-Betriebssystem QNX, von dem es eine Demo gibt, die auf eine Diskette passt. Grafische Oberfläche, Web-Browser und Web-Server laufen auf den meisten Systemen praktisch auf Anhieb.

Dass QNX den Weg der Floppy-Demo gewählt hat, geschah nicht nur, um die geringen Platzbedürfnisse des Systems zu demonstrieren (eine Diskette fasst weniger als ein Zehntausendstel üblicher Festplatten). Vielmehr hat man so ein wesentliches technisches Hindernis umgangen: den Bootloader.

Möglich macht die Auswahl mehrerer Betriebssysteme ein sogenannter Boot-Sektor. Nach dem Start des Rechners wird zunächst ein Standard-Programm durchlaufen, das in der Hardware gespeichert ist. Das beinhaltet die Erkennung von Textausgabe-Funktionen, Speichermedien und Tastatur und ermöglicht es, prinzipielle Konfigurationseinstellungen festzulegen. Anschließend wird im Boot-Sektor der Festplatte nach einem Programm gesucht, dem Bootloader, der schließlich das Betriebssystem startet oder eine Auswahl anbietet. Wird dieser Bootloader nicht gefunden, erscheint nur eine Fehlermeldung, etwa "Betriebssystem fehlt". Mehr nicht. Hat man sich einmal den Boot-Sektor "zerschossen", geht es ans Eingemachte - wer als Normalnutzer jetzt weder brauchbare Handbücher (so gut wie nie im Lieferumfang eines Neu-PCs) noch kompetente PC-Hilfe hat, ist ziemlich aufgeschmissen.

Will man ein neues Betriebssystem nicht anstelle des alten installieren, sondern in Verbindung damit, wird das Boot-Problem deutlich. Das neue System kann nun entweder den alten Bootloader entsorgen und durch einen eigenen ersetzen - wobei es sinnvollerweise alle alten Betriebssysteme weiterhin booten muss - oder sich der Gnade des alten Betriebssystems unterwerfen und versuchen, seine Existenz dessen Bootloader mitzuteilen. Beides ist ein komplexes technisches Unterfangen, das durch verschiedene Faktoren (Zahl, Größe und Konfiguration der Festplatten etc.) noch erschwert wird.

Durch Standardisierung von Hard- oder Software könnte man hier leicht Abhilfe schaffen. Ein einheitlicher, offener Software-Bootloader z.B. würde die friedliche Koexistenz aller Systeme garantieren. Natürlich würde Microsoft nicht im Traum auf die Idee kommen, einen solchen Standard in irgendeiner Form zu unterstützen. Tatsächlich haben Microsoftsche Bootloader in der Vergangenheit das Booten anderer Betriebssysteme oft nur mit großen Fachkenntnissen oder überhaupt nicht möglich gemacht, selbst zwischen unterschiedlichen Microsoft-OS gibt es Probleme. Würde sich Linux im MS-Bootloader installieren, könnte Microsoft durch ein automatisches Internet-Update das Funktionieren des zweiten Betriebssystems nach Belieben zunichte machen: "Sicherheits-Update".

Die manuelle Einrichtung eines eigenen Bootloaders ist jedoch höchst kompliziert. Ein winziger Fehler bei dieser Prozedur, und man darf sich an der genannten Meldung "Betriebssystem fehlt" oder wirren Zeichenausgaben erfreuen.

Installation von SuSE Linux

In Deutschland genießt die SuSE-Linux-Distribution die größte Beliebtheit. In der Personal-Version kostet sie rund 50 Euro, kann aber auch nichtkommerziell frei kopiert werden. Die enthaltenen Handbücher sind jedoch von großem Vorteil. Im Preis enthalten sind außerdem 60 Tage Installations-Support, weitergehender Support ist über einer 0190er-Nummer verfügbar. Die Profi-Version (ca. 80 Euro) enthält einige zusätzliche Software und Handbücher und 90 Tage Installations-Support. Auch sie kann nichtkommerziell kopiert werden.

Die Preispolitik von SuSE hat Kritik geerntet, insbesondere, da Updates, auch im Abo, nur unwesentlich günstiger sind als Neukäufe. Ob dies zur Kundenbindung beiträgt, ist fraglich. Red Hat Linux, das eine ähnliche Funktionalität aufweist, ist allerdings auch nicht günstiger: Die Privat-Version kostet hier 67 Euro und enthält keinen Support. SuSE bietet hier deutlich mehr fürs Geld. Dafür kann Red Hat auch kommerziell beliebig kopiert werden und im Internet als CD-Image heruntergeladen werden, außerdem lässt sich Red Hat mitsamt aller Software derzeit leichter über das Internet aktualisieren, während das grafische SuSE-Online-Update nur kritische Bugfixes installiert.

Beide Distributoren bemühen sich darum, den Installationsprozess möglichst einfach zu gestalten. Wer Windows installieren kann, soll auch in der Lage sein, Linux zu installieren - deshalb sind alle wesentlichen Einstellungen mittlerweile über grafische Menüs vornehmbar. Ein Mini-Handbuch begleitet die SuSE-Installation in einfachen, weitgehend verständlichen Schritten.

Die Floppy-Lösung

Wie QNX hat SuSE sich entschieden, bei der Installation von Linux standardmäßig eine Boot-Diskette zu erzeugen. Diese enthält keine Bestandteile des Betriebssystems, sondern nur den Linux-Bootloader "LILO". Startet man den Rechner mit eingelegter Boot-Disk, greift der Rechner (sofern das Booten von der Floppy in den BIOS-Einstellungen aktiviert ist) Sekundenbruchteile auf die Diskette zu und startet dann Linux von der Festplatte.

Auf diese Weise lassen sich prinzipiell beliebig viele Betriebssysteme auf sehr triviale Weise installieren, und die Gefahr, dass ein Betriebssystem dem anderen in die Quere kommt, ist sehr gering. Das Hantieren mit mehreren Floppies ist natürlich ein wenig unhandlich. Mit der geplanten Abschaffung der Floppy sollte sich SuSE ohnehin etwas Besseres einfallen lassen, ein eventueller Floppy-Nachfolger wie der Mount Rainier Standard könnte hier aber ähnlich funktionieren. Immerhin erkennt der SuSE-Installer relativ reibungslos eine vorhandene Windows 98 Installation und nimmt diese in sein eigenes Boot-Menü auf. Mit anderen Betriebssystemen und ungewöhnlichen Festplattenkonstellationen kann es Probleme geben.

LILO ist unnötig kompliziert. Gerade weil die Installation so ein wesentliches Hindernis ist, ist Usability hier entscheidend. Am besten wäre es wohl, den Linux-Bootloader so einfach (grafisch) bedienbar zu machen, dass man damit sowohl unter Windows als auch unter Linux trivial mehrere Betriebssysteme zum Booten konfigurieren kann (und notfalls mit einer Bootdiskette automatisch wiederherstellen kann). Red Hat hat sich entschieden, statt LILO den wesentlich mächtigeren Bootloader GRUB zu verwenden, was immerhin ein Schritt in die richtige Richtung ist. Doch prinzipiell sollte der Bootloader von DOS/Windows und Linux aus bedienbar sein und die meisten Einstellungen sinnvoll automatisch ausführen, was die Erkennung aller Microsoft-Betriebssysteme beinhalten würde.

Neben der Installation des Bootloaders muss auch noch die Festplatte aufgeteilt werden, damit SuSE Platz hat. Auch hier kooperiert SuSE gut mit Windows 98 (die Windows-Partition kann dynamisch verkleinert werden), mit Windows NT oder Windows 2000 weniger gut. Es sei angemerkt, dass die Einzel-Installation von Linux vergleichsweise trivial ist. Wenn man also keine wichtigen (ungesicherten) Daten auf der Platte hat, kann man sowohl mit Dual-Boot ohne Angst vor LILO frei experimentieren als auch die Platte komplett löschen und Linux als Einzelsystem installieren und bei Bedarf wieder durch Windows ersetzen.

Man muss sich an dieser Stelle ins Gedächtnis rufen, dass das Problem in erster Linie Microsofts monopolistische Praktiken sind: Gäbe es die OEM-Verträge nicht, dann würden viele PCs neben Windows bereits über ein nutzbares, startbares Linux verfügen, das sich auf Wunsch auch selbständig auf die neueste Version aktualisieren könnte.

Treiber-Suche

Ist Linux prinzipiell installiert und lauffähig, bootet SuSE direkt in eine grafische Anmeldung, von der aus man auf einen Desktop gelangt. Bevor man den aber richtig nutzen kann, muss man noch Details der eigenen Hardware konfigurieren. Bei Standardgeräten geht dies weitgehend komfortabel über das SuSE-Konfigurationsmenü "yast2" (Yet Another Setup Tool). Auch die Einrichtung eines DSL-Zugangs oder einer Netzwerkverbindung gestaltet sich sehr einfach. Besonders die Drucker-Konfiguration ist vorbildlich. [11]

Vorsicht aber mit GDI-Druckern: Diese nutzen Windows-spezifische Funktionsaufrufe und laufen unter keinem anderen Betriebssystem (auch nicht unter DOS), auch wenn gewisse Hacks existieren. Ungewöhnliche Geräte - wie in meinem Fall ein Wacom-Grafiktablett - erfordern oft Handarbeit. Hier macht man dann zum ersten Mal Bekanntschaft mit den Innereien von Linux. Am sinnvollsten ist es, als erstes den Internetzugang zu konfigurieren und bei Bedarf mit Google und über SuSEs Supportdatenbank und Hardware-Datebank nachzuforschen.

Bei der Hardware zeigt sich der Fluch der offenen PC-Architektur: Für alle Geräte, die entweder nicht den Standards folgen oder diese in ihrer Funktionalität überschreiten, müssen entsprechende Gerätetreiber vorhanden sein, die dem Betriebssystem ihre Verwendung gestatten. Stellt der Hersteller keine Treiber für das gewählte Betriebssystem zur Verfügung, ist man als Normalanwender aufgeschmissen: Treiberprogrammierung ist extrem systemnah und nur unter Kenntnis der Details der Hard- und Software möglich. Viele Hersteller ignorieren Linux und stützen so das MS-Monopol (während MS das Fehlen von Treibern als Argument für Windows propagiert). Dank vieler motivierter Hacker sind Geräte ohne jede Unterstützung mittlerweile die absolute Ausnahme, und ältere Hardware ist teilweise sogar nur noch unter Linux lauffähig, nicht mehr aber unter Windows NT/2K/XP.

Natürlich bleibt hier die Frage offen, inwieweit Microsoft die Hersteller beeinflusst, Linux und andere Betriebssysteme nicht zu unterstützen. Prinzipiell muss man, das hat das Antitrust-Verfahren überdeutlich gezeigt, davon ausgehen, dass die Redmonder alles tun, was sie ohne Angst vor ernsthaften Konsequenzen tun können, um Konkurrenz auszuschalten. Doch die Open-Source-Community schafft es in der Regel, selbst komplizierte Geräte innerhalb kurzer Zeit auch ohne Hilfe der Hersteller zu unterstützen. Ist ein offener Treiber einmal geschrieben, profitieren davon auch andere freie Betriebssysteme, die ihn relativ einfach selbst verwenden können. So fördert das dominierende Linux auch die Entwicklung von Mitbewerbern wie OpenBSD und AtheOS (und umgekehrt).

Ein Problem ist, dass manche Hersteller nur bereit sind, ihre Treiber in binärer Form weiterzugeben. Gründe dafür sind zum einen der Schutz des eigenen "geistigen Eigentums", ganz besonders wenn es nicht durch Patente geschützt ist, zum anderen sicherlich auch Schutz vor Klagen anderer Hersteller, die ihre Patente verletzt sehen. Prinzipiell arbeitet Linux aber auch problemlos mit binären Treibern, wenngleich unter Umständen Lizenzkonflikte eine Weitergabe zusammen mit der Linux-Distribution verhindern, wie im Falle von SuSE und nVidia-Grafiktreibern (diese werden nach der Installation weitgehend automatisch aus dem Internet heruntergeladen und konfiguriert). Leider sind proprietäre Treiber oft von minderwertiger Qualität und können nicht repariert werden.

Linux lernen

Wie unterscheidet sich Linux technisch von Windows? Eine kurze Einführung bietet z.B. das "DOS nach Linux HOWTO" oder auf Englisch IBMs Linux-FAQ. Zunächst einmal muss man sich zum besseren Verständnis darüber im Klaren sein, was ein Betriebssystem eigentlich ist: ein "Kernel", der Hardware-nahe Basisfunktionen bereitstellt, eine oder mehrere textorientierte oder grafische "Shells" (=engl. Schalen, die den Betriebssystem-Kern umgeben), mit denen man Programme ausführen kann, Bibliotheken, die von Programmen genutzt werden und einige System-Programme. Programme in der Ausführung heißen Prozesse.

Im Gegensatz zu der auf DOS aufsetzenden Windows-Reihe (also nicht NT, 2000 und XP) war Linux wie das Vorbild Unix schon immer ein Mehrbenutzer-Betriebssystem mit echtem Multitasking. Das hat weitreichendere Folgen als man denkt: So sind die Verzeichnisse unterschiedlicher Benutzer streng voneinander getrennt, und ein Zugriff auf unbefugte Daten wird durch das Betriebssystem unterbunden (da Programme das OS nicht "umgehen" können, ist dieser Schutz sicher). Jeder Nutzer hat ein Heimverzeichnis, in dem seine privaten Daten liegen. Darüber hinaus gibt es einen Superuser namens "root", der alles darf. Ein normaler Nutzer kann auch das Betriebssystem nicht beschädigen, man kann also, wenn man sich das erste Mal als Nicht-Root unter Linux anmeldet, völlig beliebig experimentieren, ohne etwas zu zerstören.

Das User-Konzept ist in Unix sehr weitreichend. Auch Programme können unter eigenen Usernamen laufen. So richtet zum Beispiel der Apache-Webserver einen virtuellen Nutzer namens "wwwuser" ein. Das bedeutet, dass ein Sicherheitsloch im Apache-Webserver schlimmstenfalls zur Folge hat, dass die entsprechenden Webseiten gelöscht oder verändert werden. Dieses weitgehende Nutzerkonzept erschwert auch die Ausbreitung von Viren und Trojanern. Wer allerdings ständig als Root arbeitet, ist ähnlich gefährdet wie unter Windows ME. Von dieser Praxis ist absolut abzuraten.

Auch Netzwerkfunktionen sind eine mit Unix eng verwandte Erfindung: Schließlich wurde das Internet mit Unix-Systemen programmiert. Es ist kein Problem, Linux im LAN mit Windows-Servern sprechen zu lassen und umgekehrt. Firewalls, Netzwerkmonitore und ähnliches sind unter Unix selbstverständlich.

Wer als Benutzer einer grafischen Oberfläche wie KDE zum ersten Mal tiefer in das Betriebssystem einsteigt und z.B. ein Konsolenfenster öffnet, der wird sich vielleicht an DOS erinnern, das primitive Betriebssystem, das von Windows 3.1 bis zu Windows ME die softwaremäßige Grundlage der Heimversion von Windows bildete (auch wenn man es immer besser versteckt hat). Bei der Präsentation von Windows XP gab Bill Gates als Demonstration des internen Wandels "zum letzten Mal" den Befehl EXIT in einer Dos-Shell ein.

Unix verfügt zwar über mächtige grafische Oberflächen, kennt aber immer noch das Konzept der Text-Shell. Die Text-Shells von Unix sind der DOS-Shell und auch der Textkonsole von Windows NT schon immer weit überlegen gewesen. Viele Unix-Fans führen die Abneigung von Windows-Nutzern gegenüber Kommandozeilen vor allem darauf zurück, dass die Kommandozeile von Windows schlicht unbrauchbar ist. In Unix laufen dagegen selbst komplexe Programme wie z.B. ein Webserver, ein Compiler oder ein SQL-Client ausschließlich in der Konsole (wenngleich es auf Wunsch auch grafische Menüs gibt). Um so wichtiger ist es, sich mit deren grundsätzlichen Prinzipien vertraut zu machen, wenn man ein echter Power-Nutzer werden will.

Die GUI-Illusion

Es ist ein trügerischer Glaube, Programme mit grafischen Oberflächen seien "leichter" zu bedienen. Richtig ist, dass eine grafische Oberfläche die prinzipielle Funktionalität eines Programmes schneller zugänglich macht. Der Grundsatz bei der Entwicklung vieler GUI-Programme ist: Alles soll so schnell wie möglich zu finden sein. Daraus ergibt sich eine einfache Konsequenz: Das Erlernen eines Programms mit grafischer Oberfläche geht meistens deutlich schneller - Menschen, die eher visuell denken, müssen sich beim Lernprozess außerdem weniger anstrengen.

Dagegen muss der Benutzer eines rein textorientierten Programms meist zunächst einmal Manuals, Hilfebildschirme, Konfigurationsdateien und kurze Readmes lesen, bevor er selbst einfachste Funktionen nutzen kann. Für Nutzer, die dies noch nie getan haben, ist es natürlich eine hohe Einstiegsschwelle, doch der regelmäßige User gewöhnt sich hier schnell eine Routine an. Wenn der Nutzer erst einmal die Optionen eines komplexen Kommando-Zeilen-Tools wie grep, sed oder ping verstanden hat oder sich durch die Syntax z.B. der Konfigurationsdatei des Apache-Webservers gewühlt hat, kann er typische Arbeitsabläufe sogar leichter automatisieren als mit den grafischen Gegenstücken.

Unixer schwören nicht etwa deshalb auf diesen Ansatz, weil sie unheilbare Masochisten wären (obwohl es sicher auch solche gibt). Neben dem Schmerz ist auch die Funktionalität in der Praxis deutlich größer. Während man sich bei einem GUI-Programm nur auf den vorgesehenen Bahnen bewegen kann, lassen sich in der Konsole beliebige Parameter in Verbindung setzen, Konfigurationsdateien optimieren und, was bei Unix ebenfalls sehr wichtig ist, Prozesse miteinander kombinieren.

Dazu gibt es Konzepte wie Pipes (der Name des dazugehörigen Zeichens "|"), und Umleiter (">" und "<"). Damit lässt sich die Ausgabe eines Prozesses in einen anderen Prozess, in eine Datei und sogar an ein beliebiges Gerät umleiten. So lassen sich Programme bequem mit Daten anderer Programme "füttern", z.B. ein E-Mail-Client mit der Ausgabe einer Datenbank. Unter Windows ist dies nur rudimentär möglich, weil die meisten grafischen Programme die entsprechende Funktionalität nicht unterstützen.

Auch Langsamtipper müssen vor Unix keine Angst haben. Befehle, Programm- und Verzeichnisnamen werden durch Drücken der Tab-Taste automatisch vervollständigt. Wer längere Zeit mit der in Unix an vielen Stellen verwendeten Tab-Vervollständigung arbeitet, wird sie unter Windows schnell vermissen, sie nimmt eine ähnliche Bedeutung ein wie die Zwischenablage.

Noch dazu ist die Shell programmierbar. Wer noch mit DOS gearbeitet hat, wird sich vielleicht an Batch-Dateien erinnern - doch die Shell-Programmierung ist wesentlich komplexer und verfügt über alle Kontrollstrukturen "echter" Programmiersprachen. Zusammen mit den flexiblen Unix-Tools lassen sich viele Routine-Aufgaben mit einfachen Shell-Skripts lösen.

Neben der Funktionalität hat die Shell auch noch einen weiteren Vorteil gegenüber der grafischen Oberfläche: Sie funktioniert praktisch immer. Während man bei einem Windows-System regelrecht ausgesperrt ist, wenn man keinen grafischen Login mehr erhält, kann man ein Linux-System selbst in den haarsträubendsten Situationen oft noch verwenden und ggf. wiederherstellen. Dabei hat man, wenn man mit den entsprechenden Werkzeugen vertraut ist, Zugriff auf die gesamte Dokumentation, auf alle wesentlichen Tools, Server, Editoren und sogar auf Webseiten.

Hier wird auch der modulare Ansatz der Linux-Architektur deutlich. Der Verlust einer GUI ist eben nur das: der Verlust einer GUI. Selbst Musik und Videos in modernen Formaten lassen sich ohne grafische Oberfläche noch abspielen. Eine weitere Konsequenz dieses Baukasten-Systems ist, dass man auch neueste Linux-Versionen noch problemlos auf Uralt-Rechnern einsetzen kann, was Linux ideal für den Schuleinsatz macht, im Gegensatz zum antiquierten DOS oder alten Windows-Versionen. Und dank beliebig reduzierbarer Interfaces eignet sich Linux, zumindest theoretisch, auch hervorragend für Blinde und Behinderte.

Die Unix-Verzeichnisstruktur

Ungewöhnlich im Vergleich zu Windows ist die Unix-Verzeichnisstruktur. Dabei steckt eine durchaus naheliegende Logik dahinter: Anwendungsprogramme, die von Normalbenutzern ausgeführt und nur gelesen (!) werden können, liegen in einem "User"-Verzeichnis (usr), essentielle Basisprogramme im Binär-Verzeichnis (bin), System-Administrationsprogramme im sbin-Verzeichnis, Konfigurationsdateien im etc-Verzeichnis, allgemeine Temporär-Dateien, die gelöscht werden können, im tmp-Verzeichnis, Anwendungsdaten, die verschoben werden oder sich häufig ändern (eingehende E-Mail, Logdateien und ähnliches) im var-Verzeichnis und optionale Programme (größere Pakete, ohne die das System gut funktioniert) im verpönten opt-Verzeichnis.

Jeder Benutzer hat im home-Verzeichnis ein eigenes Unterverzeichnis. Weiterhin gibt es natürlich auch in den anderen Verzeichnissen kategorisierte Unterverzeichnisse. Die Struktur ist insgesamt relativ logisch und besser durchdacht als unter Windows, wo Konventionen ohnehin kaum existieren. Problematisch ist allerdings, dass oftmals Entwickler unterschiedlicher Meinung sind, wo ihre Programme sich niederlassen sollen, so dass ein gewisses Chaos resultiert. Das gilt auch für die Namen und Verzeichnisse von Programmbibliotheken (unter Windows DLL-Dateien). Eine stärkere Standardisierung, eingebunden z.B. in einen Abstimmungsprozess, wäre hier wünschenswert.

Dateisysteme

Erwähnenswert ist auch die Tatsache, dass Unix mittlerweile über mehrere sogenannte "Journaling Filesystems" verfügt. Ein Dateisystem ist der Programmcode, der für das Schreiben von Daten auf Festplatten und andere Datenträger verantwortlich ist: Er legt fest, in welcher Form Dateien repräsentiert werden. So erlaubte z.B. das DOS- und Win95-Dateisystem FAT nur Dateinamen mit maximal acht Zeichen, während Unixer über diese Begrenzung schon immer lachen. Ein Journaling Filesystem hat noch einen weiteren Vorteil: Es protokolliert automatisch Änderungen an Dateien und sorgt dafür, dass z.B. bei einem Stromausfall Daten nicht beschädigt werden.

Man kann (auch wenn man es trotzdem tunlichst vermeiden sollte) damit relativ gefahrlos einen Rechner mit JFS mitten im Betrieb ausschalten oder neu starten, ohne dass erst ein "Scandisk" die Festplatte auf Datenfehler prüfen muss. Deshalb benötigt auch das neue Windows XP kein Scandisk mehr, denn es verwendet das JFS NTFS. Bei Linux gibt es nun die professionelleren Journaling Filesystems ReiserFS, XFS und ext3, die man bei der Installation anwählen muss. Es wird wohl noch eine oder zwei Linux-Generationen dauern, bis JFS standardmäßig von allen Distributionen verwendet werden. ReiserFS gilt aber als sehr schnell und sehr stabil und kann problemlos eingesetzt werden. Einen guten Überblick über verschiedene JFS liefert eine Artikelserie von Daniel Robbins (Teil 6 mit Inhaltsverzeichnis).

Die Isolation von End-User und Hacker

All dies ist in erster Linie für Entwickler, Administratoren und Bastler interessant. Der normale Windows-Nutzer wird schnell von der Komplexität der entsprechenden Konzepte überwältigt sein und sich eine einfache, wenn auch beschränkte Benutzerumgebung zurückwünschen. Doch Linux befindet sich in einem stetigen Prozess, in dem der durchschnittliche Endnutzer mehr und mehr von administrativen Funktionen getrennt wird, ohne dass diese aufhören zu existieren. Bei einem typischen SuSE-System hat man mit all dem mittlerweile relativ wenig zu tun, wenn man es nicht will: Es ist gegebenenfalls ähnlich einfach zu bedienen wie Windows.

Linux verfügt schon sehr lange über eine Version des X-Window-Systems (üblicherweise XFree86). X-Window ist keine grafische Oberfläche, sondern ein Server, der grafischen Oberflächen prinzipielle Grafikfunktionen bereitstellt. Auf diesen Server greifen sogenannte Fenster-Manager zu. Ursprünglich waren das relativ primitive Tools wie fvwm, die sich in Komfortabilität und Funktionalität nicht mit der Windows-Oberfläche messen konnten. Aber sie hatten von Anfang an eine Funktion, die Windows lange fehlte: Man konnte schon immer auf triviale Weise grafische Programme auch auf entfernten Servern ausführen. Dazu muss man auf dem anderen Server lediglich die Ausgabe zum eigenen Server umleiten.

Weitere Unix-typische Gimmicks sind "virtuelle Desktops", zwischen denen man hin- und herschalten kann (ein einzelner Desktop kann auch die physikalische Bildschirmauflösung übersteigen und scrollbar sein) und "xterms": Man kann sehr bequem mehrere Terminal-Fenster öffnen und sich auch unter mehreren Benutzernamen gleichzeitig anmelden (das geht auch in der Textumgebung - Windows XP hat dagegen gerade erst den "schnellen Benutzerwechsel" verwirklicht, bei dem die Sitzung eines Benutzers temporär unterbrochen wird). Außerdem waren die ersten schlanken Window-Manager sehr schnell.

Da jedoch auch den größten Linux-Fans mehr und mehr klar wurde, dass nicht jeder Nutzer Administrator sein kann, und sich auch viele Hacker nach einfacheren Anwendungsprogrammen sehnten, kamen nach und nach komplexere Window-Manager und schließlich sogenannte "Desktop-Environments" hinzu. Im Oktober 1996 war es KDE (ursprünglich "Kool Desktop Environment", gegründet von Matthias Ettrich), das gerade seinen fünften Geburtstag gefeiert hat, 1997 kam das von Miguel de Icaza gegründete GNOME-Projekt hinzu. Beide Projekte bemühen sich darum, nicht nur eine vollständige grafische Oberfläche, sondern auch elementare Programme wie Web-Browser und einfache System-Konfigurations-Tools bereitzustellen. Weiterhin soll die Entwicklung grafischer Applikationen unter den jeweiligen Dachprojekten organisiert und koordiniert werden.

Damit wird letztlich die Trennung unterschiedlicher Benutzertypen vervollständigt. Allerdings sind viele Konfigurations-Probleme nach wie vor nicht oder nur schwer über grafische Tools zu bewerkstelligen. Problematisch ist auch hier die Konkurrenz unterschiedlicher Lösungen, die eine Standardisierung erschwert.


Teil 4: Konkurrenz der Systeme

Ideologische und rein pragmatische Gründe für einen Wechsel von Windows zu Linux gibt es viele. Im technischen Vergleich muss sich das freie Betriebssystem vor allem auf dem Desktop bewähren. In puncto Stabilität und Funktionalität kann Linux der Konkurrenz schon seit langem Paroli bieten. Installation, Hardware-Unterstützung, Bedienbarkeit und Software-Angebot gelten als die größten Hürden für die Massenakzeptanz von Linux. Doch auch hier hat sich nach zehn Jahren einiges getan. Unverändert dagegen spalten interne Uneinigkeiten die Linux-Gemeinde und ihre Software.

KDE vs. GNOME

Die parallele Arbeit an zwei Projekten mit den gleichen Zielen, die noch dazu so bedeutend sind, hat anfänglich für viel Frustration gesorgt. Mittlerweile gibt es aber auch viele, die sich über die Wahlmöglichkeit zwischen den doch sehr unterschiedlichen Projekten freuen, und die Geburtstagsgratulation von GNOME an KDE zeigt, dass es keinen "heiligen Krieg" zwischen beiden Systemen gibt. Man muss wissen, dass KDE sich auf eine Programmbibliothek namens Qt der Firma Trolltech verlässt. Diese Bibliothek stand ursprünglich nicht unter der freien Lizenz GPL (vgl. Teil 1), sondern war proprietär. Sie stellt Grundelemente wie Buttons und Eingabefelder bereit, die von KDE-Programmen genutzt werden. Mittlerweile enthält sie auch Funktionen für den Datenbankzugang.

Für Miguel de Icaza und seine Mitstreiter war das Grund genug, ein eigenes Projekt zu beginnen, das vollständig freie Software sein sollte: GNOME ist Teil des GNU-Projekts. Auf allgemeinen Druck stellte Trolltech jedoch später die Qt-Bibliothek unter die GPL, so dass Icazas Gründe prinzipiell hinfällig wurden.

Trolltech hat mit der Qt-Bibliothek ein höchst interessantes Geschäftsmodell entwickelt. Open-Source-Programmierer können die Bibliothek kostenlos nutzen und auch verändern. Wer sein Programm jedoch nur in Binärform weitergeben will, darf dies bekanntlich nicht, wenn GPL-Code enthalten ist. Hier bietet Trolltech den Anbietern proprietärer Software einen Ausweg: Sie können die Bibliothek gegen Bezahlung auch für proprietäre Programme lizenzieren. Dies ist sozusagen eine Art "Besteuerung" proprietärer Software. Ironischerweise ist damit das KDE-Projekt "freier" im Sinne Richard Stallmans als das von ihm befürwortete GNOME-Projekt, dessen Qt-Äquivalent GTK unter der LGPL steht (das L steht für Library, also für Programmbibliotheken), die auch eine Verwendung in Binärprogrammen zulässt.

Sowohl Qt als auch GTK wurden auf verschiedene Betriebssysteme portiert, Anwendungen für KDE und GNOME lassen sich damit relativ problemlos z.B. auch auf Windows portieren, wenn der Bedarf danach besteht, und wenn Linux eines Tages obsolet sein sollte, ist es die dafür geleistete Arbeit noch lange nicht.

KDE genießt als zu großen Teilen aus Deutschland stammendes Projekt besonders hier große Beliebtheit, aber auch GNOME ist relativ gut ins Deutsche übersetzt. KDE verfügt über eine durchdachtere Komponentenarchitektur und wurde objektorientiert in C++ entwickelt, während GNOME reiner C-Code ist. GNOME hat mehr Ähnlichkeit mit den klassischen, schlanken Window-Managern, KDE dagegen möchte wirklich jeden Aspekt des Systems über grafische Interfaces nutzbar machen. Dabei legt KDE sehr großen Wert auf einen einfachen Wechsel von Windows her: Für das Look & Feel existieren verschiedene Standard-Schemata, von denen eines an Windows angelehnt ist - dies beinhaltet sowohl das Aussehen und Verhalten der Fenster als auch Tastenkombinationen. Anwendungen für GNOME laufen meist problemlos unter KDE und umgekehrt, sofern beide Bibliotheken (GTK und Qt) korrekt installiert sind. Dabei wird aber das Look & Feel der jeweiligen Programmbibliothek verwendet, so dass häufig Diskrepanzen im Aussehen und Verhalten der Applikationen auftreten. Letztlich muss jeder für sich entscheiden, welchen Desktop er einsetzen will - im Folgenden wird allerdings nur KDE besprochen.


Der KDE-Desktop sieht mit der Liquid-Skin besonders hübsch aus.

KDE in der Praxis

In der täglichen Praxis erweist sich KDE als bereits sehr angenehm benutzbar. Während erste Versionen noch gelegentlich abstürzten, ist der Desktop seit Version 2 äußerst stabil. Vom Aussehen her ist KDE an Windows angelehnt (mit ähnlichem Startmenü, Taskleiste usw.), verbessert Windows jedoch in vielen Kleinigkeiten. Dazu gehören z.B. weitgehendere Veränderungsmöglichkeiten des Look & Feel, einfacheres Herunterfahren, eine deutlich vielseitigere Taskleiste und bessere Kommunikation zwischen Anwendungen. Dafür ist Windows stellenweise schneller und besser organisiert: Das KDE-Kontrollzentrum und insbesondere die Veränderung des Desktop-Aussehens (die dafür notwendigen Dateien liegen in vielen unterschiedlichen Verzeichnissen) sind derzeit noch etwas verwirrend. Mit einigen Spielereien wie Animationen hat KDE es außerdem übertrieben, diese funktionieren oft nicht wie gewünscht und lassen sich zum Glück abstellen.

KDE erbt auch allgemeine X-Window-Probleme, da es ja auf XFree aufsetzt. So ist zum Beispiel die Zwischenablage unter X-Window problematisch: Einfaches Markieren von Text genügt, um ihn in die Zwischenablage zu kopieren. Will man ein bestehendes Eingabefeld mit Text aus der Zwischenablage überschreiben, muss man diesen erst löschen, dann den Text kopieren und einfügen. KDE-Anwendungen sollten sich eigentlich eher wie Windows benehmen, aber hier muss man bei jeder Anwendung neu experimentieren, was sehr frustierend ist. Dafür kann KDE dank dem Klipper-Tool mit mehreren Einträgen in der Zwischenablage umgehen.

Ein weiteres X-Problem ist immer noch nicht befriedigend gelöst: Schriftarten. Gerade SuSE installiert standardmäßig nur einige sehr hässliche Schriften, die teilweise auch noch Pixel-Fonts sind, was heißt, dass sie bei großer Auflösung extrem eckig werden. Es gibt sogar eine eigene HOWTO-Datei, die erklärt, wie man XFree "ent-entstellt".

Unter Windows gibt es schon seit längerer Zeit automatische Schriftenglättung (was sehr angenehm aussieht), und auch die Schriften selbst sind deutlich professioneller. Immerhin kann man Windows-Schriften unter Unix problemlos verwenden, sie sind jedoch aus Copyright-Gründen nicht im Lieferumfang der Distributionen enthalten. Die Schriftenglättung unter KDE existiert zwar, ist aber besonders bei kleinen Schriftgrößen noch unbefriedigend. Mit einiger Handarbeit lässt sie sich jedoch richtig einstellen, wonach dann zumindest KDE-Anwendungen sehr schön aussehen (wenn auch die Schriftenglättung langsamer ist als unter Windows). Es wäre sinnvoll, wenn hier die Distributoren mehr Vorarbeit leisten und brauchbare Schriften suchen oder entwickeln würden, denn lesbare Schriften kann nicht jeder Amateur produzieren - dafür gibt es empirische Richtlinien, die eingehalten werden müssen.


Ein GNOME-Desktop mit Mahjongg, Dateimanager und Mailer.

Allgemein lässt die Ästhetik der Linux-Desktops aber immer weniger zu wünschen übrig. Wer es albern verspielt mag (wie Aqua oder Windows XP), kann entsprechende Skins herunterladen, die Standardeinstellungen sind aber bei KDE wie bei GNOME bereits sehr ästhetisch. Aufgrund der modularen Struktur von Linux kann man wirklich jeden Bestandteil der Oberfläche verändern. Störend ist, dass GNOME- und KDE unterschiedliche "Verhaltensregeln" für Fenster verwenden (z.B. "Bei Doppelklick maximieren"). Bei KDE kann man das Verhalten verschiedener Oberflächenelemente global verändern, also z.B. "Mein Desktop soll sich so verhalten wie Windows". Wenn die GNOME- und KDE-Macher sich auf solche allgemeinen Verhaltens-Sets verständigen könnten, wäre der Wechsel zwischen beiden Desktop-Umgebungen fließender.

Linux und das Web

Das Kronjuwel von KDE ist der Konqueror-Browser. Fest ins System eingebunden stellt er weit mehr dar als nur Webseiten: Wie der IE eignet er sich auch zur Erkundung lokaler Verzeichnisse und bettet vollautomatisch Anzeigeprogramme für verschiedene Dateitypen wie PDF oder ZIP ein. Das heißt, dass Konqueror prinzipiell beliebige Datenformate direkt im Browser anzeigen kann. Außerdem lässt sich das Browser-Fenster sehr einfach in unterschiedliche Flächen aufteilen: So kann man z.B. in der linken Hälfte des Fensters Webseiten anschauen und in der rechten Dateien. Will man eine Datei herunterladen, zieht man den entsprechenden Link einfach von links nach rechts. Sogar eine Textkonsole lässt sich ins Browserfenster integrieren, was für Power-User sehr angenehm ist.

Bei der Webseitendarstellung ist Konqueror erstaunlich weit entwickelt: Selbst mit den neuesten Tricks gebaute Websites werden in der Regel fehlerfrei und standardkonform angezeigt. Probleme verursachen Skripting, Nur-Windows-Plugins und natürlich proprietäre "Standards" aller Art. Von der Geschwindigkeit her kann "Konqi", wie er liebevoll genannt wird, problemlos mit dem letzten brauchbaren Netscape, 4,7*, mithalten, IE ist derzeit noch etwas schneller. Vorbildlich gelöst wurde das Management von Cookies: Bei entsprechender Konfiguration fragt der Browser beim Setzen eines Cookies nach und merkt sich die Antwort, so dass man nicht ständig mit Nachfragen behelligt wird und sehr einfach ausgewählten Sites Cookies erlauben kann. [12]

Ebenfalls ein sehr schönes Feature ist die Integration verschiedener Suchdienste. Gibt man z.B. "gg:csicop" ein, wird Google nach "csicop" durchsucht. Bisherige Suchabfragen lassen sich dank Auto-Vervollständigung komfortabel wiederholen. Weiterhin verfügt Konqueror über sehr frei konfigurierbare Keyboard-Einstellungen, so dass man relativ leicht das Verhalten anderer Browser nachahmen kann.

GNOME verwendet statt Konqueror den freien Mozilla-Browser, der, trotz großer Schwierigkeiten, immer besser wird und langsam ein Stadium der täglichen Benutzbarkeit erreicht hat. Von der Geschwindigkeit her kann Mozilla leicht mit IE mithalten, der Open-Source-Browser hält sich strenger an die W3C-Standards als der Redmonder Konkurrent und hat einen schier unglaublichen Funktionsumfang. Ein brauchbarer E-Mail-Client, Newsreader und HTML-Editor gehören natürlich dazu. Dank verschiedener offener Schnittstellen ist der Browser nahezu beliebig erweiterbar. Ein Hauptkritikpunkt, der hohe Speicherverbrauch, ist angesichts derzeitiger Speicherpreise kaum noch relevant. Allerdings wird es noch einige Monate dauern, bis man Mozilla wirklich rundherum empfehlen kann. Viele Kleinigkeiten, insbesondere die mangelhafte Dokumentation und Probleme mit Formularen, stören noch.


Dank seiner Modularität lässt sich das Aussehen und Verhalten des Linux-Desktops praktisch beliebig verändern. Der Fenstermanager Enlightenment arbeitet vor allem mit Transparenz.

Es fällt auf, dass Microsofts Browser seit Erreichen einer Quasi-Mopolstellung nur noch geringfügig verbessert wurde. Hier zeigt sich der Vorteil des Open-Source-Modells: Mozilla wird mit Sicherheit auch noch in einigen Jahren eine Rolle spielen, und bei dem derzeitigen Entwicklungstempo kann man sich jeden Tag neue "Builds" mit neuen Funktionen und Bugfixes herunterladen.

Ein beliebter Mozilla-Abkömmling ist der GNOME-Browser Galeon, der Mozillas Seiten-Darstellungs-Modul verwendet, aber auf alle Nichtbrowser-Funktionen und auf die aufwendige Mozilla-GUI verzichtet. Auch der GNOME-File-Manager Nautilus, ursprünglich ein kommerzielles Produkt, dessen Mutterfirma im Mai 2001 Konkurs anmeldete, setzt auf Mozilla auf. Selbst wenn Mozilla also keinen Erfolg hat, werden Kernkomponenten sicherlich anderswo weiterhin Verwendung finden.

Als bester Linux-Webbrowser gilt bei vielen der norwegische Opera, der unter Linux meiner Erfahrung nach sogar noch besser funktioniert als unter Windows. Mit unglaublicher Geschwindigkeit stellt er selbst komplizierteste Seiten dar (wobei manchmal noch kleine Fehler auftreten können). Was die Produktivität angeht, übertrifft er IE bei weitem -- insbesondere das Öffnen neuer Fenster und das Navigieren geht wesentlich flotter. Allerdings handelt es sich um ein proprietäres Binärprogramm, für das auch zu bezahlen ist, will man sich nicht an einem Werbebanner erfreuen. Das schreckt natürlich viele Linux-Nutzer ab, ganz besonders, da der Browser so eine wichtige Plattform darstellt, wie ja auch Microsoft erkannt hat. Wäre Opera Open-Source-Software, würde der Browser vermutlich mittlerweile von einem Großteil der Linux-Nutzer verwendet.

Außerdem gibt es natürlich für Texthungrige unter Linux auch Browser, die im reinen Konsolenmodus arbeiten. Dabei stellen einige, wie z.B. w3m, sogar Tabellen und Frames akkurat dar, auf Bilder und ähnlichen Klimbim muss man natürlich verzichten. Und diese Projekte sind keinesfalls tot: Solange noch ein Bedarf danach besteht, werden sie weiterentwickelt.

Linux als Postbote

Der Satz "You have mail" stammt nicht etwa von AOL, sondern von Unix. Er erscheint z.B. in Terminals beim Eingang neuer Nachrichten. Email ist unter Unix tief im Betriebssystem verankert und lässt sich auch im Mehrbenutzerbetrieb problemlos verwenden. Das Dateiformat, in dem Mail gespeichert wird, ist soweit standardisiert, dass mehrere völlig unterschiedliche Email-Programme (Clients) parallel auf die gleiche Mail zugreifen können - unter Windows ein Ding der Unmöglichkeit. Auch das Filtern von Email kann global und software-unabhängig geschehen, z.B. mit dem extrem mächtigen (und ziemlich komplizierten) Programm procmail. Dass damit auch Filter-Regeln wie "Drucke automatisch jede Mail von Nutzer abc, die im Betreff die Worte foo oder bar hat, und schicke eine Kopie an User xy, aber nur, wenn dessen Name nicht in der Datei urlaub.txt steht" möglich sind, ist für Unixer selbstverständlich. Leider existieren wenige grafische Konfigurations-Möglichkeiten für procmail.

Nach brauchbaren Mail-Clients muss man unter Linux nicht lange suchen. Auch hier hat man wiederum die Wahl zwischen Programmen mit Textausgabe wie Mutt und Pine und grafischen Varianten wie Evolution von Ximian, Balsa von GNOME und KMail von KDE. Evolution ist besonders erwähnenswert, da es als Outlook-Killer gehandelt wird: Neben E-Mail verwaltet es auch Termine und erlaubt bequeme Synchronisation von Daten und Zusammenarbeit von Nutzern. Anstatt Emails mühselig zu filtern, verwendet Evolution ein dynamisches Indexierungs-System, was die Generierung "virtueller Ordner" erlaubt, die Emails zu bestimmten Themen enthalten: sehr praktisch.

Doch es existieren noch unzählbare weitere freie Clients, eine Liste findet sich z.B. bei Mahogany. Hier gilt wieder einmal, dass Linux weitaus mehr Wahlmöglichkeiten bietet als Windows: Man werfe z.B. einen Blick auf die Liste kostenloser Email-Clients für Windows, die meist nicht im Quellcode verfügbar sind und unterschiedliche Mailbox-Formate verwenden. Man kann also bereits ohne Einschränkungen festhalten, dass Linux-Nutzer, was E-Mail angeht, kaum etwas von Windows vermissen dürften, selbst wenn sie nur mit dem Desktop und nicht mit der Shell arbeiten - im Gegenteil ist das Email-System von Linux wesentlich durchdachter und offener.

Firmen werden allerdings die weitreichenden Groupware-Funktionen von Outlook/Exchange vermissen - hier fehlt es noch an einer vergleichbaren Standardlösung, wobei Evolution zumindest auf der Client-Seite Pionierarbeit leistet. Außerdem existiert eine Portierung des kommerziellen Exchange-Konkurrenten Domino, den Notes-Client jedoch gibt es derzeit trotz Mutterfirma IBM noch nicht in einer Linux-Version.

Andere Clients

Es dürfte keiner weiteren Erklärung bedürfen, dass unter Linux für nahezu jedes offene Internet-Protokoll Implementierungen existieren, meistens mehrere. Das gilt natürlich für IRC, FTP und News (Usenet), die unter Unix entwickelt wurden, aber z.B. auch für exotische Peer-to-Peer-Protokolle, die teils für Linux gehackt, teils dort programmiert wurden (s. z. B. Gnutella-Clients, OpenNap-Clients, FastTrack-Client, Jungle Monkey). Einen IRC-Client, der so einfach zu bedienen ist wie der kostenlose Windows-Client mIRC, habe ich allerdings bislang nicht gefunden, obwohl xchat und KDEs ksirc dem bereits sehr nahe kommen.

Donald Knuth gegen Bill Gates

Von ganz entscheidender Bedeutung für typische Anwender ist natürlich die einfache Erzeugung von Dokumenten. Lange Zeit verwiesen Linux-Nutzer als Antwort hier entweder auf reine Textdateien ("Wer braucht mehr als eine Schriftart?") oder auf TeX/LaTeX. TeX ist ein wissenschaftliches Textsatzsystem, das von Donald Knuth, einem der bedeutendsten Computerwissenschaftler, in den Achtzigern entwickelt wurde und von Journalen noch heute gerne eingesetzt wird. Es basiert auf einer Art Programmiersprache für Dokumente, wobei LaTeX eine Art Funktionsbibliothek für diese Sprache ist. Das klingt so kompliziert wie es ist: Ein typisches LaTeX-Dokument (s. Beispiel) wirkt zunächst kryptisch und unverständlich. Der LaTeX-Befehlssatz ist extrem umfangreich. Der Quelltext eines TeX-Dokuments ist reiner Text - erst nach einer Übersetzung wird das eigentliche Zieldokument mit Schriftarten, Seitenrändern usw. erzeugt, wobei man LaTeX in zahlreiche Ausgabeformate übersetzen kann.


Mit dem Textsatzsystem TeX/LaTeX kann man professionell aussehende Dokumente mit wenig Aufwand erstellen.

Wenn man nur Vorlagen verwendet, ist LaTeX, mit einer entsprechenden Kurzeinführung, einfacher in der Handhabung als jede WYSIWYG-Textverarbeitung wie Microsoft Word. Hat man zum Beispiel erst einmal eine brauchbare Brief-Vorlage, muss man nur noch an der richtigen Stelle den Text tippen und ist fertig. Die gesamte Formatierung geschieht vollautomatisch, und die Ergebnisse rufen bei Windows-Nutzern oft Staunen hervor, denn die Schriftarten und Vorlagen wurden von Profis gestaltet. Würde ein Distributor hier eine vernünftige Konfiguration bereitstellen, in der auch der Texteditor den TeX-Quelltext weitestgehend unsichtbar macht, könnte TeX auch für Anfänger eine echte Alternative zu Office-Paketen darstellen, die wesentlich bessere Ergebnisse liefert.

Noch heute ist an vielen Unis für Diplomarbeiten die Verwendung von TeX vorgeschrieben, weil die Studenten mit Word selbst Layouter spielen und Word bei großen Dokumenten oft nicht mehr sinnvoll zu verwenden ist (wobei echte Word-Veteranen hier natürlich entsprechende Workarounds kennen). Für mathematische Formeln gibt es ohnehin nichts Besseres als TeX. Allerdings ist die Einbindung von Grafiken in TeX/LaTeX wenig komfortabel: Hier ist eine WYSIWYG-Textverarbeitung klar überlegen.

Mittlerweile gibt es eine Mischlösung, LyX, die eine Art Pseudo-WYSIWYG bietet: Schriftarten, Bilder usw. können wie in Word & Co. bearbeitet werden, sind aber nur eine grobe Voransicht. Das eigentliche Dokument muss nach wie vor aus dem (hier für den Nutzer unsichtbaren) TeX-Quelltext übersetzt werden. Wer professionelle Ergebnisse und gleichzeitig einfache Bedienung möchte, ist sicherlich bei LyX gut aufgehoben. Besonders der Formeleditor ist sehr gut gelöst.

Office im Paket

Doch die Zeiten, in denen TeX/LaTeX die einzige "Office"-Anwendung unter Linux war, sind ohnehin längst vorbei. Mittlerweile konkurrieren viele verschiedene WYSIWYG-Textverarbeitungen und komplette Office-Pakete um die Gunst der Nutzer. Hauptanwärter sind die freien Projekte OpenOffice, das aus Suns StarOffice hervorgegangen ist, und KDEs KOffice. Besonders in Asien beliebt ist das kommerzielle HancomOffice, das teils eigene Anwendungen (darunter die Textverarbeitung HancomWord), teils von KDE bekannte Applikationen zusammenführt. Weiterhin gibt es von Corel die etwas betagte Linux-Version von WordPerfect Office 2000 (enthält WordPerfect, die Tabellenkalkulation Quattro Pro, Corel Presentations, den PIM CorelCentral und die Datenbank Paradox, jeweils in Version 9). Und dann wäre da noch Anyware Desktop, vormals als Applixware Office bekannt, das unter anderem auch Desktop-Datenbank und Mail-Client enthält. Demnächst soll schließlich noch die von BeOS stammende Office-Suite Gobe Productive ( Review) nach Linux portiert werden.

Das kostenlose KOffice besteht aus Textverarbeitung, Tabellenkalkulation, Präsentationsprogramm, Flussdiagramm-Ersteller, Datendiagramm-Ersteller, Vektormalprogramm, Pixelmalprogramm und Reportgenerator. Die Programme sind von unterschiedlicher Qualität, besonders viel Wert wird natürlich auf die Textverarbeitung KWord gelegt. KWord kann noch längst nicht mit MS Word mithalten, insbesondere für geschäftsübliche Dokumente wie Serienbriefe, verfolgt aber einen anderen Ansatz als Word, der eher an DTP-Programme wie Quark Express erinnert: Der Benutzer kann auf einfache Weise Rahmen erstellen, die Text oder Grafiken enthalten. So lassen sich auch komplexe Layouts schnell zusammenbauen. Stilvorlagen, automatische Inhaltsverzeichnisse, Rechtschreibprüfung, Tabellen, Dokumentvariablen, Kopf- und Fußzeilen, Einbindung von Daten anderer Programme und weitere Standardfunktionen beherrscht KWord bereits.


KWord ähnelt DTP-Software und kann auch mit komlpexen Dokumenten umgehen.

Auch die Tabellenkalkulation bietet nur Grundfunktionen (immerhin über 100 integrierte Formeln), dürfte aber den Anforderungen vieler Excel-Nutzer durchaus genügen und erstellt z.B. auch die üblichen Diagrammtypen über das KChart-Modul. Das Präsentationsprogramm KPresenter ist im Vergleich zum exzellenten PowerPoint noch recht unhandlich, insbesondere im Umgang mit Schriftgrößen (hier stellt PowerPoint automatisch sinnvolle Größen ein). Weitgehende Multimedia- und Effekt-Funktionen von PowerPoint fehlen noch. Zur Grafiksoftware mehr unten, in Arbeit ist weiterhin ein Projektmanagement-Programm. Separat von KOffice wird KOrganizer entwickelt, ein sehr hübscher und stabiler Terminplaner mit To-Do-Liste, der Standardformate beherrscht (Synchronisation mit PDAs leider noch nicht).

Noch sollte man besonders von Beta-Software nicht zuviel erwarten: Für den Einsatz in Unternehmen ist es sicherlich noch zu früh. Erfreulich ist, dass mit KOffice auch Importfilter z.B. für Microsoft-Formate entwickelt werden, deren Implementierung mangels Dokumentation alles andere als trivial ist. Dank Open Source können diese Filter wiederum auch von konkurrierenden Office-Paketen eingesetzt werden. Leider werden statt dessen verschiedene Filter parallel entwickelt.

Natürlich entwickelt auch das GNOME-Projekt einige Office-Applikationen, die allerdings nicht so integriert sind wie KOffice, weder organisatorisch noch technologisch. Zu den GNOME-Office-Applikationen gehören z.B. die Textverarbeitung AbiWord, die brauchbare Tabellenkalkulation Gnumeric, der Diagramm-Editor Dia, das Malprogramm SodiPodi, der Projektmanager MrProject, die Quicken-änliche Budgetverwaltung GnuCash und das Präsentationsprogramm Achtung (noch in der Entwicklung). Auch das Vorzeigeprojekt GIMP (s.u.) wird zu den Office-Programmen gerechnet. Natürlich lassen sich diese Applikationen auch unter KDE problemlos ausführen.

Wesentlich weiter entwickelt als die entsprechenden GNOME/KDE-Äquivalente ist StarOffice/OpenOffice, das in c't-Tests regelmäßig als Microsoft Office mindestens ebenbürtig bewertet wurde. Das Projekt wird von Sun aus strategischen Gründen finanziert und steht unter der GPL. In gewisser Weise ist es der Mozilla der Office-Pakete (hinter Mozilla steht AOL), noch nicht wirklich fertiggestellt, aber in stetiger Entwicklung begriffen. Die Textverarbeitung sollte für Word-Nutzer relativ leicht erlernbar sein und importiert typische Word-Dokumente klaglos. Komplexere Dokumente können aber sogar zum Absturz führen. Mit einigen Export- und Import-Tricks sollte man sie dennoch weitgehend retten können.

Auch Powerpoint-Präsentationen lassen sich mit dem OO-Äquivalent wiedergeben, sofern sie keine Windows-spezifischen Elemente enthalten, wie ich bei einer Präsentation auf der WOS2-Konferenz feststellte. OO enthält natürlich auch eine Tabellenkalkulation und ein Zeichenprogramm. Datenbank, Projektmanager und E-Mail-Client sind dagegen wie der viel kritisierte "Desktop" aus der neuen Version verschwunden. Dennoch wird statt den Einzelapplikationen stets das gesamte OO-Paket geladen, was den Programmstart in die Länge zieht. Nicht-Hacker sollten das Erscheinen der Version 6.0 von StarOffice abwarten, die einfacher zu installieren sein dürfte als die aktuellen Builds der Open-Source-Version (ähnlich wie Netscape 6 vs. Mozilla). An Version 5.2 sollte man sich aufgrund der im Nachfolger entfernten Applikationen und des geänderten Dateiformats besser nicht gewöhnen.


Rekall von theKompany soll wie Access die Erstellung von Datenbanken und Formularen vereinfachen - hier eine Auftragsdatenbank (Formular links, Programmcode rechts).

Da zu den Opfern der StarOffice-Rationalisierung auch die Datenbank gehört, fehlt es derzeit noch an einer mächtigen, freien Desktop-Datenbank für Linux, die mit dem für Firmen unverzichtbaren Access mithalten kann. Mit solchen Programmen lassen sich beliebige Datenbank-Anwendungen (z.B. Kunden-Datenbank, Auftragsbearbeitung usw.) ohne weitgehende Programmierkenntnisse schnell entwickeln. Hier gibt es derzeit zwei erwähnenswerte Open-Source-Projekte, "Knorrs Datenbank", knoda sowie die objektorientierte Datenbank bond. Das kommerzielle Rekall-Projekt der KDE-Firma theKompany ist aber derzeit am vielversprechendsten, und das im Corel-Paket enthaltene Paradox hat sich bereits in vielen Anwendungen bewährt. Da im Prinzip alle Komponenten für eine Desktop-Datenbank bereits existieren - Skriptsprachen, Formulardesigner, Reportgeneratoren, Datenbank-Backends - sollte eine freie Datenbank auch nicht mehr lange auf sich warten lassen. Tatsächlich ist der einzige Grund für ihr Fehlen in KOffice das nicht eingehaltene Versprechen von theKompany, Rekall unter Umständen kostenlos beizusteuern.

Defizite gibt es auch bei Finanz-Software und Homebanking, wo mit GNUCash aber mittlerweile ein mächtiger Quicken-Konkurrent heranwächst - das Projekt ist aus mehreren anderen hervorgegangen. "Letztendlich soll GNUCash Quicken überlegen sein", erklärte Entwickler Robert Merkel kürzlich in einem informativen Interview. "Wir möchten, dass unser Programm eingesetzt wird, weil es das beste ist, nicht, weil es frei ist." Er gibt jedoch zu, dass dieser Entwicklungsstand noch nicht erreicht ist. Insbesondere in Sachen Online-Banking mangelt es GNUCash an den notwendigen Modulen (immerhin importiert es QIF-Dateien). Ähnliche persönliche Finanzmanager ( Liste 1, Liste 2) haben überwiegend das gleiche Problem.


KOrganizer verwaltet Termine und Aufgaben.

Auch an Clients für Finanzbuchhaltung und ähnliches, die in Unternehmen notwendig sind, mangelt es noch -- Pakete wie das von Ventas sind die Ausnahme. Dass es sich hier um kommerzielle Programme handelt, sollte nicht verwundern, auch wenn langfristig sicher auch freie Alternativen entstehen werden - ein in Java entwickelter Versuch ist z.B. Linux-Kontor, und das GNU-Enterprise-Projekt dient gar als Dachorganisation für mehrere Vorhaben.

Letztlich wird die Linux-Evolution in den nächsten Jahren über die Office-Sieger entscheiden, aber wie so oft bei Open Source wird es wohl außer proprietärer Software hier keinen klaren Verlierer geben. Für den Heimgebrauch sind die kompakten KDE/GNOME-Programme bereits ausreichend, für den Firmengebrauch wird man sich eine umfassendere Lösung wie OpenOffice wünschen, die gut mit Office-Dateien funktioniert. Die gesamte Firma samt FIBU auf Linux umzustellen ist derzeit noch ein Wagnis, sofern man nicht auf Fallstudien anderer Unternehmen zurückgreifen kann. Dafür kann man bei geschickter Komponenten-Kombination Tausende Euro an Software-Lizenzgebühren sparen.


Das Vektormalprogramm Sodipodi kann mit den neuen SVG-Dateien umgehen.

Was noch stört, ist die große Zahl unterschiedlicher Dokumentstandards. Praktisch alle genannten Pakete verwenden als bevorzugtes Format offene, oftmals XML-basierte Standards -- aber meist jeweils einen eigenen. Hier wäre die Festlegung auf ein gemeinsames Ausgabeformat eine wesentliche Voraussetzung, damit man problemlos mehrere Office-Pakete parallel testen kann und damit auch Windows-Nutzer Linux-Dateien problemlos importieren können. Auch die Programmierung einheitlicher Importfilter für Microsoft-Formate wäre dann leichter. OpenOffice hat durch die Spezifikation eines sehr weitgehenden offen XML-basierten Formats den Grundstein gelegt - andere müssen nur noch folgen. Ob das jedoch in naher Zukunft geschieht, ist in der fragmentierten Linux-Welt fraglich.

Grafik, Sound, Video

Mit Office verwandt sind die verschiedenen Multimedia-Applikationen. Malprogramme gibt es unter Linux wie Sand am Meer, und viele davon liefern, geschickt gehandhabt, sehr eindrucksvolle Ergebnisse, die sich meist in allen gängigen Ausgabeformaten speichern lassen. Für Vektorgrafik gibt es außerdem mittlerweile den W3-Standard SVG, der eine sehr gute Portierung dieser Dateien erlaubt, für Bitmap-Grafik etabliert sich mehr und mehr PNG als Standard. Das Photoshop-ähnliche Pixelgrafik-Programm GIMP ist eines der ältesten und mächtigsten Projekte, für Fotobearbeitung gibt es unter Linux kaum etwas Besseres - das Programm verfügt über zahlreiche Effektfilter und Plugins, Zeichen- und Ebenenfunktionen, unbegrenztes Undo, Transparenz-Unterstützung usw. usf. Weiterhin ist GIMP beliebig programmierbar. Kritik erntet allerdings die etwas unübersichtliche Oberfläche, die für Windows-Nutzer nicht leicht zu erlernen sein dürfte (PhotoShop hat natürlich auch seine Tücken). Wenn man bedenkt, dass PhotoShop, eines der wohl am meisten raubkopierten Programme, in der Vollversion ca. 1.100 Euro [13] kostet, ist der kostenlose GIMP allerdings enorm beeindruckend.

KDE liefert mit KOffice das Vektormalprogramm Kontour, das mit Kommerzgrößen wie Corel Draw und Adobe Illustrator konkurriert, sich derzeit im Funktionsumfang aber noch vergleichsweise bescheiden ausnimmt. Ähnliches gilt für den GIMP-Mitbewerber Krayon. Beide Pakete haben noch eine lange Entwicklungsphase vor sich. Das GNOME-SVG-Zeichenprogramm Sodipodi, das vor allem mit Transparenz sehr gut umgehen kann, steckt ebenfalls in der Beta-Phase. Einen guten Überblick dieser und weiterer freier Zeichenprogramme hat das Magazin Linux User veröffentlicht. Auch Corel Draw 9 existiert mittlerweile in einer Linux-Version, und das Corel-Pixelmalprogramm Photo Paint kann man derzeit kostenlos downloaden.

Auch aus Sicht des typischen Users ungewöhnlichere Grafikprogramme wie Fraktalgeneratoren und Raytracer existieren natürlich in großer Zahl, bei letzteren ist besonders POV-Ray zu nennen, der eine Art Programmiersprache für 3D-Objekte verwendet. Die damit produzierten Ergebnisse sind teilweise äußerst beeindruckend, insbesondere, wenn man weiß, dass sie teils nur unter Verwendung mathematischer Formeln zustande kamen (mit in großer Zahl vorhandenen Modellern kann man die 3D-Objekte auch grafisch erstellen). Blender (Freeware) und OpenFX (Open Source) verdienen als integrierte Pakete ebenfalls Erwähnung. Mit solchen Programmen erzeugte 3D-Kunst kann man sich z.B. in der Internet Raytracing-Competition anschauen, die monatlich stattfindet: Viele der Siegerbilder wurden mit POV-Ray gerendert.

Was kommerzielle 3D-Software angeht, muss sich Linux nicht verstecken. Hollywood verwendet das OS zunehmend für die Berechnung komplexer 3D-Animationen, so wurde zum Beispiel die Dreamworks-3D-Komödie "Shrek" auf einem Cluster von über 1.000 Linux-Rechnern gerendert. Besonders High-End-3D-Tools wie Maya und Houdini existieren auf Drängen der Filmindustrie mittlerweile auch in Linux-Versionen. So konnte Salon im November 2001 titeln: Linux goes to the movies.

Ist die Soundkarte richtig eingerichtet, sollte man keine Probleme haben, sie mit Arbeit zu versorgen. Vom Winamp-ähnlichen MP3-Player mit schönen Grafikeffekten über den Soundtracker im Amiga-Stil bis hin zum Analog-Synthesizer fehlt fast nichts.

Anders sieht es im Video-Bereich aus. Gängige Dateiformate werden zwar problemlos wiedergegeben, und auch den Real Player für Internet-Videos gibt es in einer Linux-Version. Mit ein wenig Hackarbeit kann man dank mplayer sogar Windows-Codecs verwenden. Auch der zum Tauschen von kompletten Filmen über das Internet verwendete "DivX ;-)"-Codec (90 Minuten in VHS-Qualität = ca. 1 CD-ROM) wurde nach Linux portiert. Apple weigert sich dagegen standhaft, eine Linux-Version von QuickTime zu veröffentlichen - QuickTime-Filme kann man trotzdem mit CrossOver abspielen, das die entsprechenden Windows-Plugins verwendet.

Doch wegen des Kopierschutzes von DVDs gibt es "offiziell" keine legale Wiedergabemöglichkeit für DVDs unter Linux (vgl. Teil 2: Streit der Kulturen). Hier hat der DMCA bereits Wirkung gezeigt. Noch ist in Deutschland die Verwendung von xine mit dem dazugehörigen DeCSS-Plugin legal, doch aufgrund der entsprechenden EU- und WIPO-Richtlinien müssen schon bald auch hier entsprechende Gesetze verabschiedet werden. Praktische Auswirkungen auf die Verbreitung der entsprechenden Tools im Internet wird das wohl kaum haben, doch für den Linux-Nutzer ist es ein zusätzliches Hindernis beim Abspielen von DVDs, da Distributoren die Software nicht mitliefern dürfen. Dabei könnte Linux hier Windows leicht in Sachen Usability übertrumpfen.

Trotz solcher Rückschläge ist auch im Multimedia-Bereich das Problem unter Linux eher, die richtige Software zu finden. Kostenlose Programme gibt es mittlerweile für fast jeden Verwendungszweck.

Akademisches


Mit Ghemical kann man Moleküle modellieren.

Linux etabliert sich zunehmend klar als bevorzugte Entwicklungsplattform im universitären Bereich. Viele innovative Projekte werden zuerst oder ausschließlich unter Linux und für andere freie Betriebssysteme entwickelt. Andere verwenden die kostenlos nutzbare plattformunabhängige Sprache Java. Eine detaillierte Diskussion würde zu weit führen - der Freshmeat-Katalog enthält in der Rubrik Wissenschaft/Ingenieurwesen über 600 Programme und Bibliotheken, viele weitere existieren. Dazu gehören Datenvisualierungs-Systeme, Echtzeit-Datenerfassungs-Software, Wörterbücher, virtuelle Planetarien, Molekül-Modeller, Roboter-Simulationen, wissenschaftliche Taschenrechner, Wetterdaten-Software, Mikroskop-Fernsteuerungs-Software, DNA-Datenbanken, Kernzerfall-Simulatoren und unzählige Programme, deren Verwendungszweck sich nur Eingeweihten erschließt. Für Forschung und Lehre ist Linux damit nicht nur ausgezeichnet geeignet, sondern vielleicht schon bald unverzichtbar.

Servereinsatz - Heimspiel für Linux

Im Servereinsatz lässt Linux keine Wünsche offen. Das Betriebssystem verfügt über Sever- oder "Dämon"-Programme für praktisch jeden Zweck. Dazu gehören Nameserver, Webserver, Proxy-Server, Datenbank-Server [14], Email-Server, IRC-Server, News-Server, FTP-Server usw. usf. Linux lässt sich natürlich auch im heterogenen Netzwerk als Router, Firewall, File- und Printserver verwenden, was vor allem dem Samba-Projekt zu verdanken ist. Besonders erwähenswert sind natürlich auch der Webserver und "Microsoft-Killer" Apache und dessen systemnaher Konkurrent Tux, der alle Performance-Rekorde bricht. Apache mangelt es allenfalls an den Sicherheitslücken des Microsoft IIS, sonst aber an so gut wie nichts. Er lässt sich perfekt mit verschiedenen Programmiersprachen und Servern kombinieren. Und obwohl Apache extrem komplex ist, ist es relativ leicht, einen funktionierenden Webserver einzurichten (bei SuSE wird ein sofort lauffähiger Apache bei der Installation auf Wunsch gleich mitinstalliert).

Im Bereich der Datenbank-Server machen seit einiger Zeit die freien Server MySQL und PostgreSQL den teuren Kommerzlösungen von IBM, Microsoft und Oracle Konkurrenz. MySQL gilt dabei eher als Mini-Datenbank für nichtprofessionelle Anwendungen, wobei immerhin die Slashdot-Website mit Millionen von Hits weitgehend problemlos damit funktioniert. PostgreSQL verfügt dagegen über die meisten Funktionen professioneller Datenbank-Server (wozu insbesondere die Transaktionsverwaltung gehört, die entscheidend ist, damit aus Abstürzen oder unvorhergesehenen Programmsituationen keine falschen Daten resultieren). Mit dem extrem teuren Oracle-Server können beide noch nicht mithalten (insbesondere, wenn es um das Clustering von Datebank-Servern für Großanwendungen geht), aber sowohl Oracle als auch IBMs DB2 existieren auch in kommerziellen Linux-Versionen. Auch wer keine Website betreibt, kann mit einem kleinen Datenbank-Server wie MySQL (der übrigens über eine exzellente Dokumentation verfügt) einiges anfangen, z.B. zur Verwaltung von MP3s. Dabei lernt man ganz nebenbei die Datenbank-Abfragesprache SQL, was für viele IT-Jobs eine Einstellungsvoraussetzung ist.

Zahlreiche weitere kommerzielle Server wurden nach Linux portiert, unter anderem die kaufmännischen Lösungen von SAP und der bereits erwähnte Domino-Server von IBM.

Linux geht fremd: Emulatoren und Übersetzer

Wer bestehende Windows-Software unter Linux weiterhin verwenden will, hat verschiedene Möglichkeiten. Ein zuverlässiger, aber langsamer Ansatz ist die Erzeugung eines "PC im PC": Ein kompletter Rechner samt Festplatte, Sound usw. wird emuliert. Programme werden dabei meist auf einem sogenannten Festplatten-Image installiert, eine Datei, die der virtuelle Rechner für eine echte Festplatte hält. Somit kann man im virtuellen PC gefahrlos beliebig experimentieren, ohne das Wirtsystem in irgendeiner Weise zu beeinträchtigen.

Ein kommerzielles Paket für diesen Zweck ist VMWare, von dem es eine brauchbare Demo-Version gibt. Mit dem Rechner im Rechner kann man sowohl Linux unter Windows als auch Windows unter Linux installieren, oder auch andere Betriebssysteme samt Anwendersoftware. Natürlich muss man Windows als Original besitzen, um es im virtuellen PC unter Linux zu installieren. Nachteil des Ansatzes ist die relativ niedrige Performance, außerdem ist die simulierte Hardware meist von schlechterer Qualität als die echte, so dass z.B. 3D-Spiele nicht gut funktionieren. Immerhin kann man Word & Co. auf diesem Wege relativ problemlos unter Linux verwenden. Ein weiteres kommerzielles Paket namens Win4Lin verzichtet auf zuviel Hardware-Emulation, kann dafür aber nur Windows unter Linux emulieren - mit deutlichen Geschwindigkeitsvorteilen gegenüber VMWare, wie ein Vergleichstest des Linux Journal bestätigt.

Sowohl das 1994 gestartete Bochs-Projekt als auch sein Nachfolger Plex86, dessen Entwicklung eine Weile vom Distributor Mandrake finanziert wurde, bemühen sich, VMWare nachzueifern. Beide sind jedoch relativ beschränkt und eignen sich kaum für die Verwendung von Windows unter Linux. Anders funktioniert das Open-Source-Projekt WINE. Es übersetzt Windows-Funktionsaufrufe in ihre entsprechenden Linux-Gegenstücke und macht so einfache Windows-Anwendungen auf Anhieb lauffähig, ohne dass man hierzu eine Windows-Installation benötigt. Das Problem ist der gigantische Umfang der Windows-Funktionsbibliothek und die unzureichende Dokumentation. Tatsächlich müssen die WINE-Hacker sogar die Bugs der Windows-API nachprogrammieren, damit Programme, die unter Windows laufen, auch mit WINE wie vorgesehen funktionieren. Nichtsdestotrotz laufen gerade kleinere Win32-Applikationen wie mIRC ohne große Schwierigkeiten unter Linux, wobei die Konfiguration teils immer noch recht umständlich ist.

WINE vereinfacht außerdem die Portierung von Windows-Programmen nach Linux - statt große Teile des Codes neu zu schreiben, werden nur die Teile angepasst, mit denen WINE Probleme hat. Die resultierenden Anwendungen verhalten sich zwar nicht wirklich wie Linux-Programme, lassen sich aber meist in annehmbarer Geschwindigkeit benutzen. Außerdem ist aus WINE das bereits erwähnte kommerzielle CrossOver-Projekt für die Verwendung von Windows-Plugins unter Linux hervorgegangen sowie Transgaming für Linux-Spiele (s.u.).


Pingus möchte den Suchtfaktor des Originals duplizieren. Warum allerdings die Pinguine sich genauso lebensmüde wie die Lemminge benehmen, bleibt unklar.

Für Aufsehen hat auch die Ankündigung einer neuen Linux-Variante namens Lindows gesorgt. Unter der Führerschaft von Ex-MP3.com-CEO Michael Robertson will das Unternehmen ein Linux entwickeln, das Windows-Applikationen auf Anhieb problemlos ausführt, wobei derzeit noch unklar ist, welche Technologie zu diesem Zweck verwendet werden soll. Wenn Lindows aber auf einem der genannten Projekte aufsetzt, dürfte es sich als Flop entpuppen, denn diese sind schlicht noch nicht so weit, die Werbeversprechen zu erfüllen.

Neben Windows sollen natürlich noch andere Betriebssysteme und Rechner von Linux nachgeahmt werden. Emulatoren für Spielekonsolen und alte Heimcomputer wie den Amiga oder den C64 gibt es auch unter Linux, wenngleich die Emulatoren-Szene unter Windows etwas größer ist. Auch alte MacOS-Versionen lassen sich z.B. mit Basilisk II mit durchaus brauchbarer Geschwindigkeit zum Laufen bringen.

"Have a lot of fun"? - Spiele unter Linux

Um erste Linux-Applikationen zu schreiben, auch grafische Anwendungen, benötigt man nur einen Computer, einen Internet-Zugang und genügend Motivation zum Lernen. Bei Spielen ist die Situation etwas anders: Der Entwickler kann hier oft nur in geringerem Maße auf fertige Programmbibliotheken zurückgreifen und muss große Teile der "Engine" des Programms selbst schreiben oder zumindest modifizieren, schließlich haben Spiele meist ganz eigene Oberflächen und Interfaces. Neben der Fähigkeit zu programmieren muss er, wenn es sich um ein Ein-Mann-Projekt handelt, ansehnliche Grafiken erstellen und Sounds mixen können. Grafiker und Sound-Experten werden sich wiederum selten einem Projekt anschließen, bei dem noch keine Vorarbeit in diesen Bereichen geleistet wurde.

Hinzu kommt, dass die GPL-Philoshopie von Open-Source-Entwicklern für Grafiker und Musiker nur in begrenztem Maße gilt: Die Tatsache, dass andere die eigenen Grafiken und Sounds modifizieren, schreckt viele Künstler eher ab als dass es sie motiviert - hier gibt es aus Sicht der Künstler ein klarer definiertes Ende, nach dem die Grafik oder der Sound nicht mehr verändert werden soll. Und weil die Nutzer Grafiken und Sounds als selbstverständlich betrachten, ist es auch unwahrscheinlicher, dass sie den Urhebern Worte des Dankes zukommen lassen, was eine nichtmonetäre Motivation wäre. Ganz besonders hier wären also neue Bezahlmodelle wünschenswert.


Das Weltraumballerspiel Parsec ist kostenlos und beeindruckt durch aufwendige Effekte.

Nichtsdestrotrotz existiert eine erstaunlich große Zahl von freien Spielen, die zumindest in ihrer konzeptuellen Komplexität den Windows-Gegenstücken das Wasser reichen können und teilweise auch mit hübschen Grafiken aufwarten. Dazu gehören das Antarktis-Rennspiel Tuxracer, das Weltraum-Ballerspiel Parsec und der Civilization-Clone FreeCiv. Sogar ein bereits recht weit fortgeschrittenes Projekt für eine beliebig einsetzbare Online-Rollenspiel-Umgebung, Worldforge, existiert. Freie Programmbibliotheken für 3D- und 2D-Spiele gibt es ebenfalls in großer Zahl, diese ersparen dem Programmierer aber wie gesagt nicht die Hauptarbeit.


Das flotte Pinguin-Rennspiel Tuxracer ist bei SuSE-Linux mit dabei.

Technische Hindernisse für die Programmierung von Linux-Spielen gibt es kaum, in Sachen Performance kann Linux leicht mit Windows und DirectX mithalten, sofern ein Treiber für die verwendete Grafikkarte existiert, der Hardware-Beschleunigung unterstützt. Zu verdanken hat das die Linux-Community unter anderem der Firma Loki Games. Loki lizenziert beliebte (aber meist ältere) Titel und portiert sie (zwecks kommerzieller Vermarktung) nach Linux. Zu diesem Zweck hat das junge Unternehmen eine Open-Source-Bibliothek namens SDL entwickelt, die eine Art Linux-Variante von DirectX ist (vgl. The DirectX Alternative von Howard Wen). Sie macht auch die Programmierung von Spielen für mehrere Plattformen leichter.

Die Loki-Spiele sind oft zu niedrigen Preisen zu haben (werden aber im Gegensatz zu den o.g. Spielen nicht im Quellcode weitergegeben). Zum Angebot gehören 3D-Actionspiele wie Descent 3 und Rune, Weltensimulationen wie Civilization: Call to Power und Alpha Centauri und auch Klassiker wie Sim City 3000 und Railroad Tycoon II. Loki würde natürlich auch gerne neuere Titel portieren, doch hier sind die von den Herstellern verlangten Lizenzgebühren meist zu hoch. Das Business ist ohnehin nicht besonders profitabel, so dass Loki im August 2001 Gläubigerschutz beantragen musste. Kein Wunder: Linux ist ein Nischenmarkt, Linux-Spiele sind eine Nische in der Nische, und alte Linux-Spiele ganz besonders. Doch Loki portiert trotz allem weiter, zuletzt die Psychokiller-Simulation "Postal".


Viele 3D-Shooter wie Unreal Tournament laufen auch unter Linux.

Anstatt Windows-Spiele zu portieren, entwickelt die Firma Transgaming eine Übersetzungsbibliothek für die Windows-API-DirectX, die DirectX-Funktionsaufrufe (z.B. "Spiele Sound x ab") in entsprechende Linux-Aufrufe übersetzt. WineX setzt auf dem bereits erwähnten WINE-Projekt auf, bemüht sich aber nicht darum, DirectX komplett zu implementieren, sondern versucht mit diesem Ansatz ausgewählte Spiele möglichst gut zum Laufen zu bringen. So wurde z.B. die Bibliothek extra für das Spiel "The Sims" optimiert, das nun unter Linux lauffähig ist. Das Spiel muss man dann separat als Windows-Version kaufen oder schon besitzen.

Das Geschäftsmodell sieht vor, eine bestimmte Zahl von Abonnenten zu gewinnen, die für 5$ im Monat Zugriff auf die gesamte Transgaming-Software erhalten und außerdem darüber abstimmen können, welche Spiele als nächstes auf Linux laufen sollen. Wenn 20.000 Abonnenten sich dem Projekt angeschlossen haben, soll der gesamte Quellcode unter der GPL freigegeben werden. Das Abo ist allerdings nur mit Kreditkarte möglich, womit vielen Europäern der Zugang verwehrt bleibt.


Spielehersteller Loki hat auch viele Klassiker wie Railroad Tycoon II nach Linux portiert.

Bleibt die Frage, warum nicht mehr Hersteller ihre Spiele nach Linux portieren - vermutlich sehen die meisten derzeit den nicht unerheblichen zusätzlichen Aufwand durch die Marktgröße von Linux nicht gerechtfertigt. Möglich ist auch, dass Microsoft seinen über die MS-Spielekonsole X-Box wachsenden Einfluss auf die Spielehersteller geltend macht, um wie im OEM-Bereich Restriktionen durchzusetzen. Sicher ist jedoch, dass der beste Weg, Spiele unter Linux zu unterstützen, der Einsatz von Linux ist.

Am Rande ist erwähnenswert, dass bestimmte Spielegattungen ursprünglichen unter Unix entwickelt wurden -- dazu gehören die textbasierten "Multi User Dungeon" (MUD) Rollenspiele, die immer noch existieren, aber auch sogenannte "Rogue"-Spiele, in denen der Spieler durch einen durch Text oder primitive Grafiksymbole dargestellten Dungeon wuseln muss (hier ist insbesondere Nethack zu erwähnen, das eine völlig eigene Welt schafft). Diese Spiele verfügen zum Teil über einen geradezu jugendgefährdenden Suchtfaktor. Die Lektüre des Quellcodes soll allerdings hinreichend desillusionierend sein.

Software-Entwicklung unter Linux und die BASIC-Verschwörung

Wer sich noch an DOS-Zeiten erinnert, der hat vielleicht selbst gelegentlich in BASIC oder Pascal das eine oder andere Programm geschrieben. Microsoft fügte seinem Betriebssystem sogar ein eigenes BASIC, QBASIC, bei. BASIC unterscheidet sich von Sprachen wie C und Java im Wesentlichen durch zwei Dinge: durch eine einfache Syntax und dadurch, dass prinzipielle Funktionen bereits in der Sprache selbst enthalten sind. Man muss sich nicht um das Erlernen von Bibliotheken oder APIs kümmern, sondern lediglich einen grundlegenden Befehlssatz kennen. Damit sind dann relativ leicht lesbare Programme wie 'IF NAME="OTTO" THEN PRINT "HALLO OTTOLI"' möglich. In C wäre das: 'if(strcmp(name,"OTTO")==0) printf("HALLO OTTOLI\n");', wobei vorher noch mit '#include <stdio.h>' die entsprechende Programmbibliothek eingelesen werden müsste.

BASIC ist unter professionellen Entwicklern verpönt, wobei sicherlich viel Elitismus eine Rolle spielt, aber auch die Tatsache, dass BASIC einige Sprachelemente einsetzt bzw. anbietet, die Programme ab einer gewissen Größe nicht mehr wartbar machen. Die Syntax ist weiterhin so weit von der von C & Co. entfernt, dass ein Umlernen gewisse Schwierigkeiten mit sich bringt. Und natürlich ist die Performance von BASIC der einer systemnahen Sprache wie C deutlich unterlegen. Tatsache ist jedoch, dass durch BASIC und ähnliche Einsteigersprachen (die teils, wie die Datenbank-Sprache Clipper, spezialisierter waren und teils, wie Pascal, schneller und komplizierter waren) es Nichtinformatikern ermöglicht wurde, akute Probleme mit relativ geringem Aufwand zu lösen. So konnten z.B. Astronomie-Fans ihre eigene Sternenhimmel-Simulation schreiben, oder Physiklehrer kleine Lernprogramme für den Unterricht. Während diese Hobby-Entwickler oft nicht über C-Kenntnisse verfügten, hatten sie Wissen, was auf der anderen Seite die meisten Profi-Programmierer nicht hatten, und konnten dieses Wissen so in sinnvolle Anwendungen umsetzen.

Eine mächtige Einsteiger-Programmiersprache sollte deshalb Bestandteil jedes Betriebssystems sein. Microsoft bietet für Windows kostenlos jedoch nicht viel mehr an als eine komplizierte, aber weitgehend nutzlose Skriptsrache namens VBScript, mit der sich Dateien verschieben und E-Mail-Viren programmieren lassen. Das kommerzielle Visual Basic gilt als kompliziert und langsam zugleich und ist ein wirres Gemisch aus Microsoft-Eigenentwicklungen und BASIC-Überbleibseln, das sich noch dazu mit jeder neuen Version verändert.

Visual Basic ist dafür ideal zum Zusammenbauen von Komponenten, die andere liefern. Das betrifft z.B. die Erstellung grafischer Oberflächen. So können Firmen mit geringem Aufwand eine Demo-Oberfläche für ihre Programme gestalten, mit der sich dann bei Präsentationen nichtexistente Funktionalität vortäuschen lässt. Es betrifft aber auch verschiedene Teilprogramme, die oft nur kommerziell angeboten werden -- da gibt es die Texteditor-Komponente, die Sound-Komponente oder die Bild-Darstellungskomponente usw. Man ziehe die entsprechenden "Controls" im Oberflächen-Designer an die richtige Stelle, und schon hat das Programm die entsprechende Funktionalität. Das ist sehr praktisch, hat mit Programmieren aber nichts zu tun. Und es hat die Konsequenz, dass die resultierenden Programme, wenn überhaupt, meist nicht im Quellcode weitergegeben werden können. Visual Basic ist auch gut geeignet für die Erstellung bestimmter Geschäftsanwendungen, vor allem solcher, die mit Datenbanken und Formularen zu tun haben.

Ein guter Maßstab für die Universalität einer Einsteiger-Programmierpsrache ist die Zahl und Qualität der in ihr programmierten Spiele. Denn Spiele erfordern hohe Performance und bestimmte Elementarfunktionen, lassen sich aber kaum aus Fertigkomponenten zusammenbasteln. Schaut man sich aber im Web nach Visual-Basic-Spielen um, sieht es recht düster aus. In der Visual Basic Game Programming Guide von about.com kann man z.B. mit viel Aufwand lernen, Klassiker wie Tic Tac Toe oder Lunar Lander nachzuprogrammieren. Entnervt gibt der Hobbyist auf, der etwas Anspruchsvolleres schreiben möchte.

In den alten DOS-BASIC-Dialekten war das noch anders - die Syntax war simpel und die Performance ausreichend -, aber auch dort war die Funktionalität von BASIC oft stark eingeschränkt. So waren die meisten BASICs von Haus aus nicht in der Lage, SVGA-Grafik auszugeben, was sie für aufwendigere Spiele weitgehend unbrauchbar machte. Weiterhin gab es Speicherbeschränkungen und fehlerhafte Funktionsbibliotheken, auch und vor allem beim Marktführer Microsoft.

Wenn man sich an die Microsoft-Memos aus dem Antitrust-Verfahren erinnert, fällt auf, dass Microsoft gegen Netscape und Java vor allem aus Angst um die Windows-Plattform vorgegangen ist. Neben einem Interesse an dem Erhalt des OS-Monopols möchte MS aber natürlich auch die bestehende Marktaufteilung im allgemeinen Software-Markt erhalten. Zu gute Entwicklerwerkzeuge wären hier nur fehl am Platz, sie würden es Amateuren erlauben, mit Corel, Adobe & Co. zumindest in Nischen zu konkurrieren. Statt dessen muss Software-Entwicklung so kompliziert sein, dass sie nur mit kommerzieller Hilfe oder Motivation möglich ist.

Ob zu DOS-Zeiten die entsprechenden Werkzeuge bewusst sabotiert wurden, ist schwer zu sagen -- man darf nicht DR-DOS vergessen, das von Microsoft laut Aussagen von Hersteller Caldera in Verbindung mit Windows absichtlich unbrauchbar gemacht wurde. "Wir sollten dem Nutzer die Option geben, nach der Warnung [Windows auf DR-DOS auszuführen] fortzufahren, jedoch sicher nach einer gewissen Zeit einen Absturz verursachen", zitiert Caldera eine MS-interne Email von Windows-Entwicklungschef David Cole. Bei BASIC hätte man die wenigen Hersteller sicherlich leicht dazu bringen können, für semiprofessionelle Zwecke unbrauchbare Versionen zu verteilen. Allerdings war die DOS-Architektur so bizarr, dass das vielleicht gar nicht nötig war. Genügend Motivationen, die freie Entwickler-Szene zu sabotieren, hatte und hat Microsoft jedenfalls sicher. Und der Wegfall einer freien Entwicklungsumgebung im Lieferumfang von Windows spricht Bände.

Immerhin gibt es mit Borland Delphi seit einiger Zeit einen Pascal-Nachfolger auch für die Entwicklung von grafischen Applikationen unter Windows (ein eindrucksvolles Beispiel ist das Spiel Civ: Evolution). Und der Delphi-Nachfolger Kylix erzeugt sogar Windows- und Linux-Applikationen aus dem gleichen Quellcode. Unter Linux ist das Angebot an Programmiersprachen ohnehin gigantisch: BASIC, Pascal und andere Klassiker sind ebenso vorhanden wie die modernen Skriptsprachen Python, Perl, PHP, Pike, Rebol und Ruby. Python lässt sich dank der Pygame-Bibliothek in Verbindung mit SDL einsetzen, so dass auch Spieleprogrammierung relativ leicht möglich wird. Grafische Applikationen lassen sich dank wxPython und Anygui plattformunabhängig erstellen. Von ihrem Schöpfer Guido von Rossum wird Python als die ideale Programmiersprache für Anfänger gesehen, und vielleicht ist sie das auch: In den letzten Jahren hat die Skriptsprache einen Siegeszug auf Servern und Desktops angetreten.

Daneben gibt es natürlich die C/C++- und Java-Compiler und Entwicklungswerkzeuge. Dazu gehören integrierte Entwicklungsumgebungen, die das Editieren und Verwalten von Klassen, Eigenschaften und Methoden vereinfachen. Unter KDE mausert sich z.B. KDevelop zunehmend als Konkurrenz für Microsofts teures "Visual Studio". Von theKompany gibt es mit BlackAdder für Skript-Sprachen und KDE Studio für C/C++ gleich zwei kommerzielle Entwicklungsumgebungen. Trolltech liefert den freien Qt-Designer für die Gestaltung von Oberflächen, das entsprechende Gegenstück für GNOME ist Glade. Beide Programme machen die Erstellung professioneller Programmdialoge sehr einfach.

Die Skript-Sprache REBOL zeigt allerdings, dass es noch einfacher geht: Sie erinnert an den BASIC-Ansatz, einen möglichst großen Befehlssatz bereitzustellen. So kann man z.B. mit dem Befehl "send bla@bla.com read http://www.heise.de" den Inhalt einer Web-Site per Email verschicken, oder mit 'view layout [button 'Quit #"q" [quit]]' ein Formular samt Ende-Button erzeugen. REBOL ist jedoch proprietär und findet deshalb in der Entwickler-Gemeinde wenig Anklang - hier besteht immer die Gefahr, dass die Sprache obsolet wird, wenn die Firma Konkurs anmeldet, oder dass für die Weitergabe kostenloser Programme zu bezahlen ist. Es ist jedoch abzusehen, dass Linux mittelfristig auch Hobbyisten die einfache Entwicklung von ansehnlichen Anwendungen erlauben wird, während man davon ausgehen muss, dass Microsoft solche Trends mit allen Mitteln zu verhindern sucht (gerade eine einheitliche Runtime für mehrere Sprachen, wie von .NET vorgesehen, würde dazu den notwendigen Hebel liefern).

Portierbarkeit

An dieser Stelle sei angemerkt, dass viele der besprochenen Open-Source-Programme, inkl. der Entwicklungswerkzeuge selbst, auch in Windows-Versionen existieren. Das liegt an der großen Portierbarkeit von UNIX-Software, die zum einen den offenen Bibliotheken und Compilern und zum anderen dem POSIX-Kompatibilitäts-Standard zu verdanken ist, der von jedem Betriebssystem implementiert werden kann. Windows-Programme lassen sich dagegen nur mit großen Schwierigkeiten und unter Zuhilfenahme von Krücken wie WINE auf andere Betriebssysteme übertragen. Nichtsdestotrotz laufen Linux-Programme unter Windows oft nur eingeschränkt und vermitteln einen wenig akkuraten Eindruck ihrer Funktionalität: Oft wurden die entsprechenden Portierungen schnell als "Proof of Concept" zusammengebastelt und dann ignoriert. Windows als Betriebssystem und ansonsten weitgehend freie Software zu verwenden ist ein wenig gangbarer und wenig sinnvoller Weg.

Installation neuer Programme

Obwohl Distributoren wie SuSE eine riesige Programmauswahl auf ihre CDs und DVDs packen, erfassen sie nur noch einen winzigen Bruchteil der tatsächlich vorhandenen Programme. Und auch sonst gibt es oftmals Gründe, neue Programme zu installieren oder alte upzudaten. Prinzipiell gibt es zwei unterschiedliche Arten, Programme zu installieren: Man erzeugt aus dem Quellcode (meist C/C++) mit einem Compiler Binärdateien, oder man installiert vorkompilierte Linux-Binaries. Ersteres ist einfacher, als man zunächst denkt: Wenn man Glück hat, ist es damit getan, nach dem Entpacken des Archivs drei Befehle in der Shell einzugeben, nämlich "./configure", "make" und "make install". Der Befehl "make" bezieht sich auf ein sogenanntes "Makefile", das die Kompilations- und Installationseinstellungen enthält. Diese muss man in manchen Fällen ändern, wenn z.B. Red Hat und SuSE Mist gebaut und sich nicht auf einen einheitlichen Ort und Namen für eine bestimmte Programmbibliothek geeinigt haben. "make install" verschiebt die Binärdateien in das entsprechende Zielverzeichnis, also z.B. "/usr/local/bin".

So kompliziert ist es also gar nicht, Programme zu übersetzen, und man kann gleich die Gelegenheit nutzen, einen Blick auf den Code zu werfen. Vergleichsweise idiotensicher (und zumindest in der Theorie einfacher als unter Windows) ist die Installation von Programmpaketen, die Binärdateien enthalten. Mit Hilfe eines "Paketmanagers" lassen sich diese Spezialdateien installieren, deinstallieren und updaten, wobei das auf der Shell-Ebene, aber auch über grafische Menüs geschehen kann.

Das Problem hierbei ist allerdings (wieder einmal), dass die Distributoren sich nicht auf einen Standard einigen können. Es gibt unterschiedliche Paketstandards (im Wesentlichen Red Hat und Debian) und unterschiedliche Paketmanager und Front-Ends, die nicht unbedingt optimal miteinander auskommen. Besonders bei der Auflösung von Abhängigkeiten (Paket X erfordert Paket Y) kann es zu Problemen kommen. Weiterhin fehlt es hier besonders bei SuSE an klaren Instruktionen. Hat man sich an einen Paketmanager gewöhnt, ist das Verfahren meist einfacher als bei Windows, denn die üblichen Installationsschritte (Verzeichnisauswahl usw.) entfallen.

Die mangelnde Standardisierung ist nicht nur das Ergebnis von Inkompetenz, sondern auch der Versuch der Distributoren, eine mögliche Einnahmequelle zu kontrollieren, wie z.B. im Falle von Red Hat über das "Red Hat Network" für Online-Updates. Auch die GNOME-Macher Ximian wollen sich den Distributionskanal sichern: In GNOME ist das sogenannte "Red Carpet" System enthalten, mit dem man verschiedene Software- und Info-Kanäle abonnieren und auch Software kaufen kann. Das Geschäftsmodell ist in beiden Fällen leicht nebulös, da sowohl die Bandbreite als auch die Kataloge von Freiwilligen bereitgestellt werden können.

Allen ein wenig in die Suppe gespuckt hat Debian: Die nichtkommerzielle Distribution verfügt seit einiger Zeit über das Tool "apt-get", das, einmal erlernt, sehr komfortabel und schnell das gesamte System auf den neuesten Stand bringt oder Programme aus dem Internet installiert. Dabei nutzt Debian ein Netz von internationalen FTP-Servern (meist von Unis oder Pro-Linux-Unternehmen), die entsprechende Paket-Serien spiegeln. Dummerweise verwendet Debian wie gesagt einen eigenen Standard, während die meisten Pakete im rpm-Format weitergegeben werden.

Solange der Markt sich in diesem Bereich noch nicht sortiert hat, wird die Installation von Programmen unter Linux unnötig kompliziert bleiben. Theoretisch ist ein System, bei dem Software aus einem verteilten, dezentralen Archiv geholt wird, von den Nutzern mit Bewertungen und Kommentaren versehen werden kann und bei Bedarf vollautomatisch aktualisiert wird, mit der heutigen Technik möglich. Damit wäre Windows in Sachen Programminstallation eindeutig überflügelt.

Sicherheit

Ein wesentliches Kriterium für den Einsatz von Linux durch die öffentliche Verwaltung ist natürlich die Frage, inwieweit Sicherheit durch ein proprietäres System überhaupt gewährleistet werden kann. Besonders Microsoft-spezifische Würmer wie Nimda und Code Red, die Hunderttausende von Web-Servern infizierten, haben diese Frage erneut aufgeworfen. Die Vorgehensweise der Würmer ist dabei meist ähnlich: Ein bestimmtes Sicherheitsloch, das zwar bereits bekannt, aber von den meisten Administratoren noch nicht gestopft worden ist, wird ausgenutzt, und der Server wird als Wirt für die weitere Verbreitung verwendet. Teilweise werden auch Nutzer, die auf die entsprechenden Websites zugreifen, über Sicherheitslöcher im Web-Browser (meist Internet Explorer) infiziert.

Daneben gibt es noch die bekannten E-Mail-Viren à la ILOVEYOU, SirCam und Melissa, die teils vom Nutzer die Ausführung von Mail-Attachments verlangen, teils bequemerweise vom Mail-Client (meist Outlook / Outlook Express) automatisch ausgeführt werden (wodurch sie per Definition zu Würmern werden). Auch diese Viren/Würmer betrafen bisher ausschließlich Microsoft-Systeme. Und zu guter Letzt liefert Microsoft mit einigen Office-Programmen noch Viren-Programmiersprachen, so dass sogar Word-Dokumente infektiös sein können. Die meisten Entwickler digitalen Ungeziefers scheinen krank, aber nicht psychopathisch zu sein, denn ihre Produkte sind in der Regel weitgehend harmlos. Eine Ausnahme bildet der SirCam-Virus, der private Dokumente verschickt (ich habe auf diesem Wege bereits an die 100 Megabyte Excel-Tabellen und Word-Dateien erhalten).

Die dramatische Diskrepanz zwischen der Zahl von Schädlingen auf Microsoft-Systemen und der auf Konkurrenten wie Linux wird oft der geringen Verbreitung von Nicht-MS-Plattformen zugeschrieben. Im Falle von Apache ist dies jedoch wie schon mehrfach zitiert unrichtig, die Zahl der Apache-Webserver war 2001 rund doppelt so groß wie die des Microsoft-Gegenstücks IIS. Doch einen "Code Red" für Apache gab es bisher nicht und kann es in dieser Form auch kaum geben. Das hat mit mehreren Faktoren zu tun:

1. Das schon beschriebene Unix-Rechtekonzept, das die Veränderung nichtzugänglicher Dateien unmöglich macht. Die Notwendigkeit eines ausgeklügelten Rechtekonzepts wird auch von Microsoft nach und nach erkannt und sollte die Zahl von Viren und Würmern unter Windows reduzieren.

2. Die fehlende Monokultur, die einheitliche Vorgehensweisen für Viren und Würmer unmöglich macht -- selbst die unterschiedlichen Linuxe sind oft sehr unterschiedlich konfiguriert, und daneben läuft Apache auf zahlreichen anderen Betriebssystemen.

3. Der sehr offene Umgang mit Bugs, der zu einer schnellen Verbreitung kritischer Informationen zu den Administratoren führt. Kritische Fehler werden eher behoben, als wenn sie wie von Microsoft gewünscht und praktiziert möglichst lange unter den Teppich gekehrt werden.

Unix-Administratoren wird von Unix-Fans natürlich auch ein größeres Sicherheitsbewusstsein zugeschrieben. Dies dürfte aber von geringerer Bedeutung sein als das eigentliche Open-Source-Entwicklungskonzept. "Bei einer genügend großen Zahl von Augäpfeln sind alle Bugs behebbar", schreibt Eric Raymond. Tatsächlich wird Apache wohl stärker unter die Lupe genommen als die meisten anderen Open-Source-Programme, während den Microsoft-Quellcode derzeit nur eine kleine Schar von Firmenangestellten und Auserwählten zu Gesicht bekommt. Dass die Auffindbarkeit von Bugs proportional zur Zahl der Bug-Suchenden steigt, sollte keiner weiteren Beweisführung bedürfen.

Was nicht heißt, dass Unix keine Würmer und Viren kennt. Problematisch sind Unix-Altlasten wie der FTP-Server wuftpd, Kernel-Fehler und neue, ungetestete Programme (s. auch SANS-Liste der kritischsten Sicherheitslöcher unter Unix und Windows). Deshalb sollte eigentlich keine Linux-Distribution Server installieren, wenn dies nicht explizit vom Nutzer gewünscht wird. Leider halten sich daran längst nicht alle Distributoren. Weiterhin ist, wie bereits beim Thema Installation beschrieben, die Aktualisierung von Software noch unnötig umständlich, was im Problemfall die Installation von Patches verhindern könnte. Microsofts "Windows Update" funktioniert hier theoretisch besser, war aber praktisch selbst kurzzeitig von "Code Red" betroffen: Ein solches Aktualisierungssystem bringt einen Wartungsaufwand mit sich, den Microsoft allein kaum leisten kann. Email-Viren sind ebenfalls eine Microsoft-Spezialität, die allerdings mit dem in Windows XP erweiterten Rechtekonzept hoffentlich bald der Vergangenheit angehört.

Auch das Linux-Rechtekonzept kann noch verbessert werden. So kann über sogenannte Capabilities Nutzern und Prozessen genau mitgeteilt werden, was sie dürfen und was nicht - einem Nutzerprozess kann z.B. der Zugriff auf die Rechner-Uhr gestattet oder untersagt werden. Die Linux-Capabilities sind jedoch noch nicht sehr weit fortgeschritten, wie eine FAQ erklärt. Deshalb muss man sehr häufig den "allmächtigen" Superuser verwenden, um bestimmte Standardaufgaben durchzuführen, was immer ein erhebliches Sicherheitsrisiko darstellt. Auch hier dürfte es sich von selbst erklären, dass bei einem offenen Betriebssystem solche neuen Sicherheitsmodelle schneller Verbreitung finden als bei proprietärer Software, die nach Marktkritierien entwickelt wird.

Die bisherigen Microsoft-Würmer sollte man als nette Warnungen verstehen. Trotzdem hat die Installation von Microsoft IIS im Zeitraum nach den Angriffen zugenommen. Ein wirklich boshafter Virus oder Wurm würde jedoch weit mehr tun als nur Dateien verschicken: Er würde innerhalb weniger Tage Zeitbomben auf Hunderttausenden Rechnern installieren, sowohl auf Privat-PCs als auch auf Servern, die bei der Detonation Festplatten und BIOS-Flash-Speicher unbrauchbar machen. Der CIH-Virus ist ein gutes Beispiel für die mögliche Destruktivität von Viren. Ein anderer Virus missbrauchte Notruf-Nummern über an die PCs angeschlossene Modems.

Man muss sich ins Gedächtnis rufen, dass Code Red und Nimda bekannte Sicherheitslücken ausnutzten. Deshalb war es relativ leicht, die entsprechenden Patches zu installieren, und viele Systeme waren nicht betroffen. Wenn ein Cracker aber sowohl Sicherheitslücken im IIS als auch im Internet Explorer findet und diese Microsoft nicht mitteilt, sondern einsetzt, um einen Wurm zu schreiben, könnte das weitaus weitreichendere Folgen haben.

Je mehr kritische Infrastruktur von PCs abhängt, desto größer wird das Risiko einer globalen Katastrophe aufgrund von Angriffen. Die Presse hat bei Code Red & Co. meist von "Internet-Würmern" gesprochen und Microsoft kaum namentlich erwähnt - so wird an den Problemen vorbeigeredet. Die Schaffung einer offenen Software-Infrastruktur, auf Servern wie auf Clients, ist von elementarer Bedeutung, und nichts ist hier wichtiger als das Betriebssystem selbst. Ein verantwortungsbewusster Staat muss die richtigen Weichen stellen, wenn es nicht eines Tages zu EDV-Angriffen kommen soll, die nicht nur finanziellen Schaden verursachen, sondern auch Menschenleben kosten.

Performance

Eines der am häufigsten diskutierten Themen ist natürlich die Linux-Performance im Vergleich zu Windows. Darauf soll hier aber nicht im Detail eingegangen werden, da Benchmarks eine höchst komplexe Problematik sind und sehr leicht verfälscht werden können. Generell gilt: Programme in Hochsprachen sind langsamer als in systemnäheren Sprachen, umfangreiche Programmbibliotheken können die Performance beeinträchtigen, grafische Oberflächen sind grundsätzlich recht performancehungrig und komplette Desktop-Environments (wie unter Windows unvermeidbar) erst recht. Die C/C++-Compiler sind mittlerweile auf beiden Plattformen so gut optimiert, dass die Programme selbst von entscheidender Bedeutung sind. Weil man unter Linux bei Bedarf so ziemlich auf jeden grafischen Schnickschnack verzichten und ein Programm sogar von Hand auf die notwendigen Grundfunktionen reduzieren kann, ergibt sich hieraus logisch eine theoretisch deutlich höhere Performance besonders für Server.

Dafür sind grafische Oberflächen unter Linux tendenziell etwas langsamer als unter Windows (insbesondere, wenn sie von ähnlicher Komplexität sind), weil sie über mehrere Abstraktionsebenen arbeiten, was ja auch heißt, dass der Absturz von GUI-Komponenten nie das Betriebssystem mitnehmen kann. Windows ist eben ein reines GUI-System, was den notwendigen Overhead ein wenig reduziert. Außerdem lässt sich bei einem Linux-System praktisch jede Komponente durch eine andere austauschen. Allerdings ist der so verursachte Overhead konstant, so dass er bei modernen Systemen kaum noch auffällt. Man könnte auch in Linux systemnähere GUIs entwickeln, dies ist jedoch aus Sicherheitsgründen verpönt. Zumindest für Spiele existiert mit DirectFB ein entsprechendes Projekt.

Lokalisierung

Wenn es um die Eindeutschung des Betriebssystems geht, ist die Lage sehr unterschiedlich, je nachdem, wie weit verbreitet ein Programm ist und wie leicht die Übersetzung programmtechnisch möglich ist. Insbesondere KDE verfügt rein technisch über gute Lokalisierungs-Standards, und ein großer Teil der KDE-Applikationen wurde in viele Sprachen übersetzt. Fast alle wichtigen Anwender-Programme sind in deutscher Sprache verfügbar. Auf der Systemebene sieht es weniger gut aus, Befehle, Hilfebildschirme und Dokumentation sind oftmals nicht oder nicht vollständig lokalisiert. Wer also ein Linux-System administrieren will, kommt um Englischkenntnisse kaum herum, wer es nur nutzen will, kann zunehmend darauf verzichten.

Dokumentation

Sobald man damit beginnt, den SuSE-Desktop zu erkunden, ist man relativ allein auf weiter Flur. Das "SuSE-Hilfezentrum" erschlägt den Nutzer mit HOWTOs, man-pages, KDE-eigenen Hilfedateien und kompletten Büchern, aus denen man sich selbst die passenden heraussuchen darf. Übersichten oder Guides sind schwer zu finden, Bewertungen fehlen. Mit dem Browser und Google findet man oft schneller die richtigen Informationen.

Hier könnte man Informationen stärker bündeln, mit einer kleinen Zahl von vielleicht vier oder fünf prinzipiellen Übersichts-Guides (z.B. Shell, GUI, Installation von Software, Konfiguration des Systems, Programmieren), die jeweils auf Detaildokumente verweisen. In den Papier-Handbüchern der Personal-Version gelingt dies mangels Umfang kaum, aber das ist ja auch nicht nötig. Jedes relevante Dokument, das im System installiert ist, sollte über einen eindeutigen Schlüssel erfassbar sein - für die "man-Pages", die Kurzanleitungen zu allen wesentlichen Programmen, gilt das bereits, für umfassende Manuals, FAQs, Readmes, Bücher, KDE-Hilfedateien usw. aber nicht. Nur so sind jedoch eindeutige Querverweise möglich.

Noch wichtiger ist, dass jede Distribution dem Nutzer auf einfachem Wege Kommunikationskanäle mit anderen Usern geben muss, die durchaus auch Neulinge ("Newbies") sein können. Es gibt z.B. im Internet Relay Chat (IRC) etliche Kanäle für Newbies, in denen diese sich gegenseitig beraten -- das funktioniert, da im Linux-Bereich von niemandem erwartet wird, "alles" zu wissen. Diese Kanäle muss sich der Neueinsteiger aber erst mühsam erschließen. Kennt er IRC schon von Windows her, benötigt er oft noch einen "ident-Dämon", der seinen Hostnamen an den IRC-Server weitergibt, um Missbrauch zu verhindern -- und muss einen Kanal suchen, in dem er mit anderen Linuxern chatten kann. Der richtige Newbie ist schon bei Schritt 1 überfragt.

Ein einfaches Icon "Internet-Community für Neueinsteiger" auf dem Desktop würde da vieles leichter machen. Wenn die Community an eine bestimmte Distribution gebunden ist, kann der Distributor auf diesem Wege außerdem zu geringen Kosten sein "Branding" beim Nutzer dauerhaft erhöhen und womöglich sogar Einnahmequellen mit dieser Community verbinden. Allerdings ist es mit dem simplen Icon auch wieder nicht getan, denn Community-Building erfordert Arbeit, um zu verhindern, dass Neulinge durch arrogante Elitisten ("Read the fucking manual!") im Channel abgeschreckt werden. Hier muss durch Moderation eventuell Freundlichkeit vor Kompetenz gestellt werden: Newbies brauchen jemanden, der virtuell Händchen hält. Es gibt ja durchaus auch Linux-Nutzer, die das gerne tun.

Diese Probleme sind nicht tödlich, aber sie machen vielen Einsteigerfrust mit Linux begreiflich. Es ist gar nicht so wichtig, Windows möglichst in allen Aspekten nachzuahmen, um den Einstieg leichter zu machen. Wer unter Texteditor bislang "so etwas wie Notepad" verstanden hat, der wird verblüfft sein von der Vielzahl von Möglichkeiten, die ein echter Editor wie vim bietet: Mühelos formuliert der Profi Filter wie "Ersetze jedes Wort in Anführungszeichen am Anfang einer Zeile durch das gleiche Wort ohne Anführungszeichen in Großbuchstaben, aber nur, wenn das darauffolgende Wort mit einem Vokal beginnt". In normalen Texten ist so etwas von begrenzter Wichtigkeit (dort ist die Komplexität von vim eher störend), aber der Programmierer oder HTML-Designer wird sich darüber, über die automatische farbliche Hervorhebung von Schlüsselworten oder Sonderzeichen, automatische Klammerprüfung usw. usf. freuen. Jedoch der Linux-Einsteiger wird sich nach dem Start von vim erst einmal zwei Dinge fragen: "Wie zum Teufel gebe ich hier Text ein?" Und dann: "Wie zur Hölle komme ich hier wieder raus?!"

Distributoren dürfen nicht den Fehler machen, mit der Weiterentwicklung von KDE & Co. Linux-Einsteigern nur die Einsteiger-Werkzeuge zu erklären und sollten zumindest gute Übersichten über die vorhandene Dokumentation liefern. Sonst bleiben viele der Vorteile von Unix unsichtbar.


Teil 5: Wessen Morgen ist der Morgen?

Hobbyisten und Firmen tragen gleichermaßen dazu bei, dass der gemeinsam genutzte Pool an freiem Wissen und freier Software stetig wächst. Doch die Vielzahl unterschiedlicher Lösungen führt immer häufiger zu Verwirrung und Chaos beim Endnutzer. Die oft stark unterschiedliche Qualität freier Lösungen und ihre verteilte Speicherung machen außerdem neue Ansätze bei der Bewertung und Auswahl von Software erforderlich. Aber auch durch neue Geschäftsmodelle, einfache Zahlungsverfahren und bessere Verteilung von nicht-technischen Arbeitsvorgängen könnten Normalnutzer stärker in die Entwicklung einbezogen werden. Die entsprechende Technologie kann langfristig dramatische Auswirkungen auf Politik, Wirtschaft und Gesellschaft haben.

Beinahe jeder Satz, der mit "Linux ist .." anfängt, ist falsch. Selbst der Betriebssystem-Kern existiert in zahlreichen unterschiedlichen Varianten, angepasst an verschiedene Anwendungsfälle und Hardware-Konstellationen. Dank Open Source kann nahezu jeder Teil eines GNU/Linux-Systems individualisiert und verbessert werden. Dazu muss man kein Hacker sein: Um z.B. einige Dialog-Texte und Tastenbelegungen in einem Programm zu ändern, genügt ein grobes Verständnis der Struktur, das Kompilieren ist dank der GNU-Tools im Normalfall mit drei bis vier Befehlen erledigt.

Die Linux-Distributionen wie SuSE und Red Hat unterscheiden sich dann auch in zahlreichen Einzelheiten. Unterschiedliche Installations-Programme, Hardware-Erkennung, Software-Auswahl, Update-Systeme und Paket-Manager, Verzeichnis-Strukturen, Dateinamen, Wartungs-Skripte, Konfigurations-Dateien und Front-Ends usw. dienen den Distributoren als Hervorhebungs-Merkmale oder sind Nebeneffekt der separaten Entwicklung. Manchmal entsteht dabei fast der Eindruck, es handle sich um unterschiedliche Betriebssysteme. Interoperabilität kann dabei nicht immer gewahrt bleiben. Besonders bei der Installation von Programmen trifft man immer häufiger auf Pakete für die unterschiedlichen Distributionen. Ein RPM-Paket für Red Hat, ein RPM für SuSE, ein RPM für Mandrake, ein DEB für Debian, ein TGZ für Slackware ..

Klar, dass ein Paket oft nicht in einer Spezial-Version für die gewünschte Distribution vorhanden ist. Das ist meist kein Problem, doch in Einzelfällen kommt es zu Konflikten: Eine Programmbibliothek liegt im "falschen" Verzeichnis und wird nicht gefunden, oder eine abhängige Bibliothek ist nicht installiert und muss mühsam per Suchmaschine lokalisiert werden (ganz ähnlich wie bei fehlenden DLLs unter Windows, nur häufiger). Oft muss man dann in der Kommandozeile herumhangeln und das Programm von Hand kompilieren.

Diese Probleme wären vermeidbar, wenn sich die Distributoren über den Paket-Standard und die Verzeichnisstruktur einig würden. Vom Standard abweichende Verzeichnisstrukturen und Dateinamen wären mittels einer ebenfalls standardisierten Datenbank, die entsprechende Zuordnungen zwischen dem Standard und den Abweichungen vornimmt, immer noch möglich. Statt dessen gibt es gerade hier einen regelrechten Kleinkrieg zwischen den Distributoren.

Die Linux Standard Base

Für Standardisierung ist eigentlich die Linux Standard Base zuständig. Sie wurde 1998 vor allem als Resultat der Aktivitäten des Open-Source-Evangelisten und Ex-Debian-Hackers Bruce Perens gegründet (Original-Ankündigung). Schon kurz nach ihrer Gründung kam es zum Eklat: Perens wollte zuviel standardisieren, bis hin zum Desktop. Sogar ein Referenzsystem wollte er bauen. Es bildete sich eine ungewöhnliche Allianz zwischen den Hackern des nichtkommerziellen Debian-Projekts und dem extrem kommerziell ausgerichteten Distributor Red Hat. Red Hat begrüßte die Bemühungen um einen Standard zwar grundsätzlich, aber CEO Bob Young wurde zitiert, mit der Zeit standardisiere sich Open Source Software eigentlich von ganz alleine.

Red Hat und Debian einigten sich dann in einem "Akt der Meuterei", wie Freshmeat berichtete, auf einen separaten Standard, der nur wenige wesentliche Systemeigenschaften vereinheitlichen sollte. Perens verließ schließlich die LSB, die daraufhin mehrfach neu besetzt wurde und nun von George Kraft dem Vierten, Linux-Abgesandter von IBM, geleitet wird. Mittlerweile wurde immerhin Version 1.0 der LSB-Spezifikation verabschiedet, die so kritische Komponenten wie Binär-Dateien, Standard-Bibliotheken und Verzeichnishierarchie zumindest zu Teilen standardisiert.

Wenig überraschend finden sich Red Hat und Debian nun wieder auf unterschiedlichen Seiten wieder. Teil der LSB ist nämlich eine Empfehlung, das von Red Hat favorisierte Format RPM für die Software-Paketverwaltung zu verwenden. Von Debian-Nutzern wurde diese Empfehlung bislang weitgehend ignoriert. "Das .deb-Format ist dem .rpm-Format weit überlegen", erklärt Debian-Mitentwickler Ian Jackson, der die ersten Versionen des Debian-Paketmanagers schrieb. "Es gibt, soweit ich weiß, keinerlei Pläne, umzusteigen." Die Installation von Software unter Debian sei wesentlich reibungsloser als unter anderen Linux-Distributionen, weil Abhängigkeiten (Paket A benötigt Pakete X, Y und Z, die wiederum ..) besser aufgelöst werden.

Darin sind sich Debian-Nutzer und RPM-User häufig sogar einig, doch das RPM-Format war zum Zeitpunkt der Standardisierung weiter verbreitet. Die naheliegende Lösung, einen gemeinsamen Nachfolger zu definieren, kommt den Debian-Hackern jedoch nicht in den Sinn: "Soweit es mich betrifft, sehe ich keinen Grund, warum Debian irgendein anderes Format verwenden sollte. Wir werden unser Format natürlich weiter verbessern", so Jackson. Bei der LSB gibt es immerhin eine Task-Gruppe, die genau einen solchen Standard definieren soll. Die letzten zehn Nachrichten auf deren Mailing-Liste wurden in den Monaten Februar bis Juli 2001 gepostet. "Wir haben die richtige Zahl von Leuten auf das Problem angesetzt, sie haben nur im Moment andere Prioritäten", so George Kraft IV.

Anfang 2002 will man damit beginnen, Linux-Hersteller gemäß der LSB zu zertifizieren. Das könnte ein Grund für zögerliche Hersteller wie Red Hat sein, dem Standard zu folgen. Die SuSE AG hat sich dagegen von Anfang an an dem Standardisierungs-Vorhaben beteiligt und setzt die Spezifikationen als einer von wenigen Distributoren vollständig um.

Juckreizmangel

Es fällt auf, dass an dem so bedeutenden LSB-Projekt nur wenige Freiwillige beteiligt sind. Das bestätigt zu einem gewissen Grad das "Scratch an Itch" Erklärungsmodell, das oft für Open-Source-Software angeführt wird: Es geht den Beteiligten in erster Linie darum, eigene Probleme zu lösen, den eigenen Juckreiz zu stillen. Große Vorhaben wie Standardisierung sind zwar elementar, machen aber aus individueller Sicht nur sehr langfristig Sinn. Das ist um so problematischer, als gerade die kommerziellen Distributoren in der Frage der Standardisierung natürlich nicht unparteiisch sind.

Wie in Teil 5 beschrieben, bietet Red Hat mit seinem abonnierbaren "Red Hat Network" einen kostenpflichtigen Update-Service an, was jedoch im Widerspruch zu einem vollautomatischen, kostenlosen und einfachen Paket-Aktualisierungs-System wie bei Debian steht. Auch Desktop-Firma Ximian möchte mit "Red Carpet" einen kommerziellen Software-Abo-Service etablieren.

Weiterhin gehen natürlich mit Standardisierung Unterscheidungsmerkmale verloren, die unter Umständen einer Distribution einen Vorteil vor einer anderen verschaffen. Solche Überlegungen sind alles andere als langfristig: Wenn Desktop-Umsteiger Linux als schwer bedienbar und wartbar erleben, werden sie sich schnell in die ganz bestimmt einheitliche Fensterwelt aus Redmond zurückwünschen.

Es gibt keinen Mechanismus in der Free-Software-Welt, der sicherstellt, dass das, was sich alle wünschen, auch implementiert wird. Als Nichtentwickler kann man häufig lediglich auf die Open-Source-Dynamik hoffen und eventuell ein paar Emails schreiben. Die LSB beabsichtigt auch keinerlei Linux-User-Umfragen: Dies sei wie eine Umfrage über Mayonnaise oder Senf zum Mittagessen und würde nicht funktionieren, meint George Kraft. Wer Einfluss nehmen wolle, müsse sich einfach an den Diskussionen auf den Mailing-Listen beteiligen.

Interessengruppen wie IBM und Red Hat können in solchen isolierten Grüppchen starken Einfluss ausüben. Würde dagegen eine große Zahl von Nutzern über öffentliche Abstimmungssysteme in den Standardisierungs-Prozess eingebunden, wären mehrere typische Medien-Effekte die Folge: Von besonders vielen Nutzern als wichtig empfundene Entwicklungen würden auch von einer größeren Zahl von Entwicklern in Angriff genommen (ähnlich dem Effekt, den ein News-Posting bei Slashdot oft auf ein Open-Source-Projekt hat), und wer diese Ziele sabotieren wollte, würde in den Open-Source-Medien besondere Kritik erfahren.

Veraltete Werkzeuge

George Krafts Verweis auf die Projekt-Mailing-Listen der LSB offenbart ein typisches Problem der Open-Source-Community: Die Bewegung verwendet in vielen Bereichen noch die gleichen Werkzeuge wie zur Linux-Anfangszeit vor zehn Jahren. Zur Projektkoordination sind das vor allem Newsgroups und Mailing-Listen, bei denen alle Probleme durch Diskussion ausgeräumt werden sollen, und die schon wegen des zur Beteiligung notwendigen Zeitaufwands nur einer Minderheit wirklich zugänglich sind.

Mailing-Listen sind Listen von Email-Adressen, die eine gemeinsame Empfängeradresse teilen. Wer sich auf einer solchen Liste einträgt, kann an diese Empfängeradresse, also an alle anderen Listenmitglieder, Mails verschicken. Manchmal sind solche Listen moderiert, meist sind sie es nicht. Newsgroups sind offene Diskussionsforen, s. Teil 1. Newsgroup-Inhalte kann man z.B. bei groups.google.com durchsuchen, Mailing-Listen haben eigene Archive, wobei sich viele davon bei Yahoo! befinden (groups.yahoo.com). Solche Archive sind zwar nützlich, aber zu unstrukturiert und unselektiert, um die Wiederholung von Diskussionen zu vermeiden. Da das einzige Instrument zur Konfliktlösung die Diskussion ist, können einzelne diskussionsunfähige Gruppenteilnehmer Projekte bewusst oder unbewusst sabotieren.

Mail und News sind in ihrer Flexibilität begrenzt. Die Protokolle sind Jahre und im Kern Jahrzehnte alt und können wegen der großen Zahl der beteiligten Computer kaum verändert werden. Beide Anwendungen funktionieren nach Peer-to-Peer-Prinzipien: Es gibt keinen zentralen Internet-Mailserver oder Newsserver, vielmehr sorgen die Server untereinander für die Verteilung der Inhalte. Bei Mails sind das meistens die Server des Senders und Empfängers ( technische Einführung), das Usenet dagegen ist ein gigantisches Servernetz, das sich ständig selbst synchronisiert. Wird das technische Verhalten eines Mailservers oder Newsservers wesentlich verändert, sind Kompatibilitätsprobleme unvermeidbar.

Dabei sind beide Systeme fehlerbehaftet. Emails sind standardmäßig weder fälschungssicher noch vor Fremdeinblicken geschützt - vielmehr kann man sie mit Postkarten vergleichen, die für jeden einsehbar das Netz durchkreuzen. Es ist trivial möglich, mit gefälschten Emails z.B. in einem Unternehmen Chaos zu stiften. Zwar stehen dann in den Kopfzeilen verräterische Daten über die tatsächliche Herkunft, doch selbst Techniker verwenden bevorzugt Email-Clients, die diese Informationen verstecken und statt dessen nur die Kurzversion zeigen (Absender, Empfänger, Betreff, Datum). Mit entsprechendem Wissen lassen sich digitale Signaturen verwenden, um fälschungssichere Mails zu verschicken, doch dazu sind die wenigsten Nutzer in der Lage.

Ist eine Email plausibel, wird ihre Echtheit von den wenigsten Usern hinterfragt. Insofern muss man Email-Würmern wie Sircam und Nimda fast dankbar sein, denn sie gaben sich als reale Personen aus und sensibilisierten die unglücklichen Empfänger so zumindest ein wenig für die Authentizitäts-Problematik. Die Probleme werden dadurch freilich nicht gelöst.

Im Usenet sieht die Situation ähnlich aus, auch Newsgroup-Postings sind nicht fälschungssicher. Wie die meisten Email-Nutzer werden viele Diskussionsforen von Spammern geplagt, was sicherlich ein wesentlicher Grund für die sinkende Bedeutung des Usenet ist. Mail und News teilen ein weiteres, verwandtes Problem: Wie soll man aus einer Newsgroup oder Mailing-Liste mit Hunderten Postings am Tag die guten herausfiltern? Die Probleme sind seit Jahren die gleichen, doch die Lösungen, die alle in der Theorie schon existieren, sind noch nicht umgesetzt.

Reputation, Trust und Ratings

Einige Newsreader (typischerweise solche aus der Unix-Welt) erlauben es, Punktzahlen (Scores) für bestimmte Themen oder Autoren in Newsgroups festzulegen. So könnte man z.B. alle Posts, in denen es um Linux-Textverarbeitungen geht, in einer entsprechenden Newsgroup hervorheben, oder alle Nachrichten des KDE-Entwicklerteams. Diese Scorefiles funktionieren auf rein individueller Basis: Man beginnt gewissermaßen bei Null und muss ständig darauf achten, sein Scorefile auf dem neuesten Stand zu halten. Die darin festgelegten Daten finden ausschließlich im Usenet Verwendung - begegnet einem der gleiche Autor, den man in der Newsgroup bereits mit einem negativen Score versehen hat, um seine Beiträge zu filtern, in einem Diskussionsforum im Web erneut, ist das bereits digitalisierte Wissen nutzlos.

Einige Usenet-Nutzer posten ihre Scorefiles regelmäßig öffentlich oder geben sie privat weiter, so dass zumindest eine gewisse Kollaboration in der Verwertung der Daten entsteht. Prinzipiell ist "Scoring" jedoch ein recht einsamer und mühseliger Prozess, der nicht dabei hilft, neue Erkenntnisse zu gewinnen, sondern darauf abzielt, gemachte Erfahrungen zu speichern und anzuwenden.

Das nach dem Client-Server-Prinzip arbeitende Web bringt derzeit die meisten technischen und sozialen Innovationen hervor. Die flexible Seiten- und Interface-Beschreibungssprache HTML und ihre Erweiterungen ermöglichen es, eine Vielzahl von Anwendungen zu realisieren, ohne die Clients dazu zu aktualisieren. Da die Server nicht voneinander abhängig sind, besteht auch hier kein Zwang zu Interoperabilität. Auf diese Weise sind in den letzten Jahren viele unterschiedliche Lösungen entstanden, die das Kommunizieren im Internet vereinfachen und verbessern könnten.

Kollaborative Moderations-Mechanismen dienen wie Scorefiles dazu, Beiträge oder Personen mit Bewertungen zu versehen, werden aber von mehreren Personen gleichzeitig verwendet, um bessere Ergebnisse zu erzielen und Wissen zu teilen. Nur einige illustrative Beispiele:

Mit Bewertungen von Inhalten und Personen lassen sich verschiedene Dinge anstellen. Sie können eingesetzt werden, um die Zugriffsrechte eines Nutzers in einem System zu reglementieren. Sie können aber auch der Hervorhebung bestimmter Inhalte dienen: Welche Kommentare haben eine besonders hohe Bewertung? Slashdot und Kuro5hin erlauben eine entsprechende Sortierung. Teilweise wird versucht, auf manuelle Bewertungen möglichst zu verzichten. Amazon.com ist hierfür ein gutes Beispiel. Der Online-Alleshändler verwendet Verkaufsdaten, um seinen Kunden nach einem Kauf automatische Tipps zu geben ("Kunden, die dieses Buch gekauft haben, haben auch noch diese drei Bücher und einen Regenschirm gekauft") und ihre Homepage maßzuschneidern.

Aber sowohl Amazon.com als auch Konkurrent eBay kommen nicht umhin, an vielen Stellen ihre Nutzer um Bewertungsinformationen zu bitten: Bei Amazon geben Leser ihre Meinung über bestimmte Bücher, Kassetten, Videos usw. zum Besten (Meinungen, die wiederum bewertet werden können, was ihre Positionierung in der Anzeige beeinflusst), eBay gestattet nach einer erfolgreich abgewickelten Transaktion Käufer und Verkäufer die gegenseitige Beurteilung, um so durch Selbstregulation Betrug und Fehlverhalten vorzubeugen.

All diese Systeme funktionieren erstaunlich gut. Auch wenn nur eine Minderheit der Benutzer Zeit für die Bewertungs-Ebene einer Website hat, ergibt sich daraus bei gutbesuchten Sites eine durchaus relevante und nützliche Datenbasis, wie wohl jeder weiß, der nur wegen der Leserrezensionen gelegentlich bei Amazon & Co. vorbeischaut. Offene Diskussions-Sites wie Slashdot müssen mit einer absolut stets wachsenden Zahl von Trollen, Flamern, Lamern, Perversen und Skript-Kiddies kämpfen - dennoch wird man schnell fündig, wenn man bei Slashdot Kommentare unterhalb eines bestimmten numerischen Schwellenwerts ignoriert.

Aus den genannten Beispielen kristallisieren sich drei Grundtechniken für die Bewertung von Inhalten und Personen heraus: Ratings sind einfache Bewertungen, teilweise nur numerisch, teilweise zusätzlich mit einem Label wie "interessant" oder "witzig" versehen, für Kommentare und Inhalte aller Art. Vertrauen, in solchen Systemen meist Trust genannt, ist eine numerische Bewertung für eine bestimmte Person. Die Reputation, die diese Person genießt, ist wiederum das angesammelte Vertrauen durch andere, wobei es sich nicht um einen einfachen Durchschnittswert handelt.

Leider existieren noch kaum sinnvolle Kombinationen dieser Modelle. Eine Abfrage der Form "Zeige mir Kommentare, die von Personen, denen ich vertraue, positiv bewertet wurden" ist z.B. bei Advogato nicht möglich, weil es keine Ratings gibt, sondern nur Trust und Reputationen. Slashdot wiederum kennt nur Ratings, wobei erste Ansätze in Richtung Trust bereits existieren. Weiterhin sind wie im Usenet die Rating- und Reputations-Daten in ihrer Verwertbarkeit begrenzt, und zwar nicht von Medium zu Medium, sondern von Website zu Website. Trolle müssen in jedem Forum von Neuem identifiziert und bewertet werden.

Einige Websites haben sich um eine stärkere Kombination von Trust und Ratings bemüht, z.B. der Bewertungs-Service epinions.com. Meist scheitern solche Systeme schlicht daran, dass sie nie die notwendige kritische Masse erreichen. Slashdot und Kuro5hin haben Nutzer ja zunächst nicht dadurch angezogen, dass bereits Nutzer dort waren, vielmehr haben in beiden Fällen engagierte Redakteure regelmäßig interessante Beiträge veröffentlicht. So bildete sich ein Pool von Nutzern, und die Moderationssysteme wurden erst aufgrund ihrer Notwendigkeit erfunden oder spielten erst jetzt wirklich eine Rolle.

Bedeutung von Interfaces

Ein vielfach unterschätztes Problem ist das Design der verwendeten Benutzerschnittstellen. Was im Hirn des Users ablauft, wenn er eine Site besucht, ist wesentlich von ihrem Design abhängig. Ob ein interessanter Text gelesen wird, kann allein davon abhängen, ob dazu eine komplizierte Navigation verwendet werden muss. Natürlich nehmen Nutzer selbst stümperhaft in Flash animierte Website-Maskottchen, bildschirmfüllende vibrierende Werbebanner und absturzintensive JavaScripts auf sich, wenn sie eine bestimmte Information unbedingt haben wollen oder müssen. Im Wettbewerb verlieren solche Sites aber, wie der Erfolg der Suchmaschine Google zeigt. Sie gilt als Musterbeispiel von Usability - keine unnötigen Informationen, dafür hilfreiche Tricks, wie ein kleines JavaScript, das den Cursor in der Suchmaske positioniert. [15]

Bei Aktivitäten, die nur geringe unmittelbare Belohnung versprechen, wozu die gesamte Bewertungs-Ebene gehört, ist die Einfachheit der UI essentiell. Mehr als ein oder zwei Klicks ist kaum jemand bereit hinzunehmen, um einen Nutzer oder Inhalt mit einer schnellen numerischen Bewertung zu versehen. Um so katastrophaler ist das Design mancher Open-Source-Sites: Bei Freshmeat, einer Software-News-Site, muss man sich durch mehrere Navigationsebenen hangeln, um Bewertungen vornehmen zu können, wozu auch noch eine Anmeldung erforderlich ist (eine kaum zu vermeidende Notwendigkeit, für die sich dem Nutzer aber nicht genügend Gründe offenbaren).

Ähnlich sieht die Situation beim Mozilla-Bugtracking-System Bugzilla aus, wo Nutzer über besonders schwerwiegende Fehler im Open-Source-Browser abstimmen sollen. Hier kommt hinzu, dass das Interface mit Informationen überladen ist, die nur für Mozilla-Coder nützlich sind, und einzig ein winziger Link auf die Abstimmungsmöglichkeit hinweist. Nur in wenigen Ausnahmefällen, wo extern ein Link auf eine bestimmte Bug-Abstimmung gesetzt wurde, kommt das System wirklich zum Einsatz. Etwas besser implementiert ist das Abstimmungssystem bei apps.kde.com, einer Website für News über KDE-Anwendungen. Von Trust fehlt bei all diesen Systemen aber jede Spur.


So nicht! Die Abstimmung über Bugs ist bei Bugzilla gut versteckt

Die Grenzen des Web werden dabei nicht ausgereizt. Slashdot & Co. kommen dem schon näher. Bei diesen Sites zeigt sich, dass vor allem Latenzprobleme die Nützlichkeit der Ratings einschränken. Bei Kuro5hin befindet sich unterhalb jedes Kommentars eine Auswahlbox mit den zulässigen Bewertungen, daneben ist ein Button "Rate All". Nach Drücken dieses Knopfes werden alle Bewertungen, die geändert wurden, gespeichert. Dazu muss aber in jedem Fall die gesamte Seite neu geladen werden. Bei ausgeklappten Threads ist das ein recht langwieriger Prozess, der auch viel Bandbreite auf dem Server verschlingt. Nur um einen Kommentar zu bewerten, möchten die meisten Nutzer aber nicht mehrere Sekunden warten.

Mancher Webdesigner versucht solche Probleme mit Hacks zu umgehen. Die postmoderne Ideenbörse half-empty.org z.B. verwendet Popup-Windows, um Bewertungspunkte zu speichern, ohne die Seite neu zu laden. Erwartungsgemäß mehr Leute verwenden das System, und erwartungsgemäß mehr Leute beschweren sich über das nicht mit allen Browsern kompatible JavaScript. Andere Sites verwenden Frames, doch die sind aus anderen Gründen unter Usability-Experten verpönt.

Es zeigt sich, dass mit bisherigen Browser-Mitteln solche User Interfaces kaum abbildbar sind, auch wenn neue Scripting-Möglichkeiten und neue Datenbeschreibungs-Verfahren hier Abhilfe schaffen sollen. Eine vom Browser unabhängige Anwendung wäre aber schon allein deshalb vorzuziehen, weil sie auch von den angesteuerten Websites unabhängig wäre, man Nutzer und Inhalte also überall mit dem gleichen Werkzeug bewerten könnte. Doch hier zeigt sich das nächste Problem: Wo sollen die Bewertungsdaten gespeichert werden? Schließlich sind sie weit aufschlussreicher als nur eine Liste der vom Nutzer besuchten Websites. Da gehen bei Datenschützern alle Alarmlichter an, und kein Wunder - Unternehmen würden hohe Preise für solche Profile zahlen. Deshalb sind Rating-Unternehmen wie Alexa, die genau solche Bewertungen erlauben wollten, immer wieder in die Kritik geraten.

Dezentrale Authentifizierung

Wer eine zentrale Rating- und Reputations-Datenbank aufbaut, kommt ohnehin nicht umhin, Microsoft Passport praktisch zu kopieren, denn neben den Ratings müssen ja auch noch die Identitäten der Personen gespeichert werden, die sie abgegeben haben. Die Probleme von Passport (vgl. Teil 2) gelten also auch hier. Ließe sich die Kombination von Ratings, Trust und Authentifizierung denzentralisieren? Zumindest für den Authentifizierungs-Aspekt gibt es das bereits in Teil 2 angesprochene Projekt DotGNU Global Login.

Auch Trust-Verfahren sollen der eindeutigen Authentifizierung von Nutzern dienen. In Verbindung mit digitalen Signaturen sollen sogenannte "Webs of Trust" entstehen. Benutzer zertifizieren, dass ein bestimmter kryptographischer Schlüssel tatsächlich zu genau der genannten Person gehört und zu niemand anders. Wer nun diesen Schlüssel verwendet, um z.B. einen Brief zu signieren, muss sich nicht darum kümmern, dessen Echtheit unter Beweis zu stellen, wenn die bereits von einer anerkannten Behörde beglaubigt ist.

Hier zeigt sich ein Problem des WoT-Ansatzes: Zwar soll alles so weit wie möglich dezentralisiert werden, und über indirekte Beziehungen ("Person A vertraut Person B, und Person B vertraut Person C, also vertraut vermutlich Person A Person C ein kleines bisschen") soll der Nutzen des Netzes mit seiner Größe exponentiell wachsen. Doch echte Sicherheit ist das nicht, und Unternehmen wie Privatpersonen werden sich bei sensitiven Transaktionen nicht mit komplexen numerischen Bewertungen herumschlagen wollen, sondern einfach die Information "Autorität X vertraut Person A" anfordern. Das ist im Grunde auch für Datenschützer kein Problem und elementarer Bestandteil des Konzeptes der digitalen Signatur; es soll durch sogenannte "Trust Center" verwirklicht werden, die nicht nur die Echtheit von Schlüsseln bestätigen, sondern auch selbst "digitale Ausweise" ausstellen. Entscheidend ist, wie wettbewerbsoffen solche Systeme sind, und wie viele Daten bei zentralen Autoritäten gespeichert werden.

Ratings, Trust, Reputationen und Authentifizierung bilden Schlüsselkomponenten, um die gemeinsame Entwicklung von Software zu koordinieren, ihre Anwendbarkeit in vielen anderen Bereichen sollte offensichtlich sein. Weitere Versprechen des digitalen Zeitalters lassen immer noch auf sich warten: effiziente gemeinschaftliche Bearbeitung von Dateien, optimierte Abstimmungssoftware und elektronisches Geld.

Der heute an der Keio Universität in Japan forschende und lehrende Ted Nelson stellte sich das Web vor nun über vierzig Jahren weit anders vor - und nützlicher - als es heute existiert. Sein seit 1960 propagiertes Xanadu-Modell [16] für Hypertext-Dokumente hat wenig Ähnlichkeit mit dem vergleichsweise primitiven heutigen System aus nicht mehr funktionierenden Links und oftmals völlig unstrukturierten Dokumenten. Xanadu sollte das Hypertext-System der Zukunft sein. Jedes Dokument in Nelsons Hypertext-Raum sollte eine absolut eindeutige Adresse (unabhängig vom Speicherort) besitzen. Innerhalb des Dokuments sollten selbst einzelne Zeichen direkt von anderswo adressierbar sein, man sollte also z.B. von einem anderen Dokument auf den Beginn dieses Absatzes verweisen können (ohne dass man dazu, wie in HTML notwendig, extra in diesem Dokument einen "Anker" definieren müsste).

Ein in Xanadu veröffentlichtes Dokument sollte unlöschbar sein, man konnte zwar, so die Idee, eine neue Version veröffentlichen, doch die alte Version des gleichen Dokuments blieb verfügbar, und Unterschiede zwischen zwei Versionen ließen sich auf einfache Weise sichtbar machen (wie heute mit verschiedenen diff-Tools möglich). Verweise sollten bidirektional sein; wenn man eine Seite in Xanadu betrachtete, sollte man also auch sehen, welche anderen Seiten auf diese Seite verwiesen. Anstelle des im Web üblichen "Copy & Paste", des einfachen Kopierens von Inhalten, sollten die Adressen von Inhalten an der Stelle, an der man sie benutzt, eingefügt werden. Wenn man also z.B. ein Buch zitiert, würde man einfach die Adresse (also die global eindeutige Nummer des Buches sowie die Zahl der zu zitierenden Zeichen) an der entsprechenden Stelle einfügen, nicht den Zitattext selbst. Der Client (das Xanadu-Äquivalent zum Webbrowser) würde die entsprechenden Daten dann an der richtigen Stelle einfügen.

Die Vorteile: Zitate bleiben automatisch aktuell, wenn dies gewünscht ist, ihre Echtheit kann gewährleistet werden, man kann sofort den Kontext eines Zitates anfordern, und Urheber können ggf. ohne großen Aufwand im Hintergrund vergütet werden.


Eine frühe Darstellung (1965) von bidirektionalen Links im Hypertext-System Xanadu. Zusammengehörende Dokumente sollten in parallelen Fenstern, sogenannten "transpointing Windows", samt der Verbindungen dazwischen angezeigt werden.

So ganz nebenbei wollte Nelson mit Xanadu also auch die abzusehenden Urheberrechts-Probleme lösen, die mit der zunehmenden Digitalisierung und Vernetzung einher gehen würden. Anstatt mühsam jede "Verletzung" zu verfolgen, sollten Dokumente in Xanadu so günstig sein, dass man ihre Bezahlung gar nicht beachtete. Bruchteile von Cents sollten für die Verwertung eines Dokumentes innerhalb eines anderen fällig werden, und aufgrund des Systems der direkten Adressierung von Inhalten anstelle ihres Kopierens würden solche Verwertungsvorgänge auch erfassbar bleiben, sofern man das System nicht mit Absicht umging. "Ich würde gerne in einer Welt leben, in der es kein Copyright gibt, aber so liegen die Dinge nun einmal nicht", meint Nelson - und nennt sein alternatives Modell "Transcopyright". Essentiell dafür ist es, Kleinstbeträge zwischen Nutzern wirtschaftlich übertragen zu können.

Dass das Web letztlich nur eine bescheidene Teilmenge der von Xanadu definierten Funktionalität umsetzt, überrascht nicht, schließlich sind einige der technischen Probleme bis heute nicht gelöst, ganz zu schweigen von den sozialen Implikationen "ewiger Speicherung", die Xanadu prinzipiell erfordert. Nelson bleibt der ewige Visionär, genau wie sein Zeitgenosse Douglas Engelbart, der als Erfinder der Maus bekannt ist, aber nebenbei auch die Grundlagen für grafische Benutzeroberflächen und Tools zum gemeinsamen Bearbeiten von Dokumenten entwickelte.

Gemeinsame Dateibearbeitung

Die gemeinsame Bearbeitung von Dateien, sei es Software-Quellcode oder seien es Texte aller Art, kann auf zwei Arten erfolgen: Zwei Nutzer sehen unmittelbar das gleiche Dokument vor sich und einigen sich in Echtzeit über die Änderungen, oder sie bearbeiten unterschiedliche Teile des gleichen Projekts getrennt voneinander und bemühen sich anschließend um eine möglichst optimale Synchronisation.

Die Echtzeit-Kollaboration steckt nach wie vor in den Kinderschuhen. Microsoft Word enthält rudimentäre Funktionen hierzu, und auch mit komplexen Unix-Editoren wie Emacs lässt sie sich realisieren, aber die entsprechenden Werkzeuge sind weder umfassend in ihrer Funktionalität noch verbreitet noch einfach in der Handhabung. Dabei hatte Douglas Engelbart in seiner weltberühmten Stanford-Präsentation von 1968 bereits demonstriert, wie zwei Nutzer gleichzeitig an einem Dokument arbeiten (wobei ein Nutzer die Kontrolle über die Maus erhält) und sogar ihr Videobild im Monitor sehen können. Ein Grund für den mangelnden Erfolg von Online-Kollaboration ist sicherlich, dass die Bandbreite der meisten Nutzer dafür schlicht nicht ausreicht. Die Tatsache, dass viele schnelle Internet-Zugangsarten wie ADSL in Senderichtung verlangsamt sind, macht die Verbreitung von Video- oder Audioconferencing auch nicht gerade leichter. Doch einfache Systeme mit Chat- und Bearbeitungsmodus wären durchaus realisierbar, sind aber kaum verbreitet.

Die Werkzeuge für asynchrone (also zeitlich versetzte) Bearbeitung von Dokumenten existieren, werden aber selbst im Firmenumfeld außerhalb der Software-Entwicklung nur wenig eingesetzt. Beliebt besonders für nichttechnische Texte sind Wiki-Wiki-Webs. Ein Wiki ist eine Website, bei der jede Seite durch jeden Besucher bearbeitet werden kann. Das System wird mittlerweile mit Wikipedia sogar für eine kollaborative Enzyklopädie eingesetzt, die von jedem bearbeitet werden kann. Das Erstellen von Links auf Seiten eines Wikis ist innerhalb des Wikis besonders einfach, z.B., indem man den Namen der entsprechenden Seite in eckigen Klammern schreibt.

Wikis entwickeln eine interessante Eigendynamik. Obwohl sie technisch sehr primitiv sind, verfügen sie doch über die wesentlichen Werkzeuge, um dauerhafte Aktivität zu gewährleisten. Man sollte meinen, dass bei einer Seite, die jeder bearbeiten kann, Vandalismus nicht lange auf sich warten lässt. Das ist tatsächlich der Fall. Doch die meisten Wikis haben sogenannte "Recent Changes"-Listen der zuletzt gemachten Änderungen. Die Benutzer des Wikis kontrollieren diese Listen regelmäßig und korrigieren unerwünschte Änderungen.

Dass dieses Prinzip erstaunlich gut funktioniert, demonstriert das Projekt Wikipedia - in der interaktiven Enzyklopädie kann jeder einzelne Artikel bearbeiten, mittlerweile sind es rund 20.000. Die Qualität mancher Artikel ist erstaunlich, und der Theorie nach sollte sie stetig zunehmen.

Manche Software-Projekte nutzen Wikis für Spezifikationen, andere greifen auf ein anderes Verfahren zurück: Concurrent Versions System (CVS). CVS ist ein technisches Verfahren vor allem zur gemeinsamen Bearbeitung von Quellcode. Es gibt ein zentrales Archiv, das die aktuellste Version aller Programmdateien und Dokumente enthält. Will man eine Datei bearbeiten, nimmt man einen sogenannten "Checkout" vor, lädt also die aktuellste Version herunter. Noch während man die Datei lokal bearbeitet, kann ein anderer Entwickler die gleiche Datei auf seinem Rechner ebenfalls bearbeiten, sie wird nicht gesperrt. Nach dem Upload der Änderungen ins Archiv werden automatisch Versionsnummern vergeben und Protokolle geführt. Kommt es zu einem Konflikt mit der Bearbeitung durch einen anderen Nutzer, wird die entsprechende Stelle des Dokuments, an der Änderungen sich widersprechen, gezeigt, und einer der Entwickler löst den Konflikt.

CVS unterstützt auch die Sperrung von Dateien vor der Bearbeitung, oder zumindest die Anmeldung von Änderungswünschen, so dass man weiß, ob jemand anders gerade eine bestimmte Datei bearbeitet.

Wikis, CVS und sogenannte Content Management Systeme zur gemeinsamen Bearbeitung von Website-Inhalten sind praktisch, aber außerhalb der Geek-Kultur kaum verbreitet. Den meisten Windows-Nutzern dürften die Begriffe nichts sagen, und gängige Textverarbeitungen unterstützen ohnehin nur bruchstückhaftes Versionsmanagement. Eher nichttechnische Linux-Nutzer, die z.B. bei der Erstellung von Dokumentation helfen wollen, stoßen häufig auf technische Barrieren: Entweder Wikis und CVS werden nicht eingesetzt, oder CVS wird verwendet, wofür nur wenige leicht erlernbare grafische Front-Ends existieren. Wer ein Open-Source-Projekt startet, sollte sich darüber im Klaren sein, bei welchen Teilen des Projekts die breite Öffentlichkeit involviert werden kann, und die entsprechenden Werkzeuge verwenden (langfristig wäre eine Integration von CVS in einfache, grafische Editoren wie den KDE-Editor Kate wünschenswert). Ein negatives Gegenbeispiel sind die Übersetzungen der Linux-Manual-Pages ins Deutsche, die von einer Person per Email koordiniert werden und nicht zuletzt deshalb stagnieren. In solchen Fällen wäre ein moderiertes Wiki ideal.

Immerhin kommen Wikis und CVS dem Xanadu-Ideal von der ewigen Speicherung aller Versionen schon etwas näher: Manche Wikis tun genau das, und auch bei CVS sollte prinzipiell ein Backtracking bis zur ersten Dateiversion möglich sein.

Online-Abstimmungen

Wie aber realisiert man Abstimmungsverfahren z.B. für Linux-Standards? Technische Verfahren für Online-Abstimmungen existieren, sind aber noch recht umständlich. Prinzipiell benötigt man einen oder mehrere vertrauenswürdige Server, die Stimmen zählen. Nutzer müssen sich über einen gegebenen Mechanismus authentifizieren können, und Verschlüsselung aller Vorgänge ist meist erwünscht. Eine Abstimmung kann nach einer bestimmten Zeit oder bei Erreichen einer bestimmten Stimmenzahl oder eines bestimmten Schwellenwerts abgeschlossen werden. Man kann für bestimmte Umfrageoptionen stimmen oder auf einen Vorschlag mit bestimmten Standard-Antworten ("Ja", "Nein", "mehr Informationen notwendig", "interessiert mich nicht" usw.) reagieren. Wünschenswert ist es in beiden Fällen, dass die Abstimmung direkt mit Chaträumen und Diskussions-Threads verknüpft ist, wobei Rating- und Reputations-Systeme hochwertige Beiträge (aus individualisierter Sicht) hervorheben sollten. Noch hat sich kaum ein Software-Standard in Sachen Abstimmung durchgesetzt. Wer seine Projekt-Mailingliste bei Yahoo! einrichtet, kann dort immerhin simple Umfragen durchführen, was von manchen Open-Source-Projekten ausgiebig genutzt wird.

Wenn eine Abstimmung in Arbeit für beteiligte Personen resultiert, besteht die Gefahr einer exploitativen Beziehung zwischen Wählvolk und Beauftragten. Im Falle der LSB könnte ein Unternehmen wie IBM die Entwicklung gewählter Features aus der Portokasse finanzieren, doch bei einzelnen Free-Software-Produkten ist das keine Lösung. Abstimmungssysteme müssten also auf verschiedene Weise mit Electronic Payment verknüpft werden, z.B. über den Kauf oder die Gewichtung von Stimmen, oder Zahlungsversprechen, die bei Erreichen eines bestimmten finanziellen Schwellenwerts in der Realisierung des gewünschten Features oder Patches kulminieren oder ansonsten nicht eingelöst werden müssen (Street Performer Protocol).


Der Verhandlungstisch in der Simulation Freeciv könnte als Vorbild für komplexe Verhandlungs-Interfaces dienen.

Abstimmungsverfahren könnten auch neue Impulse in Vertragsverhandlungen liefern, z.B. wenn es um ein Software-Projekt geht. Ein Beispiel für ein entsprechendes Interface stammt aus der Spielewelt: Der Civilization-Clone Freeciv verwendet bei den diplomatischen Verhandlungen zwischen zwei Zivilisationsführern einen Verhandlungstisch, bei dem beide Spieler ihr Angebot schnell aufeinander abstimmen und schließlich bestätigen können.

Wege des Geldes

Klein- und Kleinstzahlungen bezeichnet man gemeinhin als "Micropayments". Ursprünglich waren damit tatsächlich nur Bruchteile der kleinsten existierenden traditionellen Währungseinheiten gemeint, heutzutage spricht man auch bei Zahlungen unterhalb eines Dollar oder Euro oft noch von Micropayments.

Das Problem ist, dass sowohl bei Bank-Überweisungen als auch bei Kreditkarten-Zahlungen Transaktionsgebühren fällig werden, die beide Systeme für Micropayments unbrauchbar machen. (Ob das am technischen Overhead oder an Preisabsprachen und Marktbarrieren liegt, sei dahingestellt.) Hinzu kommt, dass Kreditkarten eine strikte Trennung zwischen Käufer und Verkäufer erzwingen, da das sogenannte "Processing", die Verwertung von Kreditkarten-Daten, Geld kostet, spezielle Software erfordert, rechtliche Implikationen mit sich bringt und ohne eine Vertrauensbeziehung zwischen den Transaktionspartnern nicht möglich ist (Kreditkartendaten sind, so gut die Situation des Kunden im Falle einer Kompromittierung auch sein mag, sensitiv). Auch das Problem der Autorisierung von Zahlungen ist in beiden Fällen ungenügend gelöst. Selbst wer nur seine Konto-Nummer preisgibt, der muss damit rechnen, dass sie für unrechtmäßige Lastschriften missbraucht wird, und auch wenn hier Kontrolle möglich ist und Rechtssicherheit besteht, ist die Situation alles andere als optimal.

Nimmt man die genannten Nachteile in Kauf, kann man mit Kreditkarten und Überweisungen natürlich online bezahlen. Dann gesellt sich noch ein weiteres Problem dazu: Die Benutzerschnittstellen sind umständlich und nicht standardisiert. Kleine Händler verlassen sich meist auf externe Processing-Firmen, die Kreditkarten-Zahlungen verwalten, oft gegen Provision. Von solchen Processing-Firmen scheint es fast so viele wie Händler zu geben, wer also viel online einkauft, muss immer wieder von Neuem überlegen, wem er seine Daten preiszugeben bereit ist. Das Ausfüllen der Formulare ist zeitaufwendig: "Mal eben" 50 Cents zu überweisen ist mit den bestehenden Verfahren kaum sinnvoll möglich. Von transparenten Zahlungen im Hintergrund ist da gar nicht zu reden.

Der Comic-Zeichner Scott McCloud beschreibt in der Serie I Can't Stop Thinking, wie er sich Micropayments vorstellt: Wenn man kostenpflichtige Inhalte abruft, verändert sich die Form des Mauscursors. Liegt der Betrag unterhalb einer gewissen Schwelle, wird nach dem Klicken ohne Bestätigung abgerechnet - keine Passwörter, keine hohen Transaktionsgebühren. Ironischerweise war der Bildschirmtext (BTX) der Post/Telekom in dieser Hinsicht weiter als es das heutige Internet ist: Wer dort Seiten abrief, konnte über die Telefonrechnung auch Pfennigbeträge bezahlen, und zum Bezahlen musste man keine Formulare ausfüllen, sondern lediglich angemeldet sein und an der richtigen Stelle Ja oder Nein sagen. Vor allem Sex-Anbieter machten mit albernen Blockgrafiken gutes Geld.

Bei Micropayments kommt auch der Faktor Anonymität ins Spiel: Während man bei größeren Zahlungen eine zentrale Speicherung der Daten noch hinzunehmen bereit ist, ist dies bei Tausenden Transaktionen am Tag kaum noch denkbar - aus den einzelnen Beträgen ließen sich detaillierte "Bewegungsprofile" generieren.

Den Usability-Overhead von Zahlungen mit der Kreditkarte möchte das US-Unternehmen Paypal reduzieren. Außerdem erlaubt es Nutzer-zu-Nutzer-Zahlungen per Kreditkarte. Das Prinzip ist einfach: Paypal fungiert als Mittelsmann für die Zahlungen, die Firma leitet Kreditkarten-Zahlungen und Überweisungen auf das Bankkonto anderer Paypal-Kunden weiter, wobei für die Bezahlung nur die Email-Adresse des Rezipienten und das Paypal-Passwort erforderlich sind. Bevor das Geld auf dem Bankkonto des Rezipienten landet, muss er selbst erst einen Paypal-Zugang einrichten und das Geld dann "abheben", solange verbleibt es im Besitz von Paypal. Das verschafft dem Unternehmen nicht nur Zinseinnahmen, sondern ist auch ein guter Köder, um neue Kunden zu gewinnen, die an Geld kommen möchten, das ihnen via Paypal zugeschickt wurde. Wer außerdem neue Mitglieder wirbt, erhält 5 Dollar gratis. Mit diesen Anreizen konnte Paypal innerhalb relativ kurzer Zeit eine Nutzerbasis von mittlerweise über 12 Millionen erreichen. Damit ist Paypal der De-Facto-Standard in den USA für Nutzer-zu-Nutzer-Zahlungen. Hier zu Lande ist die geringe Verbreitung von Kreditkarten noch ein Hindernis für solche Dienste. Mobilfunk-Unternehmen und Start-Ups wie Paybox haben versucht, die Lücke zu füllen, bislang ohne vergleichbar großen Erfolg.

Diese Modelle sind ohnehin weder anonym noch komfortabel noch Micropayment-fähig noch sicher. Dabei existieren seit den Achtziger Jahren Konzepte, die weitaus vielseitiger sind. Besonders der Kryptologe David Chaum entwickelte verschiedene Schlüsselkonzepte, um echtes elektronisches Geld zu verwirklichen. Die Idee: Nutzer speichern auf einem Server oder in einer digitalen Geldbörse "elektronische Münzen", die sich wie Bargeld anonym ausgeben lassen, ohne dass irgendwelche Transaktionskosten anfallen. Meistens handelt es sich bei diesen "Münzen" schlicht um eindeutige, nicht erratbare Zufallszahlen, von der "Bank" digital signiert und vom Besitzer verschlüsselt. Werden sie ausgegeben, erhält die Bank den Auftrag "Ersetze diese Münze durch eine neue und schicke sie an Person B". Person B erhält dann wiederum eine eindeutige Münze. Wer das Geld unter Umgehung der Bank weitergibt, ist selbst schuld: Eingelöst werden kann es nur einmal; wer zuerst kommt, mahlt zuerst. Meistens handelt es sich um Prepaid-Verfahren, es wird also zunächst eine bestimmte Summe in elektronische Münzen umgewandelt, die dann in Klein- und Kleinstbeträgen ausgegeben werden können.

Die Münze muss für ihre Gültigkeit keinerlei Informationen über den Besitzer tragen, und so existiert das Anonymitäts-Problem nur noch auf der "IP-Ebene": Bei der Verbindung zum Bank-Server erfährt der die IP-Adresse des Users, es sei denn, der User anonymisiert sich gezielt.

Mit solchen elektronischen Münzen ließe sich eine Vielzahl von Anwendungen realisieren. Per Drag und Drop könnte man aus der Taskleiste eine Münze in ein Browser-Fenster ziehen und würde so direkt und ohne Bestätigung ein paar Cents spenden. Oder es könnte à la Xanadu im Hintergrund mit Kleinstbeträgen gearbeitet werden. Doch das elektronische Bargeld kam bislang nicht in den Masseneinsatz. David Chaum versuchte seine Ideen Anfang der 90er Jahre mit der Firma DigiCash umzusetzen, andere Firmen wie CyberCash bemühten sich ebenfalls um die Verbreitung neuer Währungen. Dabei sah es für beide Firmen gut aus: Partnerschaften mit der Deutschen Bank (DigiCash) und Microsoft (CyberCash) versprachen einen Kampf der Giganten. In der Praxis kam kaum ein User in Erstkontakt mit den Starter-Kits der digitalen Währungen.

Warum es so kam, dafür gibt es verschiedene Erklärungsansätze. Ein relativ trivialer Grund ist, dass die meisten Systeme wie Kreditkarten die Trennung zwischen Kunden und Verkäufern aufrecht erhielten: Online-Shops sollten digitales Geld akzeptieren, und Kunden sollten auf diesem Wege motiviert werden, die entsprechende Software zu installieren. Bei ein paar hundert Shops war das jedoch nur ein Tropfen auf dem heißen Stein. Ein einfaches System auf Basis elektronischer Münzen, mit dem Website-Betreiber eine direkte Vergütung für die geleistete Arbeit erhalten konnten, wurde nicht entwickelt. Auch eine Verkopplung von elektronischem Geld mit Peer-to-Peer-Netzen ist bisher nur im Ansatz erprobt worden (z.B. in Mojo Nation, dessen Eigenwährung "Mojo" in aktuellen Versionen nur noch symbolischen Charakter hat).

Damit standen Chaums eCash & Co. stets vor einem Henne-Ei-Problem: Solange keine Verkäufer das System unterstützen, sind auch die Kunden nicht daran interessiert (und umgekehrt). Auch die Banken sind am Misserfolg der Systeme nicht ganz unschuldig. So wurde das einst von der Deutschen Bank gesponserte Projekt eCash im April 2001 mangels Interesse eingestellt. Ob sie dieses Interesse aber je ernsthaft hatte und nicht einfach einen lästigen Konkurrenten aus dem Weg kaufen wollte, ist offen - das Marketing für eCash hielt sich in engen Grenzen, und abgesehen von ein paar Medienberichten dürften die meisten Konsumenten kaum davon gehört haben.

Ob elektronische Münzen noch eine Zukunft haben, ist fraglich; immerhin existiert mit der "Richtlinie 2000/46/EG des Europäischen Parlaments und des Rates vom 18. September 2000 über die Aufnahme, Ausübung und Beaufsichtigung der Tätigkeit von E-Geld-Instituten" auch für kleinere Unternehmen die Möglichkeit, solche Münzen ohne Banklizenz zu erzeugen, vorausgesetzt, die Firmen sind ausschließlich in diesem Bereich tätig. Damit könnte elektronisches Geld in diesem Jahrzehnt zumindest in Europa eine gewisse Wiederbelebung erfahren, die großen Banken dagegen scheinen das Interesse an anonymen, sicheren Zahlungsmitteln verloren zu haben und setzen vor allem auf Paypal, Paybox & Co.

Micropayments fristen wie elektronisches Geld seit ihrer konzeptuellen Definition ein gespenstisches Dasein: Nicht richtig tot, aber auch nie wirklich umgesetzt, spuken sie durch die Köpfe mancher Dot-Com-Manager und beflügeln die Fantasien von Nutzern und Analysten. Der Analyst Clay Shirky machte in seinem viel beachteten Artikel The Case Against Micropayments die Idee selbst für ihren Misserfolg verantwortlich. Die Nutzer wollten die "geistigen Transaktionskosten" extrem kleiner Zahlungen nicht auf sich nehmen, meint Shirky. Die Idee von der Tageszeitung, bei der man nur einen Artikel lesen und bezahlen will, entspreche schlicht und ergreifend nicht der Wirklichkeit der meisten Menschen - anstatt über jede kleine Zahlung nachdenken zu müssen, würden sie lieber zuviel bezahlen und dafür weniger Zeit aufwenden.

Natürlich argumentieren Micropayment-Befürworter, Micropayments sollten so klein sein, dass die "geistigen Transaktionskosten" gegen null tendieren, weil man über Bruchteile von Cents schlicht und einfach nicht mehr nachdenkt; die einzige rationale Überlegung, die erforderlich sei, wäre die, welche Quellen man konsumiert und welche nicht. Doch das "Gebührenticker-Argument" hat sicher einiges für sich - von den im Hintergrund verschwindenden Centbeträgen wollte man ja eigentlich mit der Flatrate weg kommen.

Geld in der freien Welt

Das in der Vergangenheit propagierte Micropayment-Modell, bei dem Nutzer unsichtbar interessante Projekte subventionieren und die aggregierte Masse zu signifikanten Einnahmen führt, hat sich also nicht durchgesetzt. Was bleibt dann noch für Open-Source-Projekte? Viele argumentieren, Geld sei überhaupt nicht notwendig, wer sich beteiligen wolle, tue das eben, der Rest entwickle sich dann von ganz alleine. Bei genauerem Hinsehen entpuppt sich das jedoch als bloße Fantasie; die extreme Fragmentierung der Linux-Welt und die recht rohe Qualität vieler Open-Source-Produkte, die nur durch Hacker zu benutzen sind, sollten deutlich machen, dass zumindest die breite Masse so nicht erreicht werden kann.

Abstimmungsverfahren zwecks Standardisierung erfordern integrierte finanzielle Vergütung, um eine Ausbeutungs-Beziehung von Nutzern zu Entwicklern zu vermeiden. Projekte, für die eine Marktnachfrage, aber keine Entwicklernachfrage existiert, werden ohne eine funktionierende Open-Source-Ökonomie nur in proprietärer Form entwickelt. Letztlich ist die "Anti-Geld"-Haltung vieler Open-Source-Fans auch ein Zeichen von Techno-Arroganz: Wer nicht bereit ist, viel Zeit zu investieren, der ist wertlos, nur echte Hacker können einen Beitrag leisten. Wenn Open Source dagegen profitabel wäre, könnten IT-Arbeitskräfte auch in Drittweltländern sich damit auf schnelle Weise verselbständigen.

Große Projekte wie KDE und OpenBSD (ein weiteres alternatives Betriebssystem) akzeptieren deshalb schon seit längerem über existierende Payment-Verfahren wie PayPal und das Amazon.com Honor System Spenden zur Projektunterstützung (eine Slashdot-Neujahrs-Story enthält einige Links). Auch viele kleinere Projekte nehmen Zahlungen gerne entgegen. Für KDE kann man auch in Deutschland per Banküberweisung spenden.

Das Peer-to-Peer-Projekt Freenet konnte 2001 immerhin zwei Entwickler für einen zugegeben minimalen Lohn von je 2500 Dollar je zwei Monate lang beschäftigen. Auch außerhalb des Open-Source-Bereichs konnte das Spenden-Modell schon Internet-Erfolge verzeichnen. Der Online-Comic Penny Arcade fordert seine Leser regelmäßig dazu auf, für Server-Bandbreite und Zeit des Zeichners zu spenden - im Gegenzug erhalten sie jeden Monat ein "Geschenk", meist eine aufwendigere Grafik. In manchen Monaten kommen so über 3000 Dollar zusammen. Kuro5hin bietet seinen Lesern für 5 Dollar im Monat eine werbefreie Version der Website an, wodurch bereits ein Monatseinkommen von etwa 500 Dollar erwirtschaftet wird. Man sieht, dass der Übergang zwischen Spenden und Services oft fließend ist.

Was entscheidet über den Erfolg und Misserfolg von Spendenaufrufen? Penny Arcade verwendet ein besonders hübsch gemachtes Spendenbarometer, das verschiedene finanzielle Meilensteine enthält (die allerdings nicht offensichtlich einer Bedeutung zugeordnet sind). Trotz mathematischer Ungenauigkeit ist es ein gutes Beispiel für einen Feedback-Mechanismus, der Konsumenten involviert und motiviert. Freenet erlaubt es den Spendern, sich sogar namentlich auflisten zu lassen (automatisiert) und schlüsselt detailliert die Verwendung eingegangener Spenden auf. Es fällt jedoch auf, dass Freenet im Gegensatz zu Kuro5hin und Penny Arcade den Geldsegen meist in plötzlichen Entladungen erhält: Wenn das Projekt gerade wieder irgendwo erwähnt wird und gleichzeitig direkt auf die Spenden-Seite gelinkt wird, kommt wieder Geld in die Kasse, ansonsten tröpfeln nur gelegentlich neue Spenden ein. Den Großteil der Spenden hat Freenet mehreren Erwähnungen bei Slashdot zu verdanken.


Das Spendenbarometer des Online-Comics Penny Arcade ist ein wichtiger Feedback-Mechanismus.

Das ist ein wesentliches Problem von Spenden-Systemen: Eine Software-Website ist für die meisten Nutzer nicht von gesteigertem Interesse, sie schauen vielleicht ein paar Mal im Monat darauf, um zu sehen, ob eine neue Version erschienen ist, wenn sie nicht auch diese Information gebündelt von spezialisierten Websites wie Freshmeat beziehen. Ausnahmen bilden Software-Sites, die selbst als News-Hub fungieren, aber selbst ein Großprojekt wie Mozilla hat es unter Umständen schwerer, Spenden anzuziehen, als die Mozilla-News-Site mozillazine.org, die nur über Mozilla berichtet. Dass ein täglich aktualisierter Online-Comic wie Penny Arcade am ehesten Nutzer zu Spenden motiviert, dürfte also nicht überraschen.

Was fehlt, ist ein zentraler Spenden-Hub, der sowohl Schnittstellen zu allen wesentlichen Projekten bereitstellt als auch regelmäßige News über den Erfolg postet, mit angehängten Diskussionsforen, um die Nutzer dauerhaft zu binden. Das Projektportal SourceForge, bei dem Open-Source-Entwickler ihren Quellcode verwalten können, wäre hierfür in einer Pole Position - jedes Software-Projekt könnte automatisch eine Seite zur Abstimmung über Features erhalten, wobei Dollars zu Stimmen gemacht werden könnten. Doch statt dessen bemüht sich Mutterfirma VA Software (vormals VA Linux) nur darum, aus proprietären Erweiterungen von SourceForge Geld zu machen. Auch Linux-Distributoren wie SuSE wären in einer idealen Position, um Schnittstellen zur Bezahlung von Open-Source-Software bereitzustellen: Bei der Installation könnten die Nutzer bereits ihre Zahlungsdaten eingeben und dann bequem vom Desktop aus interessante Projekte unterstützen, wobei der Distributor natürlich bei jeder Überweisung profitieren würde. Nicht zuletzt Software-Distributions-Kanäle wie Red Carpet könnten ebenfalls als Spenden-Hubs fungieren. Doch bisher ist kaum ein Unternehmen bereit, die Idee aufzugreifen, zu groß ist die Angst vor weiteren Experimenten in einer wackligen Ökonomie.

Wer auf eigene Faust Spenden für sein Projekt sammeln will, muss es zunächst in eine Community verwandeln und umfassende Feedback-Mechanismen bereitstellen. Eine sinnvolle Alternative hierzu existiert noch nicht. Dass aber trotz der immer noch umständlichen Interfaces wie PayPal & Co., die noch dazu nur von einer Minderheit verwendet werden, Spenden-Aufrufe derart erfolgreich sind, zeigt, dass Nutzer grundsätzlich bereit sind, für freie Software zu bezahlen. Überhaupt ist der Begriff "Spende" irreführend, besonders dann, wenn die Bezahlung mit der (nicht vertraglich bindenden) Abstimmung über in ein Projekt zu integrierende Features gekoppelt wird. Aber auch bei losgelösten Spenden gibt es einen frappierenden Unterschied z.B. gegenüber Spenden für Dritte-Welt-Projekte: Das Resultat der Spende ist direkt erfahrbar und spürbar, es ist die Produktion des öffentlichen Gutes "freie Software".

Nur neoliberale Freimarktfetischisten werden argumentieren, dass eine solche Spende für ein "öffentliches Gut" nicht dem "rationalen Eigeninteresse" der Partizipanten entspreche, worauf Spieltheoretiker mit einem Hinweis auf das iterative Gefangenendilemma antworten, eine fiktive Zeugen-Aussage-Situation, bei der beim einmaligen Ablauf der Egoismus der Beteiligten siegt, beim mehrfachen Ablauf jedoch kooperatives Verhalten. Der spieltheoretische "mehrfache Ablauf" kann bei Spenden durch Reputations-Systeme abgebildet werden, die die Glaubwürdigkeit und Verlässlichkeit von Spendern und Beschenkten speichern und auch Dritten zugänglich machen.

Geteilte Waren

Die totale Freiwilligkeit von Spenden gilt vielen als problematisch, bei freier Software ist sie aber kaum vermeidbar. Das Shareware-Modell, das zu DOS-Zeiten seinen Höhepunkt erlebte, funktioniert etwas anders. Die Association of Shareware Professionals (ASP) definiert Shareware so: "Ein Shareware-Programm ist genau wie jedes andere Programm, das man in Geschäften, über Kataloge oder sonstwie kauft, mit dem Unterschied, dass Sie es benutzen können, bevor Sie es bezahlen."

Teilweise wird eine Probezeit durch das Programm forciert (Trial-Ware), teilweise wird mit sogenannten Nag-Screens, regelmäßig auftauchenden Erinnerungen, auf die Bezahlung (Registrierung) verwiesen (Nagware), teilweise sind die Programme in ihrer Funktionalität eingeschränkt (Crippleware), und manche Shareware baut allein auf das schlechte Gewissen oder den Altruismus der Nutzer.

Prinzipiell kann der Nutzer nach der Installation eines Shareware-Programms vier Dinge tun: Er kann das Programm registrieren lassen, es unter Missachtung etwaiger nichtforcierter zeitlicher Verbotsklauseln ("Sie dürfen das Programm 30 Tage testen, aber es deaktiviert sich danach nicht selbst") weiter benutzen, einen sog. Crack besorgen, der das Programm in eine Vollversion verwandelt, oder das Programm löschen.

Viele eher banale Shareware-Programme verlangen recht stattliche Preise (man blättere ein wenig bei Tucows), in diesem Fall ist die Reaktion der Nutzer natürlich ablehnend. Ingesamt kann das System jedoch auf jahrelangen Erfolg zurückblicken. Das sollte Kritiker der "Geschenkeökonomie" überraschen, denn während man bei kommerziellen Software-Paketen oft lange suchen muss, bis man im Netz das entsprechende Programm als "Raubkopie" gefunden hat, gestaltet sich das Finden von Cracks und Seriennummern zur Freischaltung von Shareware trivial (wenn sie denn überhaupt einer Freischaltung bedarf). Es existieren z.B. in Form des Paketes "OSCAR" der Crackergruppe "Phrozen Crew" gigantische Sammlungen von Seriennummern, mit denen Tausende Shareware-Programme in unterschiedlichen Versionen freigeschaltet werden können. Natürlich erfreuen sich diese Pakete großer Beliebtheit, aber ob die Nutzer der Cracks ohne sie die entsprechenden Programme registriert hätten, ist fraglich. Auf der anderen Seite registrieren manche Nutzer nach eigenen Angaben Software, obwohl sie Cracks jederzeit finden könnten - um die Entwicklung des Programms zu unterstützen. In einer solchen Situation entspricht das Shareware-Modell im Kern wieder dem Spenden-Modell, wobei noch der Faktor Illegalität hinzukommt, der aber erstens keinesfalls unumstritten ist und zweitens z.B. bei MP3s wenig Wirkung zeigt.

Neben dem klassischen Shareware-Verfahren gibt es noch verschiedene Abwandlungen, die teils auf Freiwilligkeit und teils auf Zwang setzen. Manche Programme fordern den Nutzer zum Verschicken einer Postkarte auf, andere Entwickler erhoffen sich Geschenke aller Art (Giftware), in manchen Fällen (z.B. beim freien Windows-Email-Client Pegasus Mail) wird Dokumentation oder anderer Mehrwert separat vom Programm verkauft.

Heutzutage werden Shareware-Programme zunehmend zu Adware, d.h. die Software enthält Werbebanner oder regelrechte "Werbetrojaner", kleine mitgelieferte Programme, die das Nutzerverhalten ausspähen oder auf andere Weise Ärger verursachen. Adware (in invasiven Varianten auch Spyware genannt) wurde erst durch die Massenverbreitung des Internet möglich. Werbetrojaner sind auf Open-Source-Software kaum anwendbar, da sie völlig legal entefernt werden können, dennoch enthält z.B. der Gnutella-Client LimeWire, der unter der GPL entwickelt wird, in der auf der offiziellen Website angebotenen Binärversion Spyware.

Open-Source-Business

In der Open-Source-Welt sind andere Geschäftsmodelle gefragt. Neben Spenden ist ein besonders beliebtes Verfahren das sogenannte "Dual Licensing", also die gleichzeitige Lizenzierung eines Programmes unter einer GPL-ähnlichen Lizenz, die eine Weitergabe proprietärer Versionen eines Programmes ausschließt, sowie einer zweiten kommerziellen Lizenz, die erworben werden muss und die Verwendung des Codes auch in proprietärer Software erlaubt. Dieses Verfahren findet vor allem bei Programmbibliotheken Verwendung, populärstes Beispiel ist Trolltechs Qt-Bibliothek (vgl. Teil 4: Konkurrenz der Systeme). Das freie Datenbankmodul BerkeleyDB steht ebenfalls unter einer doppelten Lizenz, was sich laut den beteiligten Entwicklern durchaus rentiert hat (vgl. Interview). Dual Licensing gestattet einer Firma, die Vorteile freier Software in Form von externer Weiterentwicklung und großer Verbreitung zu genießen und gleichzeitig auf konservative Weise mit der Software Geld zu verdienen.

Unbekannt ist, wieviel Software unter freien Lizenzen entwickelt wird, ohne sie zu veröffentlichen. Dies ist keineswegs abwegig, denn daraus ergeben sich für Software-Entwickler und Abnehmerfirmen oft eindeutige Vorteile: Die Copyright-Situation ist klar geregelt, beide Parteien können die Software auch in Zukunft unabhängig voneinander nutzen. Manch ein still und heimlich entwickeltes Paket könnte eines Tages den Weg in die Free-Software-Welt finden, wenn die Auftragsfirma es veröffentlicht.

Große Linux-Unternehmen wie Red Hat bemühen sich natürlich auch darum, mit dem Support von Linux und dazugehöriger Software Geld zu verdienen, und dank einer entsprechenden kürzlich eingegangenen Partnerschaft mit IBM dürfte dieses Modell für Red Hat die Haupt-Existenzgrundlage bilden. Bei von und für Privatpersonen entwickelter Software dürfte auf diesem Weg kaum ein akzeptabler Stundensatz erwirtschaftbar sein, auch wenn in Einzelfällen direkter Support am laufenden Programm über das Netz geleistet werden und mancher Teenager sich so einen schönen Nebenverdienst schaffen könnte.

Open-Source-Websites arbeiten häufig mit Standard-Werbebannern, die jedoch kaum noch zur Kostendeckung ausreichen. Immerhin sind die Werbebanner z.B. bei Slashdot wenigstens sehr zielgenau (IT-Services und typische Geek-Toys wie MP3-Player stehen im Vordergrund). Auch andere Modelle wären denkbar, z.B. die kostenlose Vergabe von Werbeplatz an Anbieter, die im Gegenzug für alle über die Werbung abgewickelten Verkäufe Provisionen abführen (das bekannte Referrer-Modell, wie man es von Amazon.com & Co. kennt, nur in umgekehrter Variante). Dabei könnte ein Algorithmus automatisch solche Werbung am häufigsten zeigen, die am ehesten zu Provisionseinnahmen führt.

Weitere Geschäftsmodelle wie das in Teil 5 vorgestellte Abo-Modell von Transgaming existieren, finden aber derzeit noch keine weite Verbreitung. Es zeigt sich vor allem eines: Der entsehende Free-Software-Markt ist nur in Randbereichen ein Markt, der große Firmen begünstigt. Support, Consulting und Abwicklung von Online-Payments werden solche Randbereiche sein. Die eigentliche Entwicklung von Software ist jedoch meist Sache kleiner Teams oder gar von Einzelpersonen, und mit den entsprechenden technischen Verfahren ist auch eine faire Bezahlung dieser Personen möglich, sei es gezielt für die Entwicklung bestimmter Funktionen, sei es als freiwillige Spende.

Ein erster Ansatz in eine völlig andere Richtung ist das Projekt freedevelopers.net, das es sich zum Ziel gesetzt hat, eine "demokratische Firma" zu gründen, die freie Software verkauft und die Erlöse in gerechte Entwicklerlöhne umwandelt, die in allen Ländern gleich hoch sein sollen. Mit heftiger, vom GNU-Projekt abgeleiteter Rhetorik fordert das Projekt zum Kampf gegen proprietäre Software auf. Bezahlt werden soll die Software durch Regierungen, denn Software sei öffentliche Infrastruktur wie Straßen und Abwassersysteme. Wie ernst zu nehmen das Unterfangen ist, lässt sich schwer sagen, Projektleiter Tony Stanco spricht von bereits 450 Entwicklern, die interessiert seien, doch solche unbestätigten Zahlen sind stets mit Vorsicht zu genießen.

Fazit

Die wachsende Fragmentierung von Open-Source-Lösungen erfordert neue technische Herangehensweisen. Abstimmungsverfahren sind notwendig, damit Vereinheitlichung erreicht werden kann. Dabei wird man unter Umständen Abschied von lieb gewonnenen Tools wie Mailing-Listen oder Newsgroups nehmen müssen. Für die Auswahl von Vorschlägen und Bug-Meldungen durch die Entwickler, aber auch für die Suche nach interessanten Programmen durch potentielle Nutzer ist es notwendig, ein "Meinungs-Netzwerk" aufzubauen, mit dem sowohl relevante Meinungsmacher als auch deren Bewertungen schnell lokalisiert werden können. Die direkte Verknüpfung eines solchen Netzwerks mit Abstimmungs-Systemen und neuen elektronischen Bezahlverfahren liegt nahe, wobei elektronische Münzen aufgrund ihrer Anonymität, dezentralen Speicherung und Sicherheit auch in Zukunft technologisch attraktiv bleiben. Um Nutzer stärker in die Bearbeitung von weniger technischen Projektdokumenten einzubeziehen, sollten grafische Editoren umfassende Versionsmanagement-Funktionen erhalten.

Als Geschäftsmodell für freie Software eignen sich, wie kaum anders zu erwarten, vor allem freiwillige Modelle, doch wer proprietäre Software nicht wie Richard Stallman völlig verdammt, für den tun sich weitere kommerzielle Verwertungsmöglichkeiten auf. Unumstritten ist, dass freie Software noch für einige Zeit mit proprietärer Software koexistieren wird.

Die Entwicklung von Tools, die das Netz langfristig seiner Urvision Xanadu annähern, wird in Kombination mit den genannten neuen Verfahren zur Bewertung von Inhalten auch in anderen Bereichen von großer Relevanz sein. Sichere demokratische Abstimmungssysteme können zur Diskussion politischer Vorschläge verwendet werden, wobei direkt integrierte Bezahlungsverfahren auch die praktische Umsetzung dieser Vorschläge erleichtern. Wenn Tausende oder gar Millionen von Menschen sich schnell und einfach organisieren und ihre nicht unbeträchtliche geballte finanzielle Macht einsetzen können, ergibt sich ein riesiges Feld neuer politischer Möglichkeiten. Relevante Informationen werden durch kollaborative Auswahl-Systeme schneller denn je verbreitet, und dank entsprechender Payment-Verfahren bleiben sie nicht unverarbeitet. Gerade bei einer Umsetzung in dezentraler Form wird Zensur schwierig, wenn nicht unmöglich.

Neue Risiken tun sich auf: Die gleiche schnelle Organisation und Verbreitung von womöglich anonymen Geldmitteln kann auch von Terrorgruppen genutzt werden. Doch in einem offenen Netz kann die Mehrheit der Benutzer den moralischen Konsens vorgeben, so dass sich Kriminelle in entsprechende Nischen zurückziehen müssen, wo sie auch heute nur schwer überwacht werden können.

Linux und freie Software stehen an einem kritischen Scheidepunkt. Die Qualität vieler wichtiger Programme wird weiter zunehmen, doch Zersplitterung und rechtliche Schritte z.B. aufgrund von Patenten bedrohen die Utopie. Die Free-Software-Bewegung muss also Motor von Technologien werden, die letztlich von breiter gesellschaftlicher Bedeutung sind.

Die Protagonisten des Movement stehen teilweise wie gelähmt vor dem Erfolg ihres Tuns, noch immer ein wenig ungläubig und unschlüssig über die nächsten Schritte. Fast jede Weltsicht ist bei den diversen Evangelisten zu finden, und damit erinnert die Bewegung tatsächlich ein wenig an die Lutherische Reformation. Auch das Magazin Salon verglich Linus Torvalds folglich mit Martin Luther, kein Superheld, wie man ihn nur in Comic-Heften findet, sondern ein wichtiger Mann mit vielen Fehlern. Anders als Luther ist Torvalds politisch zögerlich und wirkt (wenn man nicht seine deftigen Kommentare in technischen Foren liest) fast ein wenig schüchtern, doch auch er unterstützt bestehende Machtstrukturen, wenn er z.B. der Musikindustrie in der Napster-Frage Recht gibt. Manche Evangelisten wie Eric Raymond sind regelrecht reaktionär, andere wie Richard Stallman so dogmatisch, dass sie nur noch auf taube Ohren stoßen.

Es ist also eine Reformation, die zu beobachten ist, keine Revolution, eine Bewegung, die mittelfristig eine erhebliche Verbesserung der Situation verspricht, aber die keinesfalls unnötig glorifiziert werden sollte, damit nicht ihre Fehler zu den Problemen werden, die die nächste oder übernächste Generation lösen muss.

Linux ausprobieren

Wer auf den Geschmack gekommen ist, kann eine der erwähnten Linux-Distributionen bestellen, entweder im Original beim Distributor oder als gebrannte CD bei www.liniso.de (bei www.linuxiso.org kann man die Images zum Selber-Brennen herunterladen). Empfehlenswert ist auch das Demo-Linux Knoppix, eine Eigenentwicklung des Diplom-Ingenieurs Klaus Knopper. Es läuft vollständig von der CD und erlaubt das sofortige Erforschen des Linux-Desktops samt Anwendungen, ohne jede Installation.


Links

Anmerkungen und Quellen

1) Ich habe mir die Freiheit genommen, das Original möglichst stilecht zu übersetzen. Das englische Posting findet man z.B. in der History of Linux von Ragib Hasan.

2) Es handelt sich dabei um den "Consent Decree Act". Wie Antitrust-Behörden bereits früher gegen Hightech-Unternehmen vorgingen ist unter anderem beschrieben in David M. Hart: Antitrust and Technological Innovation. Issues in Science and Technology, Winter 1998.

3) Lenore Tracy: 30 Years: A Brief Story of the Communications Industry, in Telecommunications, Juni 1997.

4) Peter Siering: Ein Windows für alle. c't 20/2001, S. 110.

5) David P. Kormann und Aviel D. Rubin: Risks of the Passport Single Signon Protocol. Computer Networks, Elsevier Science Press, Band 33, S 51-58, 2000.

6) Prototypisch dafür ist z.B. die Lizenz, unter die Microsoft seinen HTML-Editor Frontpage stellt. Diese erlaubt es nicht, Webseiten zu erstellen, die "herabsetzende Kommentare" über Microsoft oder Microsoft-Produkte enthalten. Quelle: Slashdot

7) Kenneth W. Dobyns: The Patent Office Pony. Fredericksburg, VA. : Sergeant Kirkland's, 1994. S. 9.

8) John Stauber und Sheldon Rampton: "Trust Us, We're Experts! How Industry Manipulates Science and Gambles With Your Future" Tarcher/Putnam, New York, 2001. S.9. Auszug über Microsoft online.

9) Beispielhaft lohnt sich zu diesem Thema die Lektüre des Artikels The PR Plot to Overheat the Earth von Bob Burton und Sheldon Rampton.

10) Preis von Alternate.de, Oktober 2001

11) Zum Thema Drucker ist auch Grant Tayloers Freshmeat-Artikel Printing Software lesenswert. Er listet die zahlreichen unterschiedlichen Drucker-Lösungen auf, die zum Glück relativ gut miteinander auskommen.

12) Eine kurze, leicht veraltete Zusammenfassung der Cookie-Problematik findet sich z.B. in meinem Artikel Klick mich an, und ich weiß, wer Du bist.

13) Preis von Alternate.de, Oktober 2001

14) Freshmeat liefert auch hier einen guten Überblick.

15) Wer sich für Usability interessiert, sollte einen Blick auf die Hall of Shame der "Isys Information Architects" werfen. Dort finden sich Beispiele dafür, wie Schnittstellen nicht gestaltet werden sollten. Weitere Usability-Links gibt es im DMOZ-Verzeichnis, besonders empfehlenswert ist auch Edward Tuftes Buchreihe "Visual Explanations". Umstrittener dürfte die Website des Usability-Gurus Jakob Nielsen sein.

16) Eine gute Einführung in Xanadu liefert Nelsons Paper Xanalogical Structure, Needed Now More than Ever: Parallel Documents, Deep Links to Content, Deep Versioning and Deep Re-Use, das schon allein wegen seiner recht drastisch formulierten Kritik des Web lesenswert ist.