Software ist das Rückgrat der modernen Welt – unsichtbar, allgegenwärtig und zugleich erstaunlich fragil. Wer heute ein Flugticket bucht, eine Nachricht verschickt oder seine Heizungssteuerung bedient, interagiert mit Millionen Zeilen Code. Doch kaum jemand fragt, wem dieser Code eigentlich gehört. Seit den 1980er-Jahren zieht sich durch die IT eine unscheinbare, aber folgenreiche Auseinandersetzung: zwischen geschlossener, kontrollierter Software und offener, gemeinschaftlich entwickelter. Ihr Ausgang wird bestimmen, wie souverän wir in Zukunft über unsere Daten, unsere Geräte und letztlich über unsere digitale Selbstbestimmung verfügen.
In den Anfängen der Informatik war Offenheit selbstverständlich. Universitäten, Bell Labs und das MIT teilten ihren Code frei; Forschung war ein öffentliches Gut. Erst als Konzerne wie IBM und später Microsoft begannen, Software zu lizenzieren und hinter juristischen Mauern zu verstecken, entstand der Gegensatz von «proprietär» und «frei». Aus Protest dagegen gründete Richard Stallman 1983 die Free Software Foundation und veröffentlichte 1989 die GNU General Public License (GPL) – die erste Lizenz, die programmierte Freiheit rechtlich festschrieb.
Mit ihr begann eine Bewegung, die den Computer nicht länger als Produkt, sondern als gemeinsames Werkzeug verstand. 1998 gründeten Bruce Perens und Eric S. Raymond die Open Source Initiative (OSI), um den Begriff «Open Source» von der stärker ideologisch geprägten Bewegung der Free Software abzugrenzen. Ziel war es, Offenheit und Kooperation als pragmatischen, wirtschaftlich tragfähigen Ansatz zu positionieren. Die OSI formulierte dazu klare Kriterien: Der Quellcode muss zugänglich sein, Weitergabe und Veränderung müssen erlaubt sein, niemand darf ausgeschlossen werden, und es darf keine Einschränkung der Nutzung in bestimmten Bereichen – etwa der kommerziellen – geben. Nur Lizenzen, die diese Bedingungen erfüllen, dürfen offiziell das Label «Open Source» tragen. Seither sind Open-Source-Lizenzen international anerkanntes Vertragsrecht.
Dass offene Software zunehmend floriert, obwohl Unternehmen traditionell auf Geheimhaltung und Kontrolle setzen, ist kein Widerspruch, sondern Ergebnis ökonomischer Evolution. Open Source hat sich vom Idealismus zum strategischen Werkzeug entwickelt.
Apple, Google und Microsoft konkurrieren hart – doch sie nutzen intern dieselben offenen Bibliotheken: LLVM, zlib, SQLite, OpenSSL und viele weitere. Sie teilen Infrastruktur, weil niemand etwas davon hätte, sie doppelt zu entwickeln. Kooperation auf der Basis, Wettbewerb in der Ausgestaltung – das ist das Prinzip Coopetition, das längst die Industrie prägt.
Apple etwa schuf WebKit, um das Internet mit dem iPhone mobilfähig zu machen, und veröffentlichte es als Open Source. WebKit wurde zum offenen Fundament, auf dem das moderne Web steht: nahezu jeder Browser nutzt heute seinen Code oder seine Prinzipien. Aus WebKit ging Googles Rendering-Engine Blink hervor, die wiederum das Herz des Open-Source-Projekts Chromium bildet – der Basis für Chrome, Edge, Brave und viele andere Browser. Microsoft versuchte einst, mit dem geschlossenen Internet Explorer das Web für sich zu monopolisieren – und scheiterte damit kläglich. Heute baut Microsofts Edge-Browser auf Chromium – und damit letztlich, wenn auch indirekt, auf Apples WebKit-Code. Offenheit hat das Web nicht geschwächt, sondern definiert, standardisiert und stabilisiert.
Je komplexer digitale Systeme werden, desto gefährlicher wird Intransparenz. Geschlossene Software verlangt Vertrauen – Open Source kann es beweisen. Peer Review ersetzt Blind Faith. Behörden, Sicherheitsforscher und Privatpersonen können nachprüfen, ob Programme tatsächlich tun, was sie versprechen.
Offene Software bietet einen weiteren entscheidenden Vorteil: Stirbt ein Projektträger, bleibt der Code bestehen. Wird ein Cloud-Dienst eingestellt, kann die Community übernehmen. Proprietäre Systeme dagegen sind Black Boxes – verschwinden die Schlüssel, verschwindet der Zugang. Das ist, als könnte ein Restaurant kein Essen mehr servieren, weil der Küchenchef gestorben ist – ein klassischer «Single Point of Failure». Open Source schafft dagegen kollektives Gedächtnis: Wissen, das niemandem allein gehört, überdauert den Einzelnen.
Ein kürzliches Beispiel zeigt das besonders deutlich: Neato Robotics, früher Teil von Vorwerk, schaltete im Oktober 2025 seine Cloud-Dienste ab. Millionen teurer Staubsaugroboter wurden damit zu Elektroschrott – nicht weil sie technisch defekt wären, sondern weil die Software von zentralen Servern abhängig war. Wäre der Code offen, hätte die Open-Source-Community übernehmen können. Solche Fälle zeigen, wie schnell Bequemlichkeit in Abhängigkeit umschlägt – und warum geschlossene Software eine Form geplanter Obsoleszenz darstellt. Offenheit hingegen erlaubt Reparatur, Weiterentwicklung und Wiederverwendung – und ist damit nicht nur eine Frage der Datensouveränität, sondern auch der ökologischen Verantwortung.
Abhängigkeit von proprietären Plattformen ist nicht nur ein wirtschaftliches, sondern zunehmend auch ein geopolitisches Risiko. Wenn zentrale digitale Infrastrukturen in der Hand weniger US-Konzerne liegen, entsteht ein Machtgefälle, das Staaten und Unternehmen verwundbar macht. Würde Microsoft, Google oder Amazon aus politischen Gründen ihre Dienste einschränken, wäre nahezu der gesamte Teil der europäischen Wirtschaft auf einen Schlag handlungsunfähig. Den Zugang zu bestimmten Diensten als politisches Druckmittel einzusetzen ist eine reale Gefahr.
Gerade daraus hat Europa gelernt. Die Debatten um Datensouveränität, digitale Abhängigkeit und Cloud-Governance haben dazu geführt, dass die EU zunehmend auf offene Standards und Open-Source-Strategien setzt. Projekte wie Gaia-X und die open-source-basierte Sovereign Cloud Stack (SCS) Initiative sowie nationale Digitalstrategien in Frankreich, Deutschland und der Schweiz verfolgen dasselbe Ziel: Kontrolle über die eigenen Daten und Systeme zu behalten. Nicht aus Ideologie, sondern aus nüchterner Notwendigkeit. Die Lektion aus Jahrzehnten proprietärer Monopole lautet: Wer die digitale Infrastruktur anderen überlässt, verliert nicht nur Wettbewerbskraft, sondern auch politische Selbstbestimmung. Open Source ist deshalb nicht bloss eine technische Alternative, sondern ein strategisches Instrument europäischer Unabhängigkeit.
Es klingt paradox, doch Transparenz schafft zudem Sicherheit. Die Vorstellung, dass Geschlossenheit per se sicherer sei, weil die Software dadurch im Verborgenen liegt, ist ein verbreiteter Irrtum. In der Sicherheitsforschung nennt man das «Security by Obscurity» – Sicherheit durch Geheimhaltung – und sie gilt seit Jahrzehnten als untauglich. Auch proprietärer Code lässt sich analysieren und rückentwickeln. Microsoft musste das mehrfach erfahren: etwa als der proprietäre SMBv1-Stack («EternalBlue») oder die MS-CHAP-Authentifizierung kompromittiert wurden. Offener Code schützt besser, weil er überprüfbar ist – nach dem alten Prinzip von Kerckhoffs: Ein System ist nur dann sicher, wenn es auch bei vollständiger Kenntnis seiner Funktionsweise sicher bleibt. Sicherheit durch Geheimhaltung ist kein tragfähiges Designprinzip.
Doch Sicherheit ist mehr als Technik. Sie entsteht aus Vertrauen – und Vertrauen entsteht aus Nachvollziehbarkeit. Zehn Entwickler in einem geschlossenen Projekt haben nur zehn Blickwinkel, während eine offene Codebasis theoretisch von acht Milliarden Menschen geprüft werden kann. Diese Vielfalt verhindert Tunnelblick und ermöglicht demokratische Kontrolle – gerade in sensiblen Bereichen wie Datenschutz oder künstlicher Intelligenz. Die Corona-App war deshalb vollständig offen: Jeder konnte nachprüfen, dass sie keine versteckte Überwachung enthielt. Nur durch solche Transparenz entsteht Vertrauen – und Vertrauen ist die härteste Währung der digitalen Zukunft.
Open Source ist damit längst kein Altruismusprojekt mehr, sondern fester Bestandteil moderner Geschäftsstrategien. Unternehmen wie Red Hat, Canonical, Nextcloud oder GitLab zeigen, dass sich Offenheit wirtschaftlich trägt: Sie verdienen ihr Geld nicht mit dem Code selbst, sondern mit Wartung, Support, Integration und zertifiziertem Betrieb. Andere verfolgen Modelle wie Dual Licensing – freie Nutzung für die Community, kommerzielle Lizenzierung für Unternehmen – oder das sogenannte Open-Core-Prinzip, bei dem Basisfunktionen offen bleiben, während Zusatzmodule oder Cloud-Dienste kostenpflichtig sind. Das eigentliche Produkt ist nicht mehr der Code, sondern Zuverlässigkeit, Vertrauen und Expertise.