Systemische Ursache
Update vom 25.03.2025
Der Diskurs um eine algorithmische Kontrolle der Menschen in der digitalen Gesellschaft ist für uns konstitutiv, da wir den Umgang mit Gesundheitsdaten derzeit erst beginnen zu erproben.
Politisch sind die Weichen mit der Einführung der Elektronischen Patientenakte (ePA) gestellt. Technologisch ist bisher nicht ausgemacht, wie Gesundheitsdaten durch zukünftige Technologien behandelt werden und welchen Nutzen das haben wird. An Hoffnungen und Heilsversprechen mangelt es nicht. Klar ist jedoch, dass heute bereits zahlreiche Lebensbereiche von Datenströmen bestimmt werden. Unsere Entscheidungen werden zunehmend algorithmisiert.
Infiltration unserer Abwägungen durch konsequentialistische Perspektiven
Die Algorithmisierung führt zu einer deutlichen Verschiebung in der Art und Weise, wie wir Entscheidungen treffen. Statt komplexer ethischer Abwägungen, die verschiedene Prinzipien und Werte berücksichtigen, reduzieren Algorithmen Entscheidungen auf quantifizierbare Ergebnisse und deren Konsequenzen.
Diese konsequentialistische Perspektive zeigt sich besonders deutlich darin, dass algorithmische Systeme primär auf die Optimierung messbarer Outcomes ausgerichtet sind. Moralische Überlegungen werden dabei auf eine Kosten-Nutzen-Rechnung reduziert, bei der der errechnete Nutzen die primäre Entscheidungsgrundlage bildet.
Diese Entwicklung ist besonders kritisch im Gesundheitswesen zu betrachten, wo komplexe medizinethische Fragen nicht allein durch die Berechnung von Erfolgswahrscheinlichkeiten beantwortet werden können. Die Würde des Menschen und seine Autonomie drohen dabei, in den Hintergrund zu geraten.
Wie granular sich eine Entwicklung ankündigt, lässt sich auch in der Diskursanalyse »Algorithmizität als Bedrohung praktischer Vernunft« → nachlesen.
Problematik des algorithmischen Konsequentialismus
Ein rein konsequentialistischer Ansatz durch Algorithmen ist aus mehreren Gründen problematisch. Zentral ist wohl, dass sich über Jahrhunderte errungene Werte mit der gleichen Geschwindigkeit verändern, wie eine von Daten logisch durchdrungene Lebenspraxis in immer mehr Lebensbereichen.
Wenn Werte beschreiben, was als Menschen für Menschen gilt, dürfen wir diesen Diskurs nicht länger auf die lange Bank schieben.
Reduktion komplexer Wertesysteme: Algorithmen können die Vielschichtigkeit menschlicher Werturteile und ethischer Überlegungen nicht adäquat abbilden. Sie reduzieren moralische Entscheidungen auf quantifizierbare Größen.
Vernachlässigung qualitativer Aspekte: Nicht-messbare Faktoren wie zwischenmenschliche Beziehungen, kulturelle Werte oder individuelle Lebensentwürfe werden systematisch ausgeblendet.
Gefahr der Entmündigung: Die Verlagerung von Entscheidungen auf algorithmische Systeme kann zu einer schleichenden Entmündigung der Menschen führen, die ihre Urteilskraft zunehmend an Maschinen delegieren.
Diese Entwicklung ist besonders kritisch für das Gesundheitsgeschehen, wo rein quantitative Erfolgswahrscheinlichkeiten die Komplexität medizinethischer Entscheidungen nicht erfassen können.
Eine ausschließlich auf Algorithmen basierende Entscheidungsfindung würde bedeuten, dass wesentliche Aspekte der menschlichen Existenz – wie Würde, Autonomie und individuelle Lebensgeschichten – systematisch ausgeblendet werden.
Notwendigkeit eines ausbalancierten Ansatzes
Stattdessen sollten algorithmische Systeme als Unterstützung, nicht als Ersatz für menschliche Entscheidungsfindung, konzipiert werden. Sie können wertvolle Daten und Analysen liefern, die in einen breiteren Kontext ethischer Überlegungen eingebettet werden müssen. Dies erfordert:
Integration ethischer Prinzipien: Algorithmen müssen so gestaltet werden, dass sie grundlegende ethische Prinzipien respektieren und nicht nur Effizienzkriterien folgen.
Transparenz und Kontrolle: Die Entscheidungswege algorithmischer Systeme müssen nachvollziehbar und durch Menschen überprüfbar sein.
Bewahrung menschlicher Autonomie: Die finale Entscheidungshoheit muss bei den Menschen bleiben, besonders bei ethisch komplexen Fragen im Gesundheitswesen.
Künftige Rolle privater Softwareunternehmen am Beispiel von Palantir
Die Bedenken gegen den Einsatz von Palantirs Software in sensiblen Bereichen wie der elektronischen Patientenakte (ePA) oder der polizeilichen Datenanalyse speisen sich aus diesem vielschichtigen, normativ fundierten Diskurs.
Palantir Technologies wurde 2003 von Peter Thiel, Alex Karp, Stephen Cohen und weiteren Mitgründern ins Leben gerufen. Das Unternehmen, das seinen Hauptsitz mittlerweile in Denver hat und seit 2010 auch in München vertreten ist →, hat sich auf die Analyse großer Datenmengen spezialisiert.
Peter Thiel, einer der einflussreichsten Silicon-Valley-Investoren und Mitbegründer von Palantir, vertritt eine techno-libertäre Haltung und befürwortet die intensive Nutzung von Daten zur Kontrolle und Steuerung gesellschaftlicher Prozesse, was sich auch in der Ausrichtung von Palantir widerspiegelt.
Ursprünglich entwickelte Palantir Software zur Terrorismusbekämpfung und zur Unterstützung von Geheimdiensten → →. Die CIA war einer der ersten Großkunden und investierte sogar über ihren Risikokapitalarm In-Q-Tel in das Unternehmen → →. Das Flaggschiff-Produkt, Palantir Gotham, wird hauptsächlich von Geheimdiensten, Militär und Strafverfolgungsbehörden genutzt, um komplexe Datenmengen zu analysieren und Muster zu erkennen → → →.
Im Laufe der Zeit hat Palantir sein Geschäftsmodell erweitert und die Plattform Palantir Foundry für kommerzielle Anwendungen entwickelt → →. Diese wird von Unternehmen in Branchen wie Finanzen, Fertigung und zunehmend auch im Gesundheitswesen eingesetzt, um Daten zu analysieren, Geschäftsprozesse effizienter zu gestalten und bessere Entscheidungen zu treffen → →. Mittlerweile macht der Umsatzanteil im kommerziellen Bereich sogar etwas mehr als die Hälfte des Gesamtumsatzes von Palantir aus →.
Während die Polizeibehörden im Bundesland Hessen Palantir-Software einsetzen, konnte Palantir während der Pandemie nicht punkten und die deutschen Behörden lehnten eine Zusammenarbeit ab. Ob das so bleibt, hängt auch von der digitalen Souveränität der Bundesbürger ab. Das betrifft auch jetzt wachsende Datenbestände, die sich mit der Elektronischen Patientenakte (ePA) ergeben und aus denen gewisse Begehrlichkeiten entstehen könnten, die nur wenige Unternehmen auf der Welt bedienen können.
Im Gegensatz dazu konnte Palantir in Großbritannien mit dem National Health Service (NHS) einen Vertrag abschließen →. Das Unternehmen unterstützt dort das Gesundheitsministerium mit seiner Datenplattform Foundry und hat Zugriff auf Gesundheitsdaten aller Krankenhäuser in England →. Im November 2023 erhielt Palantir zudem den Zuschlag für die Federated Data Platform (FDP) des NHS, einen der größten Gesundheitsdatenverträge Großbritanniens →.
Da die ePA-Daten perspektivisch auch in den Europäischen Gesundheitsdatenraum (EHDS) eingebunden werden sollen → →, könnte Palantir mit seiner internationalen Erfahrung eine Rolle bei der Integration und länderübergreifenden Analyse von Gesundheitsdaten spielen.
Notwendigkeit einer demokratischen Kontrolle
Die zunehmende Rolle von Unternehmen wie Palantir im Gesundheitswesen verdeutlicht die dringende Notwendigkeit einer gesellschaftlichen Debatte über die Grenzen algorithmischer Kontrolle. Auch wenn sich das derzeit (nur) international abspielt, ist besondere Wachsamkeit nötig. Und nicht nur das. Auch die eigenen Möglichkeiten, mit Gesundheitsdaten zielführend, aber adäquat umgehen zu können, sind entscheidend für demokratische Deliberationen.
Die derzeitige Entwicklung zeigt exemplarisch, wie technologische Lösungen und privatwirtschaftliche Interessen in hochsensiblen Bereichen der öffentlichen Daseinsvorsorge vordringen.
Die Herausforderung besteht darin, die zweifellos vorhandenen Potenziale der Datenanalyse zu nutzen, ohne dabei fundamentale Prinzipien wie Datensouveränität, Transparenz und ethische Grundwerte zu opfern. Dies erfordert:
Demokratische Kontrolle: Strikte Überwachung und Regulierung der Datenverarbeitung durch demokratisch legitimierte Institutionen
Ethische Leitplanken: Verbindliche Rahmenwerke, die den Schutz individueller Rechte und gesellschaftlicher Werte sicherstellen
Digitale Souveränität: Aufbau eigener technologischer Kompetenzen zur Reduzierung der Abhängigkeit von privaten Technologieunternehmen
Nur wenn es gelingt, diese Balance zwischen technologischem Fortschritt und ethischen Prinzipien zu wahren, kann eine digitale Transformation des Gesundheitswesens gelingen, die dem Menschen dient und nicht umgekehrt.
Die algorithmische Kontrolle in der digitalen Gesellschaft muss daher stets im Dienste des Menschen stehen.