Lineback Aktuell

Automatisierte Entscheidungsfindung in der Notaufnahme?

von Sarah Weiß, 29.03.2021

Als ich vor dem Wochenende aus Datenschützerkreisen von der unten geschilderten Neuigkeit erfuhr, brauchte ich den Samstag, um frei nach Sascha Lobo erstmal „angemessen auszuflippen“; den Sonntag brauchte ich, um mich wieder zu beruhigen …

 

Dass wir öfters als sonst üblich unser Gesundheitssystem diskutieren, ist inzwischen leider nicht mehr neu; was aber neu ist, ist ein Gesetzesentwurf aus dem Gesundheitsministerium, wonach Jens Spahn sich eine Software wünscht. So weit so gut, dass so manches in diesem System verbesserungs- bzw. digitalisierungsbedürftig sein dürfte, ist wohl unstrittig. Dass aber genau jener Minister, der kürzlich erst die Berliner Beauftragte für Datenschutz und Informationsfreiheit anrief, um zu verhindern, dass Journalisten den Kaufpreis seiner Immobilien beim Grundbuchamt erfragen, nun so wenig datenschutzaffin plant, ist zumindest verwunderlich. Was plant Herr Spahn bzw. sein Ministerium denn da?

 

Das Gesundheitsministerium legte einen Gesetzesentwurf vor, laut dem ein Algorithmus in der Notaufnahme entscheiden soll, wer dort behandelt wird und wer zum Hausarzt muss. Nicht falsch verstehen: Wir wollen hier kein dystopisches Bild an die Wand werfen, denn wenn es um Entscheidungen von Software gehen, erheben wir schnell den Anspruch, dass diese perfekt entscheiden soll – obwohl wir wissen, dass auch nicht jede menschliche Entscheidung perfekt ist. Doch: Wenn es um Entscheidungen durch KI, Software oder Algorithmen geht, haben wir diesen zurecht strenge Anforderungen vorangestellt, „Triage per Software“ klingt da zunächst doch beängstigend. An sich sind Ersteinschätzungssysteme nichts Neues und seit geraumer Weile im Einsatz, aber noch trifft der Arzt die Letztentscheidung und kann sich gegen das System durchsetzen. Das änderte sich, würde das Gesetz so wie im Entwurf umgesetzt. Denn unabhängig davon, wie gut die Entscheidungen sind, die das System träfe (Algorithmen sind immer so gut oder schlecht, wie man sie trainiert), steckt der Teufel im Detail: Die ambulanten Leistungen würden nämlich nur vergütet, wenn der sofortige Behandlungsbedarf festgestellt würde. Das bedeutete, dass ein Arzt, der sich über die Software hinwegsetzt, seiner Klinik Ungemach bereiten könnte, weil die Bezahlung ausbleiben könnte … also lieber nur behandeln, was „das System“ vorschlägt, auch wenn die ärztliche Erfahrung anders entscheiden ließe – und so festigt sich das System dann ja: Es lernt, dass seinen Empfehlungen samt und sonders gefolgt wurde.

 

Über die Motive des Gesetzesentwurfs wollen wir nicht spekulieren, wir wollen lediglich darauf hinweisen, dass es klare Vorgaben gibt, die zu beachten sind, wenn man automatisierte Entscheidungfindungen nutzen will, und zwar in Art. 22 Abs. 1 DSGVO: „Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.“ Bei der Frage, ob man in der Notaufnahme behandelt wird oder nicht, darf mit an Sicherheit grenzender Wahrscheinlichkeit oft genug von einer erheblichen Beeinträchtigung ausgegangen werden. Gespannt sein darf man in dem Kontext auf so einiges, denn die Krankenhäuser müssten die berechtigten Interessen des Betroffenen (ja, des abgewiesenen Patienten) wahren, der u. a. ein Recht auf Anfechtung der Entscheidung hat oder auf die Datenschutzfolgenabschätzungen oder … es steht zu hoffen, dass da noch wer interveniert, aber bis dahin kann man den Entscheidern in Unternehmen nur raten, nicht auf die Linie des Gesundheitsministeriums einzuschwenken und stattdessen bei automatisierten Entscheidungsfindungen Vorsicht und Planung walten zu lassen.