Wenn Leben und Sterben von Berechnungen abhängt. Ich habe mir hierzu einmal Gedanken gemacht; ich nehme Euch mit in die Gedanken einer Bloggerin: 

Unter dem Hashtag „Todesalgorithmus“ sind in der letzten Zeit insbesondere zwei unterschiedliche Meldungen in den Medien erschienen: Im Oktober 2017 ging es um die Entwicklung von selbstfahrenden Autos, die über einen Algorithmus verfügen, der im Ernstfall über Tod oder Leben entscheidet. Wer soll sterben, wenn sich ein Zusammenstoß abzeichnet? Der Fahrer? Der Fußgänger, der eventuell unachtsam über die Straße gegangen ist? Wird ein Programm blitzschnell die denkbaren Folgen von Crash-Szenarien durchrechnen und das Fahrzeug in die Gruppe mit der kleinsten Opferzahl steuern? Ein moralisches Dilemma, angesichts dessen man erstmal tief durchatmet. Es ist nämlich ein gewaltiger Unterschied, aus welcher Perspektive man auf das Problem schaut: Die Fachzeitschrift Science berichtete über eine Umfrage von Forschern aus den USA und Frankreich. Die Wissenschaftler befragten 2.000 Menschen danach, wie sich ein selbstfahrendes Fahrzeug verhalten, sprich: wen es im schlimmsten Fall opfern soll. Eine deutliche Mehrheit der Befragten sprach sich dafür aus, dass es immer darum gehen müsse, die Zahl der Toten möglichst gering zu halten. Also: Lieber sollten die Fahrzeuginsassen ihr Leben verlieren als eine Gruppe von zehn Fußgängern. Eine klare und vernünftige Entscheidung… oder? Die Probanden blieben auch bei ihrer Meinung, als sie sich vorstellen sollten, dass sie selbst oder Menschen, die ihnen sehr nahe stehen, im Fahrzeug sitzen und sterben würden. So sahen sie sich moralisch auf der sicheren Seite. Aber danach wurde es richtig interessant: Als es dann um die Frage ging, ob sich die Teilnehmer ein solches Fahrzeug, das so eine sehr rationale und von ihnen kurz zuvor befürwortete Entscheidung trifft, auch kaufen würden, war die Antwort: nein. Doch es ist durchaus denkbar, dass Algorithmen nicht nur darauf ausgerichtet sein könnten, das Fahrzeug anhand der errechneten Opferzahl zu steuern, sondern auch andere Kriterien in eine Rechenoperation einzubeziehen: Ist es nicht besser, wenn ein alter Mensch ausgewählt wird, statt einen jungen zu opfern? Sollten nicht lieber Verkehrsteilnehmer überfahren werden, die kurz vor dem Crash Verkehrsregeln nicht beachtet haben? Diese ethisch heiklen Fragen können noch weiter gedacht werden.

Es kommt noch dicker…

Dann, Mitte Dezember 2017, mitten in der Adventszeit, kam diese Meldung: Das US-Unternehmen „Aspire Health“ hat einen Todesalgorithmus entwickelt, mit dem sich ermitteln lässt, wie lange ein Mensch noch zu leben hat. Dafür werden alle Krankendaten eines Menschen ausgewertet, mit ähnlichen Fällen abgeglichen und anschließend eine Prognose erstellt. Nach Angaben der Firma soll es darum gehen, für die Patienten die beste Therapie zu ermitteln. Aber wenn man genau hinsieht, soll herausgefunden werden, wie viele Kosten ein Mensch bis zu seinem voraussichtlichen Ableben noch verursachen wird. Es geht nicht mehr um Menschlichkeit, um den Wunsch, alles Menschenmögliche zu versuchen, um einen Patienten zu heilen – es geht ganz schlicht und einfach ums Geld. Da wird zwar beschwichtigt, dass das Ergebnis einer solchen Rechenoperation den behandelnden Arzt nicht entmündigen und ihm eine eigenverantwortliche Entscheidung abnehmen soll, aber was da so stört, ist das Wort „soll“. Da gibt es nämlich noch eine andere Berufsgruppe, die ebenfalls eigenständige Entscheidungen treffen soll: die Richter. Wenn sie einen Sachverhalt mangels Fachkenntnissen nicht beurteilen können, beauftragen sie einen Gutachter. Bereits 2013 wurde festgestellt, dass bis zu 97 % der Streitfälle, zu denen Gutachter hinzugezogen wurden, analog zum Inhalt der abgegebenen Gutachten entschieden worden sind. Diese Richter wenden hier zwar keinen Algorithmus an, lagern aber ihre Entscheidung de facto aus, um sich im Zweifel auf die Expertise eines Experten berufen zu können und nicht im vollen Umfang selbst für ihr Urteil verantwortlich zu sein. Wer oder was schützt die Patienten davor, dass Ärzte nicht ganz ähnlich handeln? Dass sie sich nicht auf technisch ermittelte Ergebnisse zurückziehen, um die Last der Verantwortung ein Stück weit abzugeben? Dass medizinische Entscheidungen nicht vorwiegend unter wirtschaftlichen Gesichtspunkten getroffen werden? Wie wird berücksichtigt, dass der Mensch mit der Fähigkeit, Selbstheilungskräfte zu aktivieren, zusätzlich zu einer medizinischen Therapie zu seiner Heilung entscheidend beitragen kann? Solche Faktoren kommen in der mathematischen Berechnung nicht vor. Sie orientieren sich nur an einem modellhaften Menschen, aber nicht am einzelnen Individuum mit seinen persönlichen (auch mentalen) Voraussetzungen.

Menschlichkeit oder Profit? Denke nur ich so?

Anders als der Firmenname „Aspire Health“ („streben nach Gesundheit“) vermuten lässt, ist der Geschäftszweck des Unternehmens nicht der Verkauf von lebensrettenden Arzneien oder vielleicht auch Nahrungsergänzungsprodukten. Aspire Health bietet Palliativpflege an und stellt hierfür individuelle Lösungen bereit. Einem Unternehmen, das die letzte Lebensphase von Schwerkranken positiv gestalten will, soll an der erfolgreichen Anwendung von Therapien gelegen sein? Wohl kaum. So bleibt neben diesem schalen Beigeschmack außerdem noch die Frage, wie der selbst entwickelte Algorithmus überhaupt aufgebaut ist: Welche Kriterien fließen in die technische Entscheidungsfindung ein? Dazu schweigt sich Aspire Health aus und verweist auf das Betriebsgeheimnis.

Ich will mir nicht vorstellen, dass Ärzte künftig von einem Algorithmus abhängig machen, ob sie über dem Leben eines Patienten den Daumen heben oder senken. Ich hoffe, dass letztendlich die Menschlichkeit und eine menschenwürdige Behandlung die Oberhand behalten. Ob das gelingt, hängt von der Politik und den Ärzten ab.

Image by geralt on Pixabay

  • Nancy Mick sagt:

    Ein sehr interessanter Artikel!
    Regt zum Nachdenken an…

    • Ina Degenaar www.gesellschaftskritik.com & http://inasbuecherkiste.blogspot.de sagt:

      Vielen Dank!

      • Christian Gera/Bloggerherz & Freizeitcafe Gründer sagt:

        Hey interessante Gedanken, die Du da verschriftlicht hast. Stimmt, auch darüber sollte man zu Weihnachten einmal nachdenken. Liebe Grüße

        • Ina Degenaar www.gesellschaftskritik.com & http://inasbuecherkiste.blogspot.de sagt:

          Danke schön. Das Thema sollte man grundsätzlich im Auge behalten, denn ich finde die Vorstellung, dass wir Entscheidungen und Verantwortung in die Hand von Computern geben, ziemlich gruselig.

          • Christian Gera/Bloggerherz & Freizeitcafe Gründer sagt:

            Das finde ich auch. Ich denke genauso, dass der Mensch immer noch im Vordergrund stehe sollte und die Menschlichkeit- trotz aller Technik. Dein Artikel hier ist echt klasse. Freue mich auf weitere (auch gerne gesellschaftskritische wieder) hier bei uns im Herz. Schöne Weihnachts-Zeit Dir

  • Pia sagt:

    Sehr interessanter Artikel. Gerade das Beispiel mit dem selbstentscheidenden Auto erinnert mich ein wenig an „I,Robot“ mit Will Smith. Der Protagonist hat diese Erfahrung selbst gemacht, dass ein Roboter berechnet hat, wer am ehesten Überleben wird und denjenigen dann gerettet. Das schicksal des anderen war damit besiegelt. Auch bei diesem Film hatte ich eine Menge zum Nachdenken. Ich persönlich finde, solange wir Menschen sind, sollten wir auch selbst unsere Entscheidungen treffen. Der Gedanke, dass ein Algorithmus über Sein oder Nichtsein entscheiden soll, macht mir eine Menge Angst.

    • Ina Degenaar www.gesellschaftskritik.com & http://inasbuecherkiste.blogspot.de sagt:

      Mir auch! Aber ich habe den Eindruck, dass die Schattenseiten der technischen Möglichkeiten bei aller Begeisterung darüber, was möglich ist, schnell vergessen werden.