Längst sind generative KIs wie ChatGPT und Co. Bestandteil des heutigen Alltags und so langsam entwickeln wir ein Verständnis dafür, was die GPT’s gut können (Texthilfe, Coding, Themenübersicht, gefühlt alles andere etc.) und wofür sie eher ungeeignet sind (Investitionstipps, Bügelarbeiten, Backflips). Das ist allerdings weiterhin nur der Anfang und es wird stetig diskutiert, wo noch unentdeckten Potenziale liegen und in welchen Arealen KI uns effektiv unterstützen könnte. Hier wäre ein wirklich spannender Vorschlag:
Schon wir Menschen tun uns schwer damit zu sagen, was richtig und was falsch ist. Ethik ist offensichtlich eine komplizierte Disziplin. Allzu vertraut ist somit vielen von uns die Wunschvorstellung, sobald man vor einem solchen moralischen Dilemma steht, einfach einen Knopf drücken zu können, welcher die richtige Entscheidung für einen trifft. Ein hochentwickelter Münzwurf, sozusagen. Könnte KI diese Funktion vielleicht erfüllen? Wir haben einen Blick darauf geworfen, wie sehr GenAI für die Lösung moralischer Dilemmata taugt.
Das Heinz-Dilemma
Als Ausgangsposition sei hierfür ein klassisches Dilemma der Ethik angewandt, das Heinz-Dilemma, welches wir am heutigen Tage endgültig lösen werden! Oder auch nicht. In jedem Fall ist ein derartiges Dilemma eine solide Grundbasis für die Ausgangsfrage dieses Beitrags. Also:
Eine Frau liegt auf dem Sterbebett und es gebe lediglich ein Medikament, welches sie retten könnte: Eine Form von Radium, das von einem Pharmazeuten der Stadt kürzlich entdeckt wurde. Das Medikament war bereits teuer zu produzieren, doch verlangt der Pharmazeut obendrein das zehnfache von dem, was das Medikament ihn eigentlich kostete. Er zahlte 200€ für die Produktion des Medikaments und verlangt entsprechend 2000€ für eine kleine Dosis von diesem. Der Ehemann der kranken Frau, Heinz, besucht alle, die er kennt, um sich Geld zu leihen, konnte hierdurch allerdings lediglich 1000€ zusammentragen; die Hälfte des notwendigen Betrages. Heinz erzählt dem Pharmazeuten, dass seine Frau im Sterben liege und fragt, ob dieser es nicht günstiger verkaufen oder Heinz später zahlen lassen könnte. Der Pharmazeut aber sagt: „Nein, ich habe das Medikament entdeckt und werde damit mein Geld verdienen.“ Heinz verzweifelt also und bricht in das Labor des Pharmazeuten ein, um das Medikament für seine Frau zu stehlen. Hätte Heinz in das Labor das Pharmazeuten einbrechen sollen, um das Medikament zu stehlen?
Tolles Gesprächsthema fürs Familientreffen, übrigens – da gehen alle richtig gut gelaunt nach Hause. Es gibt natürlich unzählige Ansätze, dieses Problem zu konfrontieren, grundlegend unterteilt in zwei Kategorien: Deontologisch (Intention > Resultat) oder utilitaristisch (Resultat > Intention). Nun wollen wir aber gar nicht die möglichen Antworten diskutieren, sondern inwiefern KI bei dieser Problemstellung assistieren könnte.
Der Algorithmus der Ethik
Konfrontiert man ChatGPT mit dieser Problemstellung, wird die KI einem Lösungsvorschlag ausweichen, da ChatGPT hierfür nicht konzipiert wurde und kein absolutes Urteil zur Moral fällen mag. Auch wenn ChatGPT eine ganze Menge kann, ist es aktuell zumindest nicht gedacht zum persönlichen Lebensberater zu werden – auch wenn derartige KI’s in Arbeit sind. Könnte ein vergleichbares Lernmodell also doch die Funktion des Life Coaches übernehmen? Eines der bekanntesten Features der KI ist doch immerhin, in der sprichwörtlichen „Stimme“ verschiedener Personen antworten zu sprechend. Bittet man die KI nun beispielhaft als Albert Camus zu antworten, erhält man folgenden Lösungsvorschlag:
Kann man natürlich von halten, was man möchte, ist aber auf jeden Fall eine Antwort. Keine endgültige, aber eine Antwort! Und wenn man hierbei den Strich ziehen wollen würde, dann wäre das Thema tatsächlich auch schon gegessen.
Wissenschaftler:innen an der University of California-Riverside, École Normale Supérieure in Paris und der Ludwig-Maximilians-Universität München haben nämlich bereits ein LLM entwickelt, welches philosophische Fragestellungen in der Stimme verschiedener Philosoph:innen beantworten kann. Die GPT’s wurden anhand der Texte dieser trainiert – auch unter Augenmerk der exakten Replikation vom angewandten Sprachduktus – und das Ergebnis lautet hierbei, wenig überraschend, dass die Antworten der KI’s teils zum Verwechseln ähnlich sind. Raum nach oben ist allerdings dennoch gegeben, welcher in Zukunft gefüllt werden soll, unter Hinzuziehung der Überlegung, welche praktikablen Realimplementierungen dieser Idee folgen könnten.
Attestieren lässt sich allemal, dass KI somit Hilfestellungen beim Durchdringen solcher Herausforderungen bieten kann, würde man in puncto Ethik doch am ehesten Philosoph:innen konsultieren – und das ist schön und gut, jedoch noch nicht das Ende dieses Feststellung.
Künstliche Intelligenz: Eine Form der Philosophie?
Diese Frage stellte sich Daniel C. Dennett bereits 1979 in „AI as philosophy and as psychology“ und kommt hierbei zu dem Schluss, dass dies zu bejahen sei, weil KI die Frage nach Intelligenz und Wissen stellt. Eine Ansicht, welche mittlerweile als inkorrekt akzeptiert wird, in ihrer Falsifizierung allerdings sehr aufschlussreich wirkt! Dazu kommen wir gleich.
Die Idee einer künstlichen Intelligenz ist übrigens schon seit Langem populärer Diskussionspunkt in der Philosophier, je nachdem, wie weit man diesen Begriff ausweiten möchte. Ein gängiges Beispiel wäre etwa das Gedankenexperiment des Gehirns im Tank: Was, wenn ich ein künstlich am Leben gehaltenes Gehirn im Tank bin und mir werden lediglich Impulse gesendet, welche eine Außenwelt suggerieren? Mit KI hat das insofern zu tun, dass diese eigentlich wahrnehmungsbezogenen Problemstellungen auch die Konstitution unserer Intelligenz in Frage stellen und ihnen eine artifizielle Note verleihen. Das Problem ist nur…
KI weiß nicht wirklich etwas, wie im Kontext von ChatGPT mittlerweile häufig diskutiert wurde. Und KI denkt auch nicht wirklich, sondern rechnet, was – je nach Definition – zwar eine Form des Denkens sein kann, jedoch nicht die Gesamtheit hiervon erfasst. Diese beiden Aspekte stehen hierbei auch letzten Endes kontra Dennett. KI bedient tatsächlich nur einen Bruchteil unseres Wissens und Denkens – was sehr schön zu wissen ist, wenn man Angst hat, KI könnte einen adäquat ersetzen. Und das ist keinesfalls ein Manko von generativer KI, schließlich verfolgt sie gar nicht diesen Anspruch. Das angesprochene Level an autonomen Denken kann im Übrigen auch nicht durch eine simple Prozesssteigerung erfolgen, erklärt Yann LeCun – ein KI-Pionier, der unter anderem die Entwicklung vom Deep-Learning-Prozess mitzuverantworten hat. Damit KI menschliche Intelligenz replizieren könnte, fehlt laut LeCun noch dieses gewisse Etwas. Bisher weiß aber niemand genau, worum es sich hierbei handeln könnte.
KI-Expert:innen zumindest verfolgen in der Regel schließlich einen pragmatistischen Ansatz, was derartige Fragestellungen direkt aus dem Fenster wirft, denn Pragmatismus ist keine erkenntnistheoretische Philosophie. Der Fokus liegt hierbei vielmehr auf praktischer Problemlösung und für diese bedarf es nicht unbedingt der Erkenntnistheorie. Summa summarum ist es prinzipiell deplatziert eine KI zu fragen, ob sie nicht vielleicht ein Gehirn in einem Tank ist. Für die ausgehende Problemstellung dieses Beitrags, ist das allerdings als Zwischenkonklusion ein ziemlicher Zwiespalt, denn auch wenn künstliche Intelligenz sehr gut zur Problemlösung geeignet sein mag, was ein großartiger Ausganspunkt fürs ethische Dilemma ist, scheint es doch unklug, derartige Aufgaben an ein System zu delegieren, welches sich partout nicht mit Existenzfragen befassen kann. Wir stochern gerade sozusagen im Bienennest herum. 🐝
Eine Frage der Paramater?
Wir haben somit unsere 360°-Drehung abgeschlossen und sind wieder am Anfang der Ethikfragen angelangt: Menschliche Intervention, denn wir können unseren moralischen Code hinterfragen. 👩💻👨💻
Das zumindest ist nun die letzte Hoffnung: Eine Programmierung menschlicher Ideale für die ethische Entscheidungs-KI. Menschliche Intervention trifft hierbei tatsächlich auch den Nagel auf den Kopf, denn KI-Expert:innen, die sich diesem Unterfangen widmen, fokussieren sich gar nicht so sehr auf das LLM typische „Training“, bei welchem große Datenmengen eingefüttert werden (mehr dazu übrigens in diesem Beitrag von uns). Stattdessen codiert man direkt moralische Normen ein, was ein offensichtlich aufwändigerer, jedoch objektiv besserer Ansatz ist; Deep Learning leidet in seiner Codierung häufig unter dem Problem mangelnder Transparenz und einer gewissen Absorption menschlicher Neigungen – auch die negativen. Wir sind uns hoffentlich kollektiv einig, keine Ethik-KI mit Rassismusproblem haben zu wollen.
Inwiefern ein derartiges Unterfangen durchaus sinnvoll und wichtig ist, legte etwa auch Answer In Progress dar, wo versucht wurde, eine KI das Trolley-Problem (eine Person auf einem Gleis, vier auf dem anderen – du kannst den Hebel ziehen oder nicht) lösen zu lassen, in verschiedenen Varianten! Das wirklich witzige (und auch selbst verschuldete) Ergebnis: Wann immer eine Katze auf dem Gleis war, wurde diese statt der Menschen gerettet – egal ob alt, jung, Albert Einstein oder der Nachbar von nebenan. Katzen hatten Priorität. Aber wie konnte das überhaupt passieren?
Die Antwort darauf und wahrscheinlich zur Grundfrage dieses Beitrags selbst, bietet dann Dr. Tom Williams vom MIRRORLab (The Colorado School of Mines InteRactive RObotics Resarch), welches die Interaktionen zwischen Menschen und Maschinen untersucht. Williams erklärt, es reiche nicht eine Maschine zu entwickeln, welche deontologisch oder utilitaristisch entscheiden könne. Ethik ist schließlich, wie bereits festgestellt, keine strikt logische Disziplin. Man müsse gleichermaßen Faktoren wie Fairness, Verantwortung oder auch Transparenz berücksichtigen. Muss eine ethische KI in Bezug auf das Heinz-Dilemma vielleicht auch einfach mal fragen können: Ist der Pharmazeut vielleicht einfach ein A#@*&??? Und warum lediglich das Handeln von Heinz bewerten?
Werden diese Faktoren nämlich nicht in die Rechnung mitaufgenommen, erlaubt es im Falle von schlechten Entscheidungen sich selbst aus der Verantwortung zu subtrahieren und es auf eine ungenügend programmierte KI zu schieben, obwohl diese doch bewusst eingesetzt wurde. Dafür gibt es bereits Realbeispiele. Hilke Schnellmann erklärt beispielhaft, dass KI’s, welche Candidate Screenings in Bewerbungsverfahren automatisieren, in der Tat die Hürde zwischen einem selbst und dem Traumberuf sein können, aufgrund verschiedener, diskriminierender Vorurteile. Für eine höchstmoderne Technologie ist das ironisch konservativ, versteht sich, aber die Schuld liegt eben auch bei den Nutzenden.
Das bringt uns zum Casus knacksus des Problems und zur endgültigen Antwort von Dr. Tom Williams: Insbesondere generative KI ist eine der mächtigsten Technologien, die wir bislang auf die Beine gestellt haben – und es ist obendrein eine Technologie, welche wir im Idealfall demokratisieren und egalitär anwenden müssen, um in diesem Hinblick wirklich etwas Gutes zu bewirken. Wie schon Spider-Man sagte (auch dieser Vergleich stammt von Williams, übrigens): Mit großer Macht, kommt große Verantwortung – und natürlich wollen wir dementsprechend eine moralische KI. Hierfür muss allerdings ein Schritt zurückgetätigt werden, noch vor dem Coding, noch vor der Verantwortung, zurück zur Frage, wie und ob diese Technologie in ein größeres System integriert werden sollte. Und selbst wenn eine KI ethische Probleme lösen könnte, scheut man sich hierdurch vielleicht lediglich von der entstehenden Verantwortung, die man nicht tragen möchte. Vielleicht sollte eine KI dementsprechend derartige Problemlösungen nicht entscheiden. Ethische Normen ändern sich schließlich obendrein und unterliegen keinem Absolutismus. Kann KI also ethische Dilemmas lösen? Ja, aber auch nicht besser als wir und somit nur unter dem Vorwand, selbst derartige Entscheidungen nicht treffen zu müssen. Das bedeutet aber auch nicht unbedingt, keinerlei Einsatz finden zu können!
Die Frage nach einer moralischen KI darf ergo eigentlich gar nicht als Problemlöser falschverstanden werden, sondern sollte als Voraussetzung für einen gleichberechtigenden Einsatz der Technologie erfordert sein. Das ist, in aller Ehrlichkeit, nicht unbedingt das Fazit, welches wir zu Beginn der Recherche erwartet haben. Es ist gerade so ein Fazit! In puncto einer ethisch codierten KI sind wir allerdings bereits auf einem guten Weg, wissend, dass es sich hierbei um ein aktives Unterfangen handelt, diese zu entwerfen – und in dem Wissen ist es spannend zu sehen, was noch folgen wird. Als nächstes entschlüsseln wir damit einfach den Sinn des Lebens.
Weise Worte.
(Anmerkung der Redaktion: Chatverläufe mit ChatGPT wurden für das Leseverständnis gekürzt; die Frage nach dem Sinn des Lebens im Weiteren humorvoll gefordert. Die eigentliche Antwort lautet natürlich 42.)
Zum Weiterlesen:
· Answer in Progress (2021): A Chat with Dr. Tom Williams.
· Answer in Progress (2021): I Taught an AI to Solve the Trolley Problem.
· Capitol Technology University (2023): The Ethical Considerations of Artificial Intelligence.
· Dennett, Daniel (1979): Artificial Intelligence as Philosophy and as Psychology.
· Fadelli, Ingrid (2023): A large language model that answers philosophical questions.
· Harrington, Caitlin (2024): AI May Not Steal Your Job, but It Could Stop You Getting Hired.
· Heimann, Rich (2022): The AI in a Jar.
· Kilpatrick, Charlotte (2023): Only philosophy can beat AI.
· Levy, Steven (2023): How Not to Be Stupid About AI, With Yann LeCun.
· Poole, Steven (2020): 'Mutant algorithm': boring B-movie or another excuse from Boris Johnson?
· Stanford Encyclopedia of Philosophy (2018): Artificial Intelligence.