Warum wir künstlicher Intelligenz nicht vorbehaltlos vertrauen sollten, auch wenn ihre Ratschläge für uns immer wichtiger werden
Rainer M. Rilke - 14. September 2023
KI wird mehr und mehr zu einem unverzichtbaren Berater, der das Verhalten der Menschen im Alltag beeinflusst. Amazons Alexa und ChatGPT, mit Nutzerzahlen jenseits der 100 Millionen, sind weit mehr als bequeme Tools. Sie sind zu verlässlichen Beratern in vielen Lebenslagen geworden. Beide repräsentieren nur einen kleinen Teil der breiten Anwendung von Künstlicher Intelligenz, bei denen insbesondere ein Teilbereich von KI zum Einsatz kommt: die Verarbeitung natürlicher Sprache (Natural Language Processing oder kurz NLP). Sie versetzt Computer in die Lage, menschliche Sprache zu verstehen, zu interpretieren und zu manipulieren. Mittlerweile können Menschen nicht mehr unterscheiden, ob ein Text von einer KI oder einem Menschen verfasst worden ist. Die Qualität der Texte und Aussagen ist einfach zu hoch, und ihr Inhalt ist zu plausibel.
Für die KI zählt das Ziel – auch wenn der Weg dorthin unmoralisch ist
Große Unternehmen wie die Social-Media-Plattform LinkedIn oder die Immobilienplattform Zillow arbeiten bereits mit KI-Beratern. Deren NLP-Algorithmen analysieren die Verkaufsgespräche von Angestellten und geben ihnen Tipps, wie sie noch bessere Abschlüsse erzielen können. Erkennt der Algorithmus, dass Täuschung gegenüber den Kunden von Vorteil ist und die Verkaufszahlen steigert, wird er den Verkäufern möglicherweise raten, sich dementsprechend unehrlich zu verhalten und die Kunden zu täuschen. Denn meistens ist es das Bestreben der KI, den Profit zu maximieren. So sind KI-Berater auf die Erreichung eines Ziels programmiert, und wenn der Weg zu einem besseren Ergebnis ein unmoralischer ist, werden sie diesen eventuell auch empfehlen.
Unehrliches Verhalten wird bestärkt, ehrliches nicht
Doch wie verhalten sich Menschen in einem moralischen Dilemma, etwa wenn Unehrlichkeit zu einem höheren und Ehrlichkeit zu einem geringeren persönlichen Profit führt? Grundsätzlich sind Menschen eher zurückhaltend, Ratschläge von anderen anzunehmen, weil sie in der Regel davon ausgehen, selbst die besten Entscheidungen zu treffen. In moralischen Dilemmata ist der Einfluss von Ratschlägen jedoch zunächst unklar. Wenn zum Beispiel ein Kollege dazu rät, einem potenziellen Kunden alle Vor- und Nachteile eines Produkts zu nennen, auch wenn dadurch die Gefahr besteht, diesen Kunden zu verlieren, zeigt dies einem Verkäufer, wie sich andere Kollegen in dieser Situation verhalten würden und dient als eine Art moralischer Kompass. Eine Person kann so überzeugt werden, auf Gewinn zu verzichten und sich moralisch zu verhalten. Ein Ratschlag, der unmoralisches Verhalten fördert – beispielsweise einem Kunden bestimmte Nachteile eines Produkts nicht zu nennen – kann das gleiche Potenzial haben, und dem Mitarbeitenden eine Rechtfertigung für die Verletzung einer moralischen Norm liefern.
Erstaunlicherweise nehmen Menschen Ratschläge, die zu unehrlichem Verhalten ermuntern, wesentlich bereitwilliger an als Ratschläge, die ehrliches Verhalten erfordern – und zwar unabhängig davon, ob der Ratschlag von einer KI oder von einem Menschen kommt. Macht ein Berater einen Vorschlag, der unmoralisch ist, aber Profit verspricht, sind Menschen häufig dazu bereit, andere zu ihrem Vorteil anzulügen oder zu täuschen. Eine KI machen sie im Anschluss in gleicher Weise mitverantwortlich für ihr unmoralisches Verhalten, wie sie es bei einem menschlichen Berater getan hätten. Dasselbe gilt für unmoralische Entscheidungen in einem moralischen Dilemma. Erhalten sie außerdem Ratschläge, die unehrliches Verhalten erfordern, verstärkt das ihre Unehrlichkeit weiter. Bei Ratschlägen, die auf ehrliches Verhalten setzen, ist das nicht der Fall.
Menschen lassen sich also leicht von einer KI zur Unehrlichkeit verführen, wenn sie sich davon einen Vorteil versprechen. So nützlich die KI-Angebote im Alltag auch sein mögen, sie bergen das Potenzial, Menschen zu manipulieren, und können unmoralisches Verhalten fördern. Vorsicht also bei KI-Beratern! Deren Ratschläge sollten hinterfragt werden.
Wie kann man mit KI-Ratschlägen in Zukunft verantwortungsvoll umgehen?
Da das Einhalten moralischer Richtlinien so wichtig für unser gesellschaftliches Zusammenleben ist, müssen wir uns darüber Gedanken machen, wie wir KI-Berater in der Zukunft auf verantwortungsvolle Weise nutzen können. Einfach zu kennzeichnen, dass ein Ratschlag von einer KI stammt, ist dafür nicht ausreichend. Denn selbst wenn Nutzer wissen, dass sie mit einer Künstlichen Intelligenz kommunizieren, nehmen sie deren Ratschläge genauso ernst wie die Ratschläge echter Menschen. Unmoralische Ratschläge von KI-Beratern, ob absichtlich oder unbeabsichtigt, müssen von Beginn an verhindert und bei der Regulierung von KI berücksichtigt werden. Es liegt in der Verantwortung von Politik und Forschung, diesem Problem mehr Ressourcen zuzuweisen und Lösungen zu entwickeln. KI-Programmierer:innen müssen sich der möglichen Auswirkungen ihrer Arbeit bewusst sein und von Anfang an sicherstellen, dass die KI keine unmoralischen Ratschläge erteilen kann.
Tipps für Praktiker
- Seien Sie wachsam, wenn Sie online einen Ratschlag erhalten! Eine KI könnte Ihnen (möglicherweise unbeabsichtigt) unmoralisches Verhalten empfehlen, damit Sie Ihr gewünschtes Ziel erreichen.
- Da KI-Ratschläge die gleiche Wirkung entfalten wie menschliche, egal ob sie zu gutem oder schlechtem Handeln raten, ist es besonders wichtig, moralische Aspekte in die Gestaltung von KI-Systemen miteinzubeziehen. Unternehmen, die KI einsetzen, sollten genau darauf achten, wie diese Systeme programmiert sind, um zu verhindern, dass sie versehentlich unmoralisches Verhalten fördern.
- Widmen Sie als Programmierer:in oder Politiker:in dem Phänomen KI-Berater mehr Aufmerksamkeit und stellen Sie ggf. die notwendigen Ressourcen zur Verfügung! Verbreitet sich das Phänomen und werden immer mehr unmoralische Ratschläge von KI-Beratern erteilt, weil sie von wirtschaftlichem Vorteil sind, dann werden diese zu einem gesellschaftlichen Problem.
Literaturverweis und Methodik
- Leib, M./Köbis, N./Rilke, R. M./Hagens, M./Irlenbusch, B. (2023): Corrupted by Algorithms? How AI-generated and Human-written Advice Shape (Dis)honesty, in: The Economic Journal, in Kürze erscheinend.
Co-Autor der Studie
Jun.-Prof. Dr. Rainer Michael Rilke
Rainer Michael Rilke ist Juniorprofessor für Business Economics am IHK-Lehrstuhl für kleine und mittlere Unternehmen an der WHU – Otto Beisheim School of Management. Er forscht und lehrt auf dem Gebiet der experimentellen Ökonomie und der Untersuchung menschlichen Verhaltens in sozialen Kontexten. Er untersucht in seiner Forschung Themen im Zusammenhang mit Ehrlichkeit, Lügen und Korruption in Kontexten wie Teamanreizen, Führung und von künstlicher Intelligenz unterbreiteten Vorschlägen. Insgesamt zielt seine Forschungsagenda darauf ab, Einblicke in die Faktoren zu gewinnen, die menschliches Verhalten in sozialen und wirtschaftlichen Umgebungen prägen, und darauf, wie Anreize gestaltet werden können, um eine ethische und effiziente Entscheidungsfindung zu fördern.