© phonlamaiphoto 123rf.com
ThemenKultur und Gesellschaft

Wer darf sagen, was richtig ist?

Von vielen wird Künstliche Intelligenz als immenser Fortschritt gefeiert und das nicht ohne Grund. Die meisten der bisher eingesetzten Computerprogramme waren lediglich in der Lage, das abzuarbeiten, was man ihnen vor­gegeben hatte. Dazu gehören durchaus auch ziemlich komplexe Berechnungen und Arbeitsabläufe. Der Rahmen war aber immer relativ fest gesetzt. Ständig arbeiteten Programmierer an Verbesserungen und Erweiterungen. Jetzt scheinen solche Programme sich selber verbessern zu können und vollbringen Leistungen, die wir nur Menschen zugetraut hatten.

Künstliche Intelligenz (KI) hingegen erledigt nicht nur stupide Arbeiten. In Sekundenschnelle schreibt sie Referate, Wer­be­texte oder Programmcodes. Künstliche Intelligenz trifft dabei nicht genau vorhersehbare Entscheidungen. Sie kann anscheinend sogar kreative Aufgaben übernehmen, wie das Erstellen von Gemälden oder das Kom­ponieren von Musikstücken. Dabei benutzt sie Vorhandenes und stellt es nach bestimmten Kriterien oder Stilen neu zusammen. Künst­liche Intelligenz kann Infor­mationen im Internet sammeln, auswählen und in neuen Formulierungen zusammenfassen. Sie kann schon jetzt Zeitungsartikel verfassen, Bücher ­schreiben und neue Computerspiele entwickeln. Das wird die Arbeits­welt und auch das Selbstverständnis des Menschen tiefgreifend verändern. Vorerst gibt es zumeist aber noch Menschen, die bei diesen Prozessen korrigierend eingreifen.

KI erleichtert Arbeit

Immer stärker wird Künstliche Intelligenz in der Zukunft Menschen das Denken und Entscheiden abnehmen. In manchen Fällen kann das durchaus hilfreich sein, weil Computer gewöhnlich weniger Emotionen und Eigeninteressen in ihre Entscheidung einfließen lassen als Menschen. Außerdem reagieren sie zumeist deutlich schneller. Schon mit bisheriger Technologie verringern computergestützte Prozesse in Autos, Flugzeugen und Zügen die Wahrscheinlichkeit von Unfällen erheblich. Computer und Sensoren können nicht müde oder abgelenkt werden. Künstliche Intelligenz kann helfen, ungeliebte Routineaufgaben leichter und schneller zu erledigen, Daten zu sammeln oder Formulare und Anträge auszuwerten. Außerdem können wissenschaftliche Analysen und Forschungen mit dem Einsatz künstlicher Intelligenz erheblich beschleunigt werden, wodurch Geld und Zeit gespart werden.

KI braucht solides Fachwissen

Wer sich in einem Fachbereich besonders gut auskennt, für den kann künstliche Intelligenz sehr hilfreich sein, weil er Fehler und Missdeutungen, die durch die Prozesse der KI entstanden sind, oft rechtzeitig erkennen kann. Wer aber noch nicht so viel Wissen mitbringt, der wird verführt, den mühsamen Weg, sich dieses Wissen anzueignen, mit künstlicher Intelligenz abzukürzen. Rein äußerlich kommt man auf diese Weise viel schneller zum Ziel, zu dem erhofften Auftrag oder der gewünschten Note, wenn man eine Seminararbeit abgibt, die von einer Maschine erstellt wurde. Das Ergebnis wirkt zufriedenstellend, auch wenn man die produzierten Inhalte nur teilweise nachvollziehen und kaum auf Korrektheit überprüfen kann.

Auf der anderen Seite ist es nicht nur irgendwie unheimlich, wenn wichtige Entscheidungen von unpersönlichen Computer-Systemen abhängen, so etwas kann auch richtig gefährlich werden. Immer häufiger verlassen sich Menschen auf Informationen und Entscheidungen, die Computerprogramme für sie gesammelt und bewertet haben. Hier besteht die Gefahr, wichtige Aspekte einer Entwicklung oder einer Entscheidung zu wenig oder gar nicht zu berücksichtigen.

Folgenreiche Irrtümer vorprogrammiert

Obwohl Künstliche Intelligenz bislang nur in relativ begrenztem Umfang eingesetzt wird, gibt es schon einige konkrete Beispiele, wohin ein unzureichend geprüfter Einsatz führen kann. Auf die Frage, ob Donald Trump noch einmal Präsident der USA werden könnte, antwortete z.B. ChatGPT, dass das nicht möglich sei, weil er das Land bereits in zwei Amtsperioden geführt habe. Solche offentlichen Irrtümer werden wahrscheinlich noch relativ schnell auffallen, andere aber nicht.

Wenn wir unsere Entscheidungen von Informationen abhängig machen, die Computerprogramme liefern, deren Arbeitsweise wir nicht nachvollziehen können, ergeben sich große Gefahren von Fehlentscheidungen.

Bei einem Gerichtsverfahren in den USA hatte sich ein Anwalt Anfang 2023 auf zwei Präzedenzfälle berufen, die in seinem Sinne entschieden worden wären. Die Information dazu hatte ihm die Künstliche Intelligenz von ChatGPT geliefert, einschließlich entsprechender Aktenzeichen. Bei der Über­prüfung stellte sich dann allerdings peinlicherweise heraus, dass diese Fälle in Wirklichkeit nicht existierten.

Auch die größte gemeinnützige Organisation für Ess­störungen in den USA (NEDA) setzt zwischenzeitlich Künst­liche Intelligenz für telefonische und schriftliche Beratungs­gespräche ein. Wie Stichproben aber ergaben, werden Hilfe­suchenden teilweise vollkommen falsche Ratschläge gegeben, weil viel zu wenig auf deren individuelle Lebens- und Gesund­heitssituation eingegangen wird. Solche Ratschläge, die anscheinend von renommierten Organisationen stammen und denen deswegen vertraut wird, können schwere gesundheitliche Schäden zur Folge haben.

KI muss kontrolliert werden

Bei Google war Geoffrey Hinton lange verantwortlich für die Entwicklung Künstlicher Intelligenz. Weltweit gilt er als Pionier in diesem Bereich. Seit einigen Jahren konzentriert sich Hinton auf die Erforschung der Risiken Künstlicher Intelligenz. In diesem Zusammenhang gab er auch großen Medienanstalten wie der BBC und der New York Times entsprechende Interviews. Schon bald wären diese Anwendungen klüger als die Menschen, die sie benutzen, prognostiziert der Wissenschaftler. Die Soft­ware sei in der Lage, riesige Datenmengen innerhalb kurzer Zeit zu verarbeiten.

Neben eindeutigen Vorteilen verweist Hinton auch auf die Gefahren einer flächendeckenden Anwendung Künstlicher Intelligenz. Wenn Daten und Nachrichten erst einmal in einem größeren Umfang von Künstlicher Intelligenz erzeugt würden, können sie durch niemanden mehr kontrolliert oder überprüft werden. Es ist nur eine Frage der Zeit, bis Künstliche Intelligenz auch gezielt für Desinformation und Manipulation eingesetzt wird, die dann noch schwerer aufgedeckt werden kann, als bei dem Einsatz herkömmlicher Technologien.

Zusammen mit dem Tech-Milliardär Elon Musk setzt Hinton sich in einem öffentlichen Aufruf für eine Pause bei der Entwicklung und dem Einsatz Künstlicher Intelligenz ein. Darin heißt es unter anderem:

„KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können große Risiken für Gesellschaft und Menschheit bergen. […] Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind.“

Der Deutsche Ethikrat forderte im März 2023 deshalb klare Regeln für den Einsatz Künstlicher Intelligenz. Weil diese Systeme keine Personen sind und auch über keine Vernunft oder Ethik verfügen, ist es höchst problematisch, ihnen wichtige Entscheidungen zu überlassen oder Informationen für die Öffentlichkeit durch sie zu interpretieren. Künstliche Intelligenz dürfe die menschliche Freiheit und Entwicklung nicht beeinträchtigen, forderten die Wissenschaftler.

Künstliche Intelligenz kann nur schwer zwischen echter und gefakter Information unterscheiden oder persönlichkeitssensible Daten als solche erkennen. Sensible oder persönliche Daten könnten auf diesem Weg ungefiltert verbreitet werden, auch zum Schaden der Betroffenen. Verantwortlich dafür gemacht werden kann bislang niemand, weil die entsprechenden Techfirmen wohlweislich keine Verantwortung für die Erzeugnisse ihrer Chat-Bots übernehmen. Künstliche Intelligenz hat kein Gewissen und kennt keine Konzepte von Ethik oder Wahrheit. In jedem Fall müsste es zukünftig leichte und effektive Einspruchsmöglichkeiten gegen Aussagen und Ent­schei­dun­gen Künstlicher Intelligenz geben, wenn man den Eindruck hat, falsch behandelt worden zu sein.

KI kostet Arbeitsplätze

Einige Studien gehen davon aus, dass der Einsatz von Künst­licher Intelligenz und Robotik viele Berufe automatisieren kann und somit zu hohen Beschäftigungsverlusten führen wird. Das wird vor allem Tätigkeiten mit hohem Routineanteil treffen, in der Produktion, Administration, im Verkauf, Transport und der Logistik. Dadurch sind besonders die Bevölkerungsschichten mit niedrigerem Bildungsgrad und Gehalt betroffen. Künstliche Intelligenz wird dadurch voraussichtlich die soziale Aufspaltung der Gesellschaft weiter vertiefen.

Künstliche Intelligenz wird wahrscheinlich schon in naher Zukunft viele Arbeitsplätze in der Verwaltung und auch in der Standard-Beratung überflüssig machen. Der US-Technologie­konzern IBM hat bereits angekündigt, dass er in den kommenden fünf Jahren 30% aller Verwaltungsstellen einsparen und durch Künstliche Intelligenz ersetzen will, insgesamt 7800 Stellen. Das spart Geld und erhöht den Gewinn.

Solche Ankündigungen sind allerdings erst der Anfang. Die Einsatzmöglichkeiten Künstlicher Intelligenz werden schnell mehr. Künstliche Intelligenz kann schon heute Übersetzer zumindest teilweise ersetzen, ebenso Graphik­designer, aber auch Journalisten sowie andere Text- und Bildproduzenten. Künstliche Intelligenz ersetzt künftig eben nicht nur wenig qualifizierte Stellen, sondern auch gut ausgebildete Arbeitnehmer. Auf der einen Seite erspart das natürlich manche lästige Routinearbeit. Nicht ganz unproblematisch ist es aber, wenn zukünftig immer mehr Anträge oder Prüfungen von Künstlicher Intelligenz bearbeitet werden, mit der man kaum verhandeln oder diskutieren kann. Einen Vorgeschmack hat man, wenn man bei Servicetelefonen nur noch mit Computerstimmen spricht, aber oft keine Antwort auf sein spezielles Problem erhält, bis man doch einen Mitarbeiter erreicht.

KI verleitet zu intellektueller Faulheit

Viele Menschen durchschauen Systeme Künstlicher Intelligenz nur schwer und verlassen sich dann umso stärker auf die dort vorgegebenen Informationen und Ergebnisse. Das führt zu steigender Abhängigkeit und Unfreiheit. Wer sich langfristig auf Systeme der Künstlichen Intelligenz verlässt, der verliert mit der Zeit die Fähigkeiten, selber Informationen zu sammeln, auszuwerten und sachgerechte Schussfolgerungen zu ziehen. Der sinnvolle und verantwortliche Einsatz von Künstlicher Intelligenz setzt aber gerade ein besonders fundiertes Fachwissen und die geschulte Fähigkeit für sachgerechte Analysen und Bewertungen voraus.

Auch die durch Künstliche Intelligenz erzeugten Daten und Aussagen fließen wieder ins Internet ein und beeinflussen dadurch wiederum alle zukünftigen Recherchen von Menschen und Computerprogrammen. Weil auch Zeitungen, Zeitschriften und Wissenschaftler vermehrt auf Künstliche Intelligenz zurückgreifen, wird es in Zukunft ziemlich schwierig sein, eindeutig zu erkennen, wer mit welcher Expertise und Verant­wortung hinter welchen Aussagen steht oder woher vorgeblich sichere Fakten letztendlich wirklich stammen.

KI bietet viel Potential zum Missbrauch

Die meisten Systeme Künstlicher Intelligenz werden von Firmen und Regierungen kontrolliert, die ihre eigenen Profit- oder Machtinteressen verfolgen. Es kann nicht sichergestellt werden, dass sie die in diesem Prozess recherchierten Daten korrekt verwenden und keinen Einfluss auf die Ergebnisse der von ihnen betriebenen Systeme nehmen, um ihre eigenen Inte­ressen zu fördern. Im schlimmsten Fall kann man bestimmte Daten und Meinungen generell ausschließen oder Künstliche Intelligenz benutzen, um falsche Informationen unauffällig an möglichst vielen Stellen zu platzieren.

Nur sehr unbefriedigend kann die Frage beantwortet werden, wer bei einem Unfall mit autonomem Fahren oder einer fehlgeschlagenen medizinischen Therapie verantwortlich ist, die durch künstliche Intelligenz entschieden wurde. Künstliche Intelligenz kann natürlich auch von autonomen Waffensystemen oder zu Propagandazwecken eingesetzt werden. Die Verant­wor­tung für Tötungen und Desinformation lägen dann theoretisch bei einem anonymen Computersystem.

Weil Künstliche Intelligenz keiner höheren Ethik oder Verantwortung verpflichtet ist, könnte sie zu letztlich absurden oder gesellschaftlich schädlichen Entscheidungen verführen. Autonome Systeme könnten aber zukünftig etwa auch zu dem Schluss kommen, dass man die Menschheit zum Wohle des Planeten dezimiert oder zumindest die Alten und Kranken auslöscht, um ihr Leiden zu minimieren oder Kosten zu senken. Ethisch und erkenntnistheoretisch eindeutige Prinzipien sind bei dem Einsatz Künstlicher Intelligenz deshalb unverzichtbar.

KI darf menschliche Verantwortung nicht ersetzen

Nach christlicher Ethik sind wir auch verantwortlich für die Lügen, die wir verbreiten, wenn wir gutgläubig falsche Informationen der künstlichen Intelligenz weitergeben.

Nach Auskunft der Bibel kann ein Mensch die Verantwortung für sein Handeln und Reden keinem Computersystem überlassen. Er muss vor Gott Rechenschaft ablegen. „Drängt euch nicht danach, Lehrer zu sein, meine Brüder. Ihr wisst ja, dass wir als Lehrer ein strengeres Gericht zu erwarten haben, denn wir alle machen oft Fehler. Wer beim Reden keine Fehler macht, der ist ein vollkommener Mann.“ (Jak 3, 1+2) Vor Gott bleibt jeder Mensch für seinen Handlungen, seine Worte und Meinungen verantwortlich. Das und die daraus entstehenden Folgen kann er nicht beliebig an Computersysteme delegieren. Christen sind absoluter Wahrheit verpflichtet, auch wenn das bedeutet, die Vorarbeit Künstlicher Intelligenz noch einmal gründlich selbst zu überprüfen. Letztendlich sind Menschen eben immer auch für die Folgen falscher Information verantwortlich. Wir lügen nach biblischer Ethik auch, wenn wir Lügen Anderer im guten Glauben oder in leichtfertiger Gutgläubigkeit weitertragen.

Bei der Auswahl von Personen, die verantwortliche Ent­scheidungen für die Gemeinde treffen sollen, werden ganz besonders charakterliche Qualifikationen gefordert, die Systeme der Künstlichen Intelligenz nicht haben können, obwohl sie zukünftig immer mehr wichtige Entscheidungen treffen werden.

„Ein Leiter muss ein Mann ohne Tadel sein, der mit einer Frau verheiratet ist. Er muss sich besonnen und verantwortungsbewusst verhalten, darf keinen Anstoß erregen, muss gastfreundlich und zum Lehren befähigt sein. Er soll kein Trinker und gewalttätiger Mensch sein, sondern ein freundlicher und rücksichtsvoller Mann, der auch nicht am Geld hängt. Er muss sich in vorbildlicher Weise um seine Familie kümmern, sodass seine Kinder ihn achten und ihm gehorchen.“ (1Tim 3, 2-4)

Charakterliche und wissensmäßige Qualifikationen, Authen­ti­zität, die Verbindung von Denken und Handeln, sowie das Gewissen spielen nach christlicher Konzeption eine unaufhebbare Rolle bei der Bewertung von Situationen und bei relevanten Entscheidungen. Deshalb müssen die Grenzen des Einsatzes von Künstlicher Intelligenz rechtzeitig bedacht werden, auch wenn das den Verzicht auf bestimmte Arbeits­er­leichterungen bedeuten sollte.

Literatur

  • Susanne Beck: Künstliche Intelligenz – ethische und rechtliche Herausforderungen, in: Klaus Mainzer Hrsg.: Philosophisches Handbuch Künstliche Intelligenz, Springer Verlag, Wiesbaden 2020.
  • Wolfgang Beck / Ilona Nord / Joachim Valentin: Theologie und Digitalität. Ein Kompendium, Herder Verlag, Freiburg im Breisgau 2019.
  • Sarah Spiekermann: Digitale Ethik und die Künstliche Intelligenz, in: Klaus Mainzer Hrsg.: Philosophisches Handbuch Künstliche Intelligenz, Springer Verlag, Wiesbaden 2020.
  • Gotlind Ulshöfer / Peter G. Kirchschläger / Markus Huppenbauer: Digitalisierung aus theologischer und ethischer Perspektive. Konzeptionen – Anfragen – Impulse, Nomos Verlag, Baden Baden 2021.
  • Tagesschau: Wenn KI nach hinten losgeht, 9.6.2023, https://www.tagesschau.de/wissen/technologie/ki-rechtsanwalt-100.html