DE   |   EN
Portrait Jun.-Prof. Ingo Siegert (c) Portrait Jun.-Prof. Ingo Siegert (Foto: Jana Dünnhaupt / Uni Magdeburg)
17.05.2023 aus 
Forschung + Transfer
Wie gefährlich ist Künstliche Intelligenz?

Seit einigen Monaten sorgen Künstliche Intelligenzen immer wieder für Aufsehen, wie das Sprache imitierende KI-Modell ChatGPT oder andere Modelle, die Bilder auf Basis von Text-Beschreibungen erzeugen können. Mit all den Chancen und Potenzialen, die damit verbunden sind, kommt aber auch immer die Sorge vor Gefahren ins Spiel. Öffentlichkeit und Politik fordern Regeln für datenschutzrechtliche Aspekte, grundrechtliche Fragen, aber auch für Lösungen, wie Fehler und Diskriminierung vermieden werden können. Jun.-Prof. Siegert von der Fakultät für Elektro- und Informationstechnik spricht im Interview über die Gefahren, mögliche Regulierungen, aber auch darüber, was für Chancen KI basierten Programme bieten.

Künstliche Intelligenzen haben unfassbares Potenzial und können eine echte Erleichterung sein. Aktuelles Beispiel ist ChatGPT. Doch die Furcht vor der KI wächst. Ist das begründet?

Nein, KI hilft uns dabei komplexe Zusammenhänge darzustellen und um Text zu generieren, um damit auch lernen zu können, wie zum Beispiel bei ChatGPT. Es hilft uns Menschen, wenn wir noch nicht genau wissen, wie wir einen Text schreiben wollen, eine Textvorlage zu haben, an der wir uns lang hangeln können. Und erstmal sehen können: Wie sieht so ein Text aus? Oder auch, um zum Beispiel von einem sehr langen Text eine Zusammenfassung zu bekommen, wo man sehen kann, was die wichtigsten Argumente sind.

Um welche Gefahren handelt es sich denn in Bezug auf KI?

Es geht vor allem darum, dass wir Menschen die Kontrolle verlieren und gar nicht nachvollziehen können, wie KI funktioniert und vielleicht auch unterbewusst, dass eine Konkurrenz für den menschlichen Geist erwächst. Aber das ist alles total unbegründet. Kontrollverlust gibt es auch jetzt schon mit bestimmten Algorithmen. Also zum Beispiel der Schufa-Algorithmus, der den Bonitätscheck macht. Da weiß auch keiner, wie der funktioniert und welche Kriterien, wie dafür entscheidend sind. Und trotzdem wird er häufig benutzt. Oder im Auto, die Antischlupfregelung, ABS oder Start-Stopp. Das funktioniert auch alles mit Algorithmen, die nicht KI sind und wir verlassen uns darauf. Und das stellt auch keiner infrage.

Eine Gefahr, soll sein, dass menschliche Vorurteile versehentlich in der KI verankert werden. Wie wir Ende letzten Jahres bei der LENSA App erlebt haben, die sexistischen Stereotype wiedergegeben hat. Wie kann man dem entgegenwirken?

Ja, das ist ein Problem. Das liegt vor allem daran, dass KI-Methoden anhand von Beispielen, anhand von bestimmten Mustern, trainiert werden. Und wenn ich natürlich Beispiele nehme und damit mein System trainiere, dann wird das System genauso, wie diese Beispiele vorher erzeugt wurden, die Erkennung durchführen.  Unsere Gesellschaft ist nicht fair, sie ist nicht frei von Vorurteilen. Da gibt es sehr viel Bias. Wenn ich das nicht berücksichtige in meiner KI-Entwicklung, dann wird auch das KI-System entsprechend diese Vorurteile wiedergeben. Dafür ist wichtig diese Fragen zu stellen und sich zu überlegen: Okay, ab wann ist eine Entscheidung unfair? Ab wann werden bestimmte sozioökonomische Ungleichheiten in Systemen reproduziert, die wir eigentlich nicht haben wollen? Aber wie gesagt, das Problem gab es auch schon vorher. Wie angesprochen, der Schufa-Algorithmus: Sozioökonomische Eigenschaften, Wohnort, Wohnviertel, das zählt da auch mit rein. Also auch der ist nicht fair. Er ist aber kein KI-System und trotzdem kritisch zu sehen. Ich kann nicht aus einer unfreien Gesellschaft hoffen, mit einem KI-System faire Entscheidungen treffen zu können.

Was man machen kann, ist, zu versuchen, vorher die Ungleichheiten, die ich in meinen Daten habe, auszugleichen. Aber: Für gewisse Sachen sind Unterschiede wichtig. Also wenn ich jetzt zum Beispiel ein KI-System einsetzen will, um die Wachstumsentwicklung von Kleinkindern vorherzusagen, dann ist das Geschlecht ein sehr wichtiger Unterschied, weil Frauen und Männer unterschiedliche Körpergröße haben. Das heißt, wenn ich die Information einfach rausnehme, kann ich die ganze Vorhersage vergessen. Auf der anderen Seite möchte man dafür sorgen, dass Männer und Frauen bei einer Stellenausschreibung gleichberechtigt sind. Dann ist vielleicht die Information des Geschlechtes nicht das Entscheidende. Vielleicht könnte man dann eher anfangen, nicht zu sagen: Ich nehme ein KI-System, um auszuwählen, wer ist der beste Kandidat oder wer ist die beste Kandidatin, sondern zu gucken, welche Eigenschaften soll in einen bestimmten Bereichen in einem Unternehmen erfüllt sein? Was sind denn die Kriterien, die wir auf alle Fälle haben wollen? Und was sind vielleicht auch die Kriterien, die wir nicht haben wollen? Und danach zu gucken und dann auch zu sagen: Wir wollen ein diverses Team haben, was auch möglichst aus verschiedenen sozioökonomischen Hintergründen kommt und das muss berücksichtigt werden.

Was ist denn Ihr Eindruck: Überwiegt der Nutzen der KI den möglichen Risiken?

Die Möglichkeiten, die sich damit eröffnen, KI-Modelle einzusetzen, an vielen Stellen, überwiegen vielfach die Risiken. Natürlich heißt es nicht, dass keine Risiken da sind, sondern es heißt wir müssen damit vernünftig umgehen. Der große Vorteil von KI-Modellen ist, dass sie sehr komplexe Zusammenhänge lernen und dann Entscheidungen treffen können, die nicht für den Menschen so einfach sichtbar sind.

Damit Menschen Entscheidungen treffen können, muss es ja meistens immer eine klare Relation geben. Also ein Apfel ist ein Apfel, weil er eine gewisse Form hat, eine gewisse Farbe hat und den Stiel an einer gewissen Stelle hat, dann weiß ich als Mensch: Das ist ein Apfel. Eine Birne kann ich auch noch unterscheiden. Wenn man jetzt aber eine Kreuzung hat, so wie eine Naschibirne, dann wird es schon schwierig, das zu unterscheiden. Das klappt dann nur, indem man das mehrfach durch Beispiele sieht. Das kann man übertragen auf komplexe Zusammenhänge, wie die Ansteuerung eines Hochofens. Dort muss man dafür sorgen, dass bestimmte Stoffe zu bestimmten Zeiten eingegeben werden oder die Kaffeeröstung, bei der es ein bestimmtes Temperaturprofil über eine gewisse Zeit braucht. Man muss die Temperatur langsam erhöhen und verringern. Die Trommel muss sich mit einer gewissen Geschwindigkeit bewegen. Das sind alles Sachen, die sind relativ komplex. Wenn ich jetzt aber ein KI-System nehme, um das zu erlernen an Beispielen, dann kann man vielleicht auch die Kaffeerösterei noch mal optimieren für gewisse Bohnen. Oder man kann den Hochofen energiesparender betreiben. Man kann gucken, was passiert, wenn man bestimmte Stoffe oder Temperaturen verringert. Und ein Modell würde mir sagen, dass es immer noch funktioniert oder nicht. Das sind halt Sachen, dafür ist es sehr gut.

Und das Gleiche gilt auch bei ChatGPT, bei den generativen Modellen. Natürlich kann ich sie auch gewinnbringend einsetzen. Ich kann ChatGPT zum einen dafür nutzen, um mir überhaupt erstmal Text in einer bestimmten Art zu generieren. Um ein Beispiel zu haben, wie das aussehen könnte, um damit zu lernen. Und ich kann das dann auch nutzen, um die Methodik zu lernen. Denn seien wir mal ehrlich, es ist ja nicht wichtig, dass ich am Ende eine tolle Zusammenfassung schreiben kann, sondern es ist wichtig zu wissen, wie ich eine gute Zusammenfassung schreiben kann. Was ist das Entscheidende, um einen ganz langen Text, der auch noch komplex ist, kurz zusammenfassen zu können? Was ist das Entscheidende bei einer Erörterung? Ich muss die Argumente und die Beispiele und die Argumentationsstruktur herausfinden. Dafür kann ich natürlich auch generative Modelle benutzen, die mir an der Stelle helfen.

Und es ist auch möglich solche Modelle einzusetzen, um zum Beispiel Sprachstile zu ändern. Vielfach ist das wichtig, um vielen Menschen eine gute Teilhabe an einem Text zu ermöglichen. Dinge in einer einfacheren Sprache ausdrücken zu können, gerade für uns Forschende. Wir neigen dazu Dinge kompliziert auszudrücken. Wenn ich dann ein generatives Modell habe, wo ich einfach mal meinen sehr komplizierten Text mit langen Satzstrukturen und vielen Fremdwörtern eingeben und sagen kann: Mach mir daraus einen Text in einfacher Sprache, den vielleicht auch ein Jugendlicher oder ein Kind verstehen würde, hilft mir das schon. Es ist vielleicht nicht der perfekte Text, aber es hilft, um damit zu arbeiten. Und das ist eine riesengroße Arbeitserleichterung.

Die Entwicklung von KIs macht gerade einen riesigen Sprung. Warum geht das so plötzlich?

Der riesige Sprung lässt sich dadurch erklären, dass es mit OpenAI und ChatGPT das erste Mal eine Möglichkeit für die breite Masse  gibt, solche Modelle auszuprobieren. Das war vorher immer relativ schwierig. Ich musste zum einen entweder so ein Modell schon haben oder es aufwendig selber trainieren und dann auch anwenden können. Das war immer damit verbunden, dass ich Ahnung davon habe, wie ich solche Modelle trainiere und wo ich die Daten herbekomme, die ich brauche und vor allem möglichst viele Daten, um das dann anwenden zu können. Das ist jetzt sehr einfach möglich. Deswegen kann man sagen, ChatGPT hat dafür gesorgt, diese Art von generativen Modellen ans Licht der Öffentlichkeit zu bringen. Die Entwicklung bis dahin hat sich in der Wissenschaftscommunity schon abgezeichnet. Es gab schon Vorgängermodelle, die auch auf die Art und Weise funktioniert haben, die es auch schon ermöglicht haben, Texte zu generieren oder auch Zusammenhänge in Texten zu erkennen. Was OpenAI noch gemacht hat, ist neben dem einfachen Zugang, auch einfach super viele Daten zusammenzubringen und dann natürlich auch ein riesengroßes Modell zu trainieren. Also es gab schon einen Vorgänger von ChatGPT, das war ChatGPT2 von 2020, das ging ein bisschen unter, dass es das schon gab und das hat etwa 700 Billionen Texttokens gehabt. Also das war schon riesig und ChatGPT3 hat noch mal einen draufgesetzt. Sie hatten einfach die Möglichkeit, riesengroße Textmengen zu verarbeiten und damit ein Modell zu erstellen.

Ein Vorschlag ist, dass es eine Entwicklungspause braucht, um die rasante Weiterentwicklung der KI zu regulieren. Halten Sie das für sinnvoll?

Nein. Zum einen, wem nützt das, wenn wir alle sagen, wir hören alle mal auf, was weiterzuentwickeln? Es werden trotzdem Firmen in ihren internen Prozessen KI-Modelle trainieren und in die haben wir dann gar keinen Einblick. Die tauchen in einem halben Jahr auf, sind noch viel besser, haben noch mehr Text als Trainingsgrundlage bekommen und die Fragen werden ja nicht verschwinden. Und eigentlich sind die Methodiken, von dem was wir wissen wollen, schon da. Zum einen wollen wir wissen, wie gut sind die Modelle? Das kann man relativ einfach testen, wenn man sich verschiedene Texte generieren lässt. Zum anderen: Hilft es, um bestimmte Arbeitsaufgaben zu erleichtern? Ist das fair oder gibt es bestimmte Biase, die berücksichtigt werden? Wie man das gut testen kann, das kann man in einem halben Jahr nicht entwickeln. Da brauch man noch mehr Zeit für. Das heißt, wenn wir jetzt sagen, wir machen mal keine KI-Forschung mehr, geht das unter.

Was wichtiger ist, ist, dass wir uns die Fragen stellen:

Das sind eigentlich die Fragen. Es geht eher um die Richtung Geschäftsmodell und nicht so sehr um die Forschung.

Der Deutsche Ethikrat forderte im März klare Regeln für den Einsatz von KI. Wie könnten diese aussehen?

Die klaren Regeln für den Einsatz von der KI sind, dass sie diskriminierungsfrei sind, dass sie in allen Bezügen fair sind, dass sie den Datenschutz einhalten und noch ein paar mehr. Das sind aber zunächst mal, unabhängig von der KI betrachtet, eigentlich Forderungen, die ich gerne an jede Art von Entscheidungssystem stellen würde, das Entscheidungen für Menschen trifft. Also ich möchte auch gerne, dass mein Schufascore fair und diskriminierungsfrei ist. Ich möchte auch gerne, dass meine regelbasierte Bewertung für meine Krankenprognose fair ist. Ich möchte auch gerne, dass mich die Sachbearbeiterinnen und Sachbearbeiter in der Krankenkasse oder für gewisse Hilfeleistungen, fair behandeln. Das heißt, das ist eigentlich keine spezifische Forderung an KI. KI stellt das Brennglas dar, für die Probleme, die prinzipiell mit automatischen Entscheidungsmethoden zusammenhängen. Aber es ist jetzt kein spezifisches KI-Problem. Was nicht heißt, dass die Forderungen, die dort aufgestellt wurden, nicht wichtig sind. Aber sie sollten nicht nur auf KI beschränkt werden.

Im EU-Parlament wurde sich zuletzt auch auf einen Entwurf für die weltweit erste umfangreiche Regulierung der KI geeinigt. Halten Sie das für einen guten Vorstoß?

Also prinzipiell finde ich es gut, dass die EU sagt: "In der Technologieentwicklung wollen wir nicht das Gleiche machen, was in Amerika oder China passiert." Sprich, entweder ungezügelte Geschäftsmodellentwicklung und möglichst schnell viel Geld mit coolen neuen fancy Algorithmen machen, wo keiner weiß, ob die immer gut funktionieren. Auf der anderen Seite KI einsetzen, um möglichst viel Information über die Bevölkerung zu bekommen, um vielleicht auch Nachverfolgung von Personen im öffentlichen Raum oder ein Tracking oder eine Überwachung zu erlauben. Und wir als EU sagen: Okay, das wollen wir beides nicht. Wir wollen unseren eigenen Weg gehen. Uns sind gewisse Werte, Datenschutzrechte, Recht der persönlichen Freiheit, fairer Umgang miteinander, wichtig. Das finde ich gut. Ich würde das aber nicht nur auf die KI-Modelle oder auf KI-Methoden an sich limitieren. Dann gibt es ein KI-Siegel und dann passiert so was ähnliches wie bei der Gentechnik. Es gibt gewisse Sachen, da ist Gentechnik gut und da kann es auch für genutzt werden. Aber weil es das Gentechnik-Siegel hat, wird es überhaupt nicht mehr eingesetzt. Also das ist dann so ein Gütesiegel, was doch wieder so ein Malus hat. Und das die Schwierigkeit, die ich dabei sehe.

Es wurden auch Stimmen laut, dass Europa, wenn es die KI zu stark reguliert, technologisch stark zurückfallen wird. Ist das denn so?

Jein, also KI-Forschung stark zurückfahren würde bedeuten, dass Europa zusätzlich zu der Regulierung auch dafür sorgt, dass wenig Forschungsgelder in die Richtung fließen. Das ist schwierig. Das sollte nicht passieren. Es gibt super viele Herausforderungen in der Wissenschaft, die angegangen werden müssen. KI ist zurzeit ein sehr großes, sehr prominentes Problem. Nichtsdestotrotz gibt es auch andere Fragestellungen, die wichtig sind. Osteuropastudien war vor fünf Jahren ein Orchideenfach, ein Nischenfach, überhaupt nicht wichtig. Auf einmal wird es wieder wichtig. Also Forschung und Forschungsförderung nur so ausrichten, was gerade en vogue ist, hilft nicht. Das Problem ist, der Topf ist begrenzt und nicht unendlich groß. Also muss man da ein gutes Mittelmaß finden. Die Fragen, die man sich stellen kann, liegen alle da. Entscheidungen müssen Politiker und Politikerinnen treffen, wie sie vorgehen wollen.

Geschäftsmodelle sind eine schwierige Frage. Und da müssen wir uns als Bürgerinnen und Bürger von Europa auch die Frage stellen: Wollen wir, dass es Unternehmen gibt, die uns den Himmel auf Erden versprechen und sagen, wir können alles mit KI lösen? Und wir laufen ihnen hinterher und das ist gut. Oder wir sagen: Okay, es gibt gewisse Sachen, dafür ist die KI sinnvoll, dafür will man sie auch einsetzen und dann kann man sie auch nutzen. Für andere Sachen ist uns das aber noch zu heikel und da wollen wir lieber noch mal besser Bescheid wissen, ob das auch immer funktioniert, und machen das dann später. Und KI ist vielleicht nicht alles in der technologischen Entwicklung.

Wenn wir jetzt nichts machen und nicht regulieren, wird dann bald eine Superintelligenz die totale Kontrolle übernehmen und die Menschen ersetzen?

Natürlich. Wir wissen alle, dass Sciencefiction-Autoren irgendwann recht haben werden. *lacht* Jules Verne hat auch irgendwann gesagt, Menschen fliegen auf den Mond. Und dann sind wir auf den Mond geflogen. Aber an eine Superintelligenz glaube ich nicht. Also im Moment ist es auch so: Die meisten aktuellen KI-Modelle lernen anhand von Mustern, diese Muster zu reproduzieren. Das heißt, so wie wir als Menschen Texte schreiben, so kann die KI dann auch Texte schreiben. Aber ich könnte mir nicht vorstellen, dass ChatGPT zum Beispiel in der Lage ist, so eine Werbekampagne zu machen wie die BVG in Berlin, also mit schlechtem Nahverkehr und komischen Begebenheiten in Berlin Werbung zu machen, die dafür wirbt, dass man doch ÖPNV in Berlin benutzen könnte, weil das einfach cool und hip ist. Auf die Idee würde ChatGPT gar nicht kommen. Das heißt, die Kreativität fehlt da immer noch. Und klar gibt es jetzt Überlegungen zu sagen: Na ja, wenn ich jetzt Text generieren kann, dann kann ich es auch nutzen, um Entscheidungen zu treffen und dann kann ich das automatisieren. Aber dass das wirklich in dem Maße funktioniert, dass sie uns übernehmen könnte, das wird nicht passieren. Und wenn, kann ich immer noch den Stecker ziehen. *lacht*