TU Graz/ TU Graz/ Services/ News+Stories/

„Die Potenziale von KI stimmen mich optimistisch“

08.05.2023 | Planet research | FoE Information, Communication & Computing

Von Falko Schoklitsch

Roman Kern forscht am Institute of Interactive Systems and Data Science der TU Graz im Bereich künstliche Intelligenz. Ein Gespräch über die KI-Zukunft und Bedenken, die es rund um das Thema gibt.

Roman Kern sieht die Chancen von Künstlicher Intelligenz, weiß aber auch, wo noch Herausforderungen warten. Bildquelle: Know Center

News+Stories: Wie würden Sie einem Laien erklären, was künstliche Intelligenz ist?

Roman Kern: Historisch begann man, sich Mitte des vorigen Jahrhunderts Gedanken zu machen, dass Maschinen ähnliche Aufgaben lösen können wie der Mensch. Aus dieser Zeit kommt die Idee des bekannten Turing Tests. Der Gedanke war, dass man eine künstliche Intelligenz geschaffen hat, die auch wirklich intelligent ist, wenn man mit ihr kommunizieren kann, ohne zu merken, ob das ein Mensch oder eine Maschine ist. Das wäre eine Idee einer Definition. Künstliche Intelligenz kann aus meiner Sicht vieles sein. Aber sie ist vor allem dann relevant und wichtig, wenn sie menschliche Aufgaben übernimmt und uns unterstützen kann. Das kann ganz was Einfaches sein oder es kann ganz was Kompliziertes sein – mit einfachen Regeln oder Machine Learning, Deep Learning und so weiter. Daher ist AI nicht notwendigerweise durch die technische Realisierung definiert, sondern im Sinne davon, welche Aufgaben sie löst.

Spannend dabei ist der Begriff Intelligenz. Er impliziert, dass diese Systeme selbst denken. Was sie allerdings nicht tun.

Kern: Genau. Außerdem ist der Unterschied zwischen Weak AI und Strong AI wichtig. Wir sind immer noch im Bereich Weak AI. Aber Denken oder Schlüsse ziehen kann die Maschine noch nicht. Das sieht man dann auch bei modernen Verfahren, wo die Maschinen „halluzinieren“ - wie wir es auch von ChatGPT und Co. kennen. Das Beispiel, das ich dafür gerne verwende: Die KI meint, es brennt unter Wasser. Physiker werden mir jetzt erklären, dass das mit bestimmten Verbindungen möglich ist, aber mir geht es einfach um Sachen, die unlogisch sind. Die Maschinen haben noch keinen Hausverstand.

Mit welchem Bereich von Künstlicher Intelligenz beschäftigen Sie sich genau in Ihrer Forschung?

Kern: Primär mit Natural Language Processing. Das heißt, geschriebener Text oder genauer gesagt, menschlich geschriebener Text. Wir kommunizieren sehr viel schriftlich und deshalb gibt es dabei sehr viele Anwendungsgebiete für AI. Suchmaschinen verwenden beispielsweise viele AI-Techniken, um zu erraten, wonach wir suchen. Wir brauchen dann nur mehr zwei Wörter zu tippen und die Suchmaschine weiß, was wir eigentlich suchen, was die Intention dahinter ist.

Was Maschinen aktuell sehr gut können, ist die Produktion von Text.

Sind das beispielsweise die bekannten Suchvorschläge, die man bekommt, wenn man eine Suchanfrage einzugeben beginnt?

Kern: Exakt. Und das ist auch ein schönes Beispiel für das, was ich vorher meinte: Es ist nicht so sehr die technische Realisierung, sondern welche Aufgaben gelöst werden. So etwas im ersten Schritt zu bauen, ist ganz einfach. Das ist Wörterzählen. Wenn jemand New York eingegeben hat, dann ist New York City ein guter Vorschlag, weil viele andere das auch schon reingeschrieben haben. Das ist dann quasi nur mehr zwei Zahlen dividieren.

Was können künstliche Intelligenzen mittlerweile und was können sie nicht?

Kern: Was Maschinen aktuell sehr gut können, ist die Produktion von Text. Das heißt, man gibt im einfachsten Szenario einen kurzen Text oder ein paar Wörter ein und die Maschine findet heraus, wie dieser Text weitergehen würde. Und es hat sich herausgestellt, dass man damit viele, viele Tasks lösen kann. Die technischen Begriffe dafür wären Few-Shot-Learning beziehungsweise dann auch Zero-Shot-Learning. Das heißt, die Maschine ist nicht für bestimmte Tasks trainiert, kann aber dennoch diese Tasks lösen. Und da sind wir schon wieder bei Weak AI und Strong AI, das ist schon so ein Indikator. Eine Definition von Strong AI wäre auch, dass man Problemlösungen generalisieren kann. Das zeigt sich daran, dass die Maschine, selbst wenn man sie nicht darauf trainiert hat, diese Probleme lösen kann.

Was genau ist Few-Shot-Learning und Zero-Shot-Learning?

Kern: Bei Zero-Shot-Learning wird ein Task gelöst, ohne dass die Maschine den Task vorher gesehen hat und bei Few-Shot-Learning genügen ein paar Beispiele, um den Task zu lösen. Nehmen wir eine Übersetzung von Deutsch auf Französisch: da reichen der Maschine zwei, drei Beispiele. Da hat man den deutschen Satz und den französischen Satz und sagt, dieser Satz auf Deutsch hat den anderen als französische Repräsentation.

Letztendlich sind es immer noch Menschen, die eine KI entwerfen, bauen oder programmieren. Welche Probleme bringt das mit sich? Schleicht sich dadurch dann je nach Anwendungsfall auch ein gewisser Bias ein, indem ich der Maschine sage, bitte diese Daten hernehmen oder jene oder verarbeite sie so und nicht so?

Kern: Das ist einerseits ein großes gesellschaftliches Thema und andererseits ein großes technisches Thema. Ein technisches Thema deswegen, weil die Maschine den Weg des geringsten Widerstands geht. Das heißt, wenn wir die AI beispielsweise trainieren wollen, ein Pferd von einem Zebra zu unterscheiden, dann lernt die Maschine unter Umständen gar nicht, Pferde von Zebras zu unterscheiden, sondern lernt, zwischen Gras und Steppe zu unterscheiden. Die meisten Zebrafotos haben einen braunen Hintergrund, die meisten Pferdefotos haben einen grünen Hintergrund. Das ist zum Beispiel eine technische Herausforderung, dass die Maschine eigentlich nicht das lernt, was man haben möchte. Und das zweite ist der Punkt, wo quasi der Bias oder ein Störfaktor beim Trainieren der AI entsteht – das ist das gesellschaftliche Thema. Es gibt den Bias in den Daten selber: Bias in, Bias out. Wenn ich einen Datensatz habe, der schon einen gewissen Bias oder eine Unfairness drinnen hat, dann repliziert die Maschine das unter Umständen sinngetreu (faithfully). Da gibt es die klassischen Szenarien von Bewerbungen, wo Minderheiten benachteiligt werden, weil bis dahin alle Minderheiten immer benachteiligt wurden und die Maschine das so gelernt hat. Oder ein Beispiel aus dem Bereich von NLP ist Erkennen von toxischer Sprache. Toxisch heißt beleidigend oder herabwürdigend oder aggressiv oder ähnliches. Es zeigte sich, dass ebenfalls aufgrund der Trainingsdaten tendenziell eher African American Language oder African English so eingestuft worden ist. Das heißt, obwohl man sich nicht toxisch ausgedrückt hat, glaubte die Maschine, dass es tendenziell trotzdem toxisch wäre. Und darum wurden diese Menschen dann benachteiligt.

Wie biased sind wir als Gesellschaft?

Gibt es die Möglichkeit, so einen Bias irgendwie auszuschließen oder wegzubekommen?

Kern: Das braucht dann Forschung. Ziel ist, dass man diese Modelle so trainiert, dass selbst wenn ein Bias in den Datensätzen drinnen ist, man diesen Bias beim Training rausbekommt. Was sich in jüngster Zeit gezeigt hat: Um so einen Bias rauszukriegen, braucht es viel, viel menschliche Intervention.

Also um die menschlichen Vorurteile rauszubringen, braucht man wieder Menschen?

Kern: Ja, aber das Entscheidende ist die klare Definition eines Bias. Und dafür müssen wir uns als Gesellschaft einem Reality-Check unterwerfen: Wie biased sind wir als Gesellschaft? Abhängig von der Art und Weise, wie ich Fairness definiere, komme ich zu unterschiedlichen Ergebnissen. Und die schließen sich teilweise sogar aus. Es gibt die Gruppenfairness und es gibt die Individual Fairness. Gruppenfairness heißt zum Beispiel, ich möchte eine Minderheit gleich behandeln wie die Mehrheit. Bei Individual Fairness möchte ich einzelne Personen gleich behandeln. Wenn jemand die gleichen Kompetenzen hat und sich für einen Job bewirbt, dann sollte sie oder er auch die gleichen Chancen haben, den Job zu bekommen. Und je nachdem, ob ich Gruppenfairness haben will oder individuelle Fairness, kann ich unter Umständen nicht beides vereinen. Es gibt also keinen hundertprozentig fairen Ansatz.

ChatGPT hat die Diskussion entfacht, KI könnte bei schulischen oder wissenschaftlichen Arbeiten quasi als Ghostwriter eingesetzt werden. Mittlerweile werden AIs entwickelt, die selbstgeschriebene von automatisierten Texten unterscheiden können sollen. Ist das ein Katz-und-Maus-Spiel?

Kern: Ich vermute einmal, es könnte darauf hinauslaufen. Die Schwierigkeit ist, die automatisiert generierten Texte zu erkennen, speziell wenn sie kurz sind. Aber ein Szenario, auf das es hinauslaufen könnte, dass man die Hersteller dieser Modelle dazu zwingt, dass ein Text gewisse Charakteristiken haben muss, die man dann überprüfen kann – beispielsweise Wasserzeichen. Aber man darf auch nicht nur davon ausgehen, dass Schülerinnen und Studenten jetzt solche Methoden anwenden. Wer sagt, dass nicht die Lehrenden ihre Unterrichtsmaterialen und auch gleich noch die Prüfungsfragen generieren lassen?

Dieses Interview mit Roman Kern ist Teil des TU Graz Dossiers „Künstliche Intelligenz”. Weitere Dossiers finden Sie unter www.tugraz.at/go/dossiers.

Es gibt jetzt auch Berufszweige, in denen man sich darüber Gedanken macht, ob KIs sie überflüssig machen können oder gänzlich verändern werden. Ist das einfach ein normales Zeichen für technischen Fortschritt oder glauben Sie gar nicht, dass KIs so viel Veränderungen mit sich bringen werden?

Kern: Ich gehe schon davon aus, dass sich sehr viel verändern wird. Es wird sicher gewisse Tätigkeiten geben, die AI komplett übernehmen kann, aber im Großen schätze ich, dass sich unsere Tätigkeiten einfach verändern. Speziell Tätigkeiten, wo man Text schreibt. Wenn wir etwa heutzutage eine E-Mail bekommen, müssen wir die Antwort manuell schreiben. In Zukunft reicht es dann vielleicht, dass ich über den Klick auf einen Button eine Antwort generiere. Ich brauche nur zu prüfen, ob ich das auch so schreiben würde. Das sind natürlich enorme Produktivitätsgewinne, die damit einhergehen. Ein anderes Beispiel ist Kreativität. Man kann sich dann einen Vorschlag für den Titel eines Papers geben lassen und sich so Inspiration holen. Ein weiterer Aspekt: Jetzt sind wir alle konditioniert, die Google-Suche zu verwenden. Das könnte sich auch wandeln, zu einer personalisierten Interaktion, die neue Arten von Suchen erlaubt.

Welche Auswirkungen kann man sich vorstellen, wenn die sogenannte Singularität eintreffen sollte, also der Zeitpunkt, wenn Maschinen intelligenter als Menschen sind?

Kern: Ich bin da optimistisch, denn ich sehe die Möglichkeiten, die Potenziale. Allein den Dialog zu haben und die vielen Vorurteile, die wir als Menschen haben - also Confirmation Bias etc. -, einfach widergespiegelt zu bekommen. Sagen wir beispielsweise, die Politiker*innen kriegen dann als Berater*in eine AI zur Seite gestellt, die eine andere Perspektive auf die Sache hat.

Aber können Sie Menschen verstehen, die Angst davor haben?

Kern: Ja natürlich. Es ist ein Kontrollverlust letztendlich. Einerseits, weil man prinzipiell schon mal Angst vor jeder Veränderung hat. In der aktuellen Situation, in der es ohnehin eine gewisse Unsicherheit gibt, braucht man da gedanklich auch nicht weit auszuholen. Und die Menschen sind geprägt von den Filmen, in denen uns das dystopisch gezeigt wird - etwa Skynet, das uns in Terminator vernichten will.

Wobei es ein Film ohne dramatische Entwicklungen auch schwer hätte, ein Publikum anzulocken…

Kern: Das stimmt. Ein Film wäre ohne so ein Drama langweilig. Das ist halt das Problem.

Einer meiner Forschungsschwerpunkte geht in Richtung Kausalitäten und das ist ein Punkt, wo die Maschinen heutzutage sehr schlecht sind.

Themenwechsel: KI-Anwendungen wie ChatGPT für Text oder Midjourney für Bilder erhalten jetzt sehr viel Aufmerksamkeit. Welche weniger bekannten Anwendungen finden Sie besonders spannend?

Kern: Da gibt es viele. Bei einem meiner Masterstudenten geht es darum, einem Menschen mit Spracheinschränkungen seine Stimme zu geben. Die Idee ist, Wörter aufzuzeichnen, die er aussprechen kann und daraus eine synthetische Sprache zu kreieren, mit der man beliebige Texte generieren kann. Das ist ein Anwendungsfall, den wir hier direkt bei uns erarbeiten.

Was ist, Ihrer Meinung nach, die nächste große Innovation oder Anwendung, die auf AI basiert?

Kern: Das ist eine schwierige Frage. Einer meiner Forschungsschwerpunkte geht in Richtung Kausalitäten und das ist ein Punkt, wo die Maschinen heutzutage sehr schlecht sind. Sie operieren rein auf Assoziationen und da sind wir wieder bei diesen Fotos von Zebras und Pferden. Da werden das Zebra und der Hintergrund, in dem Fall die Steppe, miteinander assoziiert und gehören für die Maschine dann quasi zusammen. Wir erkennen ein Zebra kausal nicht an seinem Hintergrund, sondern vermutlich an seinen Streifen - auch ohne Zoologe zu sein. Ich könnte mir vorstellen, dass man der Maschine rein auf technischer Ebene beibringt, Kausalitäten auch mit zu berücksichtigen. Da könnte die Maschine noch den nächsten Schritt machen: also kausale Zusammenhänge zu erkennen und zusätzlich auch zu interpretieren. Und das Spannende dabei ist, dass die Maschine dann nicht nur Wirkzusammenhänge erkennen kann, sondern auch Aussagen über Wenn-Dann-Szenarien trifft. Also Aussagen über Dinge, die noch nicht passiert sind, sondern die passieren könnten - quasi eine Zukunftsabschätzung oder eine Entwicklungsabschätzung. Sie sind dann in der Lage, Szenarien durchzuspielen, ohne dass sie passiert sind.

Sie möchten die aktuellen Stories, News, Forschungsgeschichten, Interviews oder Blogbeiträge der TU Graz direkt auf Ihr Smartphone oder in Ihren E-Mail-Eingang erhalten? Abonnieren Sie kostenfrei den TU Graz-Telegram-Newsletter.

Kontakt

Roman Kern
Ass.Prof. Dipl.-Ing. Dr.techn.
Institute of Interactive Systems and Data Science
Sandgasse 36/III
8010 Graz
Tel.: +43 316 873 30860
rkernnoSpam@tugraz.at