TU Graz/ TU Graz/ Services/ News+Stories/

#1: Neuronale Netzwerke und Künstliche Intelligenz

08.06.2022 |

Von Birgit Baustädter

Robert Legenstein ist Informatiker an der TU Graz und leitet das Institut für Grundlagen der Informationsverarbeitung. Er erforscht künstliche neuronale Netzwerke und erzählt uns von seiner Arbeit.

Robert Legenstein leitet das Institut für Grundlagen der Informationsverarbeitung. © Lunghammer – TU Graz

Talk Science To Me ist der neugierigste Wissenschaftspodcast der Podcastwelt – aber vor allem der TU Graz. Wir stellen Fragen – unsere Forschenden antworten. Von künstlicher Intelligenz über Nachhaltiges Bauen bis hin zu Mikroorganismen, die sich von CO2 ernähren und so Proteine erzeugen. Hört rein und lasst euch begeistern.
Abonniert die neuesten Folgen auf der Podcast-Plattform eures Vertrauens:
iTunes
Google Podcasts
Spotify
Deezer
Amazon Music
RSS-Feed

Der folgende Text ist ein wörtliches Transkript der Podcastfolge.

Talk Science to Me - der Wissenschaftspodcast der TU Graz

Herzlich Willkommen beim TU Graz-Wissenschaftspodcast Talk Science to Me. Schön, dass wir uns heute hören. Mein Name ist Birgit Baustädter und in dieser allerersten Folge beschäftigen wir uns mit künstlicher Intelligenz und maschinellem Lernen. Zu Gast ist heute Robert Legenstein, der mir alle meine Fragen zu seiner Arbeit beantworten wird. Er ist Wissenschafter und Professor an der TU Graz und leitet das Institut für Grundlagen der Informationsverarbeitung. Dort forscht er an brain-inspired artificial intelligence. Aber das erzählt er uns am besten gleich selbst.

Talk Science To Me: Herr Professor Legenstein - vielen Dank, dass Sie heute bei der allerersten Folge vom Wissenschaftspodcast der TU Graz zu Gast sind und alle Fragen, die wir zum Thema künstliche Intelligenz und maschinelles Lernen haben, beantworten werden. Sie sind Informatiker an der TU Graz und leiten das Institut für Grundlagen der Informationsverarbeitung. Können Sie Ihren Arbeitsalltag beschreiben? Woran forschen Sie?

Robert Legenstein: Mein Team und ich arbeiten im Prinzip an zwei zusammenhängenden Fragestellungen. Ich bin Informatiker und arbeite an Fragen der Grundlagen der Informationsverarbeitung. Ich habe schon recht früh begonnen, mich auch mit Neurowissenschaften zu beschäftigen. Das ist nicht so abwegig, denn Neurowissenschaften beschäftigen sich mit dem Gehirn. Und das Gehirn macht nichts anderes als Informationen zu verarbeiten. Natürlich bin ich kein Neurowissenschafter. Aber wenn man Informatik und Neurowissenschaften paart, dann entsteht etwas, das man computational neuroscience nennt. Ich beschäftige mich also mit der Frage, wie wird im Gehirn Information verarbeitet. Und wir machen das mit mehr oder weniger abstrakten Modellen, die wir dann simulieren und auch analysieren.

Und nachdem das Gehirn so effizient ist in der Informationsverarbeitung, ergibt sich daraus automatisch die zweite Fragestellung, die wir haben: Wir versuchen, neuartige Paradigmen für neue Computersysteme zu entwickeln. Diese Computersysteme sind also vom Gehirn inspiriert und man nennt es brain-inspired computing. Oder auch neuromorphic computing. Und unsere Aufgabe ist es, dafür zu sorgen, dass diese Systeme etwas Sinnvolles machen. Das geht sehr stark in Richtung künstlicher Intelligenz und maschinellem Lernen.

Sie haben bereits erwähnt, dass Sie sich mit der Grundlagen-Seite beschäftigen. Aber wenn man sich dann die Anwendung anschaut - was ist der Hintergedanke? Wo soll es hingehen?

Legenstein: KI-Systeme. Systeme, die selbstlernend sind. Systeme, die selbst aus Daten lernen können. Ein wichtiger Aspekt dabei ist Energieeffizienz in der Anwendung. Wir bauen jetzt selbst keine Chips. Aber unsere Forschungspartner bauen Chips, die deutlich energieeffizienter sind, als herkömmliche Computer.

Sie haben es schon ein bisschen selbst erwähnt, warum das Gehirn zum Vorbild genommen wird: Weil es energieeffizient und sehr leistungsstark ist. Aber können Sie es noch einmal beschreiben? Warum genau das Gehirn? Was sind die Vorteile, wenn man Computersysteme vom menschlichen Gehirn inspiriert baut?

Legenstein: Zum einen geht es um KI-Forschung - also künstliche Intelligenz. Es gibt einige sehr starke Systeme und Modelle, mit denen man sehr viel machen kann. Aber natürlich ist man von der Intelligenz des menschlichen Gehirns meilenweit entfernt. Es ist noch ein sehr weiter Weg.

Von der Funktionalität her gesehen ist das Gehirn ein ideales Vorbild. Weil es letztendlich ein Proof-of-concept für ein intelligentes Systeme ist. Da kann man sich Inspirationen holen. Man kann schauen, was man in den KI-Systemen, die wir haben, verbessern könnte, um intelligentere Systeme zu bekommen.

Energieeffizienz ist ein wichtiger Punkt. Nur, um das zu veranschaulichen: Beim Gehirn sprechen wir von 25 Watt, die das Gehirn benötigt. Und die Leistungsfähigkeit ist vergleichbar oder besser als die unserer besten Supercomputer. Und die brauchen Kraftwerke, damit man sie betreiben kann. Und da ist ein riesiger Gap dazwischen, den man versucht für Technik zu nutzen.

Wie schaut das genau aus, wenn Sie sich das Gehirn zum Vorbild nehmen?

Legenstein: Also hauptsächlich ist das sehr viel Lesen. Was ich in meiner Arbeit mache, ist Papers lesen. Es gibt ja Bibliotheken voll mit Veröffentlichungen davon, was man vom Gehirn weiß. Man weiß irrsinnig viel, aber nicht wie es wirklich funktioniert. Man weiß viele Einzelheiten, aber wie das alles zusammenläuft, damit Intelligenz hervorkommt, das weiß man nicht. Das heißt, man muss irrsinnig viel lesen, um sich Inspirationen zu holen und zu sehen, wo man ansetzen kann. Dann ist viel meiner Arbeit auch mit Papier. Man sitzt vor einem Zettel und überlegt sich, wie man ein Modell bauen könnte, das eine bestimmte Funktionalität hat. Oder man analysiert Sachen.

Und ein Hauptpunkt sind natürlich dann Simulationen. Wir machen sehr viele Simulationen. Und das muss man sich so vorstellen: Wir arbeiten mit spikenden neuronalen Netzwerken. Das sind noch stärker gehirninspirierte Netzwerke. Die leben praktisch in diesen Simulationen. Das heißt, ich sitze vor dem Rechner - oder hauptsächliche meine Mitarbeitenden - und kodiere neuronale Netzwerke, definiere sie und simuliere sie. Wobei simuliert werden sie eigentlich an unserem Cluster, der am Campus im Keller steht. Ein gekühlter Raum mit vielen Rechnern. Oder auch an Supercomputern, wie in Wien. Und dann kommen die Ergebnisse zurück und wir können sie analysieren und visualisieren. Wie waren die Aktivitäten im Netzwerk? Hat es die gestellten Aufgaben gelöst? Und so weiter. So kann man sich das vorstellen.

Sehen Sie, was das Netzwerk tut? Kann man die Schritte sehen?

Legenstein: Ja, die spikenden Neuronen funktionieren so, dass sie Impulse aussenden. Wir simulieren zum Beispiel fünf Minuten von unserem Netzwerk. Also real time wären es fünf Minuten. Wie das Gehirn fünf Minuten lang funktionieren würde. Die einzelnen Neuronen feuern sogenannte Spikes. Das sind kurze Spannungsimpulse. Und das wird von uns simuliert. Dann kann man sich anschauen, wie die Spannungsimpulse über die fünf Minuten aussehen. Es entstehen Patterns - Punktwolken. So kann man sich das vorstellen. Jeder Spike ist ein Punkt. Über die Zeit gibt es viele Punkte. Aber man will wenige Punkte haben. Denn je weniger Spikes, desto effizienter arbeitet das Netz. Aber es soll damit eine bestimmte Aufgabe lösen.

Das heißt, Sie nutzen Ihr Gehirn um ein Gehirn nachzubauen?

Legenstein: Ja, ich versuche es (lacht).

Wir haben schon die ganze Zeit von künstlicher Intelligenz gesprochen. Ist das schon künstliche Intelligenz, von der wir da reden?

Legenstein: Da stellt sich die Frage, was künstliche Intelligenz ist. Und ab wann es dann künstliche Intelligenz ist. Es ist sicher ein Ziel, dass man intelligente Systeme baut mit solchen spikenden neuronalen Netzwerken. Beziehungsweise, dass man es für künstliche intelligente Systeme verwenden kann, wenn sie von unseren Partnern in Hardware implementiert werden. Das ist spezielle Hardware, die sehr effizient ist und die man neuromorphe Hardware nennt.

Warum das Gehirn untersucht wird haben wir schon kurz angesprochen. Wenn man sich die Systeme oder die Modelle anschaut, die es jetzt gibt: Eines der erfolgreichsten sind sogenannte künstliche neuronale Netzwerke. Sie sind noch abstrakter als die Netzwerke, die wir simulieren, aber auch gehirninspiriert. Es sind ja auch Netzwerke von noch vereinfachteren Neuronen, die auch synaptische Verbindungen untereinander haben. Und was ganz wichtig ist: Diese Systeme werden nicht programmiert, sondern die lernen selbst, was sie tun müssen. Also man gibt ihnen große Datenmengen - Beispiele, Trainingsbeispiele - und sie lernen daraus, wie sie sich verhalten müssen. Und das ist etwas ganz wichtiges, weil das auch beim Menschen so ist - bei biologischen lernenden Systemen. Das menschliche Gehirn wird zwar nicht tabula rasa geboren. Natürlich gibt es viele genetische Vorbestimmungen. Aber einen Großteil dessen, was wir können, lernen wir über unsere Entwicklung. Wir müssen lernen, wie wir unseren Körper beherrschen. Wir müssen lernen, zu sehen letztendlich, zu hören und zu verstehen, was wir hören. Das bildet man in den künstlichen neuronalen Netzen und in unseren noch gehirninspirierteren Netzwerken nach.

Welchen Unterschied gibt es zwischen dem Lernen des Menschen und dem Lernen von Systemen?

Legenstein: Das ist eine sehr gute Frage. Da gibt es große Unterschiede. Ich glaube, der größte Unterschied ist, dass maschinelle Lernsysteme tabula rasa lernen. Das sind zum Beispiel neuronale Netzwerke. Die können theoretisch alles lernen, was man lernen kann. Das sind sogenannte universelle Approximatoren. Das hat auch Nachteile. Denn es heißt, dass man sehr lange braucht, um etwas bestimmtes zu lernen. Das heißt, die brauchen sehr viele Trainingsdaten. Das ist eines der Hauptprobleme. Man braucht riesige Trainingsdatensätze. Und muss sie ewig lang mit sehr viel Energieaufwand trainieren. Menschen sind, glaub ich, Lernmaschinen. Das Gehirn ist eine Lernmaschine. Aber sie ist optimiert, bestimmte Sachen zu lernen, die für uns wichtig sind. Wir müssen nicht alles können - können wir auch nicht - sondern bestimmte Sachen. Darauf hat die Evolution das Gehirn optimiert. Wenn man bei Tieren schaut: Manche Sachen müssen Tiere überhaupt nicht lernen. Ein Pferd wird geboren und kann sofort laufen. Das muss es überhaupt nicht lernen. Ein Mensch muss gehen lernen. Aber man sieht, dass es ein Zusammenspiel ist, zwischen genetischer Kodierung und Lernen. Und das fehlt bei diesen künstlichen Systemen zu einem Großteil. Und das sind auch Ansätze, an denen geforscht wird. Wie man das verbessern kann.

Glauben Sie, dass es jemals möglich sein wird, ein künstliches System so nachzubauen wie es im Menschen funktioniert? Ist das überhaupt das Ziel der Forschung?

Legenstein: Im Prinzip ist es schon möglich, dass man ähnlich funktionierende Systeme baut. Aber man wird wahrscheinlich nie ein System haben, dass zu 100 Prozent so funktioniert wie ein Mensch. Oder sich so verhält wie ein Mensch. Intelligentes Verhalten, das menschenähnlich ist, aber nicht genau wie ein Mensch. Der Grund, warum ich das glaube, ist das Lernen. Ich denke, dass nur lernbasierte oder teilweise lernbasierte Systeme ein solches komplexes Verhalten wie der Mensch hervorbringen können. Das ist das eine. Aber wenn man lernt, dann lernt man natürlich aus den Erfahrungen, die man macht. Und Menschen lernen aus ihren Erfahrungen ab der Geburt. Die Geburt ist, wenn man der Psychologie trauen darf, ein extrem einprägsames Ereignis. Die Beziehung zu den Eltern, die Beziehung zu anderen Menschen. Einfach das Mensch-Sein. Maschinen haben diese Erfahrungen nicht und werden diese Erfahrungen auch nicht in dieser Art und Weise bekommen können. Wirklich menschliche künstliche intelligente Maschinen wird es wahrscheinlich nicht geben. Aber das ist ja nicht unbedingt das Ziel und auch nicht sinnvoll. Das Ziel ist es, dass man Maschinen bekommt, die ein bestimmtes Ziel erreichen und eine bestimmte Funktion haben. Dazu braucht man oft intelligentes Verhalten, aber das muss jetzt nicht unbedingt menschliches Verhalten sein in dem Sinne.

Wo beginnt für Sie Intelligenz?

Legenstein: Eine weitere sehr schwierige Frage. Intelligenz an sich ist ja sehr schwierig zu definieren. Ich glaube, es gibt keine wirklich allgemein gültige Definition von Intelligenz. Wenn man in der Biologie schaut, dann geht es meist um ein Verhalten, das sich der Umgebung anpasst und dementsprechend gut für den Organismus ist. Das beginnt bei Würmern und geht rauf bis zu den Menschen. Und die Anpassungsfähigkeit steigt natürlich, wenn man evolutionär rauf geht. Lernfähigkeit ist sicher etwas, was ein wichtiges Prinzip ist bei intelligenten Systemen. Und eben diese Anpassungsfähigkeit. Ein ganz wichtiger Begriff im maschinellen Lernen ist der Begriff der Generalisierung. Generalisierung bedeutet eben, dass man gelerntes Wissen anwenden kann auf neue Situationen. Situationen, die man vorher noch nicht gehabt hat während seines Trainings. Man kann das sehr gut damit beschreiben, was man in der Schule hat. Es gibt in der Schule Fächer, da kann man auswendig lernen. Ich habe das immer gehasst als Kind. Ich habe so ein schlechtes Gedächtnis. Und das hat einfach nicht funktioniert. Aber das ist auch kein Zeichen von Intelligenz, wenn man etwas auswendig lernt. Das ist einfach Gedächtnis letztendlich. Wichtig ist, dass man das, was man gelernt hat, anpassen kann auf eine neue Situation. Und das ist eben diese Generalisierung.

Wie aber generalisiert man? Beim Menschen sagt man, dass sie oder er etwas verstehen muss. Für mich ist das aber nicht klar, weil ich nicht weiß, was Verstehen bedeutet. Es haben sich sicher Menschen darüber Gedanken gemacht. Ich weiß es nicht genau. Ich glaube, dass es sehr schwer zu sagen ist. Ich glaube, dass es Denkprozesse im Gehirn sind, die teilweise ein bisschen chaotisch sind. Das Gehirn ist, denke ich, ein Netzwerk von chaotischen Assoziationen. Und wenn man etwas versteht, dann bedeutet das vielleicht nur, dass man es in verschiedene Kontexte bringen kann mit den Assoziationen.

Wie setzt man Generalisierung in KI-Systemen um? Das ist vielleicht noch eine interessante Frage in dem Bereich. Es gibt ja diese zwei Methoden - oder zwei Streams. Das eine ist die klassische KI, die symbolbasiert ist. Und das andere ist die lernbasierte KI. Das nannte man früher auch Konnektionismus. Im Klassischen hat man das früher so gelöst, indem man bestimmte Regeln aufstellt und diese Regeln können die Computerprogramme miteinander verbinden, kombinieren und diese Regeln in vielen verschiedenen Kontexten anwenden.

Beim maschinellen Lernen ist es so, dass die Generalisierung aus den großen Trainingsmengen entsteht. Also wenn man sehr viele Trainingsdaten hat, dann entsteht automatisch eine gewisse Generalisierung, wenn das Modell entsprechend passend ist. Und so entsteht dann Intelligenz würde ich sagen. Die Fähigkeit, Gelerntes auf Neues anzuwenden.

In der Science Fiction werden gerne Zukunftsvisionen erdacht, wo es unter anderem auch um künstliche, intelligente Systeme geht, die dann nicht ganz so positive Ziele verfolgen. Wie viele Sorgen müssen wir uns vor künstlichen intelligenten Systemen machen?

Legenstein: Da spielt die Science Fiction in der Wahrnehmung tatsächliche eine enorm starke Rolle. Eine wichtige Rolle. Die Science Fiction hat immer die Tendenz, das Negative zu zeigen. Es soll ja spannend werden irgendwann. Die Frage ist, wie nahe das an der Wirklichkeit ist. Wovor müssen wir uns sorgen, wenn es um KI geht? Ich denke, es gibt verschiedene Ebenen.

Die Ebene, die Sie angesprochen haben - die Angst, dass es eine gewisse Verselbstständigung gibt, vielleicht sogar ein eigenes Bewusstsein, das von der KI entwickelt wird - ist meiner Meinung nach sicher in der Science Fiction und bleibt Science Fiction. Zumindest derzeit brauchen wir uns da überhaupt keine Sorgen machen. Es gibt bestimmte intelligente Systeme, aber, wie gesagt, es ist noch weit entfernt von einer menschlichen Intelligenz. Aber es gibt noch andere Ebenen, die vielleicht interessanter sind.

Eine Ebene wäre die Frage der Verlässlichkeit. Sind die Systeme verlässlich, wenn man sie anwendet? Und hier gibt es auch Unmengen an Forschung, weil das auch gesehen wird. Wenn man ein selbstlernendes System hat, dann gibt man schon eine gewisse Autonomie ab an das System. Der Mensch bestimmt nicht mehr direkt, was das System macht. Sondern das lernende System bestimmt das selbst. Oder die Trainingsdaten bestimmen das. Was auch Probleme haben kann. Also die Verlässlichkeit ist eine große Frage. Und da arbeiten wir auch teilweise daran im sogenannten Dependable Systems Lab im Rahmen des Silicon Austria Labs. Und es ist klar, eine 100-prozentige Sicherheit gibt es in keinem technischen System. Ich glaube, das kann man so einfach sagen. Ein Problem, dass Menschen oft haben ist, dass man sich die Frage stellt, warum trifft eine KI eine bestimmte Entscheidung? Man will das oft nachvollziehen können. Dann kann man sagen: Es hat eine falsche Entscheidung getroffen. Hat es einen Fehler gegeben? In der Software oder wo anders? In einem neuronalen Netzwerk kann man das zum Beispiel nicht sagen. Weil das so komplex ist, dass man nicht wirklich nachvollziehen kann, warum es eine bestimmte Entscheidung getroffen hat. Es gibt schon Tools - es wird da auch sehr viel geforscht - wo man bestimmte Sachen  abelesen kann. Aber so wirklich genau kann man es nicht sagen. Und das ist auch ein anderer Forschungsbereich, der wichtig ist. Explainable AI nennt sich das. Wie kann ich das nachvollziehbar machen? Übrigens: Beim Menschen ist es auch so, dass man meint, dass man die Entscheidung rational trifft und auch erklären kann. Aus der Neurowissenschaft gibt aber es Hinweise, dass, in einigen Settings zumindestens, Entscheidungen eher intuitiv und unbewusste getroffen werden und erst danach erklärt werden. Ähnlich, wie in einem neuronalen Netzwerk. Wir sagen erst danach: Ok, dass habe ich deswegen oder deswegen so gemacht. Aber in Wahrheit ist die Intuition  sehr, sehr wichtig und vielleicht sogar dominant.

Die dritte Ebene, die ich ansprechen will, ist der Bereich der Anwendung. Das ist auch etwas, wo man sich Sorgen machen muss vielleicht. Ich würde es einmal so ausdrücken: Wir sollten uns vielleicht nicht so viele Sorgen um die KI machen, oder Angst vor der KI haben. Sondern vor den Menschen, die sie anwenden. Denn hier gibt es natürlich Anwendungen, die problematisch sind. Zum Beispiel im Bereich der Überwachung wird das ja schon ausgeschöpft. Oder im Bereich des Militärs gibt es hier Möglichkeiten. Und es gibt auch schon Bestrebungen, das zu regulieren.

Wo sind momentan die größten Herausforderungen in der Forschung?

Legenstein: Ein paar habe ich schon angesprochen: Explainable AI, Dependability,… Generalisierung ist eines, das sehr stark erforscht wird im Moment. Weil man sieht, dass diese Generalisierung den größten Fortschritt bringen kann. Ich gebe einmal ein paar Beispiele dazu: Objekterkennung ist schon ein klassisches Beispiel von Lernsystemen und neuronalen Netzwerken. Man kann schon sehr gut Objekte erkennen zum Beispiel. Das Netzwerk kann erkennen, ob sich in einem Bild ein Auto befindet. Allerdings, wenn Sie ein solches Netzwerk trainieren und es dann auf eine Regensituation anwenden - wenn plötzlich Regen im Bild zu sehen ist, worauf das System nicht trainiert wurde - dann wird es versagen. Weil es nicht generalisieren kann. Da stellt man sich dann die Frage als Mensch: Wie ist das möglich? Für den Menschen ist es ganz klar. Ich weiß, dass es ein Auto ist. Das ist egal, ob es regnet oder schneit oder was auch immer. Es wird ein Auto bleiben. Und da sagen viele Menschen: Dem Netzwerk fehlt halt das Verständnis. Wiederrum: Es ist nicht ganz klar, was „Verständnis“ eigentlich bedeutet. Es ist so: Diese Systeme funktionieren auf einer statistischen Ebene. Sie sehen sehr viele Bilder und ziehen die Statistik daraus, wie mappe ich es auf „Auto“. Dieses Hintergrundwissen der Welt fehlt. Das ist auch ein großer Forschungsbereich: Wie kann ich Generalisierung verbessern? Zum Beispiel durch Hintergrundwissen. Wie kann ich das einbauen? Wie kann ich lernende Systeme auch kombinieren mit klassischer KI? In der klassischen KI hat man bestimmte Methoden, wie man Hintergrundwissen einbauen kann - mit Knowlege Bases zum Beispiel. Wie kann ich das kombinieren, sodass ich dann das Beste aus beiden Welten bekomme.

Anderes Beispiel aus der Robotik - Robotik ist ja sehr wichtig oder allgemein handelnde Agenten: Hier gibt es den Bereich des reinforcement learnings - das ist ein Fachbegriff. Es geht letztlich darum, dass man Systeme nicht dadurch trainiert, dass man ihnen sagt, was sie tun sollen, sondern dadurch, dass man ihnen sagt, dass sie etwas gut gemacht haben. Das ist dem biologischen Lernen viel näher. Man bekommt also ein positives Feedback und dadurch wird die Handlung verstärkt. Auf Deutsch sagt man „verstärkendes Lernen“ dazu. Beim reinforcement learning hat es sehr viele Fortschritte gegeben. Wir kennen das aus sehr vielen Zeitungsartikeln: Bei Schach gab es da große Fortschritte. Auch bei Go. Auch bei Computerspielen. Zum Beispiel bei StarCraft. Das sind sehr komplexe Spiele. Und die neuronalen Netzwerke, die darauf trainiert werden, sind praktisch immer besser, als Menschen. Viel besser typischer Weise. Aber: Es gibt hier auch Probleme. Typischerweise funktioniert Lernen in der Robotik oder eben bei solchen Agenten sehr gut in simulierten Umgebungen, die man gut kontrollieren kann, wo man sehr viel simulieren kann. Aber wenn man das in die Wirklichkeit setzen will - ich trainiere einen Roboter und will, dass der in der Wirklichkeit, in der realen Welt handelt - dann wird es schwierig. Denn in der realen Welt ist halt alles viel variabler, es gibt viel mehr verschiedene Möglichkeiten. Und diesen sogenannten reality gap zu überwinden, ist auch ein wichtiger Teil der Forschung.

An welchen Projekten arbeiten sie momentan?

Legenstein: Silicon Austria Labs habe ich schon kurz besprochen. Mein Team ist in drei weiteren Projekten involviert. Da gibt es das SMALL-Projekt, das vom FWF gefördert wird. Das ist ein kollaboratives Projekt mit einigen anderen Partnern von der ETH Zürich zum Beispiel und von Southampton. Unsere Partner bauen hier Hardware - sehr energieeffiziente Chips. Und die Grundfragestellung, die wir hier haben, ist etwas, was ich schon angesprochen habe: die Lernfähigkeit. Wenn ich einen intelligenten Chip in eine Anwendung einsetzen will, dann kann ich den nicht sofort einsetzen. Ich kann nicht sagen, dass ich den kaufe, ihn einsetze und er überwacht irgendeinen Prozess. Weil er sich anpassen muss daran, was hier im speziellen gefragt ist. Das heißt, man müsste ihn vor Ort trainieren. Und dieses Trainieren sollte natürlich so schnell wie möglich gehen. Wie wir schon gehört haben, ist es ein Problem im maschinellen Lernen, dass wir viele Trainingsdaten brauchen. Jetzt wollen wir diese Systeme so bauen, dass wir sie vortrainieren und, dass sie lernen, wie sie dann schnell lernen können. Man nennt das „learning to learn“ oder „lernen zu lernen“ auf Deutsch. Also, dass die Maschinen lernen, wie sie schnell lernen können, damit sie in der Anwendung möglichst schnell einsatzbereit sind.

Dann haben wir noch ein Projekt, dass sehr interessant ist, weil es Biologie und künstliche Intelligenz verbindet. Das nennt sich SYNCH und wird von der EU gefördert. Auch mit sehr vielen Kooperationspartnern. Hier geht es darum, dass wir versuchen, unsere künstlichen spikenden neuronalen Netzwerke mit biologischen Netzwerken in Verbindung zu bringen. Möglicherweise auch für medizinische Anwendungen. Weil man hofft, dass man neue Therapiemethoden machen kann. Das heißt, unsere Partner bauen Implantate. Oder wir forschen daran, wie man Implantate bauen kann - wir bauen nicht wirklich, sondern machen Grundlagenforschung. Aber es geht darum, dass man schlussendlich Implantate baut, die vom Gehirn neuronale Aktivität aufnehmen können, sie verarbeiten können im Netzwerk und dann vielleicht auch mit dem Gehirn interagieren können, indem sie vielleicht Impulse zurück senden. Das kann man zum Beispiel verwenden, um Gehirnstimulation effizienter zu machen. Das wird ja für einige Krankheiten eingesetzt. Aber es ist oft sehr brutal. Da werden riesige Mengen an Neuronen stimuliert. Und um das zu verbessern, könnte man solche Technologien verwenden.

Ein weiteres Projekt nennt sich ADOPD und wird auch von der EU gefördert. Hier geht es um Lernen mit Licht. Meistens ist die Hardware, die man verwendet, elektronische Hardware. Das heißt eben Elektronik. Aber man kann auch Computersysteme bauen, die mit Licht arbeiten. Hier werden keine Elektronen verschoben, sondern Photonen versendet. In diesem Projekt wollen wir lernende Maschinen bauen, die mit Licht arbeiten. Das hat natürlich den Vorteil, dass man mit Licht extrem schnell rechnen kann. Und damit würde man auch sehr schnelle lernende Maschinen bekommen, die auch sehr schnell lernen können.

Ihre Arbeit ist sehr kreativ - wo nehmen Sie die Ideen her?

Legenstein: Das ist eine großartige Frage (lacht). Ich glaube, Kreativität in diesem Bereich oder in der Wissenschaft überhaupt, ist das wichtigste. Die besten Wissenschafter*innen sind, glaub ich, sehr kreative Menschen, fast schon Künstler*innen wahrscheinlich. Wo nehme ich das her? Das ist eine sehr persönliche Frage. Aber ich kann dazu sagen, dass ich ein Mensch bin, der sehr gerne kreativ ist. Ich spiele sehr gerne Klavier und das ist der beste Ausgleich und auch etwas, wo man Kreativität tanken kann. Das ist eine der besten Beschäftigungen, die es gibt glaube ich. Ansonsten natürlich - Kreativität kommt nicht von irgendwoher. Inspiration ist etwas, das aus einer Grundlage ensteht. Man braucht das Wissen, um kreativ sein zu können. So viel wie möglich lernen und dann warten, dass etwas rausspringt. Man sagt ja, dass man die besten Ideen übers Schlafen bekommt. Das kommt unvorhergesehen. Und da muss man sich auch die Zeit dafür nehmen - für Kreativität. Wenn man ständig in seinem Arbeitsrad ist, dann wird nichts kommen. Da muss man sich wirklich Zeit nehmen - Zeit für Kreativität.

In der Forschung ist auch Geld immer ein sehr großes Thema. Wenn es wirklich gar keine Rolle spielen würde, was würden Sie umsetzen, was würden Sie machen wollen?

Legenstein: Geld spielt natürlich immer eine Rolle in der Realität. In diesem Bereich ist Geld natürlich auch sehr wichtig. Bei mir ist es so: Man ist immer beschränk auf die Ressourcen, die man hat. Auf die Computing-Ressourcen im Speziellen. Natürlich ist es der Traum, dass man die Systeme, die Netze, die man hat, hochskalieren kann. Das heißt, möglichst große Netzwerke simulieren. Mit den technischen Möglichkeiten, die man hat, ist man sehr eingeschränkt, im Vergleich dazu, was ein Gehirn kann. Diese Hochskalierung ist etwas, wovon man wirklich träumen kann. Allgemein, wenn man sich ansieht, wo die großen Fortschritte in der KI-Forschung gemacht werden, dann sind das die großen Firmen. Sie dominieren mittlerweile die Forschung. Zum Beispiel Google, Facebook und so weiter. Und der Grund dafür ist natürlich genau das: Die finanziellen Möglichkeiten sind fast unbegrenzt und da muss man schauen, wie man mithalten kann. Manche Staaten haben das erkannt. Deutschland zum Beispiel hat enorm investiert in KI-Forschung. In Österreich ist das noch nicht ganz angekommen. Da hoffen wir, dass auch noch etwas passieren wird und es mehr Mittel geben wird. Sonst ist das schon sehr sehr schwierig, da mitzuhalten.

Vielen Dank, dass Sie heute zu Gast waren und die vielen Fragen beantwortet haben! Vielen Dank!

Legenstein: Ich bedanke mich auch! Sehr gerne.

Und euch vielen Dank, dass ihr heute mit dabei wart. Hört das nächste Mal gerne wieder rein.