Talk Science to Me #22: Robert Peharz
Herzlich willkommen bei Talk Science to Me. Heute spreche ich mit Robert Peharz, der sich mit dem Thema Probabilistic Machine Learning beschäftigt.
Talk Science to Me: Lieber Robert, vielen Dank, dass du heute da bist und meine Fragen zum Thema künstliche Intelligenz und zu deiner Forschung beantworten wirst. Du arbeitest am Institute of Theoretical Computer Science. Was machst du genau oder was macht ihr als Institut genau?
Robert Peharz: Theoretical Computer Science ist natürlich auch vertreten. Aber ich persönlich mache im Bereich AI, Machine Learning, vor allem Probabilistic Machine Learning, also wahrscheinlichkeitsbasiertes maschinelles Lernen. Institutsleiter Robert Legenstein arbeitet im Bereich Computational Neuroscience. Also auch Richtung Machine Learning, aber eher mit Spiking Neural Networks und biologisch inspirierten Modelle des Hirns – also schon rechnerisch, aber biologisch plausible.
Talk Science to Me: Fangen wir mal ganz an der Basis an. Was ist für dich künstliche Intelligenz?
Peharz: Schwierige Frage. Gute Frage, schwierige Frage. High level: Künstliche Intelligenz ist natürlich Intelligenz, die von künstlichen Objekten dargestellt wird. Und da fangen wir an. Jetzt können wir uns fragen, was künstlich ist, was Intelligenz ist?
Die leichtere Frage wäre: Was ist künstlich? Man sagt: von Menschen gemacht. Aber da könnte man auch einhacken und sagen: Muss es von Menschen gemacht sein? Wenn man sich vorstellt, es würde auch andere intelligente Lebewesen auf der Welt geben, wie Delfine, die das bauen können, oder auch Aliens, die vielleicht auch künstliche Intelligenz bauen könnten, das wäre dann natürlich auch künstlich. Oder künstliche Intelligenzen, die wieder künstliche Intelligenzen bauen? Ist das dann Meta- oder subkünstliche Intelligenz?
Künstliche Intelligenz ist also Intelligenz, die von künstlichen Objekten dargestellt wird oder präsentiert wird. Aber was ist Intelligenz? Und das ist halt eine sehr, sehr, sehr schwierige Frage. Ähnlich wie, was ist Leben? Was ist Bewusstsein? Das sind alles sehr tiefe Fragen und die wirklich keine einfache Antwort haben. Im Fall vom Leben, was ist Leben? Leute machen sich darüber Gedanken. Also wie charakterisiert man? Wo zieht man die Boundary zwischen Leben und Nichtleben. Und das ist teilweise gar nicht so leicht. Man könnte sagen, ein Lebewesen ist etwas, das Energie aufnimmt und verarbeitet, das sich fortpflanzt, etc. Und da ist man sich dann auch nicht ganz einig. Ähnlich ist das bei der künstlichen Intelligenz. Gibt es irgendwie Traits, also Eigenschaften, die eine Intelligenz haben sollte? Zum Beispiel Memory, also Speicher. Man kann sich schwer vorstellen, dass es eine Intelligenz gibt, die sich nichts merken kann. Umgekehrt ist natürlich Memory per se nicht automatisch intelligent. Also ein RAM-Baustein oder eine Festplatte ist nicht per se intelligent. Es geht also auch darum, wie man den Speicher organisiert, wie man Wissen darstellt, wie man es clever, intelligent darstellt. Was heißt jetzt clever? Natürlich auch zielgerichtet. Man kann dann sagen, Intelligenz hat natürlich immer zielgerichtet.
Künstliche Intelligenz ist natürlich Intelligenz, die von künstlichen Objekten dargestellt wird. (Robert Peharz)
Ich brauche also einen Speicher, ich muss Wissen clever darstellen, damit ich meine Ziele erreichen kann. Es ist also immer auch eine Zielgerichtetheit und eine Bewertung dabei. Wenn du sagst, ich bin intelligent, oder wenn ich sage, du bist intelligent, dann beeindruckt mich das irgendwie, was du machst. Wenn mich das aber nicht beeindruckt, dann finde ich es vielleicht nicht intelligent, obwohl du genau die gleiche Person bist. Also ist natürlich immer eine Bewertung dabei. Andere klassische Sachen sind Entscheidungsfindung, Planung etc. und Schlussfolgerung, also Darstellung von Wissen und Schlussfolgerung. Und eben ein sehr wichtiger Aspekt ist auch, und damit beschäftige ich mich vor allem, Lernen. Intelligenz wird immer abstrakt gesehen. Du hast einen inneren Zustand, dein Hirn oder dein Nervensystem oder was auch immer, dein Körper, und du reagierst auf Erfahrung. Du reagierst auf Daten oder Erfahrungslage und du adaptierst. Also auf ganz High Level kann man sagen, das charakterisiert Lernen. Also man adaptiert sich, seinen Zustand auf Erfahrungen, um irgendein Ziel besser zu erreichen. Also ist auch Lernen ein wichtiger Baustein von Intelligenz. Ich mache Machine Learning, das ist immer ein Unterbereich von Artificial Intelligence. Wie können Maschinen jetzt aus Erfahrung lernen?
Talk Science to Me: Lernen stellt man sich ein bisschen so vor: Es sitzen Schülerinnen und Schüler, Studierende in einem Raum, dann steht eine sehr intelligente Person vor ihnen und erklärt etas. Wie macht das eine Maschine?
Peharz: Also ich unterrichte Machine Learning 1 auf Bachelor-Level und da fängt man mal an. Es gibt nicht eine Art des Lernens. Was du jetzt beschreibst ist grob gesagt supervised learning. Da gibt es einen Lehrer, der gibt einem Beispiele und sagt auch die richtige Antwort. Das ist nicht die einzige Art zu lernen. Wenn man dich zum Beispiel im Dschungelcamp aussetzt mit einem Taschenmesser und es sind wilde Tiere da, dann wirst du auch ohne Lehrer hoffentlich lernen zurecht zu kommen. Das ist dann unsupervised learning oder vielleicht auch reinforcement learning, also quasi bestrafendes oder bestätigendes Lernen. Es gibt viele verschiedene Typen von Lernen, sowohl im Menschen als auch in der Maschine. Die klassischen drei sind supervised learning, also der Lehrer sagt dir die richtige Antwort, gibt dir Beispiele und prüft dich dann. Beim unsupervised learning, du musst irgendwie in der Welt zurechtfinden und Muster finden, die für dich passabel sind. Und verstärkendes Lernen ist, über Zeit hinweg sequentielles Entscheidungstreffen aufgrund von Feedback, das Belohnung oder Bestrafung sein soll. Also quasi Zuckerbrot und Peitsche. Ich kontrolliere nur Zuckerbrot und Peitsche und will eigentlich das Verhalten in der Maschine stimulieren und reinforcen oder Bestätigung hervorrufen. Also es gibt verschiedene Arten von Lernen. Das sind die drei klassischen. In derMachine Learning-Literatur tauchen auch konstant neue Variationen von Lerntypen auf.
Talk Science to Me: Gibt es eine davon, die besonders gut funktioniert mit Maschinen?
Peharz: Besonders gut funktioniert, würde ich sagen, das supervised learning, weil es der leichteste Weg ist und am leichtesten zu erklären und damit zu unterrichten ist . Daher ist es am meisten erforscht, würde ich sagen. Es ist irgendwie der einfachste Zugang: Ich präsentiere Muster, sage, das wäre die richtige Antwort. Ich präsentiere tausende oder Millionen von Beispielen und die Maschine oder der Mensch oder das Lernsystem, muss das unterliegende Prinzip erkennen, um zukünftige Inputs wieder richtig vorherzusagen. Also entweder klassifizieren oder vielleicht eine reell wertige Zahl zuzuweisen. Also wenn ich sage, ich will von der Armlänge auf die Körperhöhe von Menschen schließen, dann kann ich irgendwie einfach ganz häufig Armlänge und Körperhöhe messen und da einen funktionellen Zusammenhang finden. Also das wäre zum Beispiel ein typisches Supervised-learning-Problem oder eben auch Klassifikation. Ich glaube supervised learning ist am meisten erforscht und daher funktioniert es besonders gut. Aber verschiedene Lerntypen sind für verschiedene Probleme gedacht. Man kann nicht jede Aufgabe mit supervised learning lösen, also manchmal passt das nicht, ist nicht natürlich.
Talk Science to Me: Beschäftigst du dich mit allen Arten?
Peharz: Ja, grundsätzlich schon. Also mein Steckenpferd und meine Hauptforschung liegt auf einem Typ von unsupervised learning. Also ja, ich beschäftige mich mit allen, am meisten mit unsupervised learning, aber auch mit supervised learning. Man muss dazu sagen, ich mache einen Seitenstrom von machine learning, nämlich probabilistic machine learning, also wahrscheinlichkeitsbasiertes machine learning. Es gibt sehr viel machine learning-Technologie, die sagen, die Wahrscheinlichkeit interessiert sie jetzt nicht so. Da gibt es andere Zugänge. Ich habe sehr stark den Wahrscheinlichkeitsaspekt, also quasi probabilistic machine learning in meiner Forschung.
Talk Science to Me: Warum brauche ich die Wahrscheinlichkeit beim machine learning?
Peharz: Gute Frage, eine meiner Lieblingsfragen. Wenn man sich fragt: Was ist Wahrscheinlichkeit und warum braucht man die? Dann haben die meisten Leute so ein bisschen Angst vor Wahrscheinlichkeit und Statistik. Es ist ein bisschen komisch. Man hat irgendwie so Statistikkurse aus dem ersten Semester im Bauch liegen oder in der Mittelschule oder in der AHS oder was auch immer. Und da ist ein bisschen Skepsis. Aber irgendwie taucht es überall auf. Biologie, Medizin etc. Jede Forschung, jede Studie. Man nimmt Daten auf und wenn man das publizieren will und nicht zum Beispiel irgendeine statistische Auswertung macht, dann wird man das schwer publiziert kriegen. Weil das Standard ist, dass man eine statistische Auswertung macht. Das hat einen Stellenwert. Warum ist das so? Also kann man sich jetzt fragen. Das ist auch im machine learning so und es gibt den Begriff des Bayes Planning. Ich arbeite mit Bayes, also dem Entdecker der Bayesian Formel.
Auch Leute, die nicht propabilistisches machine learning machen wollen, kommen immer wieder darauf, dass Algorithmen, wenn man sie uminterpretiert eine Approximation irgendeiner probabilistischen, statistischen Inferenz sind. Man kommt also schwer weg von der Wahrscheinlichkeit. Und auch vom Begriff des Bayes Planning. Ich muss mich also fragen, warum ist die Wahrscheinlichkeit so wichtig? Und das habe ich mich seit meinem PhD gefragt. Das war 2010 ungefähr. Damals habe ich angefangen mit probabilistic machine learning. Und ich habe mich gefragt: Warum eigentlich? Das macht doch alles nur komplizierter! Wahrscheinlichkeit ist schwierig. Man mag sie nicht. Und wenn man sie ein bisschen studiert hat und verschiedene Werke liest – zum Beispiel Judah Pearl, der den Turing Award für Bayesian Networks und Casual Models bekommen hat, und andere Leute wie Jaynes und Cox Theorem, Dutch Book Arguments – wenn man sich damit auseinandersetzte, dann kommt man drauf, dass Probabilistik, also Wahrscheinlichkeit, etwas sehr Interessantes ist. Kurz gesagt ist Wahrscheinlichkeit für mich ein Schlussfolgern, also konsistentes, rigoroses Schlussfolgern unter Unsicherheit. Und Schlussfolgern ist ein ganz wichtiges, zentrales Thema in der AI.
Wie vorhin gesagt, AI, Intelligenz braucht einen Speicher. Ohne Speicher wird man nicht auskommen. Ein anderer Aspekt, den man in der Intelligenz fast zwingend haben muss, ist das Schlussfolgern. Kann man sich eine Intelligenz vorstellen, die Daten hat, also Wissen, aber mit diesem Wissen nichts anfangen kann, keine Schlussfolgerungen ziehen und zu einem neuen Ergebnis kommen? Sokrates ist menschlich, alle Menschen sind sterblich, also Sokrates ist sterblich. Das ist ganz klassisches, logisches Schlussfolgern – Modus ponens und Inferenzregeln, Inferenzschlussfolgern ist mehr oder weniger synonym. Und in Wirklichkeit ein ganz wesentlicher Bestandteil der Intelligenz. Das sind ganz klassische Sachen wie eben Logik, aber auch Formeln zum Beispiel. Wenn ich sage, E = mc2. Dann sagst du: Okay, eine Formel. Vielleicht weißt du auch, was sie bedeutet. Vielleicht aber auch nicht. Interessant ist, sie stellt einen Zusammenhang dar zwischen den drei Größen E, m und c. Ein Zusammenhang bedeutet, sie repräsentiert Wissen. Damit kannst du aber mehr machen. Du kannst m dividieren auf beiden Seiten und findest heraus: c2=E über m. Aha! Und das hast du automatisch machen könne. Ich gebe dir eine Formel und durch deine dreieinhalb Regeln kannst du dieses Wissen nutzen und zu einer Schlussfolgerung kommen. Aber ich würde sagen, dass AI mehr ist als das, aber Schlussfolgern können, automatisiert, das ist ein wichtiger Bestandteil. Jetzt haben wir Logik – also Sokrates und so – und die Formeln. Da gibt es ein Problem: Es sind sehr harte Formeln ohne Unsicherheit. E=mc2. Wenn ich ein bisschen herumwackle, was passiert dann? Ist es immer noch so? Ist es nicht vielleicht manchmal ein bisschen fluffy? Das gleiche mit Logik: Gerade ist es menschlich, dass alle Menschen sterben, also ist es immer so, dass Sokrates sterblich ist. Aber die Welt ist nicht so. Die Welt ist unsicher. Sie ist zufällig, random. Man weiß nicht immer alles.
Eine andere gute Frage: Was ist nicht Zufall? Auch da kann man weit ausholen. Für mich ist Zufall eigentlich immer ein Mangel an Information, kann man pragmatisch abstrahieren. Du hast Information, aber nicht alle und bist deshalb unsicher. Also ist einfach ganz klar: Wir leben in einer unsicheren Welt, du willst aber trotzdem Schlussfolgern können. Was machen wir also? Es gibt das berühmte Cox Theorem, das nicht universell akzeptiert wird. Aber es besagt, dass wenn wir etwas wie die Logik hernehmen: Die Logik ist 0 oder 1. Jetzt wollen wir ein bisschen relaxen und zwischen 0 und 1 aufweichen auf die reellen Zahlen. Das Cox Theorem sagt, dass es nur eine Möglichkeit gibt, die äquivalent ist und das ist die Wahrscheinlichkeit. Es sagt also, dass es nur eine Art gibt, um Logik auf Unsicherheit zu erweitern. Und das ist die probability. Das ist eine Art, Wissen darzustellen mit fluffy uncertainty. Und es gibt ein paar einfache Regeln, um dieses uncertainty einzumassieren, auf Schlussfolgerungen zu kommen und die Unsicherheit trotzdem konsistent mitzunehmen. Konsistent bedeutet, dass ich an einem gewissen Informationsstand zwei verschiedene Schlussfolgerungsmechanismen mich ans gleiche Ergebnis bringen. Das hat es in den 70er, 80ern gar nicht so gegeben. Diese AIs haben auf Logik basiert und auch versucht, mit Unsicherheit zu arbeiten. Da hatten wir aber Inkonsistenzen. Du hast ein Wissen und weißt, dass es morgen regnet. Mit einer anderen gültigen Methode schlussfolgerst du aber, dass es morgen nicht regnet. Das braucht man nicht. Wir wollen Konsistenz, wir wollen Unsicherheit, wir wollen konsistentes Schlussfolgern, den kompletten Informationsstand mittragen und zu einer Schlussfolgerung kommen. Wenn man darüber viel nachdenkt und viele Werke liest, also auch Judah Pearl, der die Analogien zwischen wahrscheinlichkeitsbasiertem reasoning und menschlicher Kognition aufgestellt hat, dann merkt man, dass man immer probability braucht für konsistentes, rigoroses Schlussfolgern unter Unsicherheit. Und deshalb mache ich das.
Talk Science to Me: Aber geht es nur darum, dass man quasi die wahrscheinlichste Antwort bekommt, die am wahrscheinlichsten richtig ist? Oder geht es darum, dass man einfach in einer unsicheren Situation, wo sich Dinge ändern können, wo es keine festen Regeln gibt, trotzdem auf unterschiedlichen Wegen immer zum gleichen Ergebnis kommt?
Peharz: Es gibt verschiedene Inferenz-Szenarien. Du hast eine Darstellung von Wahrscheinlichkeit und Wissen etc. Und dann wird gefragt, was du heute wissen willst? Zum Beispiel: Ich habe dieses ganze Werk, das kann irgendein Stromkraftwerk sein mit 20.000 verschiedenen Größen und dort gibt es Unsicherheiten. Und wenn du sagst, dass du das wirklich dargestellt hast in einem probabilistischen Model, könntest du zum Beispiel heute sagen, dass du diese 100 Messwerte beobachtetet hast und die in das Model einfügst. Und das Modell solls ich schrecken und seinen Belief updaten. Und dann sagst du, dass dich diese drei bestimmten Größen interessieren und du von denen die wahrscheinlichste wissen willst. Du könntest aber auch sagen, dass du die 95 Prozent wissen willst – wo die liegen? Du könntest den Mittelwert haben wollen. Da gibt es so Plug-and-Play-artig verschiedene Inferenzszenarien, die zusammengestellt werden können. Zum Beispiel die wahrscheinlichsten Zustände sind ein typisches Inferenzszenario, man nennt das most probable explanation. Ich will also den Zustand, der am wahrscheinlichsten ist.
Talk Science o Me: Wann hast du begonnen, dich für diese Themen zu interessieren?
Peharz: Ich habe im Master Telematik studiert an der TU Graz. Dort hatte ich zwei Kataloge: Computational Intelligence und Signal- und Speech Communication. Da habe ich mich schon für machine learning interessiert. Aber mit meinem PhD bei Franz Bernkopf, der Bayesian Networks hatte, hat es angefangen. Nachdem das mein Forschungsprojekt war, habe ich irgendwann für mich aussortieren müssen, warum ich das mache und was ich eigentlich erreichen will. Circa 2010 also.
Talk Science to Me: Also du bist da so reingegangen, hast nicht genau gewusst, worum es geht und hast dich aber dafür interessiert?
Peharz: Um ehrlich zu sein, hat mich die Forschung interessiert, schon in der Masterarbeit. Das hat mir getaugt und ich wollte weitermachen. Da gab es dann die Gelegenheit, das Doktorat zu machen und das Thema hat gepasst. Ich hätte mir nicht unbedingt genau das Thema ausgesucht. Also bin ich da eher reingestolpert thematisch.
Talk Science to Me: Reingestolpert, aber Feuer und Flamme dafür, oder?
Peharz: Probability ist für die meisten Leute kompliziert und scary irgendwie. Und sie verstehen es nicht ganz. Aber dann gibt es viele gescheite Leute, die drauf beharren, dass das wichtig ist. Und dann will man das verstehen. Dann muss man einen Deep Dive machen und das geht für mich bis heute so weiter. Also, ich sehe mich so, das ist zwar ein Rip-Off von Carl Rasmussen, einem Professor in Cambridge, dass ich ein ewiger Student bin. Das Coole an der Uni ist, dass du ewiger Student sein kannst. Damit kann ich was anfangen.
Talk Science to Me: Gehst du mit Themen, die irgendwie ein bisschen scary und kompliziert sind, immer so um, dass du dich voll damit beschäftigst, bis du es verstanden hast?
Peharz: Nur wenn es mich irgendwie hinzieht. Wenn es kompliziert ist und es zieht mich nicht hin, dann schaue ich es mir vielleicht nicht an, aber wenn irgendwas da meine Aufmerksamkeit erweckt und ich verstehe es nicht, dann will ich es schon verstehen. ja, natürlich.
Talk Science to Me: Wo kommt das Interesse für machine learning und künstliche Intelligenz grundsätzlich her?
Peharz: Ich habe einen Bruder, der ist eineinhalb Jahre älter und Physiker und der hat es früher immer geliebt, dass er mir, seinem kleinen Bruder immer Sachen erzählen konnte und wollte das auch immer hören. Er ist ein schlauer Kerl und sehr wissbegierig. Er hat damals begonnen zu studieren und hat irgendwo aufgegabelt, wie artificial networks funktionieren. Und dann, da war ich noch in der Schule, erklärte er mir auf einer Serviette mit Bleistift, wie das geht. Und das war so faszinierend, so ein kompliziertes Ding mit einem so einfachen Prinzip. Das hat mich angefixed und sehr beeindruckt. Ich habe schon früh begonnen zu programmieren. Ich war elf, da haben wir einen Computer bekommen und mein Bruder hatte Spiele, wo es Lesereinsendungen von Spielern gab. Bei diesem Spiel war der Sourcecode dabei und ich habe damit herumgespielt. Ich habe mir in der Schulzeit schon selbst das Programmieren beigebracht. Immer kompliziertere Sprachen, die ich mir selbst erklärt habe und selbst Computerspiele programmiert habe. Ich war es gewohnt, dass man dem Computer ziemlich genau sagen muss, was er zu tun hat. Mein erster Kontakt mit machine learning war auf der Uni. Da hatte ich die Vorlesung Computational Intelligence – heute Machine Learning 1, die ich inzwischen übernommen habe. Machine Learning im Sinne von: Stell dir vor, du willst ein Programm haben, das Äpfel und Birnen unterscheiden kann. Wie machst du das? Wenn man programmiert, dann weiß man gar nicht, wo anfangen. Die Philosophie war, einen Level höher zu gehen, es abstrakter zu machen. Wir schreiben ein Programm, dem wir Beispiele liefern, und das soll dann gefälligst herausfinden, wie es funktioniert. Das hat mich fasziniert aus Programmierersicht. Dass ich ein Programm schreibe, das aus Erfahrung lernt. Das war auch Arthur Seymour, der zum ersten Mal das Wort machine learning in einem Paper verwendet bzw. notiert hat. Das war 1953 oder so. Er hat ein Machine-Learning-Programm entwickelt, das Backgammon gelernt hat und dann besser gespielt hat, als er selbst. Er schrieb in einem Abstract, dass das faszinierend ist als Programmierer, ein Programm zu schreiben, das einen überholen kann. Das ist durchaus ein kreativer Akt. Ich würde auch gerne Gärtnern – ich habe einen Balkon und baue Chilis und Tomaten und was weiß ich an. Es ist faszinierend, ihnen beim Wachsen zu zusehen. Ich glaube, dass das etwas ähnliches ist. Ich weiß, wie schwer es für einen Computer ist, handgeschriebene Zahlen zu erkennen. Es wirkt erstaunlich einfach, aber wie erklärt man einem Computer dieses Regelwerk? Es ist unglaublich schwierig. Am Anfang initialisiert man das Lernsystem und das ratet dann einfach dahin. Dann sieht man die Lernkurve – die Performance-Kurve – raufgehen. Und man gibt dem Digits und er erratet häufig das richtige. Das ist faszinieren, dass man mit einem relativ einfachen Regelwerk – das Regelwerk beim machine learning ist einfach – und vielen Daten, die man ihm füttert so etwas machen kann. Die Lernregeln sind häufig sehr einfach, mathematisch einfach. Aber sie machen etwas Intelligentes. Das ist unglaublich faszinierend, das mitanzusehen.
Talk Science to Me: Kann man in diesen Lernprozess eigentlich reinschauen?
Peharz: Jein. Erklären oder interpretieren. Also interpretable und explainable machine learning ist, vor allem in den letzten Jahren, extrem angestiegen. Es gibt Lernsysteme, da sagt man, die sind jetzt interpretierbarer, da versteht man besser als Mensch, was die machen und es gibt Lernsysteme, die sind nicht interpretierbar. Also vor allem neuronale Netzwerke. Artificial neural networks sind ein Paradebeispiel dafür. Die machen irgendwie etwas anscheinend Intelligentes, adaptieren die Weights, aber das kann man schwer anschauen und interpretieren. Es wird aber an Techniken gearbeitet, um diese nicht interpretierbaren Systeme interpretieren zu können. Das ist jetzt gerade ein sehr aktuelles Forschungsthema, also Jein.
Talk Science to Me: Gemeinsam mit dem Stefan Spirk, der auch ein Forscher an der TU Graz ist, hast du gerade das Projekt Vanilla Flow gestartet. Worum geht es da?
Peharz: Stefan baut organische Flow-Batterien. Er ist Associate Professor und hat auch ein Start-up, Ecolight. Und seine Vision ist ein Batteriedesign. Normalerweise macht man Batterien kleiner, kompakter, speichereffizienter etc. und unter anderem auch und insbesondere auch mit Materialien, die eigentlich nicht sehr leicht verfügbar sind. Er will sie mehr organic, sustainable machen. Er baut also eher. Die Kompression, kleinere Batterien, sind nicht unbedingt sein Thema. Seine Batterien können ruhig groß sein. Sie dürfen im Industriekomplex herumstehen. Er möchte Batterien bauen mit Sachen, die verfügbar sind – Abfallprodukte aus der Brauerei zum Beispiel, Hefeabfall oder andere ungiftige Stoffe. Der sustainable Gedanke, mehr verfügbare Stoffe, die umweltverträglicher sind, dafür ruhig größere Batterien. Im Part von Roman Kern vom ISDS und Know Center und mir, geht es um einen AI for Science-Aspekt. Die Batterien, die Stefan baut, haben sehr viele Stellschräubchen, also die Substanzen, quasi die Katalytyen, die er verwendet. Diese Katalytyen sind natürlich in der Batterie und die Forschenden bauen aus Zellulose, Papier, quasi Abtrennungen in diese Batterien und da gibt es halt 20, 40, 50, 100 Stellschräubchen, an denen du herumdrehen kannst. Und du willst natürlich die Konfiguration, die dir die beste Batterie liefert. Das heißt hier, sie soll Strom speichern können und soll lang halten, ungiftig sein und diese katalysen sollen synthetisierbar sein aus dem, was man hat. Also Wunschliste: Je nachdem wie du diese batterie und was du da rein fließt aufbaust, ist das anders. Also was macht man jetzt als Wissenschaftler, als Wissenschaftlerin konntest du natürlich versuchen, alle konfigurationen auszuprobieren. Nur wächst das kombinatorisch und sehr schnell und das ist halt nicht sehr effizient. Man versucht jetzt gewisse Kombinationen auszufuchsen und möglichst schnell zu einer optimalen Lösung zukommen. Und das ist schwierig, auch wenn man ein gescheiter Kerl ist wie der Stefan und da Know-how einbringt. Der Gedanke ist, kann das nicht der AI machen, zumindest teilweise? Kann die nicht für uns Konfigurationen automatisch finden? Im Groben und Ganzen geht es darum. Ja, also das ist so dieser AI for Science-Gedanke.
Talk Science to Me: Und auf der anderen Seite geht es bei dir in einem neuen Projekt darum, Daten in DNA zu speichern.
Peharz: Genau, das ist also beide Projekte, die mit dem Stefan und dieses DNA-Speicherprojekt, also das eine ist Vanilla Flow, das andere ist Neo, sind beide gefundet vom EIC, also vom European Innovation Council. Ich hatte da ein bisschen Glück, zwei Projekte zu bekommen, die sehr schwierig zu kriegen sind. Ich war bei drei Submissions dabei, zwei sind aufgegangen. Bei Neo geht es darum, Daten auf DNA zu speichern. Das ist auch die Agenda der EU. Wir produzieren heute sehr viele Daten - von Netflix und so weiter - also Terabytes an Daten jedes Jahr oder Petabytes, ich weiß es nicht. Und wohin damit? Wie speichern wir die? Das ist ein massives Problem auf einer Festplatte. Die wird nach fünf, zehn, zwanzig Jahren kaputt. Das was man meist nicht. Du brauchst imm neue Speichermedien, muss immer neu überspielen. Aber das hält nicht so lange und ist eine wirklich große Challenge, wie man die Daten der Menschheit langfristig sichert ohne, dass man Fußballfelder von Festplatten füllt. Ein großer, vielversprechender Kandidat ist eben die DNA. Wie speichern alle sehr viele Daten in unseren Zellen, also in mini-kleinen DNA-Strings. DNA ist gut haltbar und erlaubt es, sehr komprimiert Daten zu speichern. Das ist aber noch in den Kinderschuhen und sehr weit weg von einer wirklich verwertbaren Technologie. Der Gedanke ist, dass man die Boundery ein bisschen pusht, vor allem auf dem europäischen Level. Es ist also schon ein strategisches Projekt auch. Es ist gemeinsam mit Forschenden vom Imperial College London, die einen neuen Ansatz, eine neue Idee haben. Man braucht computer vision und machine learning dazu, um die Daten wieder auszulesen. Sie machen die Speicherung mit anderen Projektpartnern und quasi das wieder auslesen. Und dafür braucht es clevere machine learning-Technologien. Ich bin gemeinsam mit Thomas Bock vom ICG dabei von der TU Graz.
Talk Science to Me: Auf welche Entwicklungen in deinem Forschungsbereich forsten du dir in den nächsten Jahren besonders?
Peharz: Da gibt es einiges. Was ich sehr spannend finde, ist, dass AI in den letzten zehn Jahren gehypt hat. Das war so ein bisschen der deep learning-Durchbruch. Und was man durchaus sieht, ist der immer ernsthaftere Versuch,
immer weitere Anwendungen mit AI zu lösen. Also, manchmal ist das sinnvoll, manchmal ist auch ein bisschen der Hype-Gedanke dabei. Mich freut es sehr, vor allem die Anwedung. Es ist für mich ein bisschen ein Allrounder. Wir haben ein bisschen die Fortsetzung von der Industrialisierung und Technologisierung vor 100, 200 Jahren. Damals haben wir Maschinen gebaut, die unsere Muskeln abgelöst haben. Da ist viel weitergegangen. Im Guten. Es war aber auch mit Risiken behaftet. AI ist jetzt die Fortsetzung. Statt Muskeln zu ersetzen, wollen wir jetzt unser Hirn, oder zumindest Teile von unserem Hirn ersetzen für müßige Aufgaben. Zum Beispiel AI for Science. AI ist für mich eine Allround-Enabler-Technik, ähnlich dem Internet oder dem Telefon. AI ist ein großes, breites, neues Feld und da sieht man spannende Anwendungen, worauf ich mich freue. Natürlich muss man auch auf die Risiken schauen. Wenn AI sehr weit fortgeschritten ist, gibt es immer noch einige Instabilitäten. Und man muss aufpassen. Es gibt zum Beispiel diesen Skandal, wo man in den USA die großartige Idee hatte, ein großes neuronales Netzwerk auf die Entlassungsantragsdaten zu trianieren. Das sollte super funktionieren, hat aber komplett rassistische Tendenzen übernommen, die in den aufgenommenen Daten präsent waren. Auch gibt es Beispiele von großen, mächtigen neuronalen Netzwerken, die super instabil sind in dem Sinne, dass wenn man manchmal minimale Änderungen im Input macht, sie nicht mehr funktionieren. Quasi ich zeige dir einen Panda, du sagst Panda und das neuronale Netzwerk sagt Panda. Da gibt es Techniken, die minimale Änderungen im subpixel-Bereich machen und auf einmal sagt das Netz, das ist eine Blutorange. Für das Netz schaut das gleich aus und das zeigt, dass man diese adversarial examples nicht gut versteht und es zeigt Instabilitäten auf. Risiken muss man natürlich mitnehmen. Aber es ist aufregend, welche neuen spannenden Anwedungen, die vor ein paar Jahren noch völlig außer Reichweiter waren, plötzlich möglich sind.
Österreich ist derzeit noch auf internationalem und europäischem Level etwas hinten nach. In Amerika, den UK, Kanada und in China geht es rund im den AI-Technologien. Am europäischen Kontingent ist man generell ein bisschen hinten nach. Aber Deutschland ist gut unterwegs, Skandinavien udn die Benelux-Staaten. Und Österreich ist da im Vergleich ein bisschen hinterher. Ich hoffe, und glaube das auch zu merken, dass da langsam etwas anklingt und ich hoffe, dass es sich in den nächsten Jahren besser entwickelt.
Talk Science to Me: Vielen Dank für das Interview.
Peharz: Ja, danke.
Vielen Dank, dass ihr heute dabei wart. In der nächsten Folge ist Roman Kern mein Gast.