TU Graz/ Forschung/ Fields of Expertise/ Wissenschaftstag TU Graz – Science for Future/


Session 1: GraML – Graz Center for Machine Learning

Zeit: 13 bis 14:00 Uhr
Ort: Hörsaal I, Tiefgeschoß
Inhalt: 4 Vorträge
Sprache: Englisch
Host: Robert Legenstein, Institut für Grundlagen der Informationsverarbeitung der TU Graz, Field of Expertise: Information, Communication & Computing

Machine learning is considered the technological tool of the future and, according to head of the research center Robert Legenstein, will "change the world as much as the internet or computers did". In order to promote these developments, TU Graz founded the Graz Center for Machine Learning (GraML) research network, which conducts research on brain-inspired systems, probability in machine learning and automatic recommendation systems, among other things. In this session, the research center and the spectrum of machine learning research at TU Graz will be presented.

The Graz Center for Machine Learning

Robert Legenstein, Institut für für Grundlagen der Informationsverarbeitung

The recently established Graz Center for Machine Learning (GraML) research network brings together researchers in machine learning from across TU Graz. It covers a broad spectrum of topics from basic research to application and bridges the gap to other disciplines. This talk looks at the vision, mission and focuses of the new research centre.

Robots in the Wild

Gerald Steinbauer-Wagner, Institut für Softwaretechnologie

When robots are deployed in complex, unstructured environments, such as disaster sites or offroad areas, various challenges arise regarding the robots’ perceptual and operating skills. Machine learning can help to address these challenges. In this talk we will discuss examples of deployment scenarios. We also highlight areas where machine learning is already helping or could help in the future.

Bilevel Optimisation for Computer Vision

Thomas Pock, Institute of Computer Graphics and Vision

Many problems in computer vision can be described as minimising a variational model, which usually comprises the sum of a data fidelity term and a regularisation term. For many years, hand crafted regularisation terms were used, but over time they reached their limits. Following the recent trend of data-driven models, learning better regularisation terms is a fruitful idea. Combining the variational model with a loss function for supervised learning naturally leads to a two-stage optimisation problem, called bilevel optimisation. This talk discusses bilevel learning approaches and present algorithms for computing solutions.

Machine Learning and Data Science

Roman Kern, Institute of Interactive Systems and Data Science

Data has become ubiquitous. Deriving insights and benefits directly from data is the task of data science. This requires interdisciplinary knowledge and skills, including data management, statistics, software development, and machine learning. Here, machine learning is commonly used to model available data and make predictions. Crucially, in order for these models and their predictions to be valid, a number of key challenges need to be addressed, which are often not discussed or made explicit.

Session 2: Machine Learning for Safer and more efficient Tunneling

Zeit: 14:15 bis 15:00 Uhr
Ort: Hörsaal I, Tiefgeschoß
Inhalt: 3 Vorträge
Sprache: Englisch
Host: Alla Sapronova, Institut für Felsmechanik und Tunnelbau der TU Graz, Field of Expertise: Information, Communication & Computing

Big Data is the art of extracting meaningful correlations from large data sets and making predictions based on them. But what happens if these data sets are incomplete or sparse? This is a problem that engineering geologists and geotechnical engineers like to face. At Graz University of Technology, for example, the Machine Learning in Geotechnics working group is researching how to use self-learning systems to meaningfully expand the often incomplete geodata sets and thus be able to predict rare events such as construction failures. The researchers from the working group will present this and other research approaches related to machine learning and big data in the session.

Machine Learning-Assisted Rare Event Detection

Alla Sapronova, Institut für Felsmechanik und Tunnelbau

Datasets obtained in civil engineering and geotechnics are often sparse and imbalanced when it comes to detecting rare events. Such events, like construction faults or rock mass slides, require accurate predictions, so datasets need special pre-processing before machine learning methods are applied. Several techniques can help to improve the accuracy of machine learning methods for detecting rare events: from reducing data dimensionality to rebalancing. Adequate selection of validation metrics is another critical factor in obtaining robust and reliable results from machine learning models.

Reinforcement Learning (RL)-Based Process Optimisation and Strategy Development in Tunnelling

Georg Erharter, Institut für Felsmechanik und Tunnelbau

This presentation shows an application of reinforcement learning (RL) in geoengineering. The process of an agent learning via interaction with its environment is similar to a geo-technician trying to achieve a breakthrough by optimally excavating a rock mass. The RL-based strategy optimisation framework for conventional tunnelling will be demonstrated: in a developed virtual environment with a specially designed reward system, a deep Q-network (the learning agent) selects different excavation sequences to optimise an economical and safe construction method.

GANs for Synthetic Geotechnical Data Generation

Paul Unterlaß, Institut für Felsmechanik und Tunnelbau

Implementation of a Generative Adversarial Network (GAN) with the goal to generate new, unique synthetic and realistic tunnel boring machine (TBM) data based on a real world TBM dataset. GANs take up a game theoretic scenario in which two neural networks compete against each other. The generator network directly produces samples from random noise input variables, its adversary, the discriminator attempts to distinguish between samples taken from the training data and samples from the generator. Once trained, with this model enables unlimited amounts of synthetic data to be generated and made available to other engineers on an open-access basis, allowing for development, training and benchmarking of specific machine learning (ML) models for geoengineering tasks. Synthetic data can also be generated for underrepresented classes, helping to solve the problem of imbalance and sparseness in geodata, which in turn enables and enhances the application of a wider range of ML algorithms.

Session 3: Sehende und darstellende Computer als Werkzeug der Industrie

Zeit: 13 bis 14:30 Uhr
Ort: Hörsaal XII, Erdgeschoß
Inhalt: 4 Vorträge
Sprache: Deutsch
Host: Tobias Schreck, Institut für Computer Graphik und Wissensvisualisierung der TU Graz, Field of Expertise: Information, Communication & Computing

Visual Computing macht es unter anderem möglich, bestimmte Inhalte in Bildern und Videos zu erkennen, zu vermessen und zu bewerten – nützlich ist das etwa in der Qualitätskontrolle, im Bereich autonomes Fahren oder bei sicherheitsbezogenen Anwendungen. Darüber hinaus bietet Visual Computing die Möglichkeit, mittels übersichtlicher Visualisierungen Zusammenhänge und Muster aus Datenmengen grafisch aufzubereiten und nutzbar zu machen. Forschende der TU Graz zeigen in dieser Session, wie Visual Computing etwa in Drohnen eingesetzt wird, zur Bewertung von Renaturierungsmaßnahmen oder in der optischen Qualitätskontrolle in der Halbleiterindustrie.

Automatisierte Lagerchecks mit Drohnen

Friedrich Fraundorfer, Institut für Maschinelles Sehen und Darstellen

Inventuren und Lagerchecks sind unabdingbare Aufgaben der Warenwirtschaft, mit einem hohen Personalaufwand verbunden und damit ein bedeutender Kostenfaktor in Unternehmen. Könnten diese Aufgaben automatisiert durchgeführt werden, würden zum einen Kosten minimiert, aber auch Fehler vermieden. Eine Möglichkeit ist, diese Aufgaben von robotischen Systemen, wie mit Kameras und KI-Algorithmen ausgestatteten Drohnen, übernommen werden. KI-Algorithmen, die die gesammelten Bilddaten automatisiert auswerten, spielen hier eine große Rolle.

Computeraugen werden nicht müde

Eva Eggeling, Institut für Computergraphik und Wissensvisualisierung

Qualitätskontrolle ist im industriellen Kontext unverzichtbar: Unternehmen können am Markt nur mit qualitativ hochwertigen Produkten nachhaltig bestehen.

Qualitätsmanagement beginnt nicht erst bei der Endmontage. Ein kritischer Blick ist in allen Phasen des Produktlebenszyklus wichtig. Diesen kritischen Blick kann insbesondere Künstliche Intelligenz auf die Produkte werfen, denn Computeraugen werden niemals müde.

Immersive Analytics of Digital Twins

Eduardo Veas and Neven El Sayed, Institute of Interactive Systems and Data Science and Know-Center

In industrial settings, complex cyber-physical systems with networks of sensors and computational cores monitor and control real-world entities. Their digital footprint is collected in digital twins. However, current interaction and analytics methods for digital twins cannot relate to the physical context, and remote users have a restricted sense of space. This talk looks at immersive analytics using virtual and augmented reality as a means to understand and interact with physical objects that also have a digital presence, including the latest data representations that are driving the introduction of situated analytics tools which enable observation and interaction with data and physical objects in a common coherent space.

Visuelle Analyse von Produktionsdaten

Tobias Schreck, Institut für Computergraphik und Wissensvisualisierung

Sensoren in modernen Produktionsprozessen erzeugen immer größere Datenmengen, die unter anderem zur Steuerung, Überwachung und Beschreibung der Prozesse dienen. Mit visuellen Datenanalysemethoden können diese Daten interaktiv untersucht werden, Zusammenhänge erkannt und auch unerwartete, neue Sachverhalte aufgespürt werden. Im Vortrag werden aktuelle Ansätze aus der Forschung im Bereich interaktive Visualisierung zur Erkennung von Anomalien in Messdaten, die Erkennung von Einflussfaktoren auf die Produktionsqualität und die Expertenannotation von Prüfstandsdaten für die Fehlerklassifizierung vorgestellt.

Session 4: Answering new research questions with (decade-)old data

Zeit: 13 bis 14:30 Uhr
Ort: Hörsaal V, 1. Stock
Inhalt: 2 Vorträge
Sprache: Englisch
Host: Matthias Schweitzer, Institut für Umweltbiotechnologie der TU Graz, Field of Expertise: Human & Biotechnology

Sequences of microbial DNA and RNA from different hosts and environments make analyses from a wide variety of perspectives possible and can still answer new research questions years later - as long as the sequences have been digitised together with all metadata and in a form that is accessible and comprehensible. Understandably, big data management is a central topic in microbiome research. Researchers from TU Graz give an insight into their data management and talk about the possibilities of digitised teaching in the field of microbiome research.

Data Management in Microbiome Research

Tomislav Cernava, Institut für Umweltbiotechnologie

Microbiome research depends largely on big data management. After sequencing, microbial DNA and RNA from different hosts and environments provide a basis that can be analysed from widely differing perspectives. Years later, these sequences can still be used to answer research questions – which might not have been considered possible when the sequences were produced. The key to this is digitalising sequences together with all metadata in a form that is accessible and transparent for later analysis.

The "Microbiome and Health" Excellence MOOC

Matthias Schweitzer, Institut für Umweltbiotechnologie

An interconnected, digitalised world enables novel ways of teaching and disseminating research findings. To make use of this potential, we created the “Microbiome and Health” Excellence MOOC. The content is fundamental for our students but also understandable for the public. This open educational resource is freely accessible and can be shared with everyone, so it is ideally suited to reaching the widest possible audience. Together with the Institute of Interactive Systems and Data Science, we are also currently developing a game that helps players to understand how everyday decisions affect their microbiome and health. 

Session 5: Digitalisierung und Künstliche Intelligenz in den Materialwissenschaften

Zeit: 13 bis 14:30 Uhr
Ort: Aula, 1. Stock
Inhalt: 3 Vorträge
Sprache: Deutsch und Englisch
Host: Christof Sommitsch, Institut für Werkstoffkunde, Fügetechnik und Umformtechnik, Field of Expertise: Advanced Materials Science

Die Digitalisierung ist mitten in den Materialwissenschaften angekommen: Mehr und mehr werden in der Entwicklung und Verarbeitung von Werkstoffen, in der Komponentenauslegung und in der Betriebssimulation moderne Methoden der Modellierung und Simulation mittels Künstlicher Intelligenz verwendet. Verfolgt werden damit vorrangig zwei Ziele: die Modelloptimierung, um Modellparameter anzupassen, und die Prozessoptimierung zur Realisierung vorgegebener Werkstoff- und Bauteileigenschaften. Zudem ist für eine möglichst realitätsnahe Betriebssimulation und Lebensdauerabschätzung wichtig, die Materialhistorie lokal aufgelöst bereits in der Simulationsaufgabe zu berücksichtigen.

Ensemble Methods to Optimise Hybrid Structures Produced by AddJoining

Pedro Effertz, Institut für Werkstoffkunde, Fügetechnik und Umformtechnik

To date, little research has been conducted on the combination of additive manufacturing (AM) techniques to produce polymer-metal hybrids.

Our work focuses on using AM itself as the joining technology, as opposed to conventional methods such as fastening and adhesive bonding. Known as AddJoining and built on fused-filament fabrication (FFF) principles, our approach manufactures parts directly on metallic substrates, removing the need for the joining step.

The objective is to evaluate the influence of as-printed surface roughness and subsequent FFF parameters on the strength of Ti-6Al-4V/PA-CF joints produced using AddJoining.

Parameterisation Strategies for Physically-Based Models in Thermomechanical Alloy Processing

Esmaeil Shahryari, Institut für Werkstoffkunde, Fügetechnik und Umformtechnik

Microstructure control during thermo-mechanical processing creates the desired mechanical properties of alloys, so physically-based models are needed to predict microstructure evolution as a function of deformation conditions and material parameters.

Such models have certain parameters that need to be adjusted, and automatic, criteria-based model parameterisation is vital in order to optimise the accuracy of the model without losing physical understanding. Here, the differential evolution strategy and the Levenberg-Marquart method were applied to identify the model parameters for a dislocation-based model for hot forming and implemented for a Ti-17 titanium alloy.

Digitale Methoden in der Auslegung von Komponenten im Schienenfahrzeugbau

Tobias Pertoll und Julian Torggler, Institut für Betriebsfestigkeit und Schienenfahrzeugtechnik

An die Entwicklung moderner Fahrwerke von Schienenfahrzeugen werden zunehmend hohe Ansprüche gestellt. Dazu zählen die Massenreduktion mit einhergehender Steigerung der Energieeffizienz, die Verlängerung der Bauteillebensdauer, die Reduktion der Instandhaltungskosten sowie die Verlängerung von Wartungsintervallen.

Die Kombination von modernen Simulationsmethoden mit realitätsgetreuen Werkstoffeigenschaften leistet einen wesentlichen Beitrag, um diesen Anforderungen gerecht zu werden. Das Bauteilverhalten im Betrieb kann digital abgebildet und hinsichtlich der Bauteillebensdauer optimiert werden. Am Beispiel zweier wesentlicher Komponenten, Luftfeder und Radsatzwelle, werden neueste Entwicklungen im Bereich der Schienenfahrzeugtechnik vorgestellt.

Session 6: Mit Daten und Vernetzung in die Zukunft von Mobilität und Produktion

Zeit: 13 bis 14:30 Uhr
Ort: HS VI, Erdgeschoß
Inhalt: 6 Vorträge
Sprache: Deutsch und Englisch
Host: Rudolf Pichler, Institut für Fertigungstechnik, Field of Expertise: Mobility & Production

Die Vortragsreihe umfasst aktuelle Forschungsthemen, in denen mit Methoden der Digitalisierung noch leistungsfähigere Lösungen für Mobilitätskonzepte entwickelt werden, mit einem starken Fokus auf den Bereich Sicherheit. Auch die Produktion – inklusive der Intralogistik - sieht sich im starken Wandel: Hier führt die Digitalisierung insbesondere zu einer Verbesserung der Planungsinstrumente. Grundlage für all diese Bestrebungen sind einmal mehr Daten, deren Gewinnung, Verarbeitung und Interpretation. 

Digitalisierung in der Produktion – Schwerpunkt Elektromobilität

Franz Haas, Institut für Fertigungstechnik

Digitalisierung und Dekarbonisierung sind die großen Treiber in der Umgestaltung unserer Produktionen. Die Elektromobilität zwingt die Automobilindustrie zu großen Veränderungen und fordert neue Standorte für die Erzeugung von Systemen für Batterien und Brennstoffzellen.

Das „Battery Innovation Center“ der AVL ist ein Leuchtturmprojekt für die agile Fertigung von so genannten „Battery-Packs“ auch für Kleinserien und Prototypen. Das Institut für Fertigungstechnik (IFT) hat maßgeblich dazu beigetragen, die Vielfalt an Zelltypen (zylindrische, prismatische oder Pouch-Zellen) für die Handlings- und Fügeoperationen zu beherrschen. Flexible Robotergreifer wurden entwickelt und in einer eigenen Pilotlinie getestet. Dabei waren anpassbare Ablaufsteuerungen und modulare Vorrichtungen unerlässlich. Das Projekt wurde mit dem Innovationspreis des Landes Steiermark ausgezeichnet.

Müdigkeit am Steuer präzise und prädiktiv erkennen: Das Forschungsprojekt WACHsens

Arno Eichberger, Institut für Fahrzeugtechnik

Müdigkeit ist ein weit unterschätzter Faktor in der Verkehrssicherheit, weil ihr Anteil an der Unfallverursachung schwer nachweisbar ist. Auch beim Thema Fahrerassistenz und automatisiertes Fahren ist die Erkennung von Müdigkeit technisch ungemein schwierig. Im Projekt WACHsens ist dies gelungen – auf Basis umfangreicher Messungen im Fahrsimulator der TU Graz mit 92 freiwilligen Versuchspersonen. Mit Machine und Deep Learning Methoden wurden Algorithmen entwickelt, die nicht nur zuverlässig Müdigkeit erkennen, sondern sich auch robust bei Ausfall einzelner Sensoren verhalten. Zusätzlich ist es möglich, Müdigkeit in einem so frühen Stadium zu erkennen, dass das Einleiten von Gegenmaßnahmen auf Seiten des Fahrzeugs noch möglich ist.

Data-Driven Models for Value-Added Engine Components

Sven Warter, LEC – Large Engines Competence Center

Meeting challenges such as climate change, pollution and resource scarcity will involve slashing greenhouse gas and pollutant emissions and enhancing the efficiency and durability of machinery. Digital technologies, and artificial intelligence methods in particular, are opening up new avenues in areas such as control engineering, condition monitoring and predictive maintenance. The Large Engines Competence Center (LEC) at TU Graz is investigating how a fuel injection valve with novel instrumentation can be combined with a real-time-capable, data-driven model to detect and compensate for wear phenomena and avoid performance losses and engine damage.

Szenarien für eine effiziente Sicherheitsvalidierung des automatisierten Fahrens

Demin Nalic, Institut für Fahrzeugtechnik

Automatisiertes Fahren ist ein Megatrend in der Automobiltechnik, motiviert durch Fahrzeugsicherheit, Fahrkomfort, Einbeziehung älterer und behinderter Menschen in die Mobilität, Energieeffizienz und neue Formen der Mobilität. Trotz weltweit erfolgreicher Demonstrationen, wie fahrerlose Taxidienste, sind noch keine marktreifen Produkte für eine höhere Automatisierung verfügbar.

Ein wichtiger Grund dafür ist das Fehlen von standardisierten Verfahren für die Sicherheitsbewertung und die Typzulassung. Die Definition von Szenarien für die Sicherheitsbewertung ist heute eines der wichtigsten Forschungsgebiete. Wir stellen in diesem Vortrag eine neue Möglichkeit vor, die auf der stochastischen Generierung von Testfällen unter Verwendung der Verkehrsflusssimulation basiert. Diese Methode trägt innovativ zu einer effizienten Prüfung des automatisierten Fahrens bei.

Planungsunterstützung in der Intralogistik durch Knowledge-based Engineering

Alexander Ortner-Pichler, Institut für Technische Logistik

Steigende Umsätze, Sendungszahlen und Investments in Logistikimmobilien sind Indikatoren der wachsenden Logistikbranche. Getrieben durch den Boom der letzten Jahre im Bereich des E-Commerce, zeigt sich vor allem die Intralogistik (vereinfacht gesagt die Organisation, Steuerung, Durchführung und Optimierung des innerbetrieblichen Materialflusses) als Nutznießer dieser Entwicklung. Doch dieses Wachstum geht Hand in Hand mit einem stärker werdenden Konkurrenzdruck und der dadurch entstehenden Notwendigkeit, bestehende Prozesse effizienter zu gestalten.

Die Nutzung von Methoden des Knowledge-based Engineerings (KBE) kann durch eine teilautomatisierte Unterstützung die Effizienz der Planungsprozesse steigern und die Komplexität sowie Fehleranfälligkeit der Prozesse reduzieren. Alexander Ortner-Pichler zeigt hierzu die Entwicklung einer neuen KBE Methode, welche die spezifischen Randbedingungen der Intralogistik adressiert und das Wissen aus bestehenden 3D-CAD in den Planungsprozess integriert.

Die Rolle von KI in der Funktions-modellierung mechatronischer Systeme

Matthias Bajzek, Institut für Maschinenelemente und Entwicklungsmethodik

Deskriptive Funktionen spielen in der Entwicklung komplexer technischer Systeme eine wesentliche Rolle. Sie sind sowohl Startpunkt als auch Endpunkt der Entwicklung und dienen als Kommunikationsbasis mit den Kunden und den Entwicklungsteams. Auch während der Entwicklung nehmen deskriptive Funktionen eine wesentliche Rolle ein, und sind in alle Phasen des Entwicklungsprozesses präsent.

Gerade im Automotive Sektor sind durch Themen wie Elektrifizierung etliche neue Funktionen in die Fahrzeuge zu integrieren und zu testen, um beispielsweise CO2 Ziele erreichen zu können. Allerdings sind deskriptive Funktionen in der Entwicklung schwer zu formulieren und können mehrfach interpretiert werden. Diese und noch weitere Herausforderungen werden in diesem Vortrag erläutert und hinsichtlich verschiedener Lösungsansätze unter Verwendung künstlicher Intelligenz diskutiert.

Session 7: Digital Twins in Sustainable Systems

Zeit: 13:00 bis 14:30 Uhr
Ort: Seminarraum 104, 1. Stock
Inhalt: 3 Vorträge
Sprache: Englisch
Host: Martin Fellendorf, Institut für Straßen- und Verkehrswesen, Field of Expertise: Sustainable Systems

In various fields, digital twins are seen as the most advanced way to plan and manage complex processes and systems. Digital twins are virtual, real-time counterparts of physical objects or processes that can perform simulations as well as monitoring and optimising performance. This makes them extremely useful in improving resource efficiency and sustainability. Their design and implementation vary widely across different industries. This session gives an insight into the use of digital twins in electrical engineering, architecture and construction, and traffic planning.

Digital Twins in Sustainable Systems

Sonja Wogrin, Institut für Elektrizitätswirtschaft und Energieinnovation

This talk gives an overview of the broad spectrum of scientific research that combines digitisation and electrical engineering. This ranges from digital twins of satellites and high-voltage cables, all the way through to a digital twin of the entire European electricity system.

Architecture Information Modelling

Urs Hirschberg und Carlos Marchi, Institut für Architektur und Medien

In the current age of digitality, parametric design and building information modelling ( BIM) are reshaping the architecture, engineering and construction (AEC) industry. In this presentation we describe the opportunities created by digital twins for architecture and construction, and some of the problems associated with using these digital tools. We will present architecture information modelling (AIM) as a vision that can guide the use of digital technology in the ongoing transformation of the building industry, and show how integrating contextual and environmental data can promote novel architectural approaches.

Data Science in Mobility

Martin Fellendorf, Institut für Straßen- und Verkehrswesen

Knowledge of mobility patterns (travel from A to B by certain means of transport) is important for transport infrastructure investments. In the past, empirical data on mobility patterns was gathered solely using labour-intensive travel surveys. Nowadays passive data collection methods such as GPS tracking and mobile phone records provide vast amounts of data. Although this data covers much larger sample sizes than surveys, it delivers less detail. Machine learning methods will be presented that enrich datasets in order to provide origin-destination information for planning activities worldwide, using Vienna and Graz as examples.