Argumente abwägen, logische Schlüsse ziehen und daraus eine eindeutig richtige Antwort ableiten – solche Aufgaben stellen künstliche Intelligenz bislang vor einige Hürden. Einen logisch korrekten Schluss zu berechnen, führt gängige Algorithmen bei komplexen Fragestellungen schnell an mathematische und rechnerische Grenzen.
Ein Team um Johannes P. Wallner vom Institute of Software Engineering and Artificial Intelligence der TU Graz hat nun einen Weg gefunden, den komplexen Vorgang des argumentativen Schließens in effizientere mathematische Formeln zu übersetzen und diese mit etablierten Lösungssystemen zu verknüpfen. Das ermöglicht exakte Berechnungen in Millisekunden. Die Zuverlässigkeit der Methode hat das Team in Zusammenarbeit mit der niederländischen Polizei anhand eines Tools zur Betrugsaufnahme erfolgreich getestet.
Unterschied zu Large Language Models
„Im Vergleich zu Large Language Models wie ChatGPT, die Texte auf Basis statistischer Wahrscheinlichkeiten und großer Mengen an Trainingsdaten erzeugen, können exakte logische Schlüsse aus mathematischer Sicht schnell an Berechenbarkeitsgrenzen gelangen“, sagt Johannes P. Wallner. „Hier muss das Ergebnis zwingend aus den für das jeweilige Problem angegebenen Daten erfolgen, und das System muss garantiert die richtige bzw. die beste Antwort innerhalb des definierten Rahmens liefern. Große Datenmengen sind hierbei ein Problem, da die Rechenintensität dadurch exponentiell ansteigt.“
Um diese Hürde zu überwinden, fokussierte sich das Team auf die mathematische Modellierung der logischen Fragestellungen und entwickelte präzise logische Formeln, mit denen das KI-System eigenständig zur optimalen Lösung findet.
Online-Betrug als Anwendungsfall
Im Rahmen der Zusammenarbeit mit der niederländischen Polizei galt es, die Problemstellungen bei der Betrugsaufnahme in kompakte Formeln zu übersetzen. Die Forschenden mussten den mathematischen Beweis erbringen, dass die Formeln korrekt die Argumentation für oder wider Betrug bei den eingegebenen Daten widerspiegeln. Das Ziel war es, auf Basis der vorhandenen Daten- bzw. Beweislage vom Computer die Antwort zu bekommen, ob es sich bei einem Fall um Betrug im Internet handeln könnte oder nicht. Es ging dabei etwa um Menschen, die über eine Website ein Produkt gekauft hatten und nichts erhielten. Angesichts der seit der Bestellung verstrichenen Zeit, der Webshop-URL und weiteren Informationen sollte das System den Fall beurteilen.
Schnell genug für praktische Anwendungen
Obwohl es sich primär um Grundlagenforschung handelt, orten die Forschenden zahlreiche weitere Einsatzmöglichkeiten, in denen komplexe Entscheidungen auf Basis logischer Argumente getroffen werden. Eine aktuelle Herausforderung ist noch die Dateneingabe, da diese sehr präzise erfolgen muss, damit das System sie verarbeiten kann. Wallners Team will Verbindungen mit Large Language Models untersuchen: Diese könnten Eingaben in natürlicher Sprache entgegennehmen und automatisch in eine für die logische Verarbeitung geeignete Form übersetzen.
Johannes P. WALLNER
Assoc.Prof. Dipl.-Ing. Dr.techn. BSc.
TU Graz | Institute of Software Engineering and Artificial Intelligence
Tel.: +43 316 873 5718
johannes.p.wallner@tugraz.at

