Ein Paper des Forschungsteams von TRUST-RAD, in Zusammenarbeit mit der Medical Data Science Group der ETH Zürich und unterstützt durch die Recheninfrastruktur der Swiss AI Initiative sowie des Swiss National Supercomputing Centre (CSCS) im Rahmen des Projekts mit der ID a02 auf dem Supercomputer Alps, wurde für den ICML 2025 Workshop on Multi-modal Foundation Models and Large Language Models for Life Sciences angenommen.
Vorgestellt wird eine Methode, mit der KI-Systeme aus medizinischen Bilddaten robuste und aussagekräftige Repräsentationen lernen können. Anstatt auf grosse, aufwendig beschriftete Datensätze angewiesen zu sein, nutzt das Modell die vorhandene Struktur der Daten: Es verarbeitet Frontal- und Seitenansichten als zusammengehörige Bildpaare und lernt daraus, wichtige Informationen zu erkennen, ganz ohne Text- oder Labeldaten.
So entsteht ein Ansatz, der besonders gut für klinische Anwendungen geeignet ist: anpassbar und auch unter realen Bedingungen mit begrenzter Datenverfügbarkeit einsetzbar.