Bilddaten spielen in der Krebsforschung eine wichtige Rolle. Ob bei der Fluoreszenzmarkierung von Zellen oder in der Gewebemorphologie, Bilder beinhalten reichhaltige biologische und diagnostische Informationen. Im Gegensatz zu den digitalen Sequenzdaten ist die Extraktion und Quantifizierung relevanter Signaturen aus pixelcodierten Bilddaten jedoch eine anspruchsvolle Aufgabe. Der jüngste Aufstieg des Deep Learning hat neue Ansätze in der Bilddatenanalyse ermöglicht, indem er Algorithmen zu Quantifizierung von Informationen aus visuellen Daten durch maschinelles Lernen anbieten, ohne dass spezielle Verarbeitungsschritte entworfen werden müssen. In diesem Teil des Konsortiums werden die neuen maschinellen Lernmethoden genutzt, um neue Erkenntnisse über die Biologie von dreifach negativem Brustkrebs zu gewinnen, der bisher überwiegend mit Hilfe von DNA- und RNA-Sequenzierung untersucht wird. Es werden Ansätze zur Untersuchung von Bild- und Videodaten in 2D und 3D entwickelt. So werden überwachte Methoden entwickelt, um in Bildern relevante, vom Mensch definierte Signale zu quantifizieren, wie z. B. Zellgröße oder die Konzentration eines fluoreszierend markierten Moleküls. Es werden auch unbeaufsichtigte und teilüberwachte Modelle zum Erlernen der Bilddarstellung eingesetzt, die eine explorative Analyse der Bilddaten auf der Suche nach potenziell unbekannten visuellen Signaturen im Zusammenhang mit den Krankheitsmerkmalen und dem Krankheitsverlauf ermöglichen. Schließlich werden Methoden entwickelt, um die Zelldynamik in Krebsgewebe zu untersuchen. Zusätzlich zur Bildanalyse werden alle bioinformatischen Sequenzanalysen durchgeführt und die verschiedenen experimentellen Modalitäten in eine umfassende systembiologische Datenanalysepipeline integriert.