VB

Prof. Dr. Vasileios Belagiannis

Professur für Maschinelles Lernen in der Signalverarbeitung

Professorinnen und Professoren

Adresse

Cauerstraße 7-9 91058 Erlangen

Vasileios Belagiannis ist Professor an der Technischen Fakultät der Friedrich-Alexander-Universität Erlangen-Nürnberg. Er hat einen Abschluss in Ingenieurwissenschaften (Griechenland, 2009) von der Demokritus-Universität von Thrakien, Engineering School of Xanthi und einen M.Sc. in Computational Science and Engineering von der TU München (Deutschland, 2011). Er schloss sein Promotionsstudium an der TU München (2015) ab und arbeitete danach als Post-Doc an der University of Oxford (Visual Geometry Group). Vor seiner Tätigkeit an der Friedrich-Alexander-Universität Erlangen-Nürnberg war er in der Industrie bei OSRAM, an der Universität Ulm und der Otto-von-Guericke-Universität Magdeburg tätig.

Eine aktualisierte Liste der Veröffentlichungen findet sich auf Google Scholar.

Ich bin immer auf der Suche nach hoch motivierten Studierenden, die promovieren möchten.

Aktuelle Neuigkeiten:

Prof. Belagiannis leitet die Machine Learning & Perception (MLP) Gruppe. Die MLP Gruppe konzentriert sich auf maschinelles Lernen, insbesondere Deep Learning, sowohl in der Grundlagenforschung als auch in der angewandten Forschung. Zu den aktuellen Forschungsarbeiten gehören generative Modelle, die Erkennung von Anomalien, die Schätzung von Unsicherheiten, die Erkennung von Verteilungsfehlern, das Lernen mit wenigen Schüssen, das Lernen von verrauschten Etiketten und das hardwarenahe maschinelle Lernen wie die Modellkompression und die Suche nach neuronalen Architekturen. Die Anwendungen umfassen automatisiertes Fahren, Computer Vision und medizinische Bildanalyse sowie Signalverarbeitung und Robotik. 

Amir El-Ghoussani, M.Sc.

Zimmer: Zimmer 02.026

Michele De Vita, M.Sc.

Zimmer: Zimmer 02.026

Marc Hölle, M.Sc.

Zimmer: Zimmer 02.026

Rohan Asthana, M.Sc.

Zimmer: Zimmer 02.026

2026

2025

2024

2023

2022

2021

2020

2019

2018

2017

  • , :
    Recurrent Human Pose Estimation
    12th IEEE International Conference on Automatic Face and Gesture Recognition, FG 2017 (Washington, DC, 30. Mai 2017 - 3. Juni 2017)
    In: Proceedings - 12th IEEE International Conference on Automatic Face and Gesture Recognition, FG 2017 - 1st International Workshop on Adaptive Shot Learning for Gesture Understanding and Production, ASL4GUP 2017, Biometrics in the Wild, Bwild 2017, Heterogeneous Face Recognition, HFR 2017, Joint Challenge on Dominant and Complementary Emotion Recognition Using Micro Emotion Features and Head-Pose Estimation, DCER and HPE 2017 and 3rd Facial Expression Recognition and Analysis Challenge, FERA 2017
    DOI: 10.1109/FG.2017.64
    BibTeX: Download
  • , , , , , , , :
    Preface DLMIA 2017
    In: Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support - 3rd International Workshop, DLMIA 2017 and 7th International Workshop, ML-CDS 2017 Held in Conjunction with MICCAI 2017, Proceedings, Springer Verlag, (Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), Vol.10553 LNCS)
    BibTeX: Download

2016

2015

2014

2012

2009

  • , , , , , :
    The vision system of the ACROBOTER project
    2nd International Conference on Intelligent Robotics and Applications, ICIRA 2009 (SGP, 16. Dezember 2009 - 18. Dezember 2009)
    In: Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)
    DOI: 10.1007/978-3-642-10817-4_94
    BibTeX: Download

  • Unterbeauftragung in Rahmen des ÖGP NXT GEN AI METHODS – Generative Methoden für Perzeption, Prädiktion und Planung (NXTAIM)


    (Drittmittelfinanzierte Einzelförderung)
    Project leader:
    Term: 1. Januar 2026 - 31. Dezember 2026
    Acronym: ÖGP NXT GEN AI METHODS
    Funding source: Industrie
    URL: https://nxtaim.de/en/home/

    Das Ziel dieses Projekts ist die Entwicklung selbstspielender Multi-Agenten-Simulatoren auf Basis von GPUDrive. In diesem Zusammenhang werden wir Strategien zur Trajektorienplanung entwickeln, wobei der Schwerpunkt auf effizientem Training und Optimierung liegt. Diese Strategien werden anschließend in automatisierten Fahrszenarien getestet. 

  • Bavarian Advanced Resolution Radar


    (Drittmittelfinanzierte Gruppenförderung – Teilprojekt)
    Overall project: Bavarian Advanced Resolution Radar
    Project leader:
    Term: 1. Februar 2025 - 31. Januar 2028
    Acronym: BAVAR-RADAR
    Funding source: Bayerisches Staatsministerium für Wirtschaft, Landesentwicklung und Energie (StMWi) (seit 2018)
  • SUSTAINET-inNOvAte:Sustainable Technologies for Advanced Resilient and Energy-Efficient Networks - Frictionless, secure, and resilient communication networks for the dynamic digital world


    (Drittmittelfinanzierte Gruppenförderung – Teilprojekt)
    Overall project: Sustainable Technologies for Advanced Resilient and Energy-Efficient Networks - Frictionless, secure, and resilient communication networks for the dynamic digital world
    Project leader:
    Term: 1. Januar 2025 - 31. Dezember 2027
    Acronym: SUSTAINET-inNOvAte
    Funding source: BMFTR / Verbundprojekt
  • Unterbeauftragung in Rahmen des ÖGP NXT-AIM Generative Modellierung


    (Drittmittelfinanzierte Einzelförderung)
    Project leader:
    Term: 1. Januar 2024 - 31. Dezember 2026
    Acronym: Unterbeauftragung ÖGP NXT-AIM
    Funding source: Industrie
    URL: https://nxtaim.de/en/home/

    Bei dem Projekt geht es um die Behandlung von zwei Aspekten der generativen Modellierung. Erstens haben generative Modelle, insbesondere Fundamentalmodelle, im Bild-, Text- und Audiobereich einen bedeutenden Beitrag geleistet. Für sequenzielle und unstrukturierte Daten, wie z. B. Automobildaten, sind sie dagegen noch nicht gut erforscht. Zweitens ist die Interpretierbarkeit der latenten Raumrepräsentation in generativen Modellen nicht gegeben. Diese ist jedoch mit der vorhergesagten oder generierten Ausgabe verbunden. Dieses Projekt soll generative Modelle für die Trajektorienplanung durch die Integration von Robustheitsmaßen erforschen. 

  • Leistungseffiziente tiefe neuronale Netze basierend auf Co-Optimierung mit mixed-signal integrierten Schaltungen


    (Drittmittelfinanzierte Einzelförderung)
    Project leader:
    Term: 1. März 2023 - 28. Februar 2026
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)
    EdgeAI ist das verteilte Rechenparadigma für die Ausführung von Algorithmen für maschinelles Lernen Nahe am Sensor. Im Vergleich zu zentralisierten, z.B. cloud-basierten Lösungen, werden Datensicherheit, geringe Latenz und Bandbreitenreduktion erreicht. Gleichzeitig gibt es das große Problem, dass der Leistungsverbrauch heutiger, tiefer neuronaler Netze für maschinelles Lernen für solche Anwendungen viel zu groß ist. Moderne Netzwerkarchitekturen sind komplex und stellen hohe Anforderungen an die Rechenressourcen. Folglich ist die Ausführung tiefer neuronaler Netzwerke auf Edge-Geräten nicht Stand der Technik. Um dieses Problem anzugehen, müssen die Netzwerkarchitekturen unter Berücksichtigung der Speicher-, Gleitkommaoperationen und Parameterdiskretisierungsfaktoren neu entworfen werden. Dieser Prozess wird als neuronale Netzwerkkomprimierung bezeichnet. Außerdem muss die ausführende Hardware dem angepasst werden, um einen effizienten Betrieb des neuronalen Netzwerks zu gewährleisten. Insbesondere können spezielle Beschleunigerschaltungen auf Basis integrierter Schaltungen Lösungen in Bezug auf die Speicherhierarchie bereitstellen und eine Rechenschaltung mit anpassbarer Präzision bei mittlerer Genauigkeit nutzen, um den Stromverbrauch massiv zu senken. Dieses Projekt zielt darauf ab, neue Mixed-Signal-Schaltungen und -Architekturen mit einer zur Laufzeit einstellbaren Rechengenauigkeit sowie den Entwurf und das Training eines Hardware-angepassten neuronalen Netzwerks mit Hybridgenauigkeit auf dieser Hardware zu erforschen. Im Kontext der benutzerdefinierten Hardware wird die Komprimierung neuronaler Netzwerke als Co-Design- und Co-Training-Aufgabe untersucht, bei der die Hardware Teil der Optimierung ist.

  • Transfer von tiefen neuronalen Netzen von der Simulation in die reale Welt


    (Drittmittelfinanzierte Einzelförderung)
    Project leader:
    Term: 1. Dezember 2022 - 30. November 2025
    Funding source: DFG-Einzelförderung / Sachbeihilfe (EIN-SBH)

    Computer Vision stellt heute einen wichtigen Teil der visuellen Vorverarbeitung dar. Dabei kann Computer Vision entweder als eigenes Aufgabenfeld oder als Modul verstanden werden, welches seine Ergebnisse als Input an ein darauf aufbauendes System weitergibt. Im Kontext des automatisierten Fahrens kann dieses System ein mobiler Agent sein, der sich nicht nur auf Rohdaten stützt, sondern Computer Vision Algorithmen zur visuellen Vorverarbeitung nutzt, um seine Umgebung zu verstehen. Aktuelle Studien zu realen Implementierungen solcher Agenten zeigen, dass diese akkurater agieren, wenn sie visuelle Vorverarbeitung, wie z.B. semantische Segmentierung oder Tiefenschätzung als zusätzlichen Input zu den Rohdaten verwenden. Das akkuratere Verhalten der Agenten muss jedoch durch aufwändiges Sammeln und Annotieren der Daten erkauft werden. Aktuelle Ansätze basieren nämlich auf tiefen neuronalen Netzen, welche mit überwachtem Lernen trainiert werden. Zu diesem Zweck muss vor dem Trainieren der Netze ein großer, annotierter Datensatz erstellt werden. Um dieser Einschränkung zu umgehen, können annotierte Datensätze mit Hilfe von Simulation erzeugt werden. Diese umfangreichen, synthetisch generierten Datensätze können direkt auf die Aufgabe zugeschnitten und im Kontext neuronaler Netze als Alternative zu realen Datensätzen verwendet werden. Allerdings weisen solche synthetischen Datensätze auch klare Nachteile auf. Insbesondere schneiden auf synthetischen Daten trainierte neuronale Netze schlecht auf Realdaten ab.In diesem Projekt werden wir daher erforschen, wie sich dieser Leistungsabfall vermindern lässt, sodass auf synthetischen Daten trainierte tiefe neuronale Netze zukünftig besser auf Realdaten abschneiden. Als Testfelder zur Evaluation werden wir dabei die Anwendungen semantische Segmentierung und Tiefenschätzung auf Einzelbildern näher untersuchen. In unserer Forschung werden wir Algorithmen entwickeln, die tiefen neuronalen Netzen beibringen, sich schnell an neue Umgebungen anzupassen. Dieses Konzept ist weithin als Meta-Learning bekannt. Meta-Learning wurde jedoch bis heute noch nie als Methode verwendet, um den Transfer von synthetisch generierten Daten auf Realdaten zu schaffen, obwohl die Problemformulierung von Meta-Learning gut auf das Problem passt.

Vorlesungen

  • Machine Learning in Signal Processing
    • Weitere Informationen sind auf StudOn und Campo zu finden.
  • Introduction to Deep Learning
    • Weitere Informationen sind auf StudOn und Campo zu finden.
  • Advanced Topics in Deep Learning
    • Weitere Informationen sind auf StudOn und Campo zu finden.
  • Perception in Robotics
    • Weitere Informationen sind auf StudOn und Campo zu finden.

Anleitung zu wiss. Arbeiten

  • Anleitung zu wissenschaftlichen Arbeiten
    • Weitere Informationen sind auf StudOn und Campo zu finden.

Seminare

  • Seminar on Selected Topics in Machine Learning
    • Weitere Informationen sind auf StudOn und Campo zu finden.
  • Seminar Ausgewählte Kapitel der Multimediakommunikation und Signalverarbeitung
    • Weitere Informationen sind auf StudOn und Campo zu finden.
  • Seminar on Selected Topics in Machine Learning
    • Weitere Informationen sind auf StudOn und Campo zu finden.
  • Seminar on Bachelor's and Master's theses
    • Weitere Informationen sind auf StudOn und Campo zu finden.

Praktika

  • Machine Learning in Signal Processing
    Weitere Informationen sind auf StudOn und Campo zu finden.