MN-Seminar

Seit über drei Jahrzehnten unterhält der Fachbereich Mathematik und Naturwissenschaften (FB MN) der Hochschule Darmstadt ein wissenschaftliches Kolloquium, das kurz als MN-Seminar bezeichnet wird.

Leitung des Seminars

Sommersemester 2024

Die Seminare finden dienstags in Präsenz in Raum C10 | 9.01 um 16.15 Uhr statt.


23.04.2024
Insa S. Schroeder, Stem Cell Differentiation and Cytogenetics Group, Biophysics Department, GSI Helmholtzzentrum für Schwerionenforschung GmbH, Darmstadt

Brain organoid research – preclinical perspectives and challenges

Brain organoids offer an unmet opportunity for human brain research and enable us to model many human neurological diseases, which have been difficult to decipher due to the inaccessibility of human brain samples and the lack of similarity with other animal models. Brain organoids, which can grow up to several millimeters in diameter and can be kept in culture for years, can be generated through various stem cell based protocols and mimic either the whole brain or specific regions of interest displaying the complex brain architecture as well as its function. However, these complex 3D structures encompass not only great preclinical perspectives but also analytical challenges trying to establish high-resolution structural and functional data using confocal, STED, and lightsheet microscopy as well as omics data to evaluate the cellular composition and disease-based changes. All these aspects and current updates will be discussed. 


21.05.2024
Jan-Philipp Hoffmann

Euler-Charakteristik in der Topologischen Datenanalyse

Die topologische Datenanalyse (TDA) nutzt topologische und geometrische Eigenschaften von Datenvektoren, die als Zufallsstichprobe X aus einem potenziell hochdimensionalen Raum oder einer Mannigfaltigkeit M betrachtet werden können. Topologische Verfahren unterstützen die Feature-Extraktion und dienen als Grundlage für hierarchische Cluster-Verfahren durch die Betrachtung von Zusammenhangskomponenten. Zu den höheren topologischen Eigenschaften gehören die Betti-Zahlen (die Anzahl der Zusammenhangskomponenten entspricht der nullten Betti-Zahl) und die Euler-Charakteristik. Letztere ist eine Größe, die einfach aus den Abständen der Datenvektoren berechnet werden kann und bei ausreichender Stichprobengröße X sogar eine Invariante der Grundgesamtheit M darstellt. Umgekehrt kann mittels der Euler-Charakteristik erkannt werden, ob eine zweite Stichprobe Y nicht aus M stammt. Dies kann bei der Anomalieerkennung hilfreich sein, beispielsweise bei der Erkennung von Defekten aus Sensordaten von Windrädern. In dem Vortrag wird einerseits die für diese Zwecke relevante Stabilität der Euler-Charakteristik bei Störungen der Daten theoretisch untersucht. Andererseits wird ein neues Verfahren zur praktischen Berechnung vorgestellt, das im Gegensatz zu den bisher existierenden Verfahren nicht engen technischen Beschränkungen hinsichtlich Stichprobengröße und Dimensionalität unterliegt.


18.06.2024
Christoph Raab

Gitter-stabilisierte Diodenlaser - Simulation und Charakterisierung

Gitter-stabilisierte Diodenlaser sind wichtige Werkzeuge für Präzisionsmessungen in Industrie und Forschung. Die Anwendungen sind z.B. Interferometrie mit Auflösungen vom Mikrometerbereich bis in den sub-Nanometerbereich, Spektroskopie zur Gasanalyse oder für optische Atomuhren oder Kontrolle und Nachweis von Quantengattern für Quantencomputer.

Der erste Teil des Vortrags behandelt die zeitaufgelöste Simulation der Dynamik von Gitter-stabilsierten Diodenlasern. Besonderes Augenmerk gilt dabei dem Übergang von stabilen, schmalbandigen Arbeitspunkten in chaotische, mehr-frequente Zustände, den sogenannten Modensprüngen.

Langfristiges Ziel dieses Ansatzes ist ein besseres Verständnis für die Dynamik und einer Vorhersage dieser Modensprünge.

Die Charakterisierung des Frequenz- und Phasenrauschens ist der Inhalt des zweiten Teil des Vortrags. Die Frequenz des Licht liegt bei einigen hundert Terahertz und kann deshalb nicht direkt gemessen werden. Der klassische Ansatz zur Charakterisierung des Frequenzrauschens ist der Vergleich zweier Laser mittels einer Schwebungsmessung. Diese Methode liefert aber nur Information über die Summe des Rauschens beider Laser.

Die Messung an einem Faserinterferometer hingen erlaubt die direkte Charakterisierung eines Lasers mit einer Empfindlichkeit von einigen zehn Hz/Hz2.


02.07.2024
Florian Heinrichs

Funktionale Datenanalyse im Zeitalter von Deep Learning

Die funktionale Datenanalyse (FDA) bietet einen alternativen Blickwinkel auf Daten, die als kontinuierliche Funktionen dargestellt werden können. Dadurch ermöglicht sie tiefere Einblicke in zeitliche oder räumliche Muster, die in diskreten Datensätzen oft verborgen bleiben.

Zunächst wird eine Einführung in die Grundlagen der FDA gegeben, einschließlich "klassischer" statistischer Methoden. Am Beispiel von Gehirnaktivitäten, die via Elektroenzephalografie (EEG) gemessen wurden, werden Schwierigkeiten dieser klassischen Methoden bei der Auswertung funktionaler Daten aufgezeigt. Als mögliche Lösung werden Entwicklungen an der Schnittstelle zwischen FDA und maschinellem Lernen vorgestellt, die die identifizierten Probleme statistischer Methoden umgehen.

Insbesondere wird auf funktionale neuronale Netze eingegangen, die Konzepte des Deep Learning auf (glatte) funktionale Daten und die Modellierung nicht-linearer Zusammenhänge ermöglichen. Darüber hinaus wird die transformations-invariante funktionale Hauptkomponentenanalyse (TI-FPCA) erläutert, die es erlaubt, Hauptkomponenten auch dann zu bestimmen, wenn die funktionalen Daten nicht sinnvoll normalisiert ("registriert") werden können.

Relevante Literatur:

[1] Ramsay, J. O. and B. W. Silverman (2005). Functional Data Analysis (2 ed.). Springer Science+Business Media, Inc.

[2] Heinrichs, F., M. Heim, and C. Weber (2023). Functional neural networks: Shift invariant models for functional data with applications to eeg classification. In International Conference on Machine Learning, pp. 12866–12881. PMLR.

[3] Heinrichs, F. (2024). GT-PCA: Effective and interpretable dimensionality reduction with general transform-invariant principal component analysis. arXiv preprint arXiv:2401.15623.


Ab dem Wintersemester 2020/21

Liste der Vortragenden mit Titel und Abstract

Wintersemester 2023/24

16.01.2024
Timo Schürg

Topologische Datenanalyse zur Erkennung von Störungen im Mobilfunknetzwerk

Abstract: Topologische Datenanalyse nutzt Methoden aus der algebraischen Topologie um aus der Geometrie der Daten interessante Features für maschinelles Lernen zu generieren. Ich möchten vorstellen, wie man mit diesen Methoden Störungen in einem Mobilfunknetzwerk delektieren kann. Dabei ist die Art der Störung vorher nicht bekannt.


12.12.2023
Romana Piat

Numerical modeling of particulate composites

Numerical evaluation of the elastic and electric properties of particle reinforced composite was provided. For understanding the effects of the particle shapes onto the overall linear elastic and electric properties of the two-phase composites the particles with different shapes were modelled using analytical functions. Elastic and elastic properties of the composites with different particle shapes were calculated. Good agreement of the present and known from literature results is achieved.


14.11.2023
Andreas Weinmann

Algorithmen zur Change Point Detection und stückweisen Regression

Das Auffinden von Change Points in Zeitreihen ist ein aktives Forschungsthema, das eng mit dem Anpassen eines Modells an die Daten zwischen den Change Points verbunden ist. Numerische Algorithmen zur Erkennung von Change Points führen häufig eine gemeinsame Schätzung der Change Points zusammen mit den Signalstücken durch. Ich berichte über unsere auf Variationsansätzen basierende Ergebnisse zu diesem Thema.Methodisch verwenden wir Ansätze der dynamischen Programmierung in Kombination mit maßgeschneiderten Lösungsmethoden aus der numerischen linearen Algebra, um stabile Löser zu entwickeln.


24.10.2023
Gael Bringout

Magnetic Particle Imaging: Eine interdisziplinäre Reise

Magnetic Particle Imaging ist eine Bildgebungs-Methode, die im Jahr 2005 von Philips Research in Hamburg, Deutschland, vorgestellt wurde. Die Anwendungen zielen hauptsächlich auf den medizinischen Bereich ab, um beispielsweise bei Diagnosen zu helfen oder Behandlungen zu überwachen. Die Forschungsrichtungen umfassen insbesondere Medizin, Pharmazie, Chemie, Physik, Mechanik, Elektronik und natürlich Mathematik. Im Verlauf dieser Präsentation werden wir die Grundlagen dieser Technik vorstellen und die verschiedenen Herausforderungen hervorheben, insbesondere solche, die Mathematiker betreffen.


 

Sommersemester 2023

02.05.2023
Prof. Dr. Christoph Raab

Einfrequente Diodenlaser in Industrie und Forschung

Wie kann ich Diodenlaser realisieren, mit denen ich eine optische Atomuhr baue?

Diese zunähst eher akademische Fragestellung bekommt zunehmend Relevanz, weil die gleichen Techniken für industrielle Anwendungen wichtig werden.

In meinem Vortrag möchte ich zunächst einige verschiedene Anwendungen und ihre Anforderungen vorstellen. Anschließend präsentiere ich die Technologien, die einfrequente und abstimmbare Diodenlaser ermöglichen.

Dabei möchte ich erklären, wie aus einer Laserdiode mit einer Kohärenzlänge von Millimetern ein Diodenlaser mit einer Kohärenzlänge von 1000km gemacht werden kann. Zum Abschluss zeige ich Herausforderungen auf, die den industriellen Einsatz noch verzögern.


06.06.2023
Prof. Dr. Johannes Gregori

Medizinische Bildverarbeitung und Anknüpfungspunkte zur OBV

Was sind aktuelle Trends der medizinischen Bildverarbeitung, und wie können Anknüpfungspunkte zu unseren OBV-Studiengängen genutzt werden?

Ich werde zwei Forschungsprojekte vorstellen, die aktuell unter Mitwirkung der H-DA durchgeführt werden, ASPIRE (Alzheimer) und BOSOMSHIELD (Brustkrebs).

Des weiteren wird gezeigt, wie Techniken der medizinischen Bildgebung und Bildverarbeitung mit den Vorlesungsinhalten der OBV verknüpft sind und zur Vorlesungsgestaltung genutzt werden können. Als Beispiele bieten sich sind CT (industriell und klinisch) oder MRT (Aufnahme im Frequenzraum, Bildrekonstruktion durch 2D- oder 3D-Fouriertransformation) an.

 


04.07.2023
Prof. Dr. Elke Hergenröther

Fragestellungen der Computer Vision als Motivation für Cognitive Science und Cognitive Computing

Im Vortrag werden Fragestellungen präsentiert, an denen wir aktuell arbeiten. Die meisten dieser Fragestellungen sind dem Fachgebiet Cognitive Computing zuzuordnen in welchem es darum geht Technologien auf Basis von künstlicher Intelligenz zu entwickeln, die den menschlichen Denk- und Wahr­nehmungsprozess nachbilden. Auf der anderen Seite benötigen wir auch das Wissen aus den Fachgebieten Cognitive Science und Cognitive Computing, um bewerten zu können, wann ein Verfahren besser ist als der Mensch oder wann es den Anforderungen des Nutzers genügt.

Diese zwei Seiten von Cognitive Science und Cognitive Computing im Zusammenspiel mit Computer Vision möchte ich ihnen gerne anhand einiger ausgewählter Fallbeispiele mit Ihnen diskutieren.


Wintersemester 2022/23

15.11.2022
Prof. Dr. Thomas März

Model-Based Reconstruction and Regularization for Magnetic Particle Imaging

Abstract: Magnetic Particle Imaging (MPI) is an emerging imaging modality developed by Gleich and Weizenecker in 2005 and is today a very active field of research. In the multivariate MPI setup images are usually reconstructed using a system matrix which is obtained by a time consuming measurement procedure. We approach the reconstruction problem by employing reconstruction formulae which we derive from a mathematical model of the MPI signal encoding. Here, we present a flexible reconstruction algorithm based on the decomposition of the imaging process provided by the model. Its variational formulation incorporates adequate regularization which yields promising reconstruction results.


13.12.2022
Prof. Dr. Christine Bach

Statistische Testverfahren zur Überprüfung von Sterbetafeln


10.01.2023
Prof. Dr. Antje Jahn

Maschinelle Lernverfahren für Ereigniszeitdaten

Insbesondere in der medizinischen Forschung weisen die zu analysierenden Endpunkte häufig sogenannte Zensierungen auf. Ein diesem Vortrag zugrundeliegendes Beispiel ist das Überleben nach Nierentransplantation, welches für alle zum Analysezeitpunkt noch nicht verstorbene Patienten unbekannt ist.
Regressionsmodelle und maschinelle Lernverfahren addressieren Zensierungen in der Regel durch Anpassung der Likelihood- oder Verlustfunktion. Alternativ wurde Bagging in Kombination mit einer Inverse-Probability-of-Censoring-Gewichtung (IPCW) vorgeschlagen, nach der zensierte Beobachtungen aus den Bootstrap-Samples herausfallen und daher keine besondere Berücksichtigung mehr erfordern.
In diesem Vortrag werden am Beispiel der Nierentransplantationsdaten verschiedene Lernverfahren verglichen. Es wird nachgewiesen, dass der IPCW-Ansatz in den likelihood-freien Random Forests zu verzerrten Vorhersagen führt.


07.02.2023
Prof. Dr. Thomas Netzsch

Effiziente Programmierung im Wandel der Zeit

Effiziente Programmierung war und ist ein wichtiges Thema in der Informationstechnologie von den Anfängen der Programmierung bis heute.
Zu Beginn der professionellen Programmierung im 20. Jahrhundert war die Optimierung organisatorischer Abläufe ein wichtiges Mittel zur Verbesserung der Ressourceneffizienz. Die zu optimierende Ressource war dabei der Mensch.
Lange Zeit war dann die geschickte Nutzung limitierter Ressourcen wie Speicherplatz, Rechenleistung und Informationsübertragung durch die EntwicklerInnen von zentraler Bedeutung für die Realisierbarkeit bestimmter Anforderungen.
Der rasante technologische Fortschritt der letzten Jahrzehnte führte dazu, dass die genannten Ressourcen heute in vielen Anwendungsbereichen kostengünstig in nahezu unbegrenzter Menge zur Verfügung stehen. Darüber hinaus haben neue Anwendungsbereiche und Technologien wie z.B. die Klimaforschung oder das Internet einen außerordentlich hohen zusätzlichen Ressourcenbedarf generiert.
Dieser global erhebliche Ressourcenbedarf in Verbindung mit der breiten Anwendung von Informationstechnologie durch nahezu jeden Menschen resultiert darin, dass das Thema Nachhaltigkeit erheblich an Bedeutung gewonnen hat und aktuell der gesamte Lebenszyklus eines Softwareprodukts bei der Effizienzanalyse zu betrachten ist. Eine zu optimierende Ressource ist dabei der Energieverbrauch.
In diesem Vortrag wird ein exemplarischer Überblick über alte, neue und aktuelle Methoden zur effizienten und ressourcenschonenden Programmierung gegeben.

Sommersemester 2022

03.05.2022
Prof. Dr. Jürgen Frikel (OTH Regensburg)

Mikrolokale Analysis in der tomographischen Rekonstruktion

Die Computertomographie (CT) hat sich in den letzten Jahrzehnten nicht nur zu einem diagnostischen Standardwerkzeug der Medizin entwickelt, sondern spielt beispielsweise auch im Bereich der Materialwissenschaften oder der Sicherheitstechnik eine wichtige Rolle. Sie wird vor allem zur Erzeugung von 3D Abbildungen des Inneren der untersuchten Objekte verwendet, um beispielsweise bessere Diagnosen zu ermöglichen, um Defekte in Bauteilen aufzudecken oder um gefährliche Gegenstände, z.B. im Rahmen einer Flughafenkontrolle, zu erkennen. Die Vielzahl der Anwendungsfelder ist enorm. Der Erfolg der CT-Technologie ist unter anderem darauf zurückzuführen, dass die rekonstruierte Bildqualität sehr gut ist, sofern die Objekte vollständig gescannt werden können. Allerdings existiert auch eine Vielzahl von Anwendungen, wo ein vollständiger Scan nicht möglich ist (z.B. in der 3D Mammographie). In solchen Fällen führt die Unvollständigkeit der Daten zu einer (zum Teil deutlichen) Minderung der Rekonstruktionsqualität und erschwert dadurch die Interpretation der Bilder. Dabei sind vor allem zwei Phänomene zu beobachten: Gewisse Bildinformationen können nicht rekonstruiert werden – sie sind aus den gegebenen CT-Daten nicht sichtbar. Andere Bildinformationen (Artefakte) werden künstlich durch verwendete Algorithmen erzeugt, obwohl Sie nicht zum gesuchten Objekt gehören. Das genaue Verständnis des Rekonstruktionsprozesses ist deshalb notwendig, um die Interpretation der rekonstruierten Bilder zu erhöhen.

In diesem Vortrag wird das Problem der tomographischen Rekonstruktion mathematisch vorgestellt und die Auswirkungen Datenunvollständigkeit analysiert. Insbesondere wird dabei das Framework der mikrolokalen Analysis vorgestellt und damit anschließend die CT-Rekonstruktionen aus unvollständigen Daten analysiert. Als Hauptresultat werden Charaktersierungen sichtbarer Singularitäten und singulärer Artefakte präsentiert, und eine Strategie zur Artefaktreduktion vorgestellt.


14.06.2022
Prof. Dr. Ralf Blendowske

Wellenflächenmessungen an Augen bei Groß und Klein

Wie bleibt das menschliche Auge im Wachstumsprozess im Fokus und sieht trotz seiner Längenänderungen weiterhin scharf? Das Frage ist bisher nicht beantwortet.  In einer Längsschnittstudie wurden bei Kindern und Jugendlichen die Augen mittels Hartmann-Shack-Sensorik vermessen, um zeitliche Veränderungen mit dem Alter zu untersuchen. Dabei stehen die sogenannten Zernike-Koeffizienten höherer Ordnung im Blickpunkt. Sie liefern individuelle Informationen jenseits der Werte im Brillenpass und werden als Kandidaten zur Lösung des „Vorzeichenproblems“ gehandelt.


05.07.2022
Dr. Maximilan Baust (Nvidea)

Five Ways to Solve the Heat Equation - from Fourier to Deep Learning

Abstract: The heat equation has been playing a crucial role in the invention of many mathematical, and particularly numerical, techniques for solving partial differential equations. Starting with the Fourier transform itself, this talk presents a few milestones along the path of seminal works for solving the heat equation including finite differences, operator splitting techniques, super-time-stepping methods and neural networks. In addition to explaining the mathematical concepts, we will also shed a light on the reason of why modern hardware accelerators, such as GPUs, have gained significant popularity for executing these methods. 


Wintersemester 2021/22

02.11.2021
Prof. Dr. Jutta Groos

Bayesianische Ansätze in klinischen Studien

In vielen Bereichen der Statistik, wie auch bei klinischen Studien, haben sich die klassischen Methoden der Statistik durchgesetzt. Die Wirksamkeit von Medikamenten wird in der Regel mit Hilfe klassischer Hypothesentests mit vorgegebenem Signifikanzniveau nachgewiesen. Die bayesianische Sicht auf eine Studiensituation ist zwar nicht neu, ist aber durch die klassische auch frequentistische) Sicht lange Zeit aus der  ̈offentlichen Wahrnehmung verdrängt worden. Obwohl die beiden Ansätze zunächst sehr verschieden wirken, führen sie sehr häufig zu identischen Ergebnissen.

Dennoch bietet die bayesianische Sichtweise einige Vorteile, wie z.B. eine intuitivere Interpretierbarkeit sowie eine einfache Möglichkeit, nicht nur die Daten einer aktuellen Studie zu betrachten, sondern auch frühere Befunde in eine Entscheidung mit einzubeziehen. Gerade in Studien ̈über seltene Erkrankungen mit sehr geringen Fallzahlen, kann die Einbeziehung früherer Erkenntnisse von Nutzen sein.

Geben die Regularien für klinische Studien allerdings feste Obergrenzen für den Fehler 1. Art vor, so gewinnt man aus der Verwendung früherer Befunde keinerlei Power-Vorteil. In diesem Vortrag soll die alternative bayesianische Sichtweise anhand eines konkreten Beispiels aus der Krebsforschung erläutert und das Problem des fehlenden Power-Gewinns beleuchtet werden.


07.11.2021
Prof. Dr. Sebastian Döhler

Zur Kontrolle der False Discovery Exceedance bei heterogenen Tests

In der statistischen Analyse von Big Data  werden oft Tausende oder Millionen von statistischen Tests gleichzeitig durchgeführt. Die False Discovery Exceedance (FDX) ist ein wichtiges Maß für den Fehler erster Art, der in solchen Situationen auftritt. Die klassischen Verfahren gehen dabei von der Situation aus, dass die Verteilungen der p-Werte unter den Null-Hypothesen gleich sind. Tatsächlich sind diese Verteilungen jedoch oft heterogen, etwa wenn diskrete Tests vorliegen, oder die Ergebnisse der einzelnen Tests gewichtet werden.

In diesem Vortrag stellen wir neue Verfahren vor, die diese Heterogenität berücksichtigen und gleichzeitig die FDX kontrollieren.

Gemeinsame Arbeit mit Etienne Roquain.


11.01.2022
Dr. Raphael Memmesheimer

Servicerobotik - Wettbewerbe und Anwendungen

In dem Vortrag werden Erfahrungen und Entwicklungen aus internationalen Robotikwettbewerben wie dem RoboCup, der European Robotics League und dem World Robot Summit gegeben. Der Fokus liegt auf autonomen Servicerobotern in Haushaltsumgebungen. Diese kartieren die Umgebung und
sind anschließend in der Lage darin zu navigieren. Sie erkennen Objekte und Personen und erledigen Hol- und Bringaufgaben. Diese anwendungsnahen Szenarien profitieren regelmäßig von dem Fortschritt aus der Forschung und werden immer zuverlässiger.


08.02.2022
Dr. Lukas Kiefer

Efficient Algorithms for Mumford-Shah and Potts Problems

Datenglättung ist oftmals der erste Schritt in einer Datenverarbeitungskette. Gründe hierfür können beispielsweise die Unterdrückung von Rauschen oder eine Vereinfachung der Daten sein. Die
Anwendung klassischer Glättungsmethoden kann jedoch dazu führen, dass erwünschte schlagartige Änderungen in den Daten wie beispielsweise Changepoints in Zeitreihen oder Kanten in Bilddaten ausgeglättet werden.

Mumford-Shah- und Potts-Modelle gehören zu den bekanntesten (variationellen) Methoden zum Kanten- und Changepoint-erhaltenden Glätten bzw. Partitionieren von Bildern und Zeitreihen. Ihre Anwendung ist allerdings nicht trivial, da hierbei schwierige nichtkonvexe Minimierungsprobleme angegangen werden müssen. Demgemäß stellt das Entwickeln neuer algorithmischer Ansätze zum Lösen von Mumford-Shah- und Potts-Modellen ein aktives Forschungsgebiet dar.

In diesem Vortrag betrachten wir Erweiterungen des Mumford-Shah- und Potts-Modells zu Modellen höherer Ordnung, um bekannten Nachteilen der konventionellen Modelle erster Ordnung entgegenzuwirken. Insbesondere werden die algorithmischen Anforderungen, die solche Verallgemeinerungen nach sich ziehen, beleuchtet und neue algorithmische Ansätze vorgestellt.

Gemeinsame Arbeit mit Martin Storath (Hochschule Würzburg-Schweinfurt) und Andreas Weinmann (Hochschule Darmstadt).


Sommersemester 2021

20.04.2021
Prof. Dr. Sebastian Döhler

Zur Analyse von multiplen diskreten Tests: Neue Methoden und Software

Abstract: Die Benjamini-Hochberg Prozedur und verwandte Verfahren sind klassische Methoden, die die Kontrolle der False Discovery Rate (FDR) garantieren und spielen eine wichtige Rolle in der Analyse von hochdimensionalen Daten. Während diese Verfahren für stetige Test-Statistiken entwickelt wurden, liegen in der Anwendung oft diskrete Daten vor. In diesem Fall gewährleistet z.B. die Benjamini-Hochberg Prozedur immer noch die Kontrolle der FDR, allerdings ist sie i.A. zu konservativ. Daher ist es von Interesse, effizientere FDR Prozeduren für diskrete Daten zu entwickeln. In diesem Vortrag stellen wir solche Verfahren und ihre Implementierung in einem R-Paket vor und illustrieren ihre Performance für empirische und simulierte Daten.
Gemeinsame Arbeit mit Etienne Roquain, Guillermo Durand (Sorbonne Universite) und Florian Junge (DISO).


04.05.2021
Prof. Dr. Jan-Philipp Hoffmann

Topologische Datenanalyse  

Zur Anwendung von geometrischen Methoden in der Datenanalyse werden numerisch codierte Daten als eine zufällige Stichprobe an Punkten einer in einen euklidischen Raum eingebetteten Mannigfaltigkeit M verstanden. Liegen die Punkte hinreichend nahe bei einander (sprich, ist die Stichprobe groß genug), lässt sich die grobe Erscheinung der ursprünglichen Struktur durch das Verbinden von Punkten die den Abstand kleiner R haben, für ein geeignetes R>0, ungefähr rekonstruieren. Da ein geeignetes R meist nicht bekannt ist, untersucht man dieses Verbindungskonstrukt in Abhängigkeit von R als eine Filtration von Simplizialenkomplexen mit Methoden der algebraischen Topologie. Die daraus resultierenden topologischen Invarianten können dann Aufschluss über die geometrische Struktur der Daten liefern. Abschließend wird vorgestellt, wie die Methoden der topologischen Datenanalyse zur Kontrolle von deep-learning-Verfahren, wie bei künstliche neuronalen Netzten, genutzt werden können.


01.06.2021
Prof. Dr. Elke Hergenröther

Reality-simulation gap

Convolutional Neural Networks (Abkürzung: CNN oder ConvNet) sind spezielle Deep Learning Verfahren, die sich zum Erkennen von bestimmten Objekten in Bildern oder Videos eignen. Anwendung finden sie beim autonomen Fahren, dem Erkennen von Gesichtern und der Interpretation von Emotionen und ähnlichen. Auch in der Industrie will man diese Verfahren für eine bestimmte Art von Fragestellungen einsetzen. Um dies tun zu können, benötigt man Trainingsdaten in nicht unerheblichen Mengen. Diese zu erzeugen ist meist problematisch weswegen man gerne auf Modelldaten ausweicht. Obwohl, wie ich zeigen werde, aktuelle Renderingverfahren schon sehr realistische Materialeigenschaften erzeugen können, gibt es Unterschiede zwischen den Modelldaten und den realen Aufnahmen. Auf diesen Unterschieden beruht der Reality Simulation Gap. Diese Lücke klein zu halten, ist die notwendige Voraussetzung um Simulationen statt realer Bilder oder Videos zum Training von Convolutional Neuronal Networks verwenden zu können. Der Reality Simulation Gap beschränkt sich nicht allein auf die ConvNets. Auch andere Deep Learning Verfahren, wie beispielsweise Deep Reinforcement Verfahren kämpfen mit dem Reality Simulation Gap.

„Was der Realtity Simulation Gap ist und wie man ihn zu minimieren versucht?“, sind die Fragen die im Vortrag diskutiert werden. Nach dem Vortrag werden Sie aber nicht nur Antworten auf diese beiden Fragen haben, sondern auch wissen was ein Convolutional Neuronal Network ist, wie es ungefähr arbeitet, was man unter Transferlearning versteht und warum Spiele-Engines, wie Unreal und Unity auch in den eher klassischen Industrien immer beliebter werden.


29.06.2021
Prof. Dr. Horst Zisgen

Warteschlangensysteme mit parallelen Bedienern sowie Gruppenankünfte und -bedienung

Aus unserem Alltag kennen wir alle das leidige Phänomen des Wartens, sei es an der Kinokasse, vor dem Aufzug, im Wartezimmer des Arztes, in der Warteschleife der Service-Hotline, auf der Autobahn im Stau oder als Skifahrer an der Gondelstation. Warteschlangen entstehen aber nicht nur in solch alltäglichen Situationen, sondern auch in technischen Systemen, wie Web-Server, oder im Bereich von Produktion und Logistik. Warteschlangenmodelle bilden allgemein das Warten von Entitäten, wie Kunden, Patienten oder Jobs, vor einer Bedienstation (wie z.B. einer Kasse, eines Arztes oder Web-Servers) als stochastischen Prozess ab und finden in vielen Bereichen der Technik oder des Operations Research praktische Anwendung. Doch trotz der langen Tradition der Warteschlangentheorie und ihrer Fortschritte, gibt es immer noch bestimmte Eigenschaften von Warteschlangensystemen, die sich nicht exakt modellieren oder zumindest näherungsweise gut approximieren lassen. Dazu gehören z.B. Systeme, an denen die Entitäten als Gruppe eintreffen und dann an mehreren parallel arbeitenden Bedienern wiederum als Gruppe, jedoch in anderer Gruppengröße, bedient werden. Aber gerade solche Gruppenankünfte und Gruppenbedienungen spielen in vielen praktischen Problemstellungen eine wichtige Rolle, wie etwa in der Prozessierung von Wafern in der Halbleiterfertigung, so dass es einen großen Bedarf für eine bessere Modellierung solcher Systeme gibt.

In diesem Vortrag wird zum einen eine kurze Einführung in den Stand der Forschung zur Modellierung von vereinfachten Warteschlangensystemen mit Gruppenankünften und -bedienung gegeben. Anschließend wird ein neuer Modellierungsansatz zur Approximation von generischen Systemen mit Gruppenankünften und -bedienung vorgestellt, der eine deutliche Verbesserung der Approximationsgüte im Vergleich zu bestehenden Verfahren bietet und so eine praktische Nutzung in den oben genannten Anwendungsgebieten ermöglicht. Die Güte der Modellierung wird abschließend durch Simulationsexperimente belegt.


Wintersemester 2020/21

17.11.2020
Prof. Dr. Martin Storath

Fast median filtering for phase or orientation data

Abstract: Median filtering is among the most utilized tools for smoothing real-valued data, as it is robust, edge-preserving, value-preserving, and yet can be computed efficiently. For  data living on the unit circle, such as phase data or orientation data, a filter with similar properties is desirable. For these data, there is no unique means to define a median; so we discuss various possibilities. The arc distance median  turns out to be the only variant which leads to robust, edge-preserving and value-preserving smoothing. However, there are no efficient algorithms for filtering based on the arc distance median. Here, we propose fast algorithms for filtering of signals and images with values on the unit circle based on the arc distance median. For non-quantized data, we develop an algorithm that scales linearly with the filter size. The runtime of our reference implementation is only moderately higher than the Matlab implementation of the classical median filter for real-valued data. For quantized data, we obtain an algorithm of constant complexity w.r.t. the filter size. We demonstrate the performance of our algorithms for real life data sets: phase images from interferometric synthetic aperture radar,  planar flow fields from optical flow, and time series of wind directions.


01.12.2020
Prof. Dr. Thomas März

Image Inpainting by Coherence Transport, Algorithm & Theory

Abstract: In image processing the term Image Inpainting refers to the retouching of damaged or undesired portions of a picture. From a mathematical point of view this is a problem of data interpolation, subject to the side condition that the completed image shall look visually plausible. In the last two decades different approaches, using PDE models from order 2 up to 4, have shown that PDE techniques are fruitful here. In this talk we present an Image Inpainting method based on a transport PDE, a PDE of first order. The transport field is constructed from coherence information which we obtain by applying structure tensor analysis. We will demonstrate applications, and discuss the algorithm as well as the analysis of the underlying model.


19.01.2021 
Prof. Dr. Christoph Becker

Liquidity Consequences of Central Clearing

Abstract: Central clearing counterparties transform counterparty credit risk into liquidity risk for its clients. The volume of required margin from their members causally influences both liquidity risk premia in the core of the US financial system and the liquidity risk exposure of dealer banks. We discuss implications for financial stability and regulation.


09.02.2021
Prof. Dr. Matthias Will

Forschungs- und Anwendungsgebiete im Labor Elektronenmikroskopie an der h-da

Abstract: Materialvielfalt und Packungsdichten haben in den letzten Jahrzenten allen Anwendungsbereichen der Technik massiv zugenommen. So ist z.B. die Anwendung Nanomaterialen längst nichts ungewöhnliches mehr. Demzufolge hat eine Weiterentwicklung von Analysemethoden wie der Elektronenmikroskopie vom eher akademischen Einsatz zum industriellen Analysewerkzeug stattgefunden. Die Fachbereiche MN, MK und CuB haben ein Gemeinschaftslabor mit einem modernen Elektronenmikroskop eingerichtet. Fokus bei der Geräteauswahl lag hier auf der Analyse von nichtmetallischen Werkstoffen und Einsatz in Forschung und Lehre. Im Vortrag wird über die Einsatzmöglichkeiten und Forschungstätigkeiten berichtet.


Im Sommersemester 2020 fanden pandemiebedingt keine Vorträge statt.

Wintersemester 2013/14 - 2019/20

Liste der Vortragenden und Titel

Wintersemester 2019/20

04.02.2020

Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Pfeifer

Michael Horf (Degussa Bank AG)

Smart Business: Wie die Mathematik durch die Digitalisierung das tägliche Leben beeinflusst Poster

28.01.2020

Dana Diezemann (ISRA VISION AG)

HDR: Die verschiedenen Wege zur hochdynamischen Bild­aufnahme Poster

14.01.2020

Prof. Dr. Romana Piat (FB MN)

Korrelation zwischen Einschluss­form und elastischen Eigenschaften des Verbund­werkstoffs Poster

10.12.2019

Prof. Dr. Andreas Weinmann (FB MN)

Variationelle Methoden zur Segmentierung und Restauration von Bildern Poster

12.11.2019

Prof. Dr. Tobias Bedenk (FB MN)

Modelle und Lösungs­verfahren zur Optimierung von Bestell­mengen Poster

Sommersemester 2019

02.07.2019

Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Heddrich und Prof. Dr. Ohser

 

 

Dr. Katja Schladitz (Fraunhofer ITWM)

Charakterisierung von Mikrostrukturen durch 3D-Bildanalyse Poster

25.06.2019

Prof. Dr. Jürgen Groß (FB MN)

Parallelflächen Poster

18.06.2019

Kai Steuerle (Cognex)

Deep Learning für Industrielle Bildverarbeitung Poster

28.05.2019

Prof. Dr. Rossitza Marinova (Concordia University, Edmonton)

Variational Imbedding Approach to Solving Inverse Problems Poster

Wintersemester 2018/19

15.01.2019

Prof. Dr. Julia Kallrath (FB MN)

Mathematische Modellierung eines Platzierungs­problems Poster

04.12.2018

Prof. Dr. Wolfgang Heddrich (FB MN)

Optische Elemente in der Spektroskopie Poster

06.11.2018

Prof. Dr. Thomas Netzsch (FB MN)

Vision Debugger – Eine plattform­unabhängige Anwendung zur Unterstützung der Lehre in der Bild­verarbeitung Poster

23.10.2018

Prof. Dr. Markus Döhring, Prof. Dr. Michael von Rüden und Prof. Dr. Stefan Rühl (alle FB I)

Cloud Infrastruktur in Lehre und Forschung – Erfahrungs­bericht Poster

Sommersemester 2018

03.07.2018

Prof. Dr. Christoph Becker (FB MN)

Finanzstabilität und System­risikomessung Poster

19.06.2018

Prof. Dr. Ralph Neubecker (FB MN)

Evaluation klassifizierender Bild­­verarbeitungs­­systeme Poster

08.05.2018

Prof. Dr. Wolf-Dieter Groch (FB I)

Konforme geometrische Algebra – eine universelle Sprache der Geometrie Poster

17.04.2018

Prof. Dr. Stephan Neser (FB MN)

Qualitätsbewertung und Kalibrierung von 3D-Kameras Poster

Wintersemester 2017/18

16.01.2018

Prof. Dr. Bernhard Ströbel (FB MN)

Der Darmstädter Insektenscanner Poster

05.12.2017

Prof. Dr. Joachim Ohser (FB MN)

Bildanalytische Bestimmung der Makro­dispersion von Filler­partikeln in Gummi bei der industriellen Qualitäts­kontrolle der Reifen­herstellung Poster

14.11.2017

Prof. Eugen Ghenciu (University of Wisconsin – Stout)

Dynamical properties of S-gap shifts and other shift spaces Poster

07.11.2017

Guido Olbertz (OLEDWorks)

Bring your Design to Light – OLED als Beleuchtung Poster

17.10.2017

Prof. Dr. Horst Zisgen (FB MN)

Warte­­schlangen­­modelle für die Produktions­­planung Poster

Sommersemester 2017

04.07.2017

Prof. Dr. Hans Mittelmann (School of Mathematical and Statistical Sciences, Arizona State University)

Optimization for the Masses – NEOS, Benchmarks and (un)expected Progress Poster

20.06.2017

Prof. Dr. Matthias Will (FB MN)

Mikrooptische Systeme – Stand der Technik und Anwendungen Poster

30.05.2017

Prof. Dr. Christoph Heckenkamp (FB MN)

Einige Bemerkungen zur Tiefenauflösung eines Standard-Stereo-Systems Poster

25.04.2017

Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Udo Rohlfing

Prof. Dr. Frank Boochs (HS Mainz, i3mainz)

Von Pixeln und Punkten – Fragestellungen an einem geodätischen Forschungs­institut Poster

Wintersemester 2016/17

06.12.2016

Prof. Dr. Ralf Blendowske (FB MN)

Transiente Veränderung der optischen Eigen­schaften des Auges bei Diabetes (Typ 1) Poster

22.11.2016

Dr. Gaby Schneider (Goethe Universität Frankfurt, Institut für Mathematik)

Multi-scale change point detection in neuronal spike trains Poster

18.10.2016

Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Helm

Prof. Dr. Manuel Dehnert (HS Weihenstephan-Triesdorf), Prof. Dr. Marc-Thorsten Hütt (Jacobs University Bremen)

Data Mining auf Genomen: Wie Mathe­matik und Statistik Organisations­prinzipien von DNA-Sequenzen sichtbar machen Poster

Sommersemester 2016

21.06.2016

Festkolloquium 30 Jahre MN-Seminar

Einladung Poster

Dr. Heiko Frohn (Vitronic GmbH)

 

Prof. Dr. Martin Grötschel (Berlin-Brandenburgische Akademie der Wissenschaften)

Einst revolutionär, heute alltäglich: Die industrielle Bild­verarbeitung

Mathematik: Erkenntnis­werkzeug, Schlüssel­technologie und Produktions­faktor

     

24.05.2016

Dr. Inna Mikhailova (FB MN)

Autonome Roboter – aktuelle Herausforderungen Poster

03.05.2016

Prof. Dr. Dr. h.c. Klaas Bergmann (TU Kaiserslautern)

Ein neues Laser-Verfahren zur präzisen oder schnellen Ent­fernungs­messung Poster

26.04.2016

Prof. Dr. Torsten-Karl Strempel (FB MN)

Kegelschnitte Poster

Wintersemester 2015/16

19.01.2016

Festkolloquium zur Verabschiedung von Prof. Dr. Konrad Sandau

Prof. Dr. Ute Hahn (Aarhus University, Department of Mathematics - Centre for Stochastic Geometry and Advanced Bioimaging)

Mathematik und Mikroskopie Poster

15.12.2015

Paul Wagner (Institut für Technische Physik, DLR, Stuttgart)

Passiv und aktiv optische Detektion und Vermessung von Weltraumschrott Poster

01.12.2015

Prof. Dr. Maria Kashtalyan (CEMINACS, University of Aberdeen)

Modelling anisotropic materials with gradients in elastic properties Poster

24.11.2015

Christoph Blankenburg (FB MN)

Untersuchung der Zell­bindung an der inneren Oberfläche von porösen Medien mit Hilfe von 3D-Bild­verarbeitung Poster

Sommersemester 2015

16.06.2015

Prof. Dr. Julia Kallrath (FB MN)

Online-Lagersystem: Modellierung, Komplexität und Lösungs­ansätze Poster

19.05.2015

Prof. Dr. Neubecker (FB MN)

Die Kontrolle kontrollieren: Wann funktioniert eine automatische Glas­inspektion? Poster

05.05.2015

Daniel Diezemann (IDS GmbH, Obersulm)

Moderne Bild­sensoren: Heutige Entwicklungen und zukünftige Trends Poster

28.04.2015

Prof. Dr. Torsten-Karl Strempel (FB MN)

Neue Studien­eingangs­phase im Fach Mathematik Poster

20.01.2015

Prof. Dr. Stephan Neser (FB MN)

Random bin-picking mit 3D-Kameras Poster

Wintersemester 2014/15

16.12.2014

Prof. Dr. Gerhard Aulenbacher (FB MN)

Sonnenuhren und Geschichte der Mathematik Poster

02.12.2014

Prof. Christian Daul (CRAN, Nancy)

Generierung texturierter 2D- und 3D-Mosaike mit breitem Sicht­feld aus Sequenzen von Endoskopie­bildern zur Erleichterung der Diagnose von Blasen­krebs Poster

25.11.2014

Jochen Steinmann (FB MN)

Theorie, Model­lierung und Simula­tionen des resistiven Kühlens von hoch­geladenen Ionen Poster

Sommersemester 2014

24.06.2014

Prof. Dr. Thorsten Ringbeck (FH Aachen)

Die Welt ist (k)eine Scheibe – 3D Erfassung und Darstellung Poster

27.05.2014

Prof. Dr. Thomas Netzsch (FB MN)

Bildverarbeitung mit Android und JAVA Poster

29.04.2014

Marcel Kaufmann (FB MN)

Mission To Mars Poster

Wintersemester 2013/14

21.01.2014

Dr. Heinz Haberzettl (FB MN)

Abstands­technolgie in LCD-Substraten Poster

17.12.2013

Dr. Melanie Gillner (VisioCraft GmbH, Erlangen)

Simulation der Abbildungs­güte von Intra­okularlinsen hinsichtlich Dezentrierung und axialer Verschiebung im Auge Poster

26.11.2013

Prof. Dr. Marcus R.W. Martin (FB MN)

Finanz­mathematik in und nach der Krise Poster

29.10.2013

Dr. Christian Karch (EADS, München)

Induktions- und Blitzlicht­thermographie - Modellierung und Simulation Poster


Alle älteren Beiträge sind in einer Archiv-Datei zusammengefasst. Sie enthält die Programme vom Sommersemester 1986 bis zum Sommersemester 2013.