Die topologische Datenanalyse (TDA) nutzt topologische und geometrische Eigenschaften von Datenvektoren, die als Zufallsstichprobe X aus einem potenziell hochdimensionalen Raum oder einer Mannigfaltigkeit M betrachtet werden können. Topologische Verfahren unterstützen die Feature-Extraktion und dienen als Grundlage für hierarchische Cluster-Verfahren durch die Betrachtung von Zusammenhangskomponenten. Zu den höheren topologischen Eigenschaften gehören die Betti-Zahlen (die Anzahl der Zusammenhangskomponenten entspricht der nullten Betti-Zahl) und die Euler-Charakteristik. Letztere ist eine Größe, die einfach aus den Abständen der Datenvektoren berechnet werden kann und bei ausreichender Stichprobengröße X sogar eine Invariante der Grundgesamtheit M darstellt. Umgekehrt kann mittels der Euler-Charakteristik erkannt werden, ob eine zweite Stichprobe Y nicht aus M stammt. Dies kann bei der Anomalieerkennung hilfreich sein, beispielsweise bei der Erkennung von Defekten aus Sensordaten von Windrädern. In dem Vortrag wird einerseits die für diese Zwecke relevante Stabilität der Euler-Charakteristik bei Störungen der Daten theoretisch untersucht. Andererseits wird ein neues Verfahren zur praktischen Berechnung vorgestellt, das im Gegensatz zu den bisher existierenden Verfahren nicht engen technischen Beschränkungen hinsichtlich Stichprobengröße und Dimensionalität unterliegt.
MN-Seminar
Seit über drei Jahrzehnten unterhält der Fachbereich Mathematik und Naturwissenschaften (FB MN) der Hochschule Darmstadt ein wissenschaftliches Kolloquium, das kurz als MN-Seminar bezeichnet wird.
Leitung des Seminars
- Prof. Dr. Andreas Weinmann: ab SS 2020
- Prof. Dr. Stephan Neser: WS 2009/2010 bis WS 2019/2020
- Prof. Dr. Konrad Sandau: 1995 - SS 2009
- Prof. Dr. Karl Erich Wolff: 1986 - 1994
MN-Seminar Mai 2024
Ab dem Wintersemester 2020/21
Liste der Vortragenden mit Titel und Abstract
Wintersemester 2023/24
16.01.2024
Timo Schürg
Topologische Datenanalyse zur Erkennung von Störungen im Mobilfunknetzwerk
Abstract: Topologische Datenanalyse nutzt Methoden aus der algebraischen Topologie um aus der Geometrie der Daten interessante Features für maschinelles Lernen zu generieren. Ich möchten vorstellen, wie man mit diesen Methoden Störungen in einem Mobilfunknetzwerk delektieren kann. Dabei ist die Art der Störung vorher nicht bekannt.
12.12.2023
Romana Piat
Numerical modeling of particulate composites
Numerical evaluation of the elastic and electric properties of particle reinforced composite was provided. For understanding the effects of the particle shapes onto the overall linear elastic and electric properties of the two-phase composites the particles with different shapes were modelled using analytical functions. Elastic and elastic properties of the composites with different particle shapes were calculated. Good agreement of the present and known from literature results is achieved.
14.11.2023
Andreas Weinmann
Algorithmen zur Change Point Detection und stückweisen Regression
Das Auffinden von Change Points in Zeitreihen ist ein aktives Forschungsthema, das eng mit dem Anpassen eines Modells an die Daten zwischen den Change Points verbunden ist. Numerische Algorithmen zur Erkennung von Change Points führen häufig eine gemeinsame Schätzung der Change Points zusammen mit den Signalstücken durch. Ich berichte über unsere auf Variationsansätzen basierende Ergebnisse zu diesem Thema.Methodisch verwenden wir Ansätze der dynamischen Programmierung in Kombination mit maßgeschneiderten Lösungsmethoden aus der numerischen linearen Algebra, um stabile Löser zu entwickeln.
24.10.2023
Gael Bringout
Magnetic Particle Imaging: Eine interdisziplinäre Reise
Magnetic Particle Imaging ist eine Bildgebungs-Methode, die im Jahr 2005 von Philips Research in Hamburg, Deutschland, vorgestellt wurde. Die Anwendungen zielen hauptsächlich auf den medizinischen Bereich ab, um beispielsweise bei Diagnosen zu helfen oder Behandlungen zu überwachen. Die Forschungsrichtungen umfassen insbesondere Medizin, Pharmazie, Chemie, Physik, Mechanik, Elektronik und natürlich Mathematik. Im Verlauf dieser Präsentation werden wir die Grundlagen dieser Technik vorstellen und die verschiedenen Herausforderungen hervorheben, insbesondere solche, die Mathematiker betreffen.
Sommersemester 2023
02.05.2023
Prof. Dr. Christoph Raab
Einfrequente Diodenlaser in Industrie und Forschung
Wie kann ich Diodenlaser realisieren, mit denen ich eine optische Atomuhr baue?
Diese zunähst eher akademische Fragestellung bekommt zunehmend Relevanz, weil die gleichen Techniken für industrielle Anwendungen wichtig werden.
In meinem Vortrag möchte ich zunächst einige verschiedene Anwendungen und ihre Anforderungen vorstellen. Anschließend präsentiere ich die Technologien, die einfrequente und abstimmbare Diodenlaser ermöglichen.
Dabei möchte ich erklären, wie aus einer Laserdiode mit einer Kohärenzlänge von Millimetern ein Diodenlaser mit einer Kohärenzlänge von 1000km gemacht werden kann. Zum Abschluss zeige ich Herausforderungen auf, die den industriellen Einsatz noch verzögern.
06.06.2023
Prof. Dr. Johannes Gregori
Medizinische Bildverarbeitung und Anknüpfungspunkte zur OBV
Was sind aktuelle Trends der medizinischen Bildverarbeitung, und wie können Anknüpfungspunkte zu unseren OBV-Studiengängen genutzt werden?
Ich werde zwei Forschungsprojekte vorstellen, die aktuell unter Mitwirkung der H-DA durchgeführt werden, ASPIRE (Alzheimer) und BOSOMSHIELD (Brustkrebs).
Des weiteren wird gezeigt, wie Techniken der medizinischen Bildgebung und Bildverarbeitung mit den Vorlesungsinhalten der OBV verknüpft sind und zur Vorlesungsgestaltung genutzt werden können. Als Beispiele bieten sich sind CT (industriell und klinisch) oder MRT (Aufnahme im Frequenzraum, Bildrekonstruktion durch 2D- oder 3D-Fouriertransformation) an.
04.07.2023
Prof. Dr. Elke Hergenröther
Fragestellungen der Computer Vision als Motivation für Cognitive Science und Cognitive Computing
Im Vortrag werden Fragestellungen präsentiert, an denen wir aktuell arbeiten. Die meisten dieser Fragestellungen sind dem Fachgebiet Cognitive Computing zuzuordnen in welchem es darum geht Technologien auf Basis von künstlicher Intelligenz zu entwickeln, die den menschlichen Denk- und Wahrnehmungsprozess nachbilden. Auf der anderen Seite benötigen wir auch das Wissen aus den Fachgebieten Cognitive Science und Cognitive Computing, um bewerten zu können, wann ein Verfahren besser ist als der Mensch oder wann es den Anforderungen des Nutzers genügt.
Diese zwei Seiten von Cognitive Science und Cognitive Computing im Zusammenspiel mit Computer Vision möchte ich ihnen gerne anhand einiger ausgewählter Fallbeispiele mit Ihnen diskutieren.
Wintersemester 2022/23
15.11.2022
Prof. Dr. Thomas März
Model-Based Reconstruction and Regularization for Magnetic Particle Imaging
Abstract: Magnetic Particle Imaging (MPI) is an emerging imaging modality developed by Gleich and Weizenecker in 2005 and is today a very active field of research. In the multivariate MPI setup images are usually reconstructed using a system matrix which is obtained by a time consuming measurement procedure. We approach the reconstruction problem by employing reconstruction formulae which we derive from a mathematical model of the MPI signal encoding. Here, we present a flexible reconstruction algorithm based on the decomposition of the imaging process provided by the model. Its variational formulation incorporates adequate regularization which yields promising reconstruction results.
13.12.2022
Prof. Dr. Christine Bach
Statistische Testverfahren zur Überprüfung von Sterbetafeln
10.01.2023
Prof. Dr. Antje Jahn
Maschinelle Lernverfahren für Ereigniszeitdaten
Insbesondere in der medizinischen Forschung weisen die zu analysierenden Endpunkte häufig sogenannte Zensierungen auf. Ein diesem Vortrag zugrundeliegendes Beispiel ist das Überleben nach Nierentransplantation, welches für alle zum Analysezeitpunkt noch nicht verstorbene Patienten unbekannt ist.
Regressionsmodelle und maschinelle Lernverfahren addressieren Zensierungen in der Regel durch Anpassung der Likelihood- oder Verlustfunktion. Alternativ wurde Bagging in Kombination mit einer Inverse-Probability-of-Censoring-Gewichtung (IPCW) vorgeschlagen, nach der zensierte Beobachtungen aus den Bootstrap-Samples herausfallen und daher keine besondere Berücksichtigung mehr erfordern.
In diesem Vortrag werden am Beispiel der Nierentransplantationsdaten verschiedene Lernverfahren verglichen. Es wird nachgewiesen, dass der IPCW-Ansatz in den likelihood-freien Random Forests zu verzerrten Vorhersagen führt.
07.02.2023
Prof. Dr. Thomas Netzsch
Effiziente Programmierung im Wandel der Zeit
Effiziente Programmierung war und ist ein wichtiges Thema in der Informationstechnologie von den Anfängen der Programmierung bis heute.
Zu Beginn der professionellen Programmierung im 20. Jahrhundert war die Optimierung organisatorischer Abläufe ein wichtiges Mittel zur Verbesserung der Ressourceneffizienz. Die zu optimierende Ressource war dabei der Mensch.
Lange Zeit war dann die geschickte Nutzung limitierter Ressourcen wie Speicherplatz, Rechenleistung und Informationsübertragung durch die EntwicklerInnen von zentraler Bedeutung für die Realisierbarkeit bestimmter Anforderungen.
Der rasante technologische Fortschritt der letzten Jahrzehnte führte dazu, dass die genannten Ressourcen heute in vielen Anwendungsbereichen kostengünstig in nahezu unbegrenzter Menge zur Verfügung stehen. Darüber hinaus haben neue Anwendungsbereiche und Technologien wie z.B. die Klimaforschung oder das Internet einen außerordentlich hohen zusätzlichen Ressourcenbedarf generiert.
Dieser global erhebliche Ressourcenbedarf in Verbindung mit der breiten Anwendung von Informationstechnologie durch nahezu jeden Menschen resultiert darin, dass das Thema Nachhaltigkeit erheblich an Bedeutung gewonnen hat und aktuell der gesamte Lebenszyklus eines Softwareprodukts bei der Effizienzanalyse zu betrachten ist. Eine zu optimierende Ressource ist dabei der Energieverbrauch.
In diesem Vortrag wird ein exemplarischer Überblick über alte, neue und aktuelle Methoden zur effizienten und ressourcenschonenden Programmierung gegeben.
Sommersemester 2022
03.05.2022
Prof. Dr. Jürgen Frikel (OTH Regensburg)
Mikrolokale Analysis in der tomographischen Rekonstruktion
Die Computertomographie (CT) hat sich in den letzten Jahrzehnten nicht nur zu einem diagnostischen Standardwerkzeug der Medizin entwickelt, sondern spielt beispielsweise auch im Bereich der Materialwissenschaften oder der Sicherheitstechnik eine wichtige Rolle. Sie wird vor allem zur Erzeugung von 3D Abbildungen des Inneren der untersuchten Objekte verwendet, um beispielsweise bessere Diagnosen zu ermöglichen, um Defekte in Bauteilen aufzudecken oder um gefährliche Gegenstände, z.B. im Rahmen einer Flughafenkontrolle, zu erkennen. Die Vielzahl der Anwendungsfelder ist enorm. Der Erfolg der CT-Technologie ist unter anderem darauf zurückzuführen, dass die rekonstruierte Bildqualität sehr gut ist, sofern die Objekte vollständig gescannt werden können. Allerdings existiert auch eine Vielzahl von Anwendungen, wo ein vollständiger Scan nicht möglich ist (z.B. in der 3D Mammographie). In solchen Fällen führt die Unvollständigkeit der Daten zu einer (zum Teil deutlichen) Minderung der Rekonstruktionsqualität und erschwert dadurch die Interpretation der Bilder. Dabei sind vor allem zwei Phänomene zu beobachten: Gewisse Bildinformationen können nicht rekonstruiert werden – sie sind aus den gegebenen CT-Daten nicht sichtbar. Andere Bildinformationen (Artefakte) werden künstlich durch verwendete Algorithmen erzeugt, obwohl Sie nicht zum gesuchten Objekt gehören. Das genaue Verständnis des Rekonstruktionsprozesses ist deshalb notwendig, um die Interpretation der rekonstruierten Bilder zu erhöhen.
In diesem Vortrag wird das Problem der tomographischen Rekonstruktion mathematisch vorgestellt und die Auswirkungen Datenunvollständigkeit analysiert. Insbesondere wird dabei das Framework der mikrolokalen Analysis vorgestellt und damit anschließend die CT-Rekonstruktionen aus unvollständigen Daten analysiert. Als Hauptresultat werden Charaktersierungen sichtbarer Singularitäten und singulärer Artefakte präsentiert, und eine Strategie zur Artefaktreduktion vorgestellt.
14.06.2022
Prof. Dr. Ralf Blendowske
Wellenflächenmessungen an Augen bei Groß und Klein
Wie bleibt das menschliche Auge im Wachstumsprozess im Fokus und sieht trotz seiner Längenänderungen weiterhin scharf? Das Frage ist bisher nicht beantwortet. In einer Längsschnittstudie wurden bei Kindern und Jugendlichen die Augen mittels Hartmann-Shack-Sensorik vermessen, um zeitliche Veränderungen mit dem Alter zu untersuchen. Dabei stehen die sogenannten Zernike-Koeffizienten höherer Ordnung im Blickpunkt. Sie liefern individuelle Informationen jenseits der Werte im Brillenpass und werden als Kandidaten zur Lösung des „Vorzeichenproblems“ gehandelt.
05.07.2022
Dr. Maximilan Baust (Nvidea)
Five Ways to Solve the Heat Equation - from Fourier to Deep Learning
Abstract: The heat equation has been playing a crucial role in the invention of many mathematical, and particularly numerical, techniques for solving partial differential equations. Starting with the Fourier transform itself, this talk presents a few milestones along the path of seminal works for solving the heat equation including finite differences, operator splitting techniques, super-time-stepping methods and neural networks. In addition to explaining the mathematical concepts, we will also shed a light on the reason of why modern hardware accelerators, such as GPUs, have gained significant popularity for executing these methods.
Wintersemester 2021/22
02.11.2021
Prof. Dr. Jutta Groos
Bayesianische Ansätze in klinischen Studien
In vielen Bereichen der Statistik, wie auch bei klinischen Studien, haben sich die klassischen Methoden der Statistik durchgesetzt. Die Wirksamkeit von Medikamenten wird in der Regel mit Hilfe klassischer Hypothesentests mit vorgegebenem Signifikanzniveau nachgewiesen. Die bayesianische Sicht auf eine Studiensituation ist zwar nicht neu, ist aber durch die klassische auch frequentistische) Sicht lange Zeit aus der ̈offentlichen Wahrnehmung verdrängt worden. Obwohl die beiden Ansätze zunächst sehr verschieden wirken, führen sie sehr häufig zu identischen Ergebnissen.
Dennoch bietet die bayesianische Sichtweise einige Vorteile, wie z.B. eine intuitivere Interpretierbarkeit sowie eine einfache Möglichkeit, nicht nur die Daten einer aktuellen Studie zu betrachten, sondern auch frühere Befunde in eine Entscheidung mit einzubeziehen. Gerade in Studien ̈über seltene Erkrankungen mit sehr geringen Fallzahlen, kann die Einbeziehung früherer Erkenntnisse von Nutzen sein.
Geben die Regularien für klinische Studien allerdings feste Obergrenzen für den Fehler 1. Art vor, so gewinnt man aus der Verwendung früherer Befunde keinerlei Power-Vorteil. In diesem Vortrag soll die alternative bayesianische Sichtweise anhand eines konkreten Beispiels aus der Krebsforschung erläutert und das Problem des fehlenden Power-Gewinns beleuchtet werden.
07.11.2021
Prof. Dr. Sebastian Döhler
Zur Kontrolle der False Discovery Exceedance bei heterogenen Tests
In der statistischen Analyse von Big Data werden oft Tausende oder Millionen von statistischen Tests gleichzeitig durchgeführt. Die False Discovery Exceedance (FDX) ist ein wichtiges Maß für den Fehler erster Art, der in solchen Situationen auftritt. Die klassischen Verfahren gehen dabei von der Situation aus, dass die Verteilungen der p-Werte unter den Null-Hypothesen gleich sind. Tatsächlich sind diese Verteilungen jedoch oft heterogen, etwa wenn diskrete Tests vorliegen, oder die Ergebnisse der einzelnen Tests gewichtet werden.
In diesem Vortrag stellen wir neue Verfahren vor, die diese Heterogenität berücksichtigen und gleichzeitig die FDX kontrollieren.
Gemeinsame Arbeit mit Etienne Roquain.
11.01.2022
Dr. Raphael Memmesheimer
Servicerobotik - Wettbewerbe und Anwendungen
In dem Vortrag werden Erfahrungen und Entwicklungen aus internationalen Robotikwettbewerben wie dem RoboCup, der European Robotics League und dem World Robot Summit gegeben. Der Fokus liegt auf autonomen Servicerobotern in Haushaltsumgebungen. Diese kartieren die Umgebung und
sind anschließend in der Lage darin zu navigieren. Sie erkennen Objekte und Personen und erledigen Hol- und Bringaufgaben. Diese anwendungsnahen Szenarien profitieren regelmäßig von dem Fortschritt aus der Forschung und werden immer zuverlässiger.
08.02.2022
Dr. Lukas Kiefer
Efficient Algorithms for Mumford-Shah and Potts Problems
Datenglättung ist oftmals der erste Schritt in einer Datenverarbeitungskette. Gründe hierfür können beispielsweise die Unterdrückung von Rauschen oder eine Vereinfachung der Daten sein. Die
Anwendung klassischer Glättungsmethoden kann jedoch dazu führen, dass erwünschte schlagartige Änderungen in den Daten wie beispielsweise Changepoints in Zeitreihen oder Kanten in Bilddaten ausgeglättet werden.
Mumford-Shah- und Potts-Modelle gehören zu den bekanntesten (variationellen) Methoden zum Kanten- und Changepoint-erhaltenden Glätten bzw. Partitionieren von Bildern und Zeitreihen. Ihre Anwendung ist allerdings nicht trivial, da hierbei schwierige nichtkonvexe Minimierungsprobleme angegangen werden müssen. Demgemäß stellt das Entwickeln neuer algorithmischer Ansätze zum Lösen von Mumford-Shah- und Potts-Modellen ein aktives Forschungsgebiet dar.
In diesem Vortrag betrachten wir Erweiterungen des Mumford-Shah- und Potts-Modells zu Modellen höherer Ordnung, um bekannten Nachteilen der konventionellen Modelle erster Ordnung entgegenzuwirken. Insbesondere werden die algorithmischen Anforderungen, die solche Verallgemeinerungen nach sich ziehen, beleuchtet und neue algorithmische Ansätze vorgestellt.
Gemeinsame Arbeit mit Martin Storath (Hochschule Würzburg-Schweinfurt) und Andreas Weinmann (Hochschule Darmstadt).
Sommersemester 2021
20.04.2021
Prof. Dr. Sebastian Döhler
Zur Analyse von multiplen diskreten Tests: Neue Methoden und Software
Abstract: Die Benjamini-Hochberg Prozedur und verwandte Verfahren sind klassische Methoden, die die Kontrolle der False Discovery Rate (FDR) garantieren und spielen eine wichtige Rolle in der Analyse von hochdimensionalen Daten. Während diese Verfahren für stetige Test-Statistiken entwickelt wurden, liegen in der Anwendung oft diskrete Daten vor. In diesem Fall gewährleistet z.B. die Benjamini-Hochberg Prozedur immer noch die Kontrolle der FDR, allerdings ist sie i.A. zu konservativ. Daher ist es von Interesse, effizientere FDR Prozeduren für diskrete Daten zu entwickeln. In diesem Vortrag stellen wir solche Verfahren und ihre Implementierung in einem R-Paket vor und illustrieren ihre Performance für empirische und simulierte Daten.
Gemeinsame Arbeit mit Etienne Roquain, Guillermo Durand (Sorbonne Universite) und Florian Junge (DISO).
04.05.2021
Prof. Dr. Jan-Philipp Hoffmann
Topologische Datenanalyse
Zur Anwendung von geometrischen Methoden in der Datenanalyse werden numerisch codierte Daten als eine zufällige Stichprobe an Punkten einer in einen euklidischen Raum eingebetteten Mannigfaltigkeit M verstanden. Liegen die Punkte hinreichend nahe bei einander (sprich, ist die Stichprobe groß genug), lässt sich die grobe Erscheinung der ursprünglichen Struktur durch das Verbinden von Punkten die den Abstand kleiner R haben, für ein geeignetes R>0, ungefähr rekonstruieren. Da ein geeignetes R meist nicht bekannt ist, untersucht man dieses Verbindungskonstrukt in Abhängigkeit von R als eine Filtration von Simplizialenkomplexen mit Methoden der algebraischen Topologie. Die daraus resultierenden topologischen Invarianten können dann Aufschluss über die geometrische Struktur der Daten liefern. Abschließend wird vorgestellt, wie die Methoden der topologischen Datenanalyse zur Kontrolle von deep-learning-Verfahren, wie bei künstliche neuronalen Netzten, genutzt werden können.
01.06.2021
Prof. Dr. Elke Hergenröther
Reality-simulation gap
Convolutional Neural Networks (Abkürzung: CNN oder ConvNet) sind spezielle Deep Learning Verfahren, die sich zum Erkennen von bestimmten Objekten in Bildern oder Videos eignen. Anwendung finden sie beim autonomen Fahren, dem Erkennen von Gesichtern und der Interpretation von Emotionen und ähnlichen. Auch in der Industrie will man diese Verfahren für eine bestimmte Art von Fragestellungen einsetzen. Um dies tun zu können, benötigt man Trainingsdaten in nicht unerheblichen Mengen. Diese zu erzeugen ist meist problematisch weswegen man gerne auf Modelldaten ausweicht. Obwohl, wie ich zeigen werde, aktuelle Renderingverfahren schon sehr realistische Materialeigenschaften erzeugen können, gibt es Unterschiede zwischen den Modelldaten und den realen Aufnahmen. Auf diesen Unterschieden beruht der Reality Simulation Gap. Diese Lücke klein zu halten, ist die notwendige Voraussetzung um Simulationen statt realer Bilder oder Videos zum Training von Convolutional Neuronal Networks verwenden zu können. Der Reality Simulation Gap beschränkt sich nicht allein auf die ConvNets. Auch andere Deep Learning Verfahren, wie beispielsweise Deep Reinforcement Verfahren kämpfen mit dem Reality Simulation Gap.
„Was der Realtity Simulation Gap ist und wie man ihn zu minimieren versucht?“, sind die Fragen die im Vortrag diskutiert werden. Nach dem Vortrag werden Sie aber nicht nur Antworten auf diese beiden Fragen haben, sondern auch wissen was ein Convolutional Neuronal Network ist, wie es ungefähr arbeitet, was man unter Transferlearning versteht und warum Spiele-Engines, wie Unreal und Unity auch in den eher klassischen Industrien immer beliebter werden.
29.06.2021
Prof. Dr. Horst Zisgen
Warteschlangensysteme mit parallelen Bedienern sowie Gruppenankünfte und -bedienung
Aus unserem Alltag kennen wir alle das leidige Phänomen des Wartens, sei es an der Kinokasse, vor dem Aufzug, im Wartezimmer des Arztes, in der Warteschleife der Service-Hotline, auf der Autobahn im Stau oder als Skifahrer an der Gondelstation. Warteschlangen entstehen aber nicht nur in solch alltäglichen Situationen, sondern auch in technischen Systemen, wie Web-Server, oder im Bereich von Produktion und Logistik. Warteschlangenmodelle bilden allgemein das Warten von Entitäten, wie Kunden, Patienten oder Jobs, vor einer Bedienstation (wie z.B. einer Kasse, eines Arztes oder Web-Servers) als stochastischen Prozess ab und finden in vielen Bereichen der Technik oder des Operations Research praktische Anwendung. Doch trotz der langen Tradition der Warteschlangentheorie und ihrer Fortschritte, gibt es immer noch bestimmte Eigenschaften von Warteschlangensystemen, die sich nicht exakt modellieren oder zumindest näherungsweise gut approximieren lassen. Dazu gehören z.B. Systeme, an denen die Entitäten als Gruppe eintreffen und dann an mehreren parallel arbeitenden Bedienern wiederum als Gruppe, jedoch in anderer Gruppengröße, bedient werden. Aber gerade solche Gruppenankünfte und Gruppenbedienungen spielen in vielen praktischen Problemstellungen eine wichtige Rolle, wie etwa in der Prozessierung von Wafern in der Halbleiterfertigung, so dass es einen großen Bedarf für eine bessere Modellierung solcher Systeme gibt.
In diesem Vortrag wird zum einen eine kurze Einführung in den Stand der Forschung zur Modellierung von vereinfachten Warteschlangensystemen mit Gruppenankünften und -bedienung gegeben. Anschließend wird ein neuer Modellierungsansatz zur Approximation von generischen Systemen mit Gruppenankünften und -bedienung vorgestellt, der eine deutliche Verbesserung der Approximationsgüte im Vergleich zu bestehenden Verfahren bietet und so eine praktische Nutzung in den oben genannten Anwendungsgebieten ermöglicht. Die Güte der Modellierung wird abschließend durch Simulationsexperimente belegt.
Wintersemester 2020/21
17.11.2020
Prof. Dr. Martin Storath
Fast median filtering for phase or orientation data
Abstract: Median filtering is among the most utilized tools for smoothing real-valued data, as it is robust, edge-preserving, value-preserving, and yet can be computed efficiently. For data living on the unit circle, such as phase data or orientation data, a filter with similar properties is desirable. For these data, there is no unique means to define a median; so we discuss various possibilities. The arc distance median turns out to be the only variant which leads to robust, edge-preserving and value-preserving smoothing. However, there are no efficient algorithms for filtering based on the arc distance median. Here, we propose fast algorithms for filtering of signals and images with values on the unit circle based on the arc distance median. For non-quantized data, we develop an algorithm that scales linearly with the filter size. The runtime of our reference implementation is only moderately higher than the Matlab implementation of the classical median filter for real-valued data. For quantized data, we obtain an algorithm of constant complexity w.r.t. the filter size. We demonstrate the performance of our algorithms for real life data sets: phase images from interferometric synthetic aperture radar, planar flow fields from optical flow, and time series of wind directions.
01.12.2020
Prof. Dr. Thomas März
Image Inpainting by Coherence Transport, Algorithm & Theory
Abstract: In image processing the term Image Inpainting refers to the retouching of damaged or undesired portions of a picture. From a mathematical point of view this is a problem of data interpolation, subject to the side condition that the completed image shall look visually plausible. In the last two decades different approaches, using PDE models from order 2 up to 4, have shown that PDE techniques are fruitful here. In this talk we present an Image Inpainting method based on a transport PDE, a PDE of first order. The transport field is constructed from coherence information which we obtain by applying structure tensor analysis. We will demonstrate applications, and discuss the algorithm as well as the analysis of the underlying model.
19.01.2021
Prof. Dr. Christoph Becker
Liquidity Consequences of Central Clearing
Abstract: Central clearing counterparties transform counterparty credit risk into liquidity risk for its clients. The volume of required margin from their members causally influences both liquidity risk premia in the core of the US financial system and the liquidity risk exposure of dealer banks. We discuss implications for financial stability and regulation.
09.02.2021
Prof. Dr. Matthias Will
Forschungs- und Anwendungsgebiete im Labor Elektronenmikroskopie an der h-da
Abstract: Materialvielfalt und Packungsdichten haben in den letzten Jahrzenten allen Anwendungsbereichen der Technik massiv zugenommen. So ist z.B. die Anwendung Nanomaterialen längst nichts ungewöhnliches mehr. Demzufolge hat eine Weiterentwicklung von Analysemethoden wie der Elektronenmikroskopie vom eher akademischen Einsatz zum industriellen Analysewerkzeug stattgefunden. Die Fachbereiche MN, MK und CuB haben ein Gemeinschaftslabor mit einem modernen Elektronenmikroskop eingerichtet. Fokus bei der Geräteauswahl lag hier auf der Analyse von nichtmetallischen Werkstoffen und Einsatz in Forschung und Lehre. Im Vortrag wird über die Einsatzmöglichkeiten und Forschungstätigkeiten berichtet.
Im Sommersemester 2020 fanden pandemiebedingt keine Vorträge statt.
Wintersemester 2013/14 - 2019/20
Liste der Vortragenden und Titel
Wintersemester 2019/20
04.02.2020 | Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Pfeifer | |
Michael Horf (Degussa Bank AG) | Smart Business: Wie die Mathematik durch die Digitalisierung das tägliche Leben beeinflusst Poster | |
28.01.2020 | Dana Diezemann (ISRA VISION AG) | HDR: Die verschiedenen Wege zur hochdynamischen Bildaufnahme Poster |
14.01.2020 | Prof. Dr. Romana Piat (FB MN) | Korrelation zwischen Einschlussform und elastischen Eigenschaften des Verbundwerkstoffs Poster |
10.12.2019 | Prof. Dr. Andreas Weinmann (FB MN) | Variationelle Methoden zur Segmentierung und Restauration von Bildern Poster |
12.11.2019 | Prof. Dr. Tobias Bedenk (FB MN) | Modelle und Lösungsverfahren zur Optimierung von Bestellmengen Poster |
Sommersemester 2019
02.07.2019 | Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Heddrich und Prof. Dr. Ohser | |
| Dr. Katja Schladitz (Fraunhofer ITWM) | Charakterisierung von Mikrostrukturen durch 3D-Bildanalyse Poster |
25.06.2019 | Prof. Dr. Jürgen Groß (FB MN) | Parallelflächen Poster |
18.06.2019 | Kai Steuerle (Cognex) | Deep Learning für Industrielle Bildverarbeitung Poster |
28.05.2019 | Prof. Dr. Rossitza Marinova (Concordia University, Edmonton) | Variational Imbedding Approach to Solving Inverse Problems Poster |
Wintersemester 2018/19
15.01.2019 | Prof. Dr. Julia Kallrath (FB MN) | Mathematische Modellierung eines Platzierungsproblems Poster |
04.12.2018 | Prof. Dr. Wolfgang Heddrich (FB MN) | Optische Elemente in der Spektroskopie Poster |
06.11.2018 | Prof. Dr. Thomas Netzsch (FB MN) | Vision Debugger – Eine plattformunabhängige Anwendung zur Unterstützung der Lehre in der Bildverarbeitung Poster |
23.10.2018 | Prof. Dr. Markus Döhring, Prof. Dr. Michael von Rüden und Prof. Dr. Stefan Rühl (alle FB I) | Cloud Infrastruktur in Lehre und Forschung – Erfahrungsbericht Poster |
Sommersemester 2018
03.07.2018 | Prof. Dr. Christoph Becker (FB MN) | Finanzstabilität und Systemrisikomessung Poster |
19.06.2018 | Prof. Dr. Ralph Neubecker (FB MN) | Evaluation klassifizierender Bildverarbeitungssysteme Poster |
08.05.2018 | Prof. Dr. Wolf-Dieter Groch (FB I) | Konforme geometrische Algebra – eine universelle Sprache der Geometrie Poster |
17.04.2018 | Prof. Dr. Stephan Neser (FB MN) | Qualitätsbewertung und Kalibrierung von 3D-Kameras Poster |
Wintersemester 2017/18
16.01.2018 | Prof. Dr. Bernhard Ströbel (FB MN) | Der Darmstädter Insektenscanner Poster |
05.12.2017 | Prof. Dr. Joachim Ohser (FB MN) | Bildanalytische Bestimmung der Makrodispersion von Fillerpartikeln in Gummi bei der industriellen Qualitätskontrolle der Reifenherstellung Poster |
14.11.2017 | Prof. Eugen Ghenciu (University of Wisconsin – Stout) | Dynamical properties of S-gap shifts and other shift spaces Poster |
07.11.2017 | Guido Olbertz (OLEDWorks) | Bring your Design to Light – OLED als Beleuchtung Poster |
17.10.2017 | Prof. Dr. Horst Zisgen (FB MN) | Warteschlangenmodelle für die Produktionsplanung Poster |
Sommersemester 2017
04.07.2017 | Prof. Dr. Hans Mittelmann (School of Mathematical and Statistical Sciences, Arizona State University) | Optimization for the Masses – NEOS, Benchmarks and (un)expected Progress Poster |
20.06.2017 | Prof. Dr. Matthias Will (FB MN) | Mikrooptische Systeme – Stand der Technik und Anwendungen Poster |
30.05.2017 | Prof. Dr. Christoph Heckenkamp (FB MN) | Einige Bemerkungen zur Tiefenauflösung eines Standard-Stereo-Systems Poster |
25.04.2017 | Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Udo Rohlfing | |
Prof. Dr. Frank Boochs (HS Mainz, i3mainz) | Von Pixeln und Punkten – Fragestellungen an einem geodätischen Forschungsinstitut Poster |
Wintersemester 2016/17
06.12.2016 | Prof. Dr. Ralf Blendowske (FB MN) | Transiente Veränderung der optischen Eigenschaften des Auges bei Diabetes (Typ 1) Poster |
22.11.2016 | Dr. Gaby Schneider (Goethe Universität Frankfurt, Institut für Mathematik) | Multi-scale change point detection in neuronal spike trains Poster |
18.10.2016 | Festkolloquium aus Anlass der Verabschiedung von Prof. Dr. Helm | |
Prof. Dr. Manuel Dehnert (HS Weihenstephan-Triesdorf), Prof. Dr. Marc-Thorsten Hütt (Jacobs University Bremen) | Data Mining auf Genomen: Wie Mathematik und Statistik Organisationsprinzipien von DNA-Sequenzen sichtbar machen Poster |
Sommersemester 2016
21.06.2016 | Festkolloquium 30 Jahre MN-Seminar | |
Dr. Heiko Frohn (Vitronic GmbH)
Prof. Dr. Martin Grötschel (Berlin-Brandenburgische Akademie der Wissenschaften) | Einst revolutionär, heute alltäglich: Die industrielle Bildverarbeitung Mathematik: Erkenntniswerkzeug, Schlüsseltechnologie und Produktionsfaktor | |
24.05.2016 | Dr. Inna Mikhailova (FB MN) | Autonome Roboter – aktuelle Herausforderungen Poster |
03.05.2016 | Prof. Dr. Dr. h.c. Klaas Bergmann (TU Kaiserslautern) | Ein neues Laser-Verfahren zur präzisen oder schnellen Entfernungsmessung Poster |
26.04.2016 | Prof. Dr. Torsten-Karl Strempel (FB MN) | Kegelschnitte Poster |
Wintersemester 2015/16
19.01.2016 | Festkolloquium zur Verabschiedung von Prof. Dr. Konrad Sandau | |
Prof. Dr. Ute Hahn (Aarhus University, Department of Mathematics - Centre for Stochastic Geometry and Advanced Bioimaging) | Mathematik und Mikroskopie Poster | |
15.12.2015 | Paul Wagner (Institut für Technische Physik, DLR, Stuttgart) | Passiv und aktiv optische Detektion und Vermessung von Weltraumschrott Poster |
01.12.2015 | Prof. Dr. Maria Kashtalyan (CEMINACS, University of Aberdeen) | Modelling anisotropic materials with gradients in elastic properties Poster |
24.11.2015 | Christoph Blankenburg (FB MN) | Untersuchung der Zellbindung an der inneren Oberfläche von porösen Medien mit Hilfe von 3D-Bildverarbeitung Poster |
Sommersemester 2015
16.06.2015 | Prof. Dr. Julia Kallrath (FB MN) | Online-Lagersystem: Modellierung, Komplexität und Lösungsansätze Poster |
19.05.2015 | Prof. Dr. Neubecker (FB MN) | Die Kontrolle kontrollieren: Wann funktioniert eine automatische Glasinspektion? Poster |
05.05.2015 | Daniel Diezemann (IDS GmbH, Obersulm) | Moderne Bildsensoren: Heutige Entwicklungen und zukünftige Trends Poster |
28.04.2015 | Prof. Dr. Torsten-Karl Strempel (FB MN) | Neue Studieneingangsphase im Fach Mathematik Poster |
20.01.2015 | Prof. Dr. Stephan Neser (FB MN) | Random bin-picking mit 3D-Kameras Poster |
Wintersemester 2014/15
16.12.2014 | Prof. Dr. Gerhard Aulenbacher (FB MN) | Sonnenuhren und Geschichte der Mathematik Poster |
02.12.2014 | Prof. Christian Daul (CRAN, Nancy) | Generierung texturierter 2D- und 3D-Mosaike mit breitem Sichtfeld aus Sequenzen von Endoskopiebildern zur Erleichterung der Diagnose von Blasenkrebs Poster |
25.11.2014 | Jochen Steinmann (FB MN) | Theorie, Modellierung und Simulationen des resistiven Kühlens von hochgeladenen Ionen Poster |
Wintersemester 2013/14
21.01.2014 | Dr. Heinz Haberzettl (FB MN) | Abstandstechnolgie in LCD-Substraten Poster |
17.12.2013 | Dr. Melanie Gillner (VisioCraft GmbH, Erlangen) | Simulation der Abbildungsgüte von Intraokularlinsen hinsichtlich Dezentrierung und axialer Verschiebung im Auge Poster |
26.11.2013 | Prof. Dr. Marcus R.W. Martin (FB MN) | Finanzmathematik in und nach der Krise Poster |
29.10.2013 | Dr. Christian Karch (EADS, München) | Induktions- und Blitzlichtthermographie - Modellierung und Simulation Poster |
Alle älteren Beiträge sind in einer Archiv-Datei zusammengefasst. Sie enthält die Programme vom Sommersemester 1986 bis zum Sommersemester 2013.