Tagungen 2020-2024

Der Download der Vortragsunterlagen ist nur nach Anmeldung auf der Website möglich.

25. - 26. September 2024, Bad Soden - Salmünster

Jasmin Blanchette (Ludwig-Maximilians-Universität München)

Interaktives Theorembeweisen ist keine Hexerei

Interaktive Theorembeweiser (auch Beweisassistenten genannt) sind Software, die die Entwicklung von computergeprüften Beweisen ermöglichen. Sie werden in der Informatik für die formale Verifikation von Hardware und Software eingesetzt, aber allmählich werden sie auch von Mathematikerinnen und Mathematikern genutzt, um ihre Theorien zu prüfen. Ein Prachtbeispiel ist die Definition im Theorembeweiser Lean von perfektoiden Räumen. Der Vortrag gibt einen Überblick über interaktive Theorembeweiser, inklusive Beweisautomatisierungsansätzen, und ihre Anwendungen in der Informatik und insbesondere in der Mathematik.


Torsten-Karl Strempel (Hochschule Darmstadt)

Mathematik mit CAS und KITeil 1 und Teil 2 (Computer-Algebra-Systeme und Künstliche Intelligenz)

Warum sollte man mathematische Gleichungen lösen können? Kann das nicht der Computer übernehmen? Vielleicht kann man die erste Frage nicht wirklich beantworten, aber Antworten auf die zweite Frage sind möglich. Im Vortrag wird exemplarisch untersucht, ob und wie sich mathematische Aufgaben mit CAS und KI bewältigen lassen.


Wolf-Dieter Groch (Hochschule Darmstadt)

Konforme geometrische Algebra - eine Sprache der Geometrie

Die konforme geometrische Algebra (CGA) stellt seit ca. 2000 eine konsequente Weiterentwicklung der geometrischen Algebra dar. Dabei wird der euklidische 3D-Raum mit Basisvektoren e_1, e_2 und e_3 zu einem 5D-Raum mit zusätzlichen Basisvektoren e_0 und e_inf erweitert. Durch diese Erweiterung sind keinerlei Sonderfall-Behandlungen (z.B. für "Unendlich") mehr erforderlich. CGA-Konstruktionen sind kompakt, einfach und intuitiv; die zugehörigen Programme sind kurz, selbst-dokumentierend und von geringem Rechenaufwand. CGA stellt eine (noch unvollständige) Sprache der Geometrie dar. Dabei entsprechen CGA-Objekte (z.B. Kugeln, Kreise, Geraden, Ebenen) einfachen Worten über dem Alphabet der Basisvektoren und Operator-Zeichen. Einzel-Konstruktionen, Transformationen und geometrische Abfragen sind kurze Sätze, die aus diesen Worten und ihrer Verknüpfung mittels einfacher Operatoren gebildet werden. Und komplexe Konstruktionen sind Abfolgen derartiger Sätze.


Andreas Bolsch (Technische Hochschule Mittelhessen)

Der Fünf-Inseln-Satz von L. V. Ahlfors (1935)

Für eine meromorphe Funktion, die eine eigentliche Abbildung (d. h. die Rand in Rand abbildet) eines Gebietes U in ein Gebiet V ist, liefert die Riemann-Hurwitz-Formel eine Beziehung zwischen den Zusammenhangszahlen von U und V sowie Abbildungsgrad und Anzahl der Verzweigungspunkte. Auf L. V. Ahlfors geht ein schwächeres Analogon zur Riemann-Hurwitz-Formel zurück, wenn die Funktion noch "nahezu" eigentlich ist, d. h. wenn die Teile der Bildkurven des Randes von U, die nicht in den Rand von V abgebildet werden, im Verhältnis zu einem "mittleren Abbildungsgrad" nur eine kleine Gesamtlänge besitzen. Leider ergibt sich hierbei ein von der Geometrie des Bildgebietes abhängiger Fehlerterm. Ahlfors gewann aus diesem Resultat durch "Ausschöpfen" von U seinen sog. Fünf-Inseln-Satz, der ein topologisches Analogon zum kleinen Satz von Picard darstellt, wo Punkte durch einfach zusammenhängende Gebieten ("Inseln") ersetzt sind: Von fünf "außerhalb einander" gelegenen einfach zusammenhängenden Gebiete hat unter einer transzendenten meromorphen Funktion mindestens eines davon unendlich viele konforme (bijektive) Urbilder. Allerdings sind für diese Inseln starke Regularitätsvoraussetzungen über ihre Ränder nötig.


Hagen Knaf (Hochschule RheinMain)

Die Kernmethode in der Clusteranalyse

Mit Hilfe der Kernmethode können lineare Verfahren des Data Mining/Maschinellen Lernens unter bestimmten Voraussetzungen systematisch und effektiv nicht-linear verallgemeinert werden. Im Vortrag wird die Anwendung der Kernmethode in der Clusteranalyse erläutert. Praktische Ergebnisse fallen hier unterschiedlich und teilweise recht ernüchternd aus. Gründe hierfür, sowie mögliche Abhilfen werden diskutiert.


Karlheinz Spindler (Hochschule RheinMain)

The Good, the Bad, and the Ugly – Gute und schlechte Entwicklungen in der Mathematiklehre

Anhand aktueller Erfahrungen werden verschiedene Aspekte adressiert, die die Lehre im Fach Mathematik betreffen. Dabei kommen Themen fachlich-inhaltlicher, didaktischer und auch hochschulpolitischer Art zur Sprache. Wie helfen Visualisierung und Digitalisierung, historische Betrachtungen und die Einbeziehung von Querbezügen bei der Vermittlung mathematischer Begriffe und Sachverhalte? Wie kann man Begeisterung für das Fach Mathematik wecken und die Schnittstelle zwischen Schule und Hochschule verbessern? Inwieweit nutzen oder schaden aktuelle Tendenzen in der Mathematikdidaktik der Mathematiklehre? Wer bestimmt an einer Hochschule eigentlich, was als gute Lehre gilt und was nicht? Der Vortrag ist auch gedacht als Einstieg in einen allgemeinen Erfahrungsaustausch und eine (hoffentlich intensive) Diskussion.

27. - 28. September 2023, Bildungswerk Hessen Metall e.V., Bad Nauheim

Hans Walser (Frauenfeld, Schweiz)
Die Semantik der Bildsprache
Zur Sprache beziehungsweise zum Bild oder auch zur Animation kommen exemplarisch folgende Themen: Verschiedene Krümmungsarten, Unterschied zwischen Funktionsgraf und geometrischer Kurve, gefährliche Modellierungen des schönen Scheins. In der Kartografie können die Disposition der Parametrisierung, die Relativität der Maßstäbe, Verzerrungen sowie Fragen der geraden Linie diskutiert und illustriert werden. Verschiedene Darstellungen in Lehre und Lehrmitteln sind aus Teilbildern mit unterschiedlichen Perspektiven und Fokussierungen zusammengesetzt. So entstehen konventionelle Weltbilder, die auch als fehlerhaft gesehen werden können.

Weitere Unterlagen zu diesem Vortrag haben 108 MB. Wenden Sie sich bei Interesse bitte an Torsten-Karl Strempel.


Oliver Steinkamp (Technische Hochschule Mittelhessen)
Die Consensus-based global Optimization-Methode
Das einfachste Optimierungsproblem ist das Auffinden eines Minimums oder Maximums einer differenzierbaren reellen Zielfunktion, was in der Regel mit Hilfe der Ableitungen gelingt. In der Praxis begegnet man allerdings häufig hoch-dimensionalen Optimierungsproblemen mit Zielfunktionen, die weder differenzierbar noch konvex sind,
und von denen das globale Optimum gesucht wird und nicht nur ein lokales Minimum oder Maximum. Der Vortrag gibt einen Überblick über ein relativ neues Verfahren der globalen Optimierung: Die Consensus-based global Optimization-Methode besteht aus einem System gekoppelter stochastischer Differentialgleichungen, welches die Interaktion von Partikeln modelliert, die sich auf der Suche nach dem globalen Minimum der Zielfunktion durch die Menge der unbekannten Parameter bewegen und sich dabei über ihre Positionen austauschen. Ziel der Modellierung ist, dass die Partikel einen Konsens über eine gute Approximation des globalen Minimums der Zielfunktion erzielen.


Jörg Schäfer (Frankfurt University of Applied Sciences)
Informationsgeometrie — eine informelle Einführung (Folien) und Preprint
Der Gegenstand des Forschungsgebiets “Informationsgeometrie” ist die Untersuchung von geometrischen Strukturen von Familien von Wahrscheinlichkeitsverteilungen und die Anwendung ebensolcher Methoden in der Statistik sowie in der Theorie maschinellen Lernens. Der erste Beitrag geht zurück auf C. R. Rao (1945), der die sogenannte Fisher-Rao-Metrik benutzte, um geometrische Strukturen parametrischer Modelle zu definieren. Die Informationsgeometrie benutzt Konzepte aus der Differentialgeometrie wie z. B. Krümmung, kovariante Ableitungen, affine Zusammenhänge und Transport. Mithilfe dieser Werkzeuge können dann statistische Probleme neu behandelt werden. Bereits Rao hatte Begriffe wie geodätische Distanz eingeführt, um Klassifikationsprobleme und das Testen von Hypothesen in der Statistik zu behandeln. Der Vortrag versucht, eine informelle Einführung in einige Definitionen, Konzepte und Theoreme der Informationsgeometrie zu geben, die sich an Hörer richtet, die mit elementaren Grundlagen der Differentialgeometrie und Wahrscheinlichkeitstheorie vertraut, aber nicht notwendiger Weise Experten in diesen Gebieten sind. Ein Überblick über mögliche Anwendungsgebiete wird ebenso gegeben.


Karlheinz Spindler (Hochschule RheinMain)
Vom Nutzen topologischer Sichtweisen
Sollte ein eher trockenes und abstraktes Fach wie die (mengentheoretische) Topologie Bestandteil auch anwendungsorientierter Mathematikstudiengänge sein? Der Vortrag ist ein Plädoyer dafür, diese Frage mit "ja" zu beantworten, und zwar aus mehreren Gründen. Erstens stellt die Topologie eine Sprache bereit, mit der sich Approximationsphänomene adäquat erfassen und ausdrücken lassen, und zwar vorteilhafterweise in großer Allgemeinheit und unter Benutzung geometrisch motivierter Begriffsbildungen, die unsere räumliche Intuition bei der Behandlung analytischer Fragestellungen aktivieren. Zweitens fördert die Beschäftigung mit Topologie das Denken in Strukturen und damit das Einüben von Methoden, die sowohl innerhalb als auch außerhalb der Mathematik wichtig sind. Drittens folgen etliche Aussagen in der Analysis, der Algebra oder der Geometrie am einfachsten durch explizite Verwendung topologischer Argumente, was in dem Vortrag anhand verschiedener Beispiele demonstriert wird. Wie diese Beispiele zeigen, ist Topologie vielleicht auch gar nicht so trocken, wie man zunächst denken mag, sondern im Gegenteil sogar eher schön, elegant und stimulierend!

Weitere Unterlagen zu diesem Vortag haben 11 MB. Wenden Sie sich bei Interesse bitte an Torsten-Karl Strempel.


Agnes Radl (Hochschule Fulda)
Einbettbarkeit reeller und positiver Operatoren
Das Einbettungsproblem in der Wahrscheinlichkeitstheorie behandelt die Frage, ob eine Markov-Matrix in eine Markovsche Halbgruppe eingebettet werden kann. Die Fragestellung geht auf Gustav Elfving (1937) zurück, ist aber auch heute noch ein aktives Forschungsgebiet mit Anwendungen zum Beispiel in der Biologie oder den Wirtschaftswissenschaften, siehe etwa den kürzlich erschienen Übersichtsartikel "Notes on Markov embedding" von M. Baake und J. Sumner. Darauf aufbauend betrachten wir nun ein ähnliches Problem: Gegeben eine (endliche oder unendliche) Matrix T, ist sie einbettbar in eine reelle bzw. positive C0-Halbgruppe, das heißt, gibt es eine reelle bzw. positive C0-Halbgruppe T(t)t ³ 0, so dass T(1)=T gilt? Wir werden notwendige und hinreichende Bedingungen für die Einbettbarkeit reeller Matrizen in reelle Halbgruppen geben und sehen, dass reelle Einbettbarkeit eine typische Eigenschaft für reelle Kontraktionen in ℓ 2 ist. Für den Fall, dass T positiv ist, zeigen wir notwendige Bedingungen für Einbettbarkeit.


Martin Rehberg (DB Systel GmbH)
NP-Probleme und moderne Kryptographie
In derzeit verwendeten kryptographischen Verfahren finden Sicherheitsgarantien in Form von zahlentheoretischen Problemen, wie dem Faktorisierungsproblem oder dem Problem des diskreten Logarithmus, Anwendung. Der Quantenalgorithmus von Shor löst diese in Polynomialzeit, was einen Wechsel zu quantensicheren kryptographischen Verfahren notwendig macht. Für derartige Verfahren der Post-Quantum Cryptography findet seit mehreren Jahren ein Standardisierungprozess statt. Wir wollen in diesem Vortrag einen Blick auf die in der PQC verwendeten Sicherheitsgarantien in Form von NP-vollständigen Problem werfen und die dafür erforderlichen Grundlagen aus der Komplexitätstheorie bereitstellen. Dabei werden wir notwendigerweise den Übergang zur Quantenkomplexitätstheorie durchführen und zumindest die Klassen BQP, QCMA und QMA als grundlegende Klassen kennenlernen.

Ilka Agricola (Universität Marburg, Präsidentin der DMV)
Die Zukunft berechnen: Entwicklungen der Mathematik in Hochschule und Arbeitsmarkt
Die Studierendenzahlen in der Mathematik sind in den letzten Jahren rückläufig, während der Bedarf nach Mathematikerinnen und Mathematikern auf dem Arbeitsmarkt wächst. Was bedeutet dies für die Entwicklung der Hochschulmathematik und die Berufsaussichten ihrer Absolventinnen und Absolventen? Welche Veränderungen finden derzeit auf dem mathematischen Arbeitsmarkt statt? Diese Fragen sollen geklärt werden, auch mit einem besonderen Blick auf das Potential der HAWs für die Zukunft der Mathematik.


Karlheinz Spindler (Hochschule RheinMain)
Parameterschätzung – Fachliche und didaktische Anmerkungen
Die bestmögliche Schätzung von Systemparametern aus Messungen ist eine in vielen Anwendungssituationen auftretende Fragestellung, in der verschiedene mathematische Disziplinen zusammentreffen: Optimierung, Theorie der Differentialgleichungen, Stochastik. Erfüllen die zu schätzenden Parameter Nebenbedingungen, treten sie also als Elemente einer nichtlinearen Mannigfaltigkeit auf, so kommen noch differentialgeometrische Aspekte hinzu. Im Vortrag kommen sowohl die mathematische Theorie und ausgewählte Beispiele zur Sprache als auch didaktische Erfahrungen, die bei einer Lehrveranstaltung zum Thema gewonnen wurden. Schließlich wird noch eine besonders hübsche Anwendung von Parameterschätzverfahren vorgestellt, nämlich die Bestimmung von Ausgleichsellipsen mittels hyperbolischer Geometrie; siehe https://ems.press/journals/em/articles/online-first.


Jan-Philipp Hoffmann (Hochschule Darmstadt)
Alternative Determinanten in der linearen Algebra
Eine alternative, aber äquivalente Definition der Determinante orientiert sich stärker an der Verwendung von Determinanten in der linearen Algebra, als dies die klassische Weierstraßsche Definition als alternierende Multilinearform vermag. Im Fokus steht dabei, die Natürlichkeit der Determinanten als Gruppenhomomorphismen von den Endomorphismen bzw. linearen Gruppen in den Grundkörper bzw. Ring herauszustellen, um gerade Studierenden an den HAW und denjenigen, die Mathematik im Ingenieurstudium oder in einer Naturwissenschaft studieren, den Zugang zu erleichtern.


Martin Rehberg (Agentur für Innovation in der Cybersicherheit Halle)
Fully Homomorphic Encryption
Fully Homomorphic Encryption (FHE) ermöglicht die Ausführung beliebiger Berechnungen auf verschlüsselten Daten ohne die Notwendigkeit, diese vorher zu entschlüsseln. Ausgehend von der ursprünglichen, bereits 1978 von Rivest, Adleman und Dertouzos formulierten Idee der sicheren Auslagerung von Berechnungen in nicht-vertrauenswürdige Umgebungen werden die historischen Entwicklungen bis zu modernen FHE-Verfahren diskutiert. Dabei wechseln sich formale Anforderungen mit konkreten Verfahren ab, und die unterschiedlichen Generationen von FHE-Verfahren werden aufgezeigt. Den Abschluss bildet ein Ausblick auf das dahinterstehende Schaltkreismodell mit den daraus resultierenden Anforderungen an Programmierung und Compilerbau.


Andreas Görg (Technische Hochschule Mittelhessen)
Parameterdarstellungen für Böschungsflächen
Durch sogenannte Abböschung eines Raumpunktes gegen eine Ebene, die den Punkt nicht enthält, entsteht ein Böschungskegel oder Einschnitttrichter. Abböschungen von Raumkurven führen zu Böschungsflächen, die als Einhüllende von Böschungskegeln aufgefasst werden können. Für differenzierbare Raumkurven lassen sich Parameterdarstellungen zugehöriger Böschungsflächen als Lösungen einer partiellen Differentialgleichung erster Ordnung gewinnen. Einer der Parameter entspricht dabei demjenigen der Raumkurve, der andere kann so gewählt werden, dass Höhenlinien der Böschungsfläche zu Parameterlinien werden.


Thomas März (Hochschule Darmstadt)
Model-Based Regularized Reconstruction Techniques for Magnetic Particle Imaging
Magnetic Particle Imaging (MPI) is an emerging imaging modality developed by Gleich and Weizenecker in 2005 and is today a very active field of research. In the multivariate MPI setup images are usually reconstructed using a system matrix which is obtained by a time consuming measurement procedure. We approach the reconstruction problem by employing a reconstruction formula which we derive from a mathematical model of the MPI signal encoding. Here, we present an enhanced reconstruction algorithm based on the decomposition of the imaging process provided by the model. Its variational formulation incorporates adequate regularization which yields promising reconstruction results.

Volker Schulz (Universität Trier)
Mathematische Optimierung als Schlüsseltechnologie
Beinahe alle industriellen Prozesse lassen sich verbessern und mithin optimieren. Dies ist ein zentrales Ziel der Beschreibung technischer Prozess mit mathematischen Modellen. Der Dreiklang Modellierung, Simulation, Optimierung (MSO) soll hier vor allem mit Fokus auf der Optimierung illustriert werden. Darüber hinaus spielt die Optimierung auch im aktuellen Wissenschaftszweig des Data Science eine zentrale Rolle insbesondere bei der Datenmodellierung. Hier liegt der zweite Schwerpunkt des Vortrages, in dem neue Entwicklungen von Optimierungstechniken bei Niedrigrangtensoren, Clusteranalysen und Neuronalen Netzen diskutiert werden.

Die Unterlagen haben 65 MB. Wenden Sie sich bei Interesse bitte an Torsten-Karl Strempel.


Karlheinz Spindler (Hochschule RheinMain)
Mathematik als Schlüsseltechnologie - Eine historische Betrachtung
Mathematik gilt als Schlüsseltechnologie, und mathematische Methoden und Begriffe spielen eine wichtige Rolle bei Fragen der Digitalisierung und Algorithmisierung, der Datenanalyse und Datensicherheit und der Entwicklung von Planungsstrategien für Klimaschutz, Energiewende und Mobilität. Der weitgehende Konsens über die wachsende Bedeutung der Mathematik beruht aber vielfach auf naiven Vorstellungen über deren Gründe und über das Verhältnis von "reiner" und "angewandter" Mathematik. In dem Vortrag wird anhand historischer Beispiele der Zusammenhang zwischen mathematischen Erkenntnissen und deren praktischer/technologischer Umsetzung untersucht. An den Vortrag kann sich eine Diskussion darüber anschließen, welche Folgerungen sich aus den beobachteten Mustern für die Forschungs- und Hochschulpolitik und insbesondere auch für die Mathematiklehre ergeben.


Thomas Skill (Hochschule Bochum)
Hochschuldidaktische Aktivitäten in der DMV
Auf der Jahrestagung der DMV 2018 fand ein Minisymposium zu „Wissenschaftliche Mathematik lehren und prüfen“ statt. Dieses war der Auftakt der Arbeitsgemeinschaft „Hochschulmathematik lehren und lernen“, die 2021 als Fachgruppe in der DMV anerkannt wurde. Ziel dieser Fachgruppe ist, eine Plattform zu sein, auf der sich Lehrpersonen für Mathematik über ihre Lehre und das studentische Lernen austauschen. In der Vorstellung der Gruppe wird die bisherige Arbeit dargestellt und ein Aus- und Überblick zu hochschuldidaktischen Initiativen gegeben. Anschließend diskutieren wir Inhalte, Ideen und Aktivitäten.


Martin Bokler (Technische Hochschule Mittelhessen)
Gemeinsame Anforderungen für ein MINT-Studium?
In diesem Impulsvortrag werden mögliche Maßnahmen thematisiert, um die bekannten Mathematikprobleme vieler Erstsemester besser in den Begriff zu bekommen als bisher.


Horst Zisgen (Hochschule Darmstadt)
Erklärt Layerwise Relevance Propagation CNNs? - Eine kritische Betrachtung eines Explainable AI Ansatzes
Convolutional Neural Networks (CNN) haben sich in der jüngeren Vergangenheit als eines der meistgenutzten Verfahren des Maschinellen Lernens etabliert. Damit einhergehend werden immer mehr Verfahren publiziert, die versuchen, die Entscheidungsfindung der CNNs zu erklären, etwa die layerwise relevance propagation (LRP). In diesem Vortrag wird eine Analyse der Aussagekraft der Relevanzwerte, mit denen LRP versucht, die Entscheidungsfindung des CNN zu erklären, vorgestellt. Die Ergebnisse legen die Vermutung nahe, dass die Relevanzwerte keine geeignete Grundlage für die Deutung der Entscheidungsfindung bei CNNs bieten.


Jochen Rau (Hochschule RheinMain)
Was ist das Besondere an der Quantentheorie?
Mit der Quantentheorie verbindet man zahlreiche ungewöhnliche Eigenschaften und Effekte: Interferenz, Nicht-Vereinbarkeit von Messungen, Unschärferelation, Zustandsänderung nach Messung, Verschränkung, und vieles mehr. Viele dieser Effekte lassen sich jedoch auch mit klassischen stochastischen Modellen imitieren. Welche Effekte sind also „echte“ Quanteneffekte?


Bettina Just (Technische Hochschule Mittelhessen)
Wie funktionieren Quantencomputer, und warum sind sie so schnell?
Quantencomputer gehen durch die Presse, und allerorten wird von ihrem disruptiven Potential gesprochen. Aber warum sind Quantenrechner so schnell? Im Vortrag werden die beiden Modelle für Quantencomputer vorgestellt: Das (universelle) Schaltkreismodell, und das (speziellere, adiabatische) Quantum Simulated Annealing. Es geht darum, die grundsätzlichen Ideen für ihre Geschwindigkeit zu verstehen, ohne die technischen Details kennen zu müssen.


Torsten-Karl Strempel (Hochschule Darmstadt)
W? (Muss man die Lambertsche W-Funktion kennen?)
Wie löst man die Gleichung x^x=b? Die Gleichung a^x=b löst man mit der Logarithmusfunktion. Gibt es so etwas wie eine erweiterte Logarithmusfunktion? Ja, die sog. Lambertsche W-Funktion. Nach ihrer „Entdeckung“ bei der Behandlung der Gleichung x=x^m+q im Jahr 1758 spielte sie zunächst keine größere Rolle in der Mathematik. Im Jahr 1993 wurde dann eine geschlossene Beschreibung für das Doppelte Delta-Potential mithilfe der Lambert W-Funktion angegeben. Die Lambert W-Funktion erwachte aus ihrem Dornröschenschlaf und danach wurden weitere explizite Lösungen für Anwendungen in verschiedenen Bereichen gefunden. Neben diesen anwendungsorientierten Beispielen findet man inzwischen im Internet jede Menge Videos zum Lösen scheinbar unlösbarer Gleichungen, die zum Teil auch die Lambert W-Funktion verwenden. Ist dies nur eine Spielerei oder eine weitere „sinnvolle“ Anwendung? Im Vortrag wird eine Übersicht zu allem gegeben und jeder kann sich am Ende die Frage stellen: Muss ich die Lambert W-Funktion wirklich kennen?