Forschung
Projektübersicht
- Fasersegmentierung und Faseranalyse
- Automatische Klassifizierung von Lamellengraphit in Grauguss
- Bildverarbeitung und Bildanalyse von 3D-Bildern
- Analyse ebener Punktfelder
- Messverfahren zur Bestimmung der Komplexität von Randstrukturen mit Methoden der Fraktalen Dimension
- Modellierung arteriellen Wachstums durch stochastische Simulation auf biophysikalischer Grundlage
Fasersegmentierung und Faseranalyse
Faserstrukturen treten bei einer Vielzahl von Anwendungen auf. So ist im Bereich der faserverstärkten Materialien die mikroskopische Nachuntersuchung eine übliche Kontrolle zur Überprüfung der Qualität des Fertigungsvorgangs.
Aus Sicht der Bildanalyse ergeben sich zwei Basisaufgaben. Die Segmentierung sich überkreuzender Fasern und die Längenverteilung der Fasern. Auch die Richtungsverteilung kann von Interesse sein. Als Werkzeug zur Lösung dieser Aufgaben wurde die sogenannte Sehnenlängentransformation (chord length transform, CLT) entwickelt. Dieses Werkzeug ist mittlerweile auch für 3D-Volumenbilder verfügbar, die beispielsweise mit einem Röntgentomographen erstellt wurden.
Automatische Klassifizierung von Lamellengraphit in Grauguss
Gusseisen ist aufgrund seiner breiten Palette von mechanischen und physikalischen Eigenschaften ein attraktiver Konstruktionswerkstoff. Den Hauptanteil daran hat Gusseisen mit Lamellengraphit (EN-GJL nach DIN EN 1563). Der Fahrzeug- und Maschinenbau sind Hauptabnehmer dieses Werkstoffs.
Aufgrund der Forderung nach Leichtbau, z.B. im Fahrzeugbau, wird angestrebt, dass das Material ein möglichst hohes, über das Gussstück gleichmäßiges und über die Produktion konstantes Niveau der geforderten Eigenschaften gewährleistet. Bereits relativ geringe Änderungen in der Graphitausbildung können das Bauteilverhalten erheblich beeinträchtigen. Als Konsequenz bestellen Gussabnehmer zunehmend nicht nur eine bestimmte Gusseisensorte, sondern ein bestimmtes Gefüge. Die Gefügebeschreibung erfolgt in vielen Fällen durch die Anordnung und Größe des Lamellengraphits.
Die visuelle Bewertung mittels Richtreihen erfordert einen für die Produktionsüberwachung hohen Zeitaufwand und setzt geschulte und erfahrene Metallographen voraus. Als Alternative wurde ein Klassifikationsverfahren entwickelt, das die Anordnung von Lamellengraphit aufgrund der Umgebungsstruktur bestimmt und die in ein Bildanalysesystem integriert werden kann. Die Methode gestattet, den Klassifikator auf verschiedene Standards anzulernen. Da das Verfahren lokal arbeitet, können auch bei Mischgefügen die Anteile der jeweiligen im Bild vorhandenen Anordnungsklassen berechnet werden.
Dieses Projekt wurde am Institut für Techno- und Wirtschaftsmathematik(ITWM), Kaiserslautern durchgeführt.
Bildverarbeitung und Bildanalyse von 3D-Bildern
Tomographie und konfokale Laserscanningmikroskopie sind wichtige Beispiele für Bildaufnahmeverfahren, die erlauben, mehrere Schichten von Bildern nacheinander und mit präziser geometrischer Zuordnung aufzunehmen. Benachbarte Schichten lassen sich zu einem dreidimensionalen Datensatz zusammenzusetzen, der ein digitales Abbild des aufgenommenen Raumes darstellt (3D-Bild).
Das erste Ziel dieses Projekts war, die in der 2D-Bildverarbeitung verfügbaren Filtertechniken der linearen Filterung, der Methoden der Mathematischen Morphologie und der Rangordnungsfilter zu übertragen und als Werkzeuge zu Verfügung zu haben. Der nächste Schritt in der Bildverarbeitung zielte auf die Segmentierung von Bereichen einheitlicher Bedeutung, die durch Lage, Grauwert und Umgebung zu charakterisieren sind. Hier bilden Techniken des Regionenwachstums, des weiteren die sogenannte Distanztransformation und der Wasserscheidenalgorithmus wichtige Hilfsmittel. Sind die Segmente bestimmt und damit die interessierenden Objekte erkannt, verzweigen sich die weiteren Interessen an dem vorbehandelten Bild je nach Anwendung.
Ein wichtiger Zweig, der spezifisch in der 3D-Bildverarbeitung neu erscheint, ist die Visualisierung der Daten. Verschiedene Techniken erlauben Schnitte durch das Bild an jeder Position und in jeder Richtung, ebenso Projektionen und Beleuchtungen nach verschiedenen Vorgaben und aus beliebiger Perspektive.
Ein weiterer, weniger spektakulärer Zweig befasst sich mit der Frage wie man in digitalen Räumen Objekte messen kann. Dabei interessieren Volumen, Oberfläche, Anzahl, Formkennwerte und eine Vielzahl weiterer Parameter. Während die Bestimmung des Volumens durch die Anzahl der zum Objekt gehörenden Pixel geschätzt werden kann, ist die Bestimmung der Oberfläche bereits ein mathematisches Problem. Integralgeometrische und stereologische Methoden liefern erwartungstreue Schätzer. Die Umsetzung von Algorithmen zur Messung von Objektparametern war ein wichtiges Ziel des über zwei Jahre gelaufenen Projekts. Dabei wurden auch Verfahren, die früher für die quantitative Mikroskopie entwickelt wurden, eingebracht.
Die Umsetzung der Projektziele war in der gegegebenen Zeit nur deshalb machbar, weil auf einer hochentwickelten professionellen Plattform aufgesetzt werden konnte, in der viele Grundroutinen zur Bildverarbeitung bereits verfügbar waren. Die Programmiersprache IDL ist eine matrixorientierte Interpretersprache, ähnlich dem bekannteren MATLAB, mit einer für die Bildverarbeitung besser geeigneten Vielfalt von Datenstrukturen und einer Vielzahl leistungsfähiger Bildverarbeitungsbefehle, von denen mittlerweile viele auch für dreidimensionale Datensätze ausgelegt sind.
Analyse ebener Punktfelder
Ebene Punktfelder treten bei einer Vielzahl biologischer Phänomene auf. Beispielsweise die Verbreitung von Pflanzen oder die Lage bestimmter Zellen in einem gegebenen Areal kann als Punktfeld aufgefasst werden. Aber auch Fehler (Verunreinigungen/ Lufteinschlüsse) bei der Fertigung von Platten oder der Beschichtung von Oberflächen können mathematisch als Punktfelder interpretiert werden.
Die Analyse solcher Punktfelder soll ermöglichen, strukturelle Fragen, wie Clusterung, Abstoßung oder periodische Wiederholungen quantitativ zu erfassen. Eine Auswahl quantitativer Methoden ist implementiert. Schätzmethoden für die Parameter von Punktfeldmodellen, wie beispielsweise dem Matern Hardcore Modell und dem Matern Cluster Modell (II), wurden entwickelt.
Messverfahren zur Bestimmung der Komplexität von Randstrukturen mit Methoden der Fraktalen Dimension
In vielen Bereichen der Medizin und der Biologie als auch der Materialwissenschaften und der Geophysik, werden Randstrukturen und Verzweigungsstrukturen beobachtet. Bekannte Beispiele aus der Medizin sind Lunge oder Blutgefäße. In der Biologie trifft man auf hochstrukturierte Blattstrukturen, häufig zitiertes Beispiel ist der Farn. Die Materialwissenschaften erfassen die Rauigkeit von Brüchen oder Oberflächenstrukturen von Partikeln. Rissstrukturen in Gestein sind Indikatoren für Geowissenschaftler.
Die Fraktale Dimension ist ein oft benutzter Parameter für die Bewertung solcher Strukturen. Die Messung solcher Parameter aus Bildern ist jedoch mit Problemen behaftet, die teilweise in der Messmethode liegen. Gängige Verfahren wurden auf solche systematischen Probleme hin untersucht und ein alternatives Messverfahren entwickelt, das von den gewünschten Eigenschaften kommt und insbesondere für vergleichende Studien geeignet ist.
Mittlerweile werden Messungen mit dieser und anderen Methoden auch an 3D-Bildern aus tomografischenAufnahmeverfahren vorgenommen.
[S96a][S96b][SK97a][KSC97][KS97][KWCS99][HSRP06][HPRS07]
Daneben wurde die Frage gestellt, welche Strukturen in der Natur wirklich als fraktal anzusehen sind und ob nicht in vielen Fällen, in denen diese Annahme gemacht wird, andere Modelle das System besser beschreiben.
[KS98] [S01] (Online-Publikation)
Modellierung arteriellen Wachstums durch stochastische Simulation auf biophysikalischer Grundlage
Basierend auf Beobachtungen an der Chorioallantois-Membran von Hühner- oder Wachtelei wurde eine Simulation des Wachstums entwickelt, die lokale physikalische Gegebenheiten wie Druck, Fließgeschwindigkeit und Gefäßdurchmesser berücksichtigt. Als ein wesentlicher Parameter stellte sich der Verzweigungsexponent heraus, der vermutlich eine wichtige regulative Größe im arteriellen Baum darstellt. Unter idealisierten Annahmen konnte für diesen Exponenten ein Optimum bestimmt werden, welches weitgehend mit den in der Literatur angegebenen Messungen übereinstimmt. Auch über andere physikalische Größen, die bisher einer Messung nicht zugänglich waren, wie Scherspannung, Wandspannung oder Residenzzeit können in dem Modell Aussagen gemacht werden.