Studenten

Das Big Data Lab bietet viele spannende Projekte, an denen Sie sich beteiligen können. Sie können auch gemeinsam mit uns ein passendes Thema für Ihre Abschlussarbeit finden.

  • Big Data Infrastruktur
  • Data Science Projekte
  • Machine Learning Pojekte

Um einen groben Überblick über das Forschungsfeld zu bekommen, schauen Sie sich z.B. unsere laufenden Projekte an.

Sollten Sie Ihre Arbeit extern anfertigen wollen, geht das auch. Es sollte aber thematisch zu den oben genannten Gebieten passen.

Der formale Ablauf ist dann wie folgt:

Interne Arbeit:

* Sie kontaktieren mich per Email oder WebEx (s. EmailPolicy) und wir besprechen in einer WebEx oder in Präsenz die möglichen Themen

Externe Arbeit:

* Sie erstellen zusammen mit Ihrer externen Betreuung, die mindestens den von Ihnen angestrebten Abschluss (Bachelor oder Master) in einem MINT-Fach haben muss, ein Exposé zu Ihrem Thema, dass das Thema und die von Ihnen zu leistenden Arbeiten beschreibt. (Ca. 1-2 Din A4 Seiten)

* In einer gemeinsamen WebEx besprechen wir dann den weiteren Ablauf

Bei Bachelorarbeiten gestalte ich die Themen so, dass Praxisprojekt und Abschlussarbeit aneinander anschließen und ein Thema gesamthaft bearbeiten.

Beginn der Arbeit:

Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.

Ende des Praxisprojekts

Nach dem Ende des Praxisprojektes halten Sie eine halbstündige Präsentation (in Präsenz oder WebEx), an die sich Fragen zum PP anschließen. Das gibt Ihnen die Gelegenheit, eine Präsentation zu üben, Ihr Thema vorzustellen und Feedback zum bisher Geleisteten zu bekommen.

Anmeldung der BA

Der Ablauf ist entsprechend der Anmeldung zum PP

Abgabe der BA

Grundsätzlich gelten für die Abgabe der BA die Forderungen des Prüfungsamtes.

Zusätzlich wird die BA elektronisch bei mir abgegeben. Zur Abgabe gehören:

* Die schriftliche Ausarbeitung, einschließlich der von Ihnen unterschriebenen Eigenständligkeitserklärung als PDF

* Die von Ihnen verwendeten Quellen, sofern Sie sich auf wissenschaftlich Paper beziehen

* Der von Ihnen angefertigte Source Code (inklusive Bilddateien der schriftlichen Ausarbeitung)

* Bei externen Arbeiten,: Die von Ihnen verwendeten Daten ggf. in Ausschnitten und pseudonymisierter Form, so dass der Code nachvollzogen werden kann

Bei Quellen, Source Code und Daten können Sie bis 10MB Größe eine zip Datei abgeben. Ansonsten nutzen Sie bitte ein git-Repository oder den Filesharing Service gigamove der RWTH (link) der BA

Im Kolloquium halten Sie eine 30 minütige Präsentation zu Ihrer Arbeit (in Präsenz oder WebEx), an die sich Fragen zu Arbeit anschließen. Die Note erfahren Sie dann ca. eine Woche nach dem Kolloquium beim Prüfungsamt.

Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.

Ca. nach der Hälfte der geplanten Zeit halten Sie eine Zwischenpräsentation von ca, 30 Minuten Dauer, an die sich Fragen zur Arbeit anschließen.

Abgabe und Kolloquium sind so, wie bei einer BA auch (s.o.)

Generell: Zwischen 40 – 120 Seiten ohne Anhänge und Verzeichnisse. Bitte keinen Sourcecode o.ä. in die Anhänge. Dafür gibt es git.

Interne Abschlussarbeiten

offen

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert. Jeder produzierte Filter wird während des Herstellungsprozess in Form von Zeilen- und Tiefenkameras digital erfasst. Dieser Erfassungsprozess ist hochgradig standartisiert und die Qualität der Aufnahmen unterliegt keinen relevanten Schwankungen. Die Produktionsmenge beläuft sich auf ungefähr 2000 Filter pro Tag.

Um die physische Arbeitslast (manuelle Kontrolle) zu reduzieren können Methoden des bildbasierten Deep Learnings in einer Anomalie-Erkennungs-Formulierung eingesetzt werden, die sehr gute Ergebnisse liefern. Diese basieren in der Regel auf dem Verarbeiten eines kompletten Bildes. Durch die hohe Anzahl an produzierten Filtern und einer zwangsläufigen Verschiebung in der Verteilung von Bildmerkmalen ist eine regelmäßige Anpassung eines solchen Inferenzsystems erforderlich, sodass in der Regel auf vortrainierte Neuronale Netze (unregelmäßig eigens trainierter oder domänen-generalisierter Merkmalsextraktor) zurückgegriffen wird.

Betrachtet man den Aufnahmeprozess über die Zeilenkamera stellt diese Komplett-Bild-Abhängigkeit eine zusätzliche Komplexität dar. Insbesondere für die schnelle Inferenz.

Ziel dieser Arbeit soll es sein Verfahren zu entwickeln und zu vergleichen, die direkt mit den einzelnen Zeilen arbeiten können. Hierbei betrachten wir nicht mehr das Komplett-Bild als 2D Volumen, sondern lediglich die einzelnen Zeilen, die im 1D Raum vorliegen. Obwohl nun deutlich mehr Einzelinferenzen durchgeführt werden müssen, kann dieser Schritt direkt in der Kamera durchgeführt werden, wodurch aufwändige IO Operationen und deren Implikationen stark reduziert werden.

Die hierbei zu verarbeitenden Daten erfüllen Eigenschaften von Zeitreihen, sodass der Schluss naheliegt Algorithmen dieser Klasse zu verwenden – im Spezifischen Algorithen der Zeitreihen-Anomalie-Erkennung. Für die Merkmalsextraktion sollen hierbei Verfahren betrachtet werden, die in Analogie zu der Komplett-Bild-Verarbeitung kein Vortraining erfordern. Aus einer Literaturrecherche und ersten Vorarbeiten im Rahmen einer Seminararbeit kommen Verfahren der Rocket-Klasse in Frage.

Im Rahmen der Arbeit soll eine Anomalie Erkennung auf Rocket-Merkmalen auf den Zeilen der Zeilenbild-Kamera mit Hilfe einer Self-Organizing-Map entwickelt und mit anderen Verfahren verglichen werden. In einem darauf folgenden Schritt soll die Fähigkeit Multivariate-1D Merkmale, die durch die Zusammenführung der Zeilenbild-Kamera mit den Bildern der Tiefenbildkamera entstehen, auf den entwickelten Verfahren untersucht werden.

Anforderungsprofil

Für das genaue Anforderungsprofil nehmen Sie Kontakt auf. Es wird in einem Erstgespräch ermittelt, ob eine für beiden Seiten gewinnbringende Arbeit absolviert werden kann.


Ansprechpartner
Tobias Arndt, arndt@fh-aachen.de

Hintergrund:

Verseidag ist spezialisiert auf die Herstellung von technischen Textilien, bei denen die Qualitätssicherung eine zentrale Rolle spielt. Während der Produktion werden hochauflösende Bilder aufgenommen, um potenzielle Anomalien oder Fehler in den Textilien zu identifizieren. Diese Bilder dienen als Grundlage für die Fehlerklassifikation. Da sich Fehler überlagern können, ist eine präzise Lokalisierung und Klassifizierung besonders herausfordernd.

Ziel der Arbeit:

Entwicklung eines Deep-Learning-Modells zur Anomaliedetektion und Klassifikation in hochauflösenden Produktionsbildern. Das Modell soll in der Lage sein, Fehler genau zu lokalisieren und zu klassifizieren, auch wenn mehrere Fehlerklassen gleichzeitig auftreten.

Aufgabenstellung:

Literaturrecherche:

Analyse bestehender Methoden zur Anomaliedetektion und -klassifikation in Bildern, insbesondere in industriellen Anwendungen.
Überblick über Deep-Learning-Techniken, die für Bildanalyseaufgaben eingesetzt werden, wie Convolutional Neural Networks (CNNs), Region-based CNNs (R-CNNs), und generative Adversarial Networks (GANs).

Datenaufbereitung:

Sammlung und Aufbereitung der Bilddaten, die während der Produktion bei Verseidag aufgenommen werden.
Annotationsprozess zur Markierung und Klassifikation der Anomalien, die als Ground Truth dienen.

Modellentwicklung:

Auswahl und Implementierung geeigneter Deep-Learning-Modelle für die Aufgabe. Training und Feinabstimmung der Modelle zur Erkennung und Klassifikation der Fehler.

Modellbewertung und -optimierung:
 
Bewertung der Modelle anhand von Metriken wie Genauigkeit, Präzision, Recall und F1-Score. Analyse der Fähigkeit des Modells, überlagerte Fehler zu identifizieren und korrekt zu klassifizieren. Optimierung des Modells zur Verbesserung der Erkennungsrate und Reduktion von Fehlklassifikationen.
 
Erstellung eines Prototyps:
 
Detaillierte Dokumentation des gesamten Prozesses, der erzielten Ergebnisse und der Herausforderungen. Präsentation der Arbeitsergebnisse und des entwickelten Systems.
 
Erwartete Ergebnisse:
 
Ein funktionsfähiges Deep-Learning-Modell, das in der Lage ist, Anomalien in den Produktionsbildern von Verseidag zu detektieren und zu klassifizieren. Eine Analyse der Leistung des Modells, einschließlich der Fähigkeit, überlagerte Fehler korrekt zu identifizieren. Ein Vorschlag zur praktischen Integration des Modells in den Produktionsprozess zur Unterstützung der Qualitätssicherung.
 
Voraussetzungen:
 
Grundkenntnisse in maschinellem Lernen und Deep Learning. Programmierkenntnisse in Python und Erfahrung mit Frameworks wie TensorFlow oder PyTorch. Interesse an Bildverarbeitung und Datenanalyse.
 
Ansprechpartner:
Tobias Arndt
E-Mail: arndt@fh-aachen.de
 
Ingo Elsen (betreuender Professor)
Einführung:
 
Selbstorganisierende Merkmalskarten (Self-Organizing Maps, SOMs) sind eine Art von künstlichen neuronalen Netzen, die zur Visualisierung und Analyse hochdimensionaler Daten verwendet werden. Sie sind besonders nützlich, um Cluster und Strukturen in Daten zu erkennen und bieten eine nicht-lineare Projektion von Daten in eine niedrig dimensionale Karte. Dieser Schritt wird auch das Erlernen einer Repräsentation genannt. Die in diesem Prozess abgeleitete Karte bietet die Möglichkeit semantische Informationen über die einzelnen Datenpunkte durch eine räumliche Nähe auf dieser zu erlangen, was ebenfalls genutzt werden kann, um Daten zu generieren. Für den industriellen und wirtschaftlichen Nutzen zeichnet sich diese Art neuronaler Netze durch die fehlende Notwendigkeit von gelabelten Daten aus, sodass Datenerfassungsprozesse deutlich verkürzt werden können und beispielsweise Roh-Sensordaten für die weitere Datenanalyse genutzt werden können. Auf implementatorischer Seite bietet eine SOM den Vorteil, dass sie leicht parallelisierbar ist und sich demnach sehr gut für Grafikkarten eignet.
 
Gängige SOM Implementierungen erstellen eine 2-dimensionale Karte, da sie sich gut für Visualisierungen eignen. Diese starke Reduktion der Dimension stellt aber gewisse Hemmnisse dar, wenn es darum geht, geeignete Repräsentationen für anschließende Aufgaben wie Regression, Clustering, Klassifikation oder Anomalieerkennung zu erlernen.
 
Ziel dieser Arbeit ist es, eine SOM zu entwickeln, die eine Repräsentation in einem beliebig-dimensionalen Merkmalsraum erlernen kann. Für eine einfache und schnelle Möglichkeit, das Parallelitätspotential auszuschöpfen, soll Keras3 verwendet werden. Die hierbei entwickelte SOM soll das Interface von SKLearn aufweisen, sodass eine einfache Integration in Datenverarbeitungs-Pipelines möglich ist.
 
Als Ergebnis des praktischen Teils dieser Arbeit soll neben dem Entwickeln dieser Klassen auch Jupyter Notebooks bereitgestellt werden, an denen der Nutzen und der Umgang der entwickelten Klasse gezeigt wird und als Dokumentation fungiert. Insbesondere das Einbinden in SKLearn Datenverarbeitungspipelines, ein Monitoring, sowohl über den effizienten Nutzen von Hardware, als auch über die Korrektheit der Implementierung, sollen hierbei verdeutlicht werden. 
 
Aufgabenstellung:
 
Einführung und Recherche:
 
  • Einführung in die Theorie und Praxis von SOMs.
  • Analyse existierender Implementierungen und deren Limitierungen.
  • Untersuchung des Mehrwerts multidimensionaler SOMs im Vergleich zu traditionellen zweidimensionalen SOMs.
  • Erkundung der Nutzung von SOM-Repräsentationen für Downstream Tasks wie Klassifikation und Anomalieerkennung.

Design der multidimensionalen SOM:

  • Konzeption eines Modells für die multidimensionale SOM.
  • Festlegung der Anforderungen und Spezifikationen für die Implementierung in Keras3.

Implementierung in Keras3:

  • Entwicklung der multidimensionalen SOM in Keras3.
  • Integration der SOM-Implementierung mit einem Interface, das kompatibel zu SKLearn ist.

Evaluation und Testen:

  • Durchführung von Tests mit verschiedenen Datensätzen, um die Funktionalität und Effizienz der Implementierung zu validieren. – Vergleich der Ergebnisse mit bestehenden zweidimensionalen SOMs und Analyse der Vorteile mehrdimensionaler SOMs.
  • Anwendung der erlernten SOM-Repräsentationen auf Downstream Tasks wie Klassifikation und Anomalieerkennung.

Dokumentation:

  • Erstellung einer umfassenden Dokumentation der Implementierung und ihrer Nutzung.
  • Verfassen der Bachelorarbeit mit Darstellung der theoretischen Grundlagen, dem Implementierungsprozess, den Ergebnissen und einer abschließenden Bewertung.

Ansprechpartner:

Tobias Arndt (arndt@fh-aachen.de)

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es zwei Diffusion Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) auf Anwendbarkeit für Anomaly Detection zu untersuchen und zu evaluieren. Dabei handelt es sich um die Diffusion Modelle Noise Conditioned Score Networks (NCSNs) und Stochastic Differential Equations (SDEs).

Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird. Allgemein werden diese in 3 Kategorien gefasst: Denoising Diffusion Probabilistic Models (DDPMs), NCSNs und SDEs. SDEs sind dabei eine Generalisierung von DDPMs und NCSNs.

In der Forschung zu generativen Algorithmen und Anomaly Detection sind Diffusion Modelle state-of-the-art und gehören momentan zu den am aktivsten erforschten Algorithmen. Dabei wird sich allerdings vor allem auf DDPMs beschränkt. SDEs wurden auch bereits für Anomaly Detection eingesetzt. Teil dieser Arbeit wird es sein zu untersuchen, ob NCSNs sich ebenfalls dafür eignen und diese gegebenfalls zu
implementieren. SDEs Ansätzen sollen ebenfalls implementiert werden und gegebenfalls mit NCSNs verglichen werden.

Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von Diffusion Models (NCSNs und SDEs) für Anomaly Detection

2. Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen

3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)

2. Aktive Forschung: Diffusion Modelle sind ein sehr aktuelles Forschungsthema und besonders der Einsatz von NCSNs und SDEs ist noch nicht sehr gut erforscht.

3. Möglichkeit Teil einer Veröffentlichung zu werden.

 

Ansprechpartner

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche
ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es Generative Adversarial Networks (GAN) Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.

GANs bestehen aus einem Generator- und einem Diskriminator-Netzwerk. Der Generator lernt Bilder zu generieren, die möglichst ähnlich zu den Originalbildern sein sollten. Der Diskriminator bekommt immer zwei Bilder, eins der Originalbilder und ein Generiertes vom Generator, und soll lernen diese zu unterscheiden.

Pythonkenntnisse (insbesondere Pytorch) sowie Vorkenntnisse über neuronale Netzwerke sind von Vorteil.

Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von GANs für Anomaly Detection

2. Implementierung und Training von GANs für Anomaly Detection auf unterschiedlichen Datensätzen

3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)

2. Kenntnisse über GANs (einer der aktuellsten generativen Verfahren) erlernen

3. Möglichkeit Teil einer Veröffentlichung zu werden.

 

Ansprechpartner

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Medizintextilien kooperiert, der über einen digitalisierten Produktionsprozess verfügt.  Dieser Prozess besteht aus einer Vielzahl von Maschinenparametern/Einflussfaktoren, die erfasst werden. Beim Produzieren müssen Zielgrößen aus der Textiltechnik eingehalten werden. 

Klassische ML Verfahren können aus unterschiedlichen Gründen an ihre Grenzen stoßen bei der Modellierung von Produktionsprozessen. In dieser Abschlussarbeit soll ein Human-in-the-Loop Ansatz ins Zentrum gestellt werden. Als Human-in-the-Loop wird ein Verfahrensaufbau bezeichnet, bei dem der Mensch als Orakel die vorhergesagten Produktionsergebnisse bewertet und anhand dieser Bewertung das Modell verbessert werden kann.  Das Modell soll dabei unmittelbar und für den Menschen nachvollziehbar derart Empfehlungen geben können, dass die Produktion hinsichtlich der Produktionsziele  durch den Menschen korrigiert werden kann. 

Aufgaben
  1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle
  2. Entwicklung einer Umgebung, die eine Prognose visualisiert und mit dessen Hilfe die Prognose als neuer Trainingsinput aufgearbeitet werden kann
  3. Evaluieren, wie häufig und bei welchen Prognosen der Mensch zur Korrektur hinzugezogen werden soll
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ziel der Arbeit:

Machine Learning Algorithmen besitzen oftmals eine große Anzahl von Parametern und Hyperparametern, die wesentlich die Güte der Prädiktion für verschiedene Anwendungsfälle bestimmen. Eine Optimierung dieser Parameter ist wegen der kombinatorischen Vielfalt sehr zeit- und rechenaufwändig. Die Arbeit verfolgt das Ziel das Training der Machine Learning Algorithmen auf einem Cluster mit GPUs bereit zu stellen.

In einem ersten Schritt ist der Stand der Technik für verteiltes Training von Machine Learning Algorithmen zu untersuchen und die gängigen Verfahren (z.B. Spark und Flink, Frameworks wie tensorflow und pytorch, sowie verteilte Datenstrukturen wie Rapids und Dask) miteinander zu vergleichen. Dabei soll ein besonderes Augenmerk der Nutzung mittels python und der Integration von GPGPUs gelten.

Die Arbeit soll ein Framework entwickeln beim dem mittels pySpark oder ähnlichen Frameworks eine Umgebung geschaffen wird, in der sich leicht solche verteilt lernenden Verfahren einbetten lassen. Das System soll dabei auf Cluster beliebiger Größe (Anzahl Rechenknoten, Anzahl CPU Kerne, GPGPU, Speicher) skalieren. Die Ergebnisse sind als juypter notebooks bereit zu stellen.

Hintergrund und Motivation

Tiefe konvolutionale neuronale Netze (Deep Convolutional Neural Networks, DCNNs) haben sich als leistungsstarke Werkzeuge in verschiedenen Bereichen des maschinellen Lernens und der künstlichen Intelligenz etabliert. Ein wesentliches Merkmal von DCNNs ist ihre Fähigkeit, komplexe Merkmale aus Eingabedaten zu extrahieren, die als Feature Maps bezeichnet werden. Um die Funktionsweise dieser Modelle besser zu verstehen und zu interpretieren, ist die Visualisierung dieser Feature Maps sowie der zugehörigen Activity Maps von großer Bedeutung. Dies kann sowohl für die Forschung als auch für praktische Anwendungen, wie z.B. die Erklärung von Modellergebnissen, nützlich sein.

Ziel der Arbeit

Ziel dieser Bachelorarbeit ist es, verschiedene Methoden zur Visualisierung von DCNN Feature Maps und Activity Maps zu vergleichen und zu bewerten. Der Fokus liegt auf der Analyse existierender Methoden sowie deren Re-Implementierung. Basierend auf diesen Erkenntnissen soll ein Demonstrator entwickelt werden, der die Visualisierungen anschaulich und interaktiv darstellt.

Aufgabenstellung

Literaturrecherche:

  • Umfassende Recherche zu existierenden Methoden zur Visualisierung von Feature und Activity Maps in DCNNs.
  • Untersuchung der Vor- und Nachteile verschiedener Ansätze, z.B. Grad-CAM, Guided Backpropagation, Layer-wise Relevance Propagation.

Konzeptualisierung und Planung:

  • Auswahl der am besten geeigneten Methoden für eine Re-Implementierung.
  • Entwicklung eines Kriterienkatalogs zur Bewertung der Visualisierungsmethoden (z.B. Interpretierbarkeit, Berechnungskomplexität, Anwendungsspektrum).

Re-Implementierung oder Integration:

  • Implementierung oder Verfügbarkeitsmachung der ausgewählten Visualisierungsmethoden in einer geeigneten Programmiersprache (z.B. Python).
  • Vergleich der Implementierungen anhand von vorgegebenen Datensätzen und Modellen.

Entwicklung eines Demonstrators:

  • Entwicklung einer interaktiven Benutzeroberfläche zur Darstellung der Visualisierungen.
  • Integration der verschiedenen Visualisierungsmethoden in den Demonstrator.

Evaluation:

  • Analyse der Ergebnisse und Bewertung der implementierten Methoden gemäß dem entwickelten Kriterienkatalog.
  • Diskussion der Stärken und Schwächen der einzelnen Methoden.

Dokumentation:

  • Ausarbeitung der Ergebnisse in einer wissenschaftlichen Arbeit.
  • Erstellen einer umfassenden Dokumentation der Implementierungen und des Demonstrators.

Voraussetzungen

  • Grundkenntnisse in maschinellem Lernen und neuronalen Netzen.
  • Erfahrung mit Programmierung, vorzugsweise in Python.
  • Interesse an Datenvisualisierung und der Analyse komplexer Modelle.
Ansprechpartner:
Tobias Arndt
E-Mail: arndt@fh-aachen.de

laufend

Ausgangssituation

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Im Zuge dieser Arbeit sollen Modelle entwickelt werden, die maschinelles Lernen verwenden sollen, um den manuellen Prüfaufwand zu reduzieren. Dabei besteht der erste Fokus auf Methoden, die ohne gelabelte Daten, funktionieren können.

Aufgaben
  1. Aufarbeitung von passenden unsupervised learning Methoden
  2. Problemstellung aufarbeiten
  3. Vorhandene Datensätze analysieren, Fragen mit Unternehmenspartner klären und mögliche Datenaufbereitungsmethoden (data preparation) feststellen
  4. Umsetzung von Modellen
  5. Evaluierung der Modelle unter Betrachtung der vorher abgeklärten Zielstellung
Gewünschte Ergebnisse
  1. Literatur-Review zu unsupervised learning Methoden und Datenaufbereitungsmethoden
  2. Lösbarkeit der Problemstellung mit dem gewählten Ansatz erforscht
Stichpunkte

Fehlererkennung

Ausreißererkennung (anomaly detection)

Unsupervised learning

Image pre-processing

Ansprechpartner

Hakan Köse, M. Eng.

E-Mail: koese@fh-aachen.de

Quelle der Abbildung: www.gkd-group.com

Ausgangssituation

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Im Zuge dieser Arbeit sollen Modelle entwickelt werden, die maschinelles Lernen verwenden sollen, um den manuellen Prüfaufwand zu reduzieren. Der Fokus wird auf Methoden des supervised learnings gelegt.

Aufgaben
  1. Aufarbeitung von passenden supervised learning Methoden
  2. Problemstellung aufarbeiten
  3. Vorhandene Datensätze analysieren, Fragen mit Unternehmenspartner klären und mögliche Datenaufbereitungsmethoden (data preparation) feststellen
  4. Umsetzung von Modellen
  5. Evaluierung der Modelle unter Betrachtung der vorher abgeklärten Zielstellung
Gewünschte Ergebnisse
  1. Literatur-Review zu supervised learning Methoden und Datenaufbereitungsmethoden (Image pre-processing, …)
  2. Lösbarkeit der Problemstellung mit dem gewählten Ansatz erforscht
Stichpunkte

Fehlererkennung

Bildklassifikation

Supervised Learning

Image pre-processing

Ansprechpartner

Hakan Köse, M. Eng.

E-Mail: koese@fh-aachen.de

Quelle der Abbildung: www.gkd-group.com

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Ringläufer kooperiert, der Tausende von unterschiedlichen Ringläufervarianten herstellt. Bei der Produktion wird oft nicht die volle Kapazität der Maschinen ausgenutzt. Diese Kapazität wird für Vorproduktionen genutzt, um in der Lage zu sein bei Aufträgen direkt aus dem Lager verkaufen zu können und nicht nach einer Bestellung erst mit der Produktion anzufangen.

Die Anzahl der Produkte ist allerdings so hoch, dass nicht alle Produkte auf Lager sein können. Außerdem werden viele Produkte nicht mehr verkauft und andere haben eine hohe Nachfrage. Die Anzahl von schwerverkäuflichen Produkten soll minimiert werden. Um dies zu bewerkstelligen, sollen Verfahren des deep-learning benutzt werden. Ziel ist es eine Empfehlung zu geben, ob ein gegebenes Produkt in einer gegebenen Zeitspanne verkauft werden wird.

Aufgaben
  1. Recherche zu geeigneten Verfahren und Datenaugmentation
  2. Entwicklung des Vorproduktionsempfehlungssystem
  3. Evaluierung verschiedener deep-learning-Verfahren
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet
Ansprechpartner

Matteo Tschesche, M. Sc.

E-Mail: tschesche@fh-aachen.de

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Ringläufer kooperiert, der Tausende von unterschiedlichen Ringläufervarianten herstellt. Bei der Produktion wird oft nicht die volle Kapazität der Maschinen ausgenutzt. Diese Kapazität wird für Vorproduktionen genutzt, um in der Lage zu sein bei Aufträgen direkt aus dem Lager verkaufen zu können und nicht nach einer Bestellung erst mit der Produktion anzufangen.

Die Anzahl der Produkte ist allerdings so hoch, dass nicht alle Produkte auf Lager sein können. Außerdem werden viele Produkte nicht mehr verkauft und andere haben eine hohe Nachfrage. Die Anzahl von schwerverkäuflichen Produkten soll minimiert werden. Um dies zu bewerkstelligen, sollen Verfahren der klassischen maschinellen Lernverfahren benutzt werden. Ziel ist es eine Empfehlung zu geben, ob ein gegebenes Produkt in einer gegebenen Zeitspanne verkauft werden wird.

Aufgaben
  1. Recherche zu geeigneten Verfahren und Datenaugmentation
  2. Entwicklung des Vorproduktionsempfehlungssystem
  3. Evaluierung verschiedener klassischer maschinellen Lernverfahren
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet
Ansprechpartner

Matteo Tschesche, M. Sc.

E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen
Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren. Aus den hierbei entwickelten Methoden sind Autoencoder eine wichtige Algorithmenklasse, die es
ermöglichen fehlerhafte Produktionen auf ungelabelten Daten zu finden und nicht betroffen sind von der sehr geringen Anzahl an tatsächlichen Fehlproduktionen (ungefähr 5%). Darüber hinaus fungieren Autoencoder als Grundlage für viele weitere Algorithmen.

Im Zuge dieser Arbeit sollen Autoencoder systematisch untersucht werden und Grundlagen dafür geschaffen werden, diese mit anderen Verfahren vergleichen zu können, mit dem Ziel eine Übersicht zu bekommen, wie der manuelle Prüfaufwand reduziert werden kann.
Einfache Pythonkenntnisse wären von Vorteil.

Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle

2. Gründliche Recherche über konkrete Architekturen von Autoencodern und generellen Neuronalen-Netzwerk-Architekturen und den Möglichkeiten von Vergleichbarkeit. Für die Vergleichbarkeit können zum Beispiel der Aufwand der Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung, Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.

3. Implementierungen dieser Architekturen in Abhängigkeit von netzwerkspezifischen Parametern.

4. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)

2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.

3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.

4. Möglichkeit Teil einer großen Veröffentlichung zu werden.

Ansprechpartner
Tobias Arndt 
E-Mail: arndt@fh-aachen.de

Matteo Tscheche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95 %) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel

Ziel dieser Arbeit ist es zwei generative Neural Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren. Dabei handelt es sich um Diffusion Modelle und Super-Resolution.

Bei beiden Ansätzen wird das Ursprungsbild verändert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder  möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.

Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird, während bei Super-Resolution das Bild verpixelt wird.

Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben

  1. Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen
  2. Implementierung und Training von Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen
  3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit

  1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der   Ausschreibung)
  2. Aktive Forschung: Super-Resolution wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Diffusion Modelle sind noch sehr neu in dem Feld.
  3. Möglichkeit Teil einer Veröffentlichung zu werden.

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Hintergrund:

MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen der klassischen Bildverarbeitung mit deepLearning Algorithmen zur Erkennung der Verschleißzustände textiler Papiermaschinenspannungen ermittelt werden. Wir wollen gemeinsam mit Dir beispielsweise Methoden zur erkennung von Kanten, Geometrien, Graustufen, Pixelverteilung und vieles mehr einsetzen, um noch mehr Merkmale (Features) zu generieren und diese auszuwerten.

Deine Aufgaben Vorkenntnisse:

Du sollst Alorithmen/Methoden der Bilderarbeitung zur Erkennung recherchieren, bewerten und mittels Python auswerten. Erfordrlich dazu sind Datenanalysen, Methoden zur Bewertung und auswahl von Daten (data underdstanding, feature selection) und einsatz neuronaler Netze (deepLearning). durch diese Arbeit sollst Du bewerten, welche Methoden effizeinter zur Verschleißerkennung geeignet sind. Deine Arbeit hilft uns dabei, dass zukünftige Potential von Bildverarbeitung und deepLearning in unserer Qualitätssicherung zu nutzen. Einfache Vorkenntniss im Einsatz von Python wären von Vorteil.

Dein Nutzen:

Du wirst in ein Team aus Forschung, Qualität integriert. Du bekommst einen Einblick in textile Papiermaschinenbespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.

 Ansprechpartner:

Heimbach: Kai Klopp

MASKOR: Tobias Arndt

ITA: Rosario Othen

Ansprechpartner:

www.heimbach.com

www.maskor.fh- aachen.de

www.ita.rwth- aachen.de

Aufbau eines KI- basierten Assistenzsystems inn der Instandhaltung

Hintergrund:

MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen zum Aufbau eines Assistenzsystems erarbeitet werden. Wir haben bereits Erfahrungen mit einem System in der Produktion machen können. Die zu verarbeitenden Daten unterscheiden sich aber Umfang und Information sehr, so dass andere Algorithmen eingesetzt werden müssen.

Deine Aufgaben und Vorkenntnisse:

Du sollst Algorithmen/Methoden der Sprachverarbeitung,- aufbereitung und des Clustering recherchieren, bewerten und mittels Python auswerten. Erforderlich dazu sind Datenanalysen, Bewertung und Auswahl von Daten (data underdstanding, feature selection) und Einsatz neuronaler Netze (deepLearning). Durch diese Arbeit sollst Du bewerten, welche Methoden für ein Assistenzsystem geeignet sind. Deine Arbeit hilft uns dabei, einen Demonstrator für die Empfehlungen von Lösungsalternativen für Instandhaltungsprobleme zu haben.

Einfache Vorkenntnisse im Einsatz von Python wären von Vorteil.

Dein Nutzen:

Du wirst in ein Team aus Forschung, Instandhaltung und IT integriert. Du bekommst einen Einblick in textile Papiermaschinen- bespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI – insbesondere Natural Language Processing. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.

 Ansprechpartner:

Heimbach: Kai Klopp

MASKOR: Tobias Arndt

ITA: Rosario Othen

 Ansprechpartner:

www.heimbach.com

www.maskor.fh- aachen.de

www.ita.rwth- aachen.de

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Medizintextilien kooperiert, der über einen digitalisierten Produktionsprozess verfügt.  Dieser Prozess besteht aus einer Vielzahl von Maschinenparametern/Einflussfaktoren, die erfasst werden. Beim Produzieren müssen Zielgrößen aus der Textiltechnik eingehalten werden. 

Das Herstellen vom Zusammenhang zwischen den Einflussfaktoren und den Zielgrößen/Qualitätskriterien soll durch ML Verfahren erreicht werden. Dafür soll die bestehende Datengrundlage mit einem der bekannten Vorgehensmodelle für datengetriebene Projekte untersucht werden. Außerdem soll ein Prognosemodell am Ende entstehen, womit die Auswirkung von unterschiedlich eingestellten Einflussfaktoren untersucht werden können.

Aufgaben
  1. Aufarbeitung der bestehenden Datengrundlage mittels bekannte Vorgehensmodelle
  2. Evaluierung der Modellierungsansätze für die Prognose
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet
Stichpunkte

Prognosemodell

Industrie 4.0

Maschinelles Lernen

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die
derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es den generative Neural Network Ansätze Super-Resolution (SR) auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.
Dabei soll der Einsatz von Transformer-Netzwerken gegenüber üblichen Netzwerken wie UNet gegeneinander evaluiert werden. Des Weiteren sollen iterative Verfahren zur Lösung evaluiert werden.

Für SR wird das Ursprungsbild auf weniger Pixel reduziert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder
möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.

Visual Transformer sind sowohl für SR als auch für Anomaly Detection state-of-the-art und bieten somit ein hohes Potential. Allerdings wurden sie noch nie in der Art kombiniert eingesetzt.
Iterative Ansätze wurden bereits für SR evaluiert und sorgten für eine signifikante Verbesserung der Ergebnisse.für
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben
1. Implementierung und Training von mehreren Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen:

1. U-Net-like Baseline für SR in einem Schritt
2. U-Net-like Baseline für iterativen SR Ansatz
3. Transformer-basiertes SR Netzwerk
4. Iteratives Transformer-basiertes SR Netzwerk

2. Anpassungen/Optimierung der Modelle und Evaluation

 

Dein Benefit

1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Aktive Forschung: SR wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Transformer sowie iterative SR Verfahren sind sehr neu.
3. Möglichkeit Teil einer Veröffentlichung zu werden.

 

Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Diese Methoden sind in der Regel abhängig von einer hohen Anzahl und von einer hohen Varianz der Datenpunkte, da erst so gewährleistet werden kann, dass die Generalisierung evaluiert und die Algorithmen den tatsächlichen Anwendungsfall lernen.

Aufgrund der hohen Qualität in der Produktion des Unternehmenspartners ist insbesondere der Punkt der Varianz nicht gegeben. Sehr viele Datenpunkte sind fast identisch, sodass für ein Neutraining und eine konstante Evaluierung davon auszugehen ist, dass viele Datenpunkte redundant
sind.

Dieser Aspekt ist herausfordernd, da es aus wirtschaftlichen Gesichtspunkten zu Problemen führen kann, weil eigentlich bekannte Datenpunkte händisch gelabelt werden müssen und uninteressante Datenpunkte das Training in die Länge ziehen, was jeweils mit Kosten verbunden ist.

Algorithmen, die Lösungsansätze für diese Herausforderungen anbieten, lassen sich unter dem Namen Active Learning zusammenfassen.

Ziel dieser Arbeit ist relevante Verfahren dieser Klasse miteinander zu vergleichen und systematisch zu erfassen, mit der Absicht die Trainings- als auch die Labelinglast zu reduzieren bei gleichbleibender Leistung von von uns vorgegebenen Anomalieerkennungsverfahren.

Einfache Pythonkenntnisse wären von Vorteil.

Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle

2. Gründliche Recherche über theoretische Grundlagen, daraus abgeleiteten Verfahren des aktiven Lernens und Spezifika in Bezug auf Deep Learning.

3. Entwickeln einer Baseline (z.B. randomiserte Auswahl von Datenpunkten) und festlegen von Gütekriterien. Für die Vergleichbarkeit können zum Beispiel der Aufwand der
Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung,
Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.

4. Implementierungen dieser Algorithmen in Abhängigkeit von methodenspezifischen Parametern.

5. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)

2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.

3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.

4. Möglichkeit Teil einer großen Veröffentlichung zu werden.

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Externe Abschlussarbeiten und Ausschreibungen

Bei Interesse wenden Sie sich bitte an Herrn Professor Elsen, welcher den Kontakt zu den jeweiligen Unternehmen herstellen wird.

Externe Abschlussarbeiten

Externe Ausschreibung

Ausgangssituation:

CanControls ist ein innovatives Software-Unternehmen mit Schwerpunkten im Bereich der Echtzeit-Bildverarbeitung, Computer Vision und videobasierten Szenenanalyse.
Von uns entwickelte Technologien kommen in der der Automobilindustrie, der Luft- und Raumfahrt, der Medizintechnik, dem Straßenwesen und der Unterhaltungselektronik zum Einsatz.

Digitale Zwillinge unserer Systeme erlauben es, die Bildgebung/Bildverarbeitung in existierenden Anwendungen zu optimieren, sowie neue Anwendungsfelder digital zu bewerten.
Dafür ist eine möglichst realitiätsnahe Bildsynthese essentiell.
Moderne Methoden der generativen künstlichen Intelligenz stellen hierfür einen vielversprechenden Ansatz dar.

Deine Aufgaben und Vorkenntnisse:

Moderne Verfahren der Bildsynthese berücksichtigen ausschließlich den sichtbaren Wellenlängenbereich in Form von RGB-Bildern.
Ziel dieser Arbeit ist es auf Stable Diffusion basierende Bildsynthese für RGB auf den nicht sichtbaren Wellenlängenbereich zu übertragen.

1. Einarbeitung in Stable Diffusion
2. Recherche gängiger Methoden der „Personalisierung“ etablierter text-to-image Modelle (Textual Inversion, DreamBooth, LoRa, HyperNetworks, etc.)
3. Bewertung dieser Methoden im Kontext unserer proprietären Bilddaten

Vorkenntnisse in Python sowie in gängigen Deep-Learning Bibliotheken (TensorFlow/PyTorch) sind wünschenswert.
Fließendes Englisch in Wort und Schrift ist erforderlich.

Deine Benefits:

1. Du wirst Teil eines internationalen Teams mit Sitz im Zentrum von Aachen
2. Lernen von State-of-the-Art Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
3. Persönliche Betreuung während des Praktikums.
4. Möglichkeit Teil einer Veröffentlichung auf einer Top-Konferenz zu werden (CVPR, ICCV, ECCV, NeurIPS ).

Ansprechpartner:

luttermann@cancontrols.com
Dr. Tarek Luttermann

Informationen zum Unternehmen:

Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.

Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.

Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.

Übersicht:

Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.

Recommender System für Produktionssteuerung:

Bachelor- / Masterarbeit:

  • Vorschlag für den Bediener für das nächste zeiteffektivste Rezept / Werkstück => Max. Durchsatz

Masterarbeit:

  • Generieren der Fahrbefehle für das Portal unter Einhaltung der festen Prozesszeiten bzw. im zeitlichen Rahmen der flexiblen Prozesszeiten unter in der Maschine befindlichen Körbe / Rezepte
  • Maximieren des Durchsatzes unter Berücksichtigung der realen Beladung mit Losgröße „1“.

Ansprechpartner:

Ecoclean GmbH
Rüdiger Fritzen

E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net

Informationen zum Unternehmen:

Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.

Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.

Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.

Übersicht:

Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.

KI-Planungssystem für optimale Prozessdurchführung:

Bachelor- / Masterarbeit Maschinenkonfigurationstool:

  • Anhand der definierten Taktzeitvorgaben / Durchsatzmenge, Rezepten, Stückzahlen und der Beladereihenfolge
    • Bestimmung der Anzahl der Portale zur Erreichung der Vorgaben
    • Bestimmung der Anzahl der notwendigen Mehrfach-Prozessstationen zur Erreichung der Vorgaben

Ansprechpartner:

Ecoclean GmbH
Rüdiger Fritzen

E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net

Abgeschlossene Abschlussarbeiten

PrüferAbschlussDatumNameThema
Ingo ElsenBachelor28.02.2019Fabian RübEntwicklung eines Verfahrens zur kamerabasierten Blickrichtungserkennung
Ingo ElsenMaster27.03.2019Manuel BareissBildbasierte Erkennung von Maschinenteilen im ein- und ausgebauten Zustand mittels Verfahren des maschinellen Lernens
Ingo ElsenMaster26.04.2019Matthias HeinemannErstellung eines technischen Konzepts für eine Plattform zur unternehmensübergreifenden Disposition
Ingo ElsenMaster30.01.2020Horst Sebastian Perry HerzogEntwurf und Realisierung eines adaptiven Fütterungssystems für Aquaponikanlagen
Ingo ElsenBachelor27.02.2020Maik WydraEinsatz von Prozcess Mining zur Optimierung des Softewaresupportprozesses
Ingo ElsenBachelor12.03.2020Dmitrii AnisovichAnalyse eines Datensatzes von Lokomotiven
Ingo ElsenBachelor13.03.2020Alexander-Wilhelm WiensEntwicklung von Datenanalysen und Prognosemodellen für erneuerbare Energien in Deutschland
Ingo ElsenBachelor03.04.2020Florian Lange Intelligente Initialisierung von Smart Building Optimierungsalgorithmen
Ingo ElsenMaster20.05.2020Alexandre Charoy Entwicklung eines Digital Shadow im Materialmanagement zur Korrelation von Material- und Prozessdaten
Ingo ElsenBachelor09.06.2020Christopher KremkowUntersuchung zur Blickrichtungserkennung mit künstlichen Neuronalen Netzen
Ingo ElsenMaster17.06.2020Nils Schlicher Vergleich von Datenbanken für einen Hadoop-Cluster
Ingo ElsenBachelor21.07.2020Katrin Hammacher Absatzprognose neuer Produkte im Einzelhandel basierend auf homogenen Abverkaufsgruppen mithilfe von Methoden des maschinellen Lernens
Ingo ElsenBachelor24.07.2020Sarah Beschorner Automated Hyperparameter Tuning of Language Based Anomaly Detection for Log files
Ingo ElsenMaster08.07.2020Dustin Hellmann Verarbeitung und Analyse von SCADA-Prozessdaten mit Werkzeugen der Big Data Analysis
Ingo ElsenBachelor27.08.2020Simon WestfechtelErzeugung eines künstlichen Datensatzes zur Bremsprognose von Güterzügen und Validierung der Big Data Verarbeitung
Ingo ElsenBachelor28.08.2020Oskar Galla Erkennung von technischen Ausfällen bei Triebwagen mittels Anomalieerkennung
Ingo ElsenBachelor28.08.2020Patrick Reckeweg Untersuchung der Effizienz und Effektivität der AVOD Architektur bei der Objektlokalisierung in LiDAR und Kamera Daten
Ingo ElsenMaster11.09.2020Lennart Stich Vergleich von cloud-basierten Container- und Virtualisierungstechnologien im Kontext von Kubernetes
Ingo ElsenBachelor03.11.2020Lukas Weller Anwendung und Vergleich verschiedender Machine-Learning-Verfahren zur Vorhersage von Passagierzahlen
Ingo ElsenMaster06.11.2020Daniel Moritz Konzeption und Umsetzung eines hyper-konvergenten Kubernetes Cluster im Unternehmensfeld als Edge Computing Ansatz
Ingo ElsenBachelor04.03.2021Arne Steen Creation and Validation of an Artificial Dataset for 3d Object Classification
Ingo ElsenBachelor06.04.2021Alexander Olear Development of a low power sensor module with an esp32 microcontroller
Ingo ElsenBachelor28.04.2021Thomas Sommer Implementierung von Selbstorganisierenden Merkmalskarten und Radialen Basisfunktionsnetzen in Python
Ingo ElsenMaster29.07.2021Björn Kops Konzept und Entwicklung einer KI-basierten Lösung zur Analyse der Datenqualität von Produktionsdaten
Ingo ElsenBachelor17.08.2021Sachar Matkovskiy Automatic Detection of Deliberate Speed Changes after Cleared Flight Level
Ingo ElsenBachelor18.08.2021Björn Kohlen Entwurf und Implementierung eines Web-Frontends zur Abfrage und Visualisierung von Umweltsensordaten
Ingo ElsenMaster14.09.2021Carlo Nießen Analyse und Optimierung eines Software-Release-Cycle mit Focus auf Risikominimierung
Ingo ElsenMaster14.09.2021Carlo Nießen Entwicklung einer Datenpipeline zur Speicherung und Aufbereitung von Sensordaten
Ingo ElsenBachelor20.01.2022Max Conzen Anwesenheitsprognose mittels Umweltsensordaten für die Gebäudeautomatisierung
Ingo ElsenMaster27.01.2022Marin Jukic Automatisierte Themenbestimmung von Textdaten durch Machine Learning und Deep Learning Methoden mithilfe der Evidenztheorie
Ingo ElsenBachelor02.02.2022Robin Mai Improving data consistency in the ingestion process of a denormalized Cloud Data Warehouse
Ingo ElsenMaster07.02.2022Florian Lange Modellfreies Reinforcement Learning für die intelligente Gebäudesteuerung
Ingo ElsenMaster16.03.2022Mirko Reimbold Anforderungen an mandantenfähige Cluster und der aktuelle Stand in Kubernetes
Ingo ElsenBachelor25.04.2022Josres Arnol Ngompe Fotie Erweiterung der bestehenden iOS-App des digitalen Shopfloor-Management-Systems LISA ( Learn Industrial Solutions Applications)
Ingo ElsenBachelor02.06.2022Tobias Arndt Vergleich von Verfahren des Maschinellen Lernens zur Klassifikation von Baudetails aus Konstruktionszeichnungen
Ingo ElsenBachelor01.08.2022Casimir Giesler Datengetriebene Auslastungsprognose für öffentliche Verkehrsinfrastruktur am Beispiel von Parkhäusern
Ingo ElsenBachelor18.04.2022Nico HeijnkGenerieren von Vorschlägen für Merkmalswerte in einer Werkzeugdatenbank durch maschinelles Lernen
Ingo ElsenBachelor12.06.2022Philipp HünnerscheidtAufbau einer Datenpipeline zur Erzeugung von 3D Ansichten aus CAD Daten
Ingo ElsenBachelor05.05.2022Alexander LoosenPrognose der Anwesenheit von Personen für die Gebäudeautomatisierung mittels Umweltsensordaten
Ingo ElsenBachelor10.04.2022Timo Schloemer Prognose der Restlebensdauer von Kolbenkompressorventilen mittels Methoden des Maschinellen Lernens
Ingo ElsenBachelor09.05.2022Julian Schultheiß Performanceuntersuchung des Cloud-Deployments einer IoT-Plattform zur automatisierten Qualit¨atsprognose von zerspanten Bauteilen
Ingo ElsenBachelor30.09.2022Daniel Sept Entwicklung und Implementierung einer MQTT Testumgebung mit verschiedenen Clients
Ingo ElsenMaster07.10.2022 Maik Wydra Entwicklung eines Recommender Systems auf Basis von Bewertungen deutscher IT Unternehmen
Ingo ElsenFB1030.01.2023Markus Klein Recommender Systems for Research Data Management
Ingo ElsenBachelor17.04.2023 Jens Peter Dennigmann Vergleich von Tiefen Neuronalen Netzen zur Erkennung von 3D Maschinenteilen
Ingo ElsenMaster15.05.2023 Hanna Babilon Comparison of Neural Network Topologies for 3D Recognition of Machine Parts
Ingo ElsenETP22.08.2023 Yannic Schlosser Deep Learning-Based Visual Quality Inspection in Vertical Farming Systems
Ingo ElsenMaster29.08.2023 Luca Bonn Patch-based Feature Extraction for High-Resolution Image Anomaly Detection
Ingo ElsenBachelor06.09.2023 Marc Schwägerl Methoden zur Überführung von Produktbezeichnungen in standardisierte Benennungssysteme
Ingo ElsenBachelor29.09.2023 Sagar Adhikari Image-based error detection for quality control using machine learning methods (Unsupervised Learning)
Ingo ElsenBachelor23.10.2023 Sven StarzerImproving Gaze Prediction based on Eye Segmentation through Pre-Training with Synthetic Data
Ingo ElsenBachelor07.12.2023 Alexander SchechtelUntersuchungen zum verteilten Training von Machine Learning Algorithmen auf einem Clusterrechner
Ingo ElsenBachelor21.12.2023 Baran Dirakie Untersuchung zur optimalen Auswahl von Trainingsdaten aus großen Datensätzen
Ingo ElsenBachelor10.04.2024 Tobias Neumann Graphenbasierte Visualisierung der Modulstruktur eines Studiengangs
Ingo ElsenMCD22.05.2024 Sophia Bongards Analyse von Visualisierungsmethoden für dynamische Partikelverteilungen in 2D und 3D
Ingo ElsenMCD22.05.2024 Christina Papenfuss Entwurf eines Verfahrens zur Visualisierung von dynamischen Partikelverteilungen in Virtual Reality
Ingo ElsenBachelor10.07.2024 Irene Ackermann Anomaliedetektion zur elektrochemischen Impedanzspektroskopie
Ingo ElsenBachelor06.09.2024 Julius Busch Prototype Implementation for Retrieval Augmented Generation and Evaluation of Major LLMs
Ingo ElsenBachelor28.08.2024 Nodirjon Tadjiev Design and Implementation of a Data- and Training-Pipeline for Anomaly Detection in Large Images
Ingo ElsenBachelor03.09.2024 Oskar Heuwes Architekturkonzept für sprachbasierte User-Interfaces in ERP-Systemen mittels Large Language Models
Ingo ElsenBMA23.09.2024 Maximilian Hibert Vergleich klassischer Bildverarbeitungsmethoden mit Machine Learning Algorithmen zur Erkennung der Verschmutzung auf Papiermaschinenbespannungen
Ingo ElsenBachelor26.09.2024 Martin Tomaszewski Vergleich von Active-Learning-Methoden zur Reduktion der Trainings- und Labelinglast
Ingo ElsenBachelor10.10.2024 Leon Plum Industrial Anomaly Detection Using 2D-Rocket and Deep Convolutional Neural Networks