Studenten
Das Big Data Lab bietet viele spannende Projekte, an denen Sie sich beteiligen können. Sie können auch gemeinsam mit uns ein passendes Thema für Ihre Abschlussarbeit finden.
- Big Data Infrastruktur
- Data Science Projekte
- Machine Learning Pojekte
Um einen groben Überblick über das Forschungsfeld zu bekommen, schauen Sie sich z.B. unsere laufenden Projekte an.
Sollten Sie Ihre Arbeit extern anfertigen wollen, geht das auch. Es sollte aber thematisch zu den oben genannten Gebieten passen.
Der formale Ablauf ist dann wie folgt:
Interne Arbeit:
* Sie kontaktieren mich per Email oder WebEx (s. EmailPolicy) und wir besprechen in einer WebEx oder in Präsenz die möglichen Themen
Externe Arbeit:
* Sie erstellen zusammen mit Ihrer externen Betreuung, die mindestens den von Ihnen angestrebten Abschluss (Bachelor oder Master) in einem MINT-Fach haben muss, ein Exposé zu Ihrem Thema, dass das Thema und die von Ihnen zu leistenden Arbeiten beschreibt. (Ca. 1-2 Din A4 Seiten)
* In einer gemeinsamen WebEx besprechen wir dann den weiteren Ablauf
Bei Bachelorarbeiten gestalte ich die Themen so, dass Praxisprojekt und Abschlussarbeit aneinander anschließen und ein Thema gesamthaft bearbeiten.
Beginn der Arbeit:
Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.
Ende des Praxisprojekts
Nach dem Ende des Praxisprojektes halten Sie eine halbstündige Präsentation (in Präsenz oder WebEx), an die sich Fragen zum PP anschließen. Das gibt Ihnen die Gelegenheit, eine Präsentation zu üben, Ihr Thema vorzustellen und Feedback zum bisher Geleisteten zu bekommen.
Anmeldung der BA
Der Ablauf ist entsprechend der Anmeldung zum PP
Abgabe der BA
Grundsätzlich gelten für die Abgabe der BA die Forderungen des Prüfungsamtes.
Zusätzlich wird die BA elektronisch bei mir abgegeben. Zur Abgabe gehören:
* Die schriftliche Ausarbeitung, einschließlich der von Ihnen unterschriebenen Eigenständligkeitserklärung als PDF
* Die von Ihnen verwendeten Quellen, sofern Sie sich auf wissenschaftlich Paper beziehen
* Der von Ihnen angefertigte Source Code (inklusive Bilddateien der schriftlichen Ausarbeitung)
* Bei externen Arbeiten,: Die von Ihnen verwendeten Daten ggf. in Ausschnitten und pseudonymisierter Form, so dass der Code nachvollzogen werden kann
Bei Quellen, Source Code und Daten können Sie bis 10MB Größe eine zip Datei abgeben. Ansonsten nutzen Sie bitte ein git-Repository oder den Filesharing Service gigamove der RWTH (link) der BA
Im Kolloquium halten Sie eine 30 minütige Präsentation zu Ihrer Arbeit (in Präsenz oder WebEx), an die sich Fragen zu Arbeit anschließen. Die Note erfahren Sie dann ca. eine Woche nach dem Kolloquium beim Prüfungsamt.
Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.
Ca. nach der Hälfte der geplanten Zeit halten Sie eine Zwischenpräsentation von ca, 30 Minuten Dauer, an die sich Fragen zur Arbeit anschließen.
Abgabe und Kolloquium sind so, wie bei einer BA auch (s.o.)
Generell: Zwischen 40 – 120 Seiten ohne Anhänge und Verzeichnisse. Bitte keinen Sourcecode o.ä. in die Anhänge. Dafür gibt es git.
Interne Abschlussarbeiten
offen
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert. Jeder produzierte Filter wird während des Herstellungsprozess in Form von Zeilen- und Tiefenkameras digital erfasst. Dieser Erfassungsprozess ist hochgradig standartisiert und die Qualität der Aufnahmen unterliegt keinen relevanten Schwankungen. Die Produktionsmenge beläuft sich auf ungefähr 2000 Filter pro Tag.
Um die physische Arbeitslast (manuelle Kontrolle) zu reduzieren können Methoden des bildbasierten Deep Learnings in einer Anomalie-Erkennungs-Formulierung eingesetzt werden, die sehr gute Ergebnisse liefern. Diese basieren in der Regel auf dem Verarbeiten eines kompletten Bildes. Durch die hohe Anzahl an produzierten Filtern und einer zwangsläufigen Verschiebung in der Verteilung von Bildmerkmalen ist eine regelmäßige Anpassung eines solchen Inferenzsystems erforderlich, sodass in der Regel auf vortrainierte Neuronale Netze (unregelmäßig eigens trainierter oder domänen-generalisierter Merkmalsextraktor) zurückgegriffen wird.
Betrachtet man den Aufnahmeprozess über die Zeilenkamera stellt diese Komplett-Bild-Abhängigkeit eine zusätzliche Komplexität dar. Insbesondere für die schnelle Inferenz.
Ziel dieser Arbeit soll es sein Verfahren zu entwickeln und zu vergleichen, die direkt mit den einzelnen Zeilen arbeiten können. Hierbei betrachten wir nicht mehr das Komplett-Bild als 2D Volumen, sondern lediglich die einzelnen Zeilen, die im 1D Raum vorliegen. Obwohl nun deutlich mehr Einzelinferenzen durchgeführt werden müssen, kann dieser Schritt direkt in der Kamera durchgeführt werden, wodurch aufwändige IO Operationen und deren Implikationen stark reduziert werden.
Die hierbei zu verarbeitenden Daten erfüllen Eigenschaften von Zeitreihen, sodass der Schluss naheliegt Algorithmen dieser Klasse zu verwenden – im Spezifischen Algorithen der Zeitreihen-Anomalie-Erkennung. Für die Merkmalsextraktion sollen hierbei Verfahren betrachtet werden, die in Analogie zu der Komplett-Bild-Verarbeitung kein Vortraining erfordern. Aus einer Literaturrecherche und ersten Vorarbeiten im Rahmen einer Seminararbeit kommen Verfahren der Rocket-Klasse in Frage.
Im Rahmen der Arbeit soll eine Anomalie Erkennung auf Rocket-Merkmalen auf den Zeilen der Zeilenbild-Kamera mit Hilfe einer Self-Organizing-Map entwickelt und mit anderen Verfahren verglichen werden. In einem darauf folgenden Schritt soll die Fähigkeit Multivariate-1D Merkmale, die durch die Zusammenführung der Zeilenbild-Kamera mit den Bildern der Tiefenbildkamera entstehen, auf den entwickelten Verfahren untersucht werden.
Anforderungsprofil
Für das genaue Anforderungsprofil nehmen Sie Kontakt auf. Es wird in einem Erstgespräch ermittelt, ob eine für beiden Seiten gewinnbringende Arbeit absolviert werden kann.
Ansprechpartner
Tobias Arndt, arndt@fh-aachen.de
Hintergrund:
Verseidag ist spezialisiert auf die Herstellung von technischen Textilien, bei denen die Qualitätssicherung eine zentrale Rolle spielt. Während der Produktion werden hochauflösende Bilder aufgenommen, um potenzielle Anomalien oder Fehler in den Textilien zu identifizieren. Diese Bilder dienen als Grundlage für die Fehlerklassifikation. Da sich Fehler überlagern können, ist eine präzise Lokalisierung und Klassifizierung besonders herausfordernd.
Ziel der Arbeit:
Entwicklung eines Deep-Learning-Modells zur Anomaliedetektion und Klassifikation in hochauflösenden Produktionsbildern. Das Modell soll in der Lage sein, Fehler genau zu lokalisieren und zu klassifizieren, auch wenn mehrere Fehlerklassen gleichzeitig auftreten.
Aufgabenstellung:
Literaturrecherche:
Analyse bestehender Methoden zur Anomaliedetektion und -klassifikation in Bildern, insbesondere in industriellen Anwendungen.
Überblick über Deep-Learning-Techniken, die für Bildanalyseaufgaben eingesetzt werden, wie Convolutional Neural Networks (CNNs), Region-based CNNs (R-CNNs), und generative Adversarial Networks (GANs).
Datenaufbereitung:
Sammlung und Aufbereitung der Bilddaten, die während der Produktion bei Verseidag aufgenommen werden.
Annotationsprozess zur Markierung und Klassifikation der Anomalien, die als Ground Truth dienen.
Modellentwicklung:
Auswahl und Implementierung geeigneter Deep-Learning-Modelle für die Aufgabe. Training und Feinabstimmung der Modelle zur Erkennung und Klassifikation der Fehler.
E-Mail: arndt@fh-aachen.de
- Einführung in die Theorie und Praxis von SOMs.
- Analyse existierender Implementierungen und deren Limitierungen.
- Untersuchung des Mehrwerts multidimensionaler SOMs im Vergleich zu traditionellen zweidimensionalen SOMs.
- Erkundung der Nutzung von SOM-Repräsentationen für Downstream Tasks wie Klassifikation und Anomalieerkennung.
Design der multidimensionalen SOM:
- Konzeption eines Modells für die multidimensionale SOM.
- Festlegung der Anforderungen und Spezifikationen für die Implementierung in Keras3.
Implementierung in Keras3:
- Entwicklung der multidimensionalen SOM in Keras3.
- Integration der SOM-Implementierung mit einem Interface, das kompatibel zu SKLearn ist.
Evaluation und Testen:
- Durchführung von Tests mit verschiedenen Datensätzen, um die Funktionalität und Effizienz der Implementierung zu validieren. – Vergleich der Ergebnisse mit bestehenden zweidimensionalen SOMs und Analyse der Vorteile mehrdimensionaler SOMs.
- Anwendung der erlernten SOM-Repräsentationen auf Downstream Tasks wie Klassifikation und Anomalieerkennung.
Dokumentation:
- Erstellung einer umfassenden Dokumentation der Implementierung und ihrer Nutzung.
- Verfassen der Bachelorarbeit mit Darstellung der theoretischen Grundlagen, dem Implementierungsprozess, den Ergebnissen und einer abschließenden Bewertung.
Ansprechpartner:
Tobias Arndt (arndt@fh-aachen.de)
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Ziel
Ziel dieser Arbeit ist es zwei Diffusion Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) auf Anwendbarkeit für Anomaly Detection zu untersuchen und zu evaluieren. Dabei handelt es sich um die Diffusion Modelle Noise Conditioned Score Networks (NCSNs) und Stochastic Differential Equations (SDEs).
Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird. Allgemein werden diese in 3 Kategorien gefasst: Denoising Diffusion Probabilistic Models (DDPMs), NCSNs und SDEs. SDEs sind dabei eine Generalisierung von DDPMs und NCSNs.
In der Forschung zu generativen Algorithmen und Anomaly Detection sind Diffusion Modelle state-of-the-art und gehören momentan zu den am aktivsten erforschten Algorithmen. Dabei wird sich allerdings vor allem auf DDPMs beschränkt. SDEs wurden auch bereits für Anomaly Detection eingesetzt. Teil dieser Arbeit wird es sein zu untersuchen, ob NCSNs sich ebenfalls dafür eignen und diese gegebenfalls zu
implementieren. SDEs Ansätzen sollen ebenfalls implementiert werden und gegebenfalls mit NCSNs verglichen werden.
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.
Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von Diffusion Models (NCSNs und SDEs) für Anomaly Detection
2. Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen
3. Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Aktive Forschung: Diffusion Modelle sind ein sehr aktuelles Forschungsthema und besonders der Einsatz von NCSNs und SDEs ist noch nicht sehr gut erforscht.
3. Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche
ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Ziel
Ziel dieser Arbeit ist es Generative Adversarial Networks (GAN) Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.
GANs bestehen aus einem Generator- und einem Diskriminator-Netzwerk. Der Generator lernt Bilder zu generieren, die möglichst ähnlich zu den Originalbildern sein sollten. Der Diskriminator bekommt immer zwei Bilder, eins der Originalbilder und ein Generiertes vom Generator, und soll lernen diese zu unterscheiden.
Pythonkenntnisse (insbesondere Pytorch) sowie Vorkenntnisse über neuronale Netzwerke sind von Vorteil.
Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von GANs für Anomaly Detection
2. Implementierung und Training von GANs für Anomaly Detection auf unterschiedlichen Datensätzen
3. Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Kenntnisse über GANs (einer der aktuellsten generativen Verfahren) erlernen
3. Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Im Forschungsprojekt wird mit einem Hersteller von Medizintextilien kooperiert, der über einen digitalisierten Produktionsprozess verfügt. Dieser Prozess besteht aus einer Vielzahl von Maschinenparametern/Einflussfaktoren, die erfasst werden. Beim Produzieren müssen Zielgrößen aus der Textiltechnik eingehalten werden.
Klassische ML Verfahren können aus unterschiedlichen Gründen an ihre Grenzen stoßen bei der Modellierung von Produktionsprozessen. In dieser Abschlussarbeit soll ein Human-in-the-Loop Ansatz ins Zentrum gestellt werden. Als Human-in-the-Loop wird ein Verfahrensaufbau bezeichnet, bei dem der Mensch als Orakel die vorhergesagten Produktionsergebnisse bewertet und anhand dieser Bewertung das Modell verbessert werden kann. Das Modell soll dabei unmittelbar und für den Menschen nachvollziehbar derart Empfehlungen geben können, dass die Produktion hinsichtlich der Produktionsziele durch den Menschen korrigiert werden kann.
Aufgaben
- Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle
- Entwicklung einer Umgebung, die eine Prognose visualisiert und mit dessen Hilfe die Prognose als neuer Trainingsinput aufgearbeitet werden kann
- Evaluieren, wie häufig und bei welchen Prognosen der Mensch zur Korrektur hinzugezogen werden soll
Gewünschte Ergebnisse
- Erkenntnisse zu der Datengrundlage
- Vergleich von Modellierungsansätzen
- Machbarkeit der Modellierung ausgewertet
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ziel der Arbeit:
Machine Learning Algorithmen besitzen oftmals eine große Anzahl von Parametern und Hyperparametern, die wesentlich die Güte der Prädiktion für verschiedene Anwendungsfälle bestimmen. Eine Optimierung dieser Parameter ist wegen der kombinatorischen Vielfalt sehr zeit- und rechenaufwändig. Die Arbeit verfolgt das Ziel das Training der Machine Learning Algorithmen auf einem Cluster mit GPUs bereit zu stellen.
In einem ersten Schritt ist der Stand der Technik für verteiltes Training von Machine Learning Algorithmen zu untersuchen und die gängigen Verfahren (z.B. Spark und Flink, Frameworks wie tensorflow und pytorch, sowie verteilte Datenstrukturen wie Rapids und Dask) miteinander zu vergleichen. Dabei soll ein besonderes Augenmerk der Nutzung mittels python und der Integration von GPGPUs gelten.
Die Arbeit soll ein Framework entwickeln beim dem mittels pySpark oder ähnlichen Frameworks eine Umgebung geschaffen wird, in der sich leicht solche verteilt lernenden Verfahren einbetten lassen. Das System soll dabei auf Cluster beliebiger Größe (Anzahl Rechenknoten, Anzahl CPU Kerne, GPGPU, Speicher) skalieren. Die Ergebnisse sind als juypter notebooks bereit zu stellen.
Hintergrund und Motivation
Tiefe konvolutionale neuronale Netze (Deep Convolutional Neural Networks, DCNNs) haben sich als leistungsstarke Werkzeuge in verschiedenen Bereichen des maschinellen Lernens und der künstlichen Intelligenz etabliert. Ein wesentliches Merkmal von DCNNs ist ihre Fähigkeit, komplexe Merkmale aus Eingabedaten zu extrahieren, die als Feature Maps bezeichnet werden. Um die Funktionsweise dieser Modelle besser zu verstehen und zu interpretieren, ist die Visualisierung dieser Feature Maps sowie der zugehörigen Activity Maps von großer Bedeutung. Dies kann sowohl für die Forschung als auch für praktische Anwendungen, wie z.B. die Erklärung von Modellergebnissen, nützlich sein.
Ziel der Arbeit
Ziel dieser Bachelorarbeit ist es, verschiedene Methoden zur Visualisierung von DCNN Feature Maps und Activity Maps zu vergleichen und zu bewerten. Der Fokus liegt auf der Analyse existierender Methoden sowie deren Re-Implementierung. Basierend auf diesen Erkenntnissen soll ein Demonstrator entwickelt werden, der die Visualisierungen anschaulich und interaktiv darstellt.
Aufgabenstellung
Literaturrecherche:
- Umfassende Recherche zu existierenden Methoden zur Visualisierung von Feature und Activity Maps in DCNNs.
- Untersuchung der Vor- und Nachteile verschiedener Ansätze, z.B. Grad-CAM, Guided Backpropagation, Layer-wise Relevance Propagation.
Konzeptualisierung und Planung:
- Auswahl der am besten geeigneten Methoden für eine Re-Implementierung.
- Entwicklung eines Kriterienkatalogs zur Bewertung der Visualisierungsmethoden (z.B. Interpretierbarkeit, Berechnungskomplexität, Anwendungsspektrum).
Re-Implementierung oder Integration:
- Implementierung oder Verfügbarkeitsmachung der ausgewählten Visualisierungsmethoden in einer geeigneten Programmiersprache (z.B. Python).
- Vergleich der Implementierungen anhand von vorgegebenen Datensätzen und Modellen.
Entwicklung eines Demonstrators:
- Entwicklung einer interaktiven Benutzeroberfläche zur Darstellung der Visualisierungen.
- Integration der verschiedenen Visualisierungsmethoden in den Demonstrator.
Evaluation:
- Analyse der Ergebnisse und Bewertung der implementierten Methoden gemäß dem entwickelten Kriterienkatalog.
- Diskussion der Stärken und Schwächen der einzelnen Methoden.
Dokumentation:
- Ausarbeitung der Ergebnisse in einer wissenschaftlichen Arbeit.
- Erstellen einer umfassenden Dokumentation der Implementierungen und des Demonstrators.
Voraussetzungen
- Grundkenntnisse in maschinellem Lernen und neuronalen Netzen.
- Erfahrung mit Programmierung, vorzugsweise in Python.
- Interesse an Datenvisualisierung und der Analyse komplexer Modelle.
E-Mail: arndt@fh-aachen.de
laufend
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.
Im Zuge dieser Arbeit sollen Modelle entwickelt werden, die maschinelles Lernen verwenden sollen, um den manuellen Prüfaufwand zu reduzieren. Dabei besteht der erste Fokus auf Methoden, die ohne gelabelte Daten, funktionieren können.
Aufgaben
- Aufarbeitung von passenden unsupervised learning Methoden
- Problemstellung aufarbeiten
- Vorhandene Datensätze analysieren, Fragen mit Unternehmenspartner klären und mögliche Datenaufbereitungsmethoden (data preparation) feststellen
- Umsetzung von Modellen
- Evaluierung der Modelle unter Betrachtung der vorher abgeklärten Zielstellung
Gewünschte Ergebnisse
- Literatur-Review zu unsupervised learning Methoden und Datenaufbereitungsmethoden
- Lösbarkeit der Problemstellung mit dem gewählten Ansatz erforscht
Stichpunkte
Fehlererkennung
Ausreißererkennung (anomaly detection)
Unsupervised learning
Image pre-processing
Ansprechpartner
Hakan Köse, M. Eng.
E-Mail: koese@fh-aachen.de
Quelle der Abbildung: www.gkd-group.com
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.
Im Zuge dieser Arbeit sollen Modelle entwickelt werden, die maschinelles Lernen verwenden sollen, um den manuellen Prüfaufwand zu reduzieren. Der Fokus wird auf Methoden des supervised learnings gelegt.
Aufgaben
- Aufarbeitung von passenden supervised learning Methoden
- Problemstellung aufarbeiten
- Vorhandene Datensätze analysieren, Fragen mit Unternehmenspartner klären und mögliche Datenaufbereitungsmethoden (data preparation) feststellen
- Umsetzung von Modellen
- Evaluierung der Modelle unter Betrachtung der vorher abgeklärten Zielstellung
Gewünschte Ergebnisse
- Literatur-Review zu supervised learning Methoden und Datenaufbereitungsmethoden (Image pre-processing, …)
- Lösbarkeit der Problemstellung mit dem gewählten Ansatz erforscht
Stichpunkte
Fehlererkennung
Bildklassifikation
Supervised Learning
Image pre-processing
Ansprechpartner
Hakan Köse, M. Eng.
E-Mail: koese@fh-aachen.de
Quelle der Abbildung: www.gkd-group.com
Ausgangssituation
Im Forschungsprojekt wird mit einem Hersteller von Ringläufer kooperiert, der Tausende von unterschiedlichen Ringläufervarianten herstellt. Bei der Produktion wird oft nicht die volle Kapazität der Maschinen ausgenutzt. Diese Kapazität wird für Vorproduktionen genutzt, um in der Lage zu sein bei Aufträgen direkt aus dem Lager verkaufen zu können und nicht nach einer Bestellung erst mit der Produktion anzufangen.
Die Anzahl der Produkte ist allerdings so hoch, dass nicht alle Produkte auf Lager sein können. Außerdem werden viele Produkte nicht mehr verkauft und andere haben eine hohe Nachfrage. Die Anzahl von schwerverkäuflichen Produkten soll minimiert werden. Um dies zu bewerkstelligen, sollen Verfahren des deep-learning benutzt werden. Ziel ist es eine Empfehlung zu geben, ob ein gegebenes Produkt in einer gegebenen Zeitspanne verkauft werden wird.
Aufgaben
- Recherche zu geeigneten Verfahren und Datenaugmentation
- Entwicklung des Vorproduktionsempfehlungssystem
- Evaluierung verschiedener deep-learning-Verfahren
Gewünschte Ergebnisse
- Erkenntnisse zu der Datengrundlage
- Vergleich von Modellierungsansätzen
- Machbarkeit der Modellierung ausgewertet
Ansprechpartner
Matteo Tschesche, M. Sc.
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Im Forschungsprojekt wird mit einem Hersteller von Ringläufer kooperiert, der Tausende von unterschiedlichen Ringläufervarianten herstellt. Bei der Produktion wird oft nicht die volle Kapazität der Maschinen ausgenutzt. Diese Kapazität wird für Vorproduktionen genutzt, um in der Lage zu sein bei Aufträgen direkt aus dem Lager verkaufen zu können und nicht nach einer Bestellung erst mit der Produktion anzufangen.
Die Anzahl der Produkte ist allerdings so hoch, dass nicht alle Produkte auf Lager sein können. Außerdem werden viele Produkte nicht mehr verkauft und andere haben eine hohe Nachfrage. Die Anzahl von schwerverkäuflichen Produkten soll minimiert werden. Um dies zu bewerkstelligen, sollen Verfahren der klassischen maschinellen Lernverfahren benutzt werden. Ziel ist es eine Empfehlung zu geben, ob ein gegebenes Produkt in einer gegebenen Zeitspanne verkauft werden wird.
Aufgaben
- Recherche zu geeigneten Verfahren und Datenaugmentation
- Entwicklung des Vorproduktionsempfehlungssystem
- Evaluierung verschiedener klassischer maschinellen Lernverfahren
Gewünschte Ergebnisse
- Erkenntnisse zu der Datengrundlage
- Vergleich von Modellierungsansätzen
- Machbarkeit der Modellierung ausgewertet
Ansprechpartner
Matteo Tschesche, M. Sc.
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen
Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.
Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren. Aus den hierbei entwickelten Methoden sind Autoencoder eine wichtige Algorithmenklasse, die es
ermöglichen fehlerhafte Produktionen auf ungelabelten Daten zu finden und nicht betroffen sind von der sehr geringen Anzahl an tatsächlichen Fehlproduktionen (ungefähr 5%). Darüber hinaus fungieren Autoencoder als Grundlage für viele weitere Algorithmen.
Im Zuge dieser Arbeit sollen Autoencoder systematisch untersucht werden und Grundlagen dafür geschaffen werden, diese mit anderen Verfahren vergleichen zu können, mit dem Ziel eine Übersicht zu bekommen, wie der manuelle Prüfaufwand reduziert werden kann.
Einfache Pythonkenntnisse wären von Vorteil.
Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle
2. Gründliche Recherche über konkrete Architekturen von Autoencodern und generellen Neuronalen-Netzwerk-Architekturen und den Möglichkeiten von Vergleichbarkeit. Für die Vergleichbarkeit können zum Beispiel der Aufwand der Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung, Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.
3. Implementierungen dieser Architekturen in Abhängigkeit von netzwerkspezifischen Parametern.
4. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.
3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.
4. Möglichkeit Teil einer großen Veröffentlichung zu werden.
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tscheche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95 %) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Ziel
Ziel dieser Arbeit ist es zwei generative Neural Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren. Dabei handelt es sich um Diffusion Modelle und Super-Resolution.
Bei beiden Ansätzen wird das Ursprungsbild verändert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.
Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird, während bei Super-Resolution das Bild verpixelt wird.
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.
Aufgaben
- Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen
- Implementierung und Training von Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen
- Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
- Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
- Aktive Forschung: Super-Resolution wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Diffusion Modelle sind noch sehr neu in dem Feld.
- Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Hintergrund:
MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen der klassischen Bildverarbeitung mit deepLearning Algorithmen zur Erkennung der Verschleißzustände textiler Papiermaschinenspannungen ermittelt werden. Wir wollen gemeinsam mit Dir beispielsweise Methoden zur erkennung von Kanten, Geometrien, Graustufen, Pixelverteilung und vieles mehr einsetzen, um noch mehr Merkmale (Features) zu generieren und diese auszuwerten.
Deine Aufgaben Vorkenntnisse:
Du sollst Alorithmen/Methoden der Bilderarbeitung zur Erkennung recherchieren, bewerten und mittels Python auswerten. Erfordrlich dazu sind Datenanalysen, Methoden zur Bewertung und auswahl von Daten (data underdstanding, feature selection) und einsatz neuronaler Netze (deepLearning). durch diese Arbeit sollst Du bewerten, welche Methoden effizeinter zur Verschleißerkennung geeignet sind. Deine Arbeit hilft uns dabei, dass zukünftige Potential von Bildverarbeitung und deepLearning in unserer Qualitätssicherung zu nutzen. Einfache Vorkenntniss im Einsatz von Python wären von Vorteil.
Dein Nutzen:
Du wirst in ein Team aus Forschung, Qualität integriert. Du bekommst einen Einblick in textile Papiermaschinenbespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.
Ansprechpartner:
Heimbach: Kai Klopp
MASKOR: Tobias Arndt
ITA: Rosario Othen
Ansprechpartner:
www.heimbach.com
www.maskor.fh- aachen.de
www.ita.rwth- aachen.de
Aufbau eines KI- basierten Assistenzsystems inn der Instandhaltung
Hintergrund:
MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen zum Aufbau eines Assistenzsystems erarbeitet werden. Wir haben bereits Erfahrungen mit einem System in der Produktion machen können. Die zu verarbeitenden Daten unterscheiden sich aber Umfang und Information sehr, so dass andere Algorithmen eingesetzt werden müssen.
Deine Aufgaben und Vorkenntnisse:
Du sollst Algorithmen/Methoden der Sprachverarbeitung,- aufbereitung und des Clustering recherchieren, bewerten und mittels Python auswerten. Erforderlich dazu sind Datenanalysen, Bewertung und Auswahl von Daten (data underdstanding, feature selection) und Einsatz neuronaler Netze (deepLearning). Durch diese Arbeit sollst Du bewerten, welche Methoden für ein Assistenzsystem geeignet sind. Deine Arbeit hilft uns dabei, einen Demonstrator für die Empfehlungen von Lösungsalternativen für Instandhaltungsprobleme zu haben.
Einfache Vorkenntnisse im Einsatz von Python wären von Vorteil.
Dein Nutzen:
Du wirst in ein Team aus Forschung, Instandhaltung und IT integriert. Du bekommst einen Einblick in textile Papiermaschinen- bespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI – insbesondere Natural Language Processing. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.
Ansprechpartner:
Heimbach: Kai Klopp
MASKOR: Tobias Arndt
ITA: Rosario Othen
Ansprechpartner:
www.heimbach.com
www.maskor.fh- aachen.de
www.ita.rwth- aachen.de
Ausgangssituation
Im Forschungsprojekt wird mit einem Hersteller von Medizintextilien kooperiert, der über einen digitalisierten Produktionsprozess verfügt. Dieser Prozess besteht aus einer Vielzahl von Maschinenparametern/Einflussfaktoren, die erfasst werden. Beim Produzieren müssen Zielgrößen aus der Textiltechnik eingehalten werden.
Das Herstellen vom Zusammenhang zwischen den Einflussfaktoren und den Zielgrößen/Qualitätskriterien soll durch ML Verfahren erreicht werden. Dafür soll die bestehende Datengrundlage mit einem der bekannten Vorgehensmodelle für datengetriebene Projekte untersucht werden. Außerdem soll ein Prognosemodell am Ende entstehen, womit die Auswirkung von unterschiedlich eingestellten Einflussfaktoren untersucht werden können.
Aufgaben
- Aufarbeitung der bestehenden Datengrundlage mittels bekannte Vorgehensmodelle
- Evaluierung der Modellierungsansätze für die Prognose
Gewünschte Ergebnisse
- Erkenntnisse zu der Datengrundlage
- Vergleich von Modellierungsansätzen
- Machbarkeit der Modellierung ausgewertet
Stichpunkte
Prognosemodell
Industrie 4.0
Maschinelles Lernen
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die
derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Ziel
Ziel dieser Arbeit ist es den generative Neural Network Ansätze Super-Resolution (SR) auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.
Dabei soll der Einsatz von Transformer-Netzwerken gegenüber üblichen Netzwerken wie UNet gegeneinander evaluiert werden. Des Weiteren sollen iterative Verfahren zur Lösung evaluiert werden.
Für SR wird das Ursprungsbild auf weniger Pixel reduziert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder
möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.
Visual Transformer sind sowohl für SR als auch für Anomaly Detection state-of-the-art und bieten somit ein hohes Potential. Allerdings wurden sie noch nie in der Art kombiniert eingesetzt.
Iterative Ansätze wurden bereits für SR evaluiert und sorgten für eine signifikante Verbesserung der Ergebnisse.für
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.
Aufgaben
1. Implementierung und Training von mehreren Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen:
1. U-Net-like Baseline für SR in einem Schritt
2. U-Net-like Baseline für iterativen SR Ansatz
3. Transformer-basiertes SR Netzwerk
4. Iteratives Transformer-basiertes SR Netzwerk
2. Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Aktive Forschung: SR wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Transformer sowie iterative SR Verfahren sind sehr neu.
3. Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.
Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Diese Methoden sind in der Regel abhängig von einer hohen Anzahl und von einer hohen Varianz der Datenpunkte, da erst so gewährleistet werden kann, dass die Generalisierung evaluiert und die Algorithmen den tatsächlichen Anwendungsfall lernen.
Aufgrund der hohen Qualität in der Produktion des Unternehmenspartners ist insbesondere der Punkt der Varianz nicht gegeben. Sehr viele Datenpunkte sind fast identisch, sodass für ein Neutraining und eine konstante Evaluierung davon auszugehen ist, dass viele Datenpunkte redundant
sind.
Dieser Aspekt ist herausfordernd, da es aus wirtschaftlichen Gesichtspunkten zu Problemen führen kann, weil eigentlich bekannte Datenpunkte händisch gelabelt werden müssen und uninteressante Datenpunkte das Training in die Länge ziehen, was jeweils mit Kosten verbunden ist.
Algorithmen, die Lösungsansätze für diese Herausforderungen anbieten, lassen sich unter dem Namen Active Learning zusammenfassen.
Ziel dieser Arbeit ist relevante Verfahren dieser Klasse miteinander zu vergleichen und systematisch zu erfassen, mit der Absicht die Trainings- als auch die Labelinglast zu reduzieren bei gleichbleibender Leistung von von uns vorgegebenen Anomalieerkennungsverfahren.
Einfache Pythonkenntnisse wären von Vorteil.
Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle
2. Gründliche Recherche über theoretische Grundlagen, daraus abgeleiteten Verfahren des aktiven Lernens und Spezifika in Bezug auf Deep Learning.
3. Entwickeln einer Baseline (z.B. randomiserte Auswahl von Datenpunkten) und festlegen von Gütekriterien. Für die Vergleichbarkeit können zum Beispiel der Aufwand der
Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung,
Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.
4. Implementierungen dieser Algorithmen in Abhängigkeit von methodenspezifischen Parametern.
5. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.
3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.
4. Möglichkeit Teil einer großen Veröffentlichung zu werden.
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Externe Abschlussarbeiten und Ausschreibungen
Bei Interesse wenden Sie sich bitte an Herrn Professor Elsen, welcher den Kontakt zu den jeweiligen Unternehmen herstellen wird.
Externe Abschlussarbeiten
Externe Ausschreibung
Ausgangssituation:
CanControls ist ein innovatives Software-Unternehmen mit Schwerpunkten im Bereich der Echtzeit-Bildverarbeitung, Computer Vision und videobasierten Szenenanalyse.
Von uns entwickelte Technologien kommen in der der Automobilindustrie, der Luft- und Raumfahrt, der Medizintechnik, dem Straßenwesen und der Unterhaltungselektronik zum Einsatz.
Digitale Zwillinge unserer Systeme erlauben es, die Bildgebung/Bildverarbeitung in existierenden Anwendungen zu optimieren, sowie neue Anwendungsfelder digital zu bewerten.
Dafür ist eine möglichst realitiätsnahe Bildsynthese essentiell.
Moderne Methoden der generativen künstlichen Intelligenz stellen hierfür einen vielversprechenden Ansatz dar.
Deine Aufgaben und Vorkenntnisse:
Moderne Verfahren der Bildsynthese berücksichtigen ausschließlich den sichtbaren Wellenlängenbereich in Form von RGB-Bildern.
Ziel dieser Arbeit ist es auf Stable Diffusion basierende Bildsynthese für RGB auf den nicht sichtbaren Wellenlängenbereich zu übertragen.
1. Einarbeitung in Stable Diffusion
2. Recherche gängiger Methoden der „Personalisierung“ etablierter text-to-image Modelle (Textual Inversion, DreamBooth, LoRa, HyperNetworks, etc.)
3. Bewertung dieser Methoden im Kontext unserer proprietären Bilddaten
Vorkenntnisse in Python sowie in gängigen Deep-Learning Bibliotheken (TensorFlow/PyTorch) sind wünschenswert.
Fließendes Englisch in Wort und Schrift ist erforderlich.
Deine Benefits:
1. Du wirst Teil eines internationalen Teams mit Sitz im Zentrum von Aachen
2. Lernen von State-of-the-Art Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
3. Persönliche Betreuung während des Praktikums.
4. Möglichkeit Teil einer Veröffentlichung auf einer Top-Konferenz zu werden (CVPR, ICCV, ECCV, NeurIPS ).
Ansprechpartner:
luttermann@cancontrols.com
Dr. Tarek Luttermann
Informationen zum Unternehmen:
Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.
Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.
Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.
Übersicht:
Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.
Recommender System für Produktionssteuerung:
Bachelor- / Masterarbeit:
- Vorschlag für den Bediener für das nächste zeiteffektivste Rezept / Werkstück => Max. Durchsatz
Masterarbeit:
- Generieren der Fahrbefehle für das Portal unter Einhaltung der festen Prozesszeiten bzw. im zeitlichen Rahmen der flexiblen Prozesszeiten unter in der Maschine befindlichen Körbe / Rezepte
- Maximieren des Durchsatzes unter Berücksichtigung der realen Beladung mit Losgröße „1“.
Ansprechpartner:
Ecoclean GmbH
Rüdiger Fritzen
E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net
Informationen zum Unternehmen:
Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.
Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.
Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.
Übersicht:
Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.
KI-Planungssystem für optimale Prozessdurchführung:
Bachelor- / Masterarbeit Maschinenkonfigurationstool:
- Anhand der definierten Taktzeitvorgaben / Durchsatzmenge, Rezepten, Stückzahlen und der Beladereihenfolge
- Bestimmung der Anzahl der Portale zur Erreichung der Vorgaben
- Bestimmung der Anzahl der notwendigen Mehrfach-Prozessstationen zur Erreichung der Vorgaben
Ansprechpartner:
Ecoclean GmbH
Rüdiger Fritzen
E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net
Abgeschlossene Abschlussarbeiten
Prüfer | Abschluss | Datum | Name | Thema |
---|---|---|---|---|
Ingo Elsen | Bachelor | 28.02.2019 | Fabian Rüb | Entwicklung eines Verfahrens zur kamerabasierten Blickrichtungserkennung |
Ingo Elsen | Master | 27.03.2019 | Manuel Bareiss | Bildbasierte Erkennung von Maschinenteilen im ein- und ausgebauten Zustand mittels Verfahren des maschinellen Lernens |
Ingo Elsen | Master | 26.04.2019 | Matthias Heinemann | Erstellung eines technischen Konzepts für eine Plattform zur unternehmensübergreifenden Disposition |
Ingo Elsen | Master | 30.01.2020 | Horst Sebastian Perry Herzog | Entwurf und Realisierung eines adaptiven Fütterungssystems für Aquaponikanlagen |
Ingo Elsen | Bachelor | 27.02.2020 | Maik Wydra | Einsatz von Prozcess Mining zur Optimierung des Softewaresupportprozesses |
Ingo Elsen | Bachelor | 12.03.2020 | Dmitrii Anisovich | Analyse eines Datensatzes von Lokomotiven |
Ingo Elsen | Bachelor | 13.03.2020 | Alexander-Wilhelm Wiens | Entwicklung von Datenanalysen und Prognosemodellen für erneuerbare Energien in Deutschland |
Ingo Elsen | Bachelor | 03.04.2020 | Florian Lange | Intelligente Initialisierung von Smart Building Optimierungsalgorithmen |
Ingo Elsen | Master | 20.05.2020 | Alexandre Charoy | Entwicklung eines Digital Shadow im Materialmanagement zur Korrelation von Material- und Prozessdaten |
Ingo Elsen | Bachelor | 09.06.2020 | Christopher Kremkow | Untersuchung zur Blickrichtungserkennung mit künstlichen Neuronalen Netzen |
Ingo Elsen | Master | 17.06.2020 | Nils Schlicher | Vergleich von Datenbanken für einen Hadoop-Cluster |
Ingo Elsen | Bachelor | 21.07.2020 | Katrin Hammacher | Absatzprognose neuer Produkte im Einzelhandel basierend auf homogenen Abverkaufsgruppen mithilfe von Methoden des maschinellen Lernens |
Ingo Elsen | Bachelor | 24.07.2020 | Sarah Beschorner | Automated Hyperparameter Tuning of Language Based Anomaly Detection for Log files |
Ingo Elsen | Master | 08.07.2020 | Dustin Hellmann | Verarbeitung und Analyse von SCADA-Prozessdaten mit Werkzeugen der Big Data Analysis |
Ingo Elsen | Bachelor | 27.08.2020 | Simon Westfechtel | Erzeugung eines künstlichen Datensatzes zur Bremsprognose von Güterzügen und Validierung der Big Data Verarbeitung |
Ingo Elsen | Bachelor | 28.08.2020 | Oskar Galla | Erkennung von technischen Ausfällen bei Triebwagen mittels Anomalieerkennung |
Ingo Elsen | Bachelor | 28.08.2020 | Patrick Reckeweg | Untersuchung der Effizienz und Effektivität der AVOD Architektur bei der Objektlokalisierung in LiDAR und Kamera Daten |
Ingo Elsen | Master | 11.09.2020 | Lennart Stich | Vergleich von cloud-basierten Container- und Virtualisierungstechnologien im Kontext von Kubernetes |
Ingo Elsen | Bachelor | 03.11.2020 | Lukas Weller | Anwendung und Vergleich verschiedender Machine-Learning-Verfahren zur Vorhersage von Passagierzahlen |
Ingo Elsen | Master | 06.11.2020 | Daniel Moritz | Konzeption und Umsetzung eines hyper-konvergenten Kubernetes Cluster im Unternehmensfeld als Edge Computing Ansatz |
Ingo Elsen | Bachelor | 04.03.2021 | Arne Steen | Creation and Validation of an Artificial Dataset for 3d Object Classification |
Ingo Elsen | Bachelor | 06.04.2021 | Alexander Olear | Development of a low power sensor module with an esp32 microcontroller |
Ingo Elsen | Bachelor | 28.04.2021 | Thomas Sommer | Implementierung von Selbstorganisierenden Merkmalskarten und Radialen Basisfunktionsnetzen in Python |
Ingo Elsen | Master | 29.07.2021 | Björn Kops | Konzept und Entwicklung einer KI-basierten Lösung zur Analyse der Datenqualität von Produktionsdaten |
Ingo Elsen | Bachelor | 17.08.2021 | Sachar Matkovskiy | Automatic Detection of Deliberate Speed Changes after Cleared Flight Level |
Ingo Elsen | Bachelor | 18.08.2021 | Björn Kohlen | Entwurf und Implementierung eines Web-Frontends zur Abfrage und Visualisierung von Umweltsensordaten |
Ingo Elsen | Master | 14.09.2021 | Carlo Nießen | Analyse und Optimierung eines Software-Release-Cycle mit Focus auf Risikominimierung |
Ingo Elsen | Master | 14.09.2021 | Carlo Nießen | Entwicklung einer Datenpipeline zur Speicherung und Aufbereitung von Sensordaten |
Ingo Elsen | Bachelor | 20.01.2022 | Max Conzen | Anwesenheitsprognose mittels Umweltsensordaten für die Gebäudeautomatisierung |
Ingo Elsen | Master | 27.01.2022 | Marin Jukic | Automatisierte Themenbestimmung von Textdaten durch Machine Learning und Deep Learning Methoden mithilfe der Evidenztheorie |
Ingo Elsen | Bachelor | 02.02.2022 | Robin Mai | Improving data consistency in the ingestion process of a denormalized Cloud Data Warehouse |
Ingo Elsen | Master | 07.02.2022 | Florian Lange | Modellfreies Reinforcement Learning für die intelligente Gebäudesteuerung |
Ingo Elsen | Master | 16.03.2022 | Mirko Reimbold | Anforderungen an mandantenfähige Cluster und der aktuelle Stand in Kubernetes |
Ingo Elsen | Bachelor | 25.04.2022 | Josres Arnol Ngompe Fotie | Erweiterung der bestehenden iOS-App des digitalen Shopfloor-Management-Systems LISA ( Learn Industrial Solutions Applications) |
Ingo Elsen | Bachelor | 02.06.2022 | Tobias Arndt | Vergleich von Verfahren des Maschinellen Lernens zur Klassifikation von Baudetails aus Konstruktionszeichnungen |
Ingo Elsen | Bachelor | 01.08.2022 | Casimir Giesler | Datengetriebene Auslastungsprognose für öffentliche Verkehrsinfrastruktur am Beispiel von Parkhäusern |
Ingo Elsen | Bachelor | 18.04.2022 | Nico Heijnk | Generieren von Vorschlägen für Merkmalswerte in einer Werkzeugdatenbank durch maschinelles Lernen |
Ingo Elsen | Bachelor | 12.06.2022 | Philipp Hünnerscheidt | Aufbau einer Datenpipeline zur Erzeugung von 3D Ansichten aus CAD Daten |
Ingo Elsen | Bachelor | 05.05.2022 | Alexander Loosen | Prognose der Anwesenheit von Personen für die Gebäudeautomatisierung mittels Umweltsensordaten |
Ingo Elsen | Bachelor | 10.04.2022 | Timo Schloemer | Prognose der Restlebensdauer von Kolbenkompressorventilen mittels Methoden des Maschinellen Lernens |
Ingo Elsen | Bachelor | 09.05.2022 | Julian Schultheiß | Performanceuntersuchung des Cloud-Deployments einer IoT-Plattform zur automatisierten Qualit¨atsprognose von zerspanten Bauteilen |
Ingo Elsen | Bachelor | 30.09.2022 | Daniel Sept | Entwicklung und Implementierung einer MQTT Testumgebung mit verschiedenen Clients |
Ingo Elsen | Master | 07.10.2022 | Maik Wydra | Entwicklung eines Recommender Systems auf Basis von Bewertungen deutscher IT Unternehmen |
Ingo Elsen | FB10 | 30.01.2023 | Markus Klein | Recommender Systems for Research Data Management |
Ingo Elsen | Bachelor | 17.04.2023 | Jens Peter Dennigmann | Vergleich von Tiefen Neuronalen Netzen zur Erkennung von 3D Maschinenteilen |
Ingo Elsen | Master | 15.05.2023 | Hanna Babilon | Comparison of Neural Network Topologies for 3D Recognition of Machine Parts |
Ingo Elsen | ETP | 22.08.2023 | Yannic Schlosser | Deep Learning-Based Visual Quality Inspection in Vertical Farming Systems |
Ingo Elsen | Master | 29.08.2023 | Luca Bonn | Patch-based Feature Extraction for High-Resolution Image Anomaly Detection |
Ingo Elsen | Bachelor | 06.09.2023 | Marc Schwägerl | Methoden zur Überführung von Produktbezeichnungen in standardisierte Benennungssysteme |
Ingo Elsen | Bachelor | 29.09.2023 | Sagar Adhikari | Image-based error detection for quality control using machine learning methods (Unsupervised Learning) |
Ingo Elsen | Bachelor | 23.10.2023 | Sven Starzer | Improving Gaze Prediction based on Eye Segmentation through Pre-Training with Synthetic Data |
Ingo Elsen | Bachelor | 07.12.2023 | Alexander Schechtel | Untersuchungen zum verteilten Training von Machine Learning Algorithmen auf einem Clusterrechner |
Ingo Elsen | Bachelor | 21.12.2023 | Baran Dirakie | Untersuchung zur optimalen Auswahl von Trainingsdaten aus großen Datensätzen |
Ingo Elsen | Bachelor | 10.04.2024 | Tobias Neumann | Graphenbasierte Visualisierung der Modulstruktur eines Studiengangs |
Ingo Elsen | MCD | 22.05.2024 | Sophia Bongards | Analyse von Visualisierungsmethoden für dynamische Partikelverteilungen in 2D und 3D |
Ingo Elsen | MCD | 22.05.2024 | Christina Papenfuss | Entwurf eines Verfahrens zur Visualisierung von dynamischen Partikelverteilungen in Virtual Reality |
Ingo Elsen | Bachelor | 10.07.2024 | Irene Ackermann | Anomaliedetektion zur elektrochemischen Impedanzspektroskopie |
Ingo Elsen | Bachelor | 06.09.2024 | Julius Busch | Prototype Implementation for Retrieval Augmented Generation and Evaluation of Major LLMs |
Ingo Elsen | Bachelor | 28.08.2024 | Nodirjon Tadjiev | Design and Implementation of a Data- and Training-Pipeline for Anomaly Detection in Large Images |
Ingo Elsen | Bachelor | 03.09.2024 | Oskar Heuwes | Architekturkonzept für sprachbasierte User-Interfaces in ERP-Systemen mittels Large Language Models |
Ingo Elsen | BMA | 23.09.2024 | Maximilian Hibert | Vergleich klassischer Bildverarbeitungsmethoden mit Machine Learning Algorithmen zur Erkennung der Verschmutzung auf Papiermaschinenbespannungen |
Ingo Elsen | Bachelor | 26.09.2024 | Martin Tomaszewski | Vergleich von Active-Learning-Methoden zur Reduktion der Trainings- und Labelinglast |
Ingo Elsen | Bachelor | 10.10.2024 | Leon Plum | Industrial Anomaly Detection Using 2D-Rocket and Deep Convolutional Neural Networks |