Studenten
Das Big Data Lab bietet viele spannende Projekte, an denen Sie sich beteiligen können. Sie können auch gemeinsam mit uns ein passendes Thema für Ihre Abschlussarbeit finden.
- Big Data Infrastruktur
- Data Science Projekte
- Machine Learning Pojekte
Um einen groben Überblick über das Forschungsfeld zu bekommen, schauen Sie sich z.B. unsere laufenden Projekte an.
Sollten Sie Ihre Arbeit extern anfertigen wollen, geht das auch. Es sollte aber thematisch zu den oben genannten Gebieten passen.
Der formale Ablauf ist dann wie folgt:
Interne Arbeit:
* Sie kontaktieren mich per Email oder WebEx (s. EmailPolicy) und wir besprechen in einer WebEx oder in Präsenz die möglichen Themen
Externe Arbeit:
* Sie erstellen zusammen mit Ihrer externen Betreuung, die mindestens den von Ihnen angestrebten Abschluss (Bachelor oder Master) in einem MINT-Fach haben muss, ein Exposé zu Ihrem Thema, dass das Thema und die von Ihnen zu leistenden Arbeiten beschreibt. (Ca. 1-2 Din A4 Seiten)
* In einer gemeinsamen WebEx besprechen wir dann den weiteren Ablauf
Bei Bachelorarbeiten gestalte ich die Themen so, dass Praxisprojekt und Abschlussarbeit aneinander anschließen und ein Thema gesamthaft bearbeiten.
Beginn der Arbeit:
Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.
Ende des Praxisprojekts
Nach dem Ende des Praxisprojektes halten Sie eine halbstündige Präsentation (in Präsenz oder WebEx), an die sich Fragen zum PP anschließen. Das gibt Ihnen die Gelegenheit, eine Präsentation zu üben, Ihr Thema vorzustellen und Feedback zum bisher Geleisteten zu bekommen.
Anmeldung der BA
Der Ablauf ist entsprechend der Anmeldung zum PP
Abgabe der BA
Grundsätzlich gelten für die Abgabe der BA die Forderungen des Prüfungsamtes.
Zusätzlich wird die BA elektronisch bei mir abgegeben. Zur Abgabe gehören:
* Die schriftliche Ausarbeitung, einschließlich der von Ihnen unterschriebenen Eigenständligkeitserklärung als PDF
* Die von Ihnen verwendeten Quellen, sofern Sie sich auf wissenschaftlich Paper beziehen
* Der von Ihnen angefertigte Source Code (inklusive Bilddateien der schriftlichen Ausarbeitung)
* Bei externen Arbeiten,: Die von Ihnen verwendeten Daten ggf. in Ausschnitten und pseudonymisierter Form, so dass der Code nachvollzogen werden kann
Bei Quellen, Source Code und Daten können Sie bis 10MB Größe eine zip Datei abgeben. Ansonsten nutzen Sie bitte ein git-Repository oder den Filesharing Service gigamove der RWTH (link) der BA
Im Kolloquium halten Sie eine 30 minütige Präsentation zu Ihrer Arbeit (in Präsenz oder WebEx), an die sich Fragen zu Arbeit anschließen. Die Note erfahren Sie dann ca. eine Woche nach dem Kolloquium beim Prüfungsamt.
Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.
Ca. nach der Hälfte der geplanten Zeit halten Sie eine Zwischenpräsentation von ca, 30 Minuten Dauer, an die sich Fragen zur Arbeit anschließen.
Abgabe und Kolloquium sind so, wie bei einer BA auch (s.o.)
Generell: Zwischen 40 – 120 Seiten ohne Anhänge und Verzeichnisse. Bitte keinen Sourcecode o.ä. in die Anhänge. Dafür gibt es git.
Interne Abschlussarbeiten
offen
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert. Jeder produzierte Filter wird während des Herstellungsprozess in Form von Zeilen- und Tiefenkameras digital erfasst. Dieser Erfassungsprozess ist hochgradig standartisiert und die Qualität der Aufnahmen unterliegt keinen relevanten Schwankungen. Die Produktionsmenge beläuft sich auf ungefähr 2000 Filter pro Tag.
Um die physische Arbeitslast (manuelle Kontrolle) zu reduzieren können Methoden des bildbasierten Deep Learnings in einer Anomalie-Erkennungs-Formulierung eingesetzt werden, die sehr gute Ergebnisse liefern. Diese basieren in der Regel auf dem Verarbeiten eines kompletten Bildes. Durch die hohe Anzahl an produzierten Filtern und einer zwangsläufigen Verschiebung in der Verteilung von Bildmerkmalen ist eine regelmäßige Anpassung eines solchen Inferenzsystems erforderlich, sodass in der Regel auf vortrainierte Neuronale Netze (unregelmäßig eigens trainierter oder domänen-generalisierter Merkmalsextraktor) zurückgegriffen wird.
Betrachtet man den Aufnahmeprozess über die Zeilenkamera stellt diese Komplett-Bild-Abhängigkeit eine zusätzliche Komplexität dar. Insbesondere für die schnelle Inferenz.
Ziel dieser Arbeit soll es sein Verfahren zu entwickeln und zu vergleichen, die direkt mit den einzelnen Zeilen arbeiten können. Hierbei betrachten wir nicht mehr das Komplett-Bild als 2D Volumen, sondern lediglich die einzelnen Zeilen, die im 1D Raum vorliegen. Obwohl nun deutlich mehr Einzelinferenzen durchgeführt werden müssen, kann dieser Schritt direkt in der Kamera durchgeführt werden, wodurch aufwändige IO Operationen und deren Implikationen stark reduziert werden.
Die hierbei zu verarbeitenden Daten erfüllen Eigenschaften von Zeitreihen, sodass der Schluss naheliegt Algorithmen dieser Klasse zu verwenden – im Spezifischen Algorithen der Zeitreihen-Anomalie-Erkennung. Für die Merkmalsextraktion sollen hierbei Verfahren betrachtet werden, die in Analogie zu der Komplett-Bild-Verarbeitung kein Vortraining erfordern. Aus einer Literaturrecherche und ersten Vorarbeiten im Rahmen einer Seminararbeit kommen Verfahren der Rocket-Klasse in Frage.
Im Rahmen der Arbeit soll eine Anomalie Erkennung auf Rocket-Merkmalen auf den Zeilen der Zeilenbild-Kamera mit Hilfe einer Self-Organizing-Map entwickelt und mit anderen Verfahren verglichen werden. In einem darauf folgenden Schritt soll die Fähigkeit Multivariate-1D Merkmale, die durch die Zusammenführung der Zeilenbild-Kamera mit den Bildern der Tiefenbildkamera entstehen, auf den entwickelten Verfahren untersucht werden.
Anforderungsprofil
Für das genaue Anforderungsprofil nehmen Sie Kontakt auf. Es wird in einem Erstgespräch ermittelt, ob eine für beiden Seiten gewinnbringende Arbeit absolviert werden kann.
Ansprechpartner
Tobias Arndt, arndt@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Ziel
Ziel dieser Arbeit ist es zwei Diffusion Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) auf Anwendbarkeit für Anomaly Detection zu untersuchen und zu evaluieren. Dabei handelt es sich um die Diffusion Modelle Noise Conditioned Score Networks (NCSNs) und Stochastic Differential Equations (SDEs).
Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird. Allgemein werden diese in 3 Kategorien gefasst: Denoising Diffusion Probabilistic Models (DDPMs), NCSNs und SDEs. SDEs sind dabei eine Generalisierung von DDPMs und NCSNs.
In der Forschung zu generativen Algorithmen und Anomaly Detection sind Diffusion Modelle state-of-the-art und gehören momentan zu den am aktivsten erforschten Algorithmen. Dabei wird sich allerdings vor allem auf DDPMs beschränkt. SDEs wurden auch bereits für Anomaly Detection eingesetzt. Teil dieser Arbeit wird es sein zu untersuchen, ob NCSNs sich ebenfalls dafür eignen und diese gegebenfalls zu
implementieren. SDEs Ansätzen sollen ebenfalls implementiert werden und gegebenfalls mit NCSNs verglichen werden.
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.
Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von Diffusion Models (NCSNs und SDEs) für Anomaly Detection
2. Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen
3. Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Aktive Forschung: Diffusion Modelle sind ein sehr aktuelles Forschungsthema und besonders der Einsatz von NCSNs und SDEs ist noch nicht sehr gut erforscht.
3. Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Die genaue Vorhersage von Energieverbrauch und -erzeugung wird mit zunehmender Komplexität moderner Energiesysteme und der steigenden Bedeutung erneuerbarer Energien immer wichtiger. Durch die Unternehmensgröße werden bald starke Nachweispflichten und Kundeninformationsanforderungen seitens europäischer Regulierungen kommen.
Vorhersage auf multivariaten, realen Industrie-Energiedaten mit Deep Learning, maschinellem Lernen und statistischen Methoden
Die genaue Vorhersage von Energieverbrauch und -erzeugung wird mit zunehmender Komplexität moderner Energiesysteme und der steigenden Bedeutung erneuerbarer Energien immer wichtiger. Durch die Unternehmensgröße werden bald starke Nachweispflichten und Kundeninformationsanforderungen seitens europäischer Regulierungen kommen.
Im industriellen Umfeld ist eine Steigerung der Nachhaltigkeit (3 Säulen: Ökologie, Ökonomie, soziale Verantwortung) essentiell für die Zukunftsfähigkeit von Unternehmen.
Diese Abschlussarbeit bietet die Möglichkeit, verschiedene moderne Verfahren aus dem Bereich des Deep Learning, des maschinellen Lernens sowie klassische statistische Methoden zu nutzen und zu vergleichen, um Vorhersagen auf multivariaten Energiedaten zu optimieren und vorallem einen ersten Kontakt zu den Anforderungen in international agierenden Unternehmen herzustellen.
Zielsetzung:
Ziel der Arbeit ist es, Vorhersagemodelle für komplexe Energiedatensätze zu entwickeln und die Leistung von klassischen statistischen Methoden wie SARIMAX mit maschinellen Lernverfahren (z. B. Entscheidungsbäume, Random Forests) sowie Deep-Learning-Ansätzen (z. B. neuronale Netze) zu vergleichen. Ein besonderer Schwerpunkt liegt auf der Untersuchung, wie neuronale Netze Merkmale im latenten Raum lernen und wie diese für die Vorhersagen genutzt werden können.
Es soll auch im Ansatz untersucht werden, wie die Modelle auf unvorgesehene Ereignisse reagieren werden. Die Ergebnisse der Recherchen und die Berwertungen der Vorhersagen sollen im Rahmen des Praxisprojekts in Hinblick auf Anwendbarkeit dem Unternehmen präsentiert werden.
Inhalt der Arbeit:
- Datenverständnis und Datenaufbereitung in Zusammenarbeit mit dem Unternehmenspartner
- Vergleich statistischer Verfahren (z. B. SARIMAX) mit maschinellen Lernmethoden (z. B. Entscheidungsbäume, Random Forests) und Deep Learning (z. B. neuronale Netze).
- Analyse, wie maschinelle Lernverfahren und neuronale Netze zur Feature-Extraktion und Vorhersagegenauigkeit beitragen können.
- Implementierung und Bewertung der verschiedenen Ansätze auf realen Energiedatensätzen.
Anforderungen:
- Interesse an maschinellem Lernen, Deep Learning und statistischen Verfahren
- Erfahrung mit Python und entsprechenden Bibliotheken (z. B. TensorFlow und/oder PyTorch, Scikit-learn, Statsmodels)
Ihr Nutzen:
- sehr industrierelevantes und praxisnahes Thema
- Integration in ein Team aus Forschung und Industrie
- Erlernen von Validierungsmöglichkeiten zum Einsatzpotential der ML-Methoden sowie der Aussagekraft und Nutzbarkeit der Ergebnisse in der Industrie
- sehr digitales Arbeiten von zu hause aus mit regelmäßigen Team-Meetings
- Zugriff auf sehr leistungsstarken Cluster-Rechner
- Je nach Ihrem Kenntnisstand und Interesse passen wir den Fokus und Umfang der Arbeit gerne individuell an, um Ihre persönlichen Ziele optimal zu unterstützen.
Wir freuen uns auf Ihre Kontaktaufnahme und darauf, gemeinsam eine spannende Abschlussarbeit zu entwickeln!
Ansprechpartner:
- MASKOR: Tobias Arndt (arndt@fh-aachen.de oder WebEx direkt)
- Heimbach: Kai Klopp (kai.klopp@heimbach.com)
Websites:
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die
derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen. Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Rekontruktionsbasierte Anomalieerkennungsalgorithmen reduzieren den Informationsgehalt des zu betrachtenden Bildes durch verschiedene Methoden und trainieren auf diesen Bildern ein neuronales Netzwerk darauf, diese Bilder wieder so zu rekonstruieren, dass sie möglichst ähnlich zum Original sind. Dadurch dass auf möglichst anomalie-freien Bildern trainiert wird, sollen Anomalien mit größeren Rekonstruktionsfehlern erstellt werden und damit aussortiert werden.
Rekonstruktionsalgorithmen unterscheiden sich vor allem durch die Methodik, den Informationsgehalt zu reduzieren. Dies wird beispielsweise bereits durch Rauschen, Ausschneiden und Tauschen von Bildteilen sowie Projektionen in kleinere Dimensionen erzielt.
Ziel
Ziel dieser Arbeit ist es aufzulisten, welche Methodiken zur Informationssreduktion von Bildern für rekonstruktionsbasierte Anomalieerkennung in Frage kommen, ausgewählte davon zu implementieren und diese mit dem Stand der Forschung so wie untereinander zu vergleichen und zu evaluieren.
Pythonkenntnisse (insbesondere Pytorch) sowie Vorkenntnisse über neuronale Netzwerke
sind von Vorteil.
Aufgaben
- Untersuchung der Einsatzmöglichkeiten von Informationssreduktionen von Bildern für rekonstruktionsbasierte Anomalieerkennung
- Implementierung und Training von diesen Anomaliedetektoren auf unterschiedlichen Datensätzen
- Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
- Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
- Kenntnisse über eine breite Anzahl von aktuellen Ansätzen des maschinellen Lernens erlernen
- Möglichkeit Teil einer Veröffentlichung zu werden
Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Rekontruktionsbasierte Anomalieerkennungsalgorithmen reduzieren den Informationsgehalt des zu betrachtenden Bildes durch verschiedene Methoden (beispielsweise durch Rauschen, Ausschneiden und Tauschen von Bildteilen) und trainieren auf diesen Bildern ein neuronales Netzwerk darauf, diese Bilder wieder so zu rekonstruieren, dass sie möglichst ähnlich zum Original sind. Dadurch dass auf möglichst anomalie-freien Bildern trainiert wird, sollen Anomalien mit größeren Rekonstruktionsfehlern erstellt werden und damit aussortiert werden.
Diese rekonstruierten Bilder unterscheiden sich für das menschliche Auge oft gut vom Originalbild bei Anomalien im Vergleich zu normalen Bildern und dennoch werden solche Bilder oft als Anomalie markiert. Das liegt an hohen Varianzen der Pixel im Bild an sich und an einfachen Schwellenwertverfahren mit denen der Unterschied berechnet wird.Die Nutzung von Methoden des machinellen Lernens auf diesen rekonstruierten Bildern bietet die Möglichkeit bessere Ergebnisee für die Anomalieerkennung zu gewinnen.
Ziel
Ziel dieser Arbeit ist es sich mit bereits implementierten rekonstruktionsbasierten Anomalieerkenungsmethoden auseinanderzusetzen und darauf aufbauend Methoden zu recherchieren, die benutzt werden können um die Ergebnisse der Anomalieerkennung auf diesen Bildern zu erhöhen.
Das beinhaltet vor allem die Kombination mehrerer Bildern und das Lernen von Klassifikatoren. Diese Verfahren der Klassifikation sollen evaluiert werden und Rückschlüsse ebenfalls auf die Nutzung verschiedener rekonstruktionsbasierter Ansätze ziehen.
Pythonkenntnisse (insbesondere Pytorch) sowie Vorkenntnisse über neuronale Netzwerke
sind von Vorteil.
Aufgaben
- Untersuchung der Einsatzmöglichkeiten von Klassifikationsmethoden auf rekonstruierten Bildern für die Anomalieerkennung
- Implementierung, Einbindung und Training von diesen Klassifikatoren auf unterschiedlichen rekonstruktionsbasierten Anomalieerkennungsalgorithen und auf unterschiedlichen Datensätzen
- Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
- Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
- Kenntnisse über aktuelle Ansätze neuronaler Netzwerke für Klassifikationsprobleme
erlernen - Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
laufend
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen
Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.
Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren. Aus den hierbei entwickelten Methoden sind Autoencoder eine wichtige Algorithmenklasse, die es
ermöglichen fehlerhafte Produktionen auf ungelabelten Daten zu finden und nicht betroffen sind von der sehr geringen Anzahl an tatsächlichen Fehlproduktionen (ungefähr 5%). Darüber hinaus fungieren Autoencoder als Grundlage für viele weitere Algorithmen.
Im Zuge dieser Arbeit sollen Autoencoder systematisch untersucht werden und Grundlagen dafür geschaffen werden, diese mit anderen Verfahren vergleichen zu können, mit dem Ziel eine Übersicht zu bekommen, wie der manuelle Prüfaufwand reduziert werden kann.
Einfache Pythonkenntnisse wären von Vorteil.
Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle
2. Gründliche Recherche über konkrete Architekturen von Autoencodern und generellen Neuronalen-Netzwerk-Architekturen und den Möglichkeiten von Vergleichbarkeit. Für die Vergleichbarkeit können zum Beispiel der Aufwand der Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung, Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.
3. Implementierungen dieser Architekturen in Abhängigkeit von netzwerkspezifischen Parametern.
4. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.
3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.
4. Möglichkeit Teil einer großen Veröffentlichung zu werden.
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tscheche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95 %) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Ziel
Ziel dieser Arbeit ist es zwei generative Neural Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren. Dabei handelt es sich um Diffusion Modelle und Super-Resolution.
Bei beiden Ansätzen wird das Ursprungsbild verändert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.
Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird, während bei Super-Resolution das Bild verpixelt wird.
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.
Aufgaben
- Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen
- Implementierung und Training von Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen
- Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
- Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
- Aktive Forschung: Super-Resolution wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Diffusion Modelle sind noch sehr neu in dem Feld.
- Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Hintergrund:
MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen der klassischen Bildverarbeitung mit deepLearning Algorithmen zur Erkennung der Verschleißzustände textiler Papiermaschinenspannungen ermittelt werden. Wir wollen gemeinsam mit Dir beispielsweise Methoden zur erkennung von Kanten, Geometrien, Graustufen, Pixelverteilung und vieles mehr einsetzen, um noch mehr Merkmale (Features) zu generieren und diese auszuwerten.
Deine Aufgaben Vorkenntnisse:
Du sollst Alorithmen/Methoden der Bilderarbeitung zur Erkennung recherchieren, bewerten und mittels Python auswerten. Erfordrlich dazu sind Datenanalysen, Methoden zur Bewertung und auswahl von Daten (data underdstanding, feature selection) und einsatz neuronaler Netze (deepLearning). durch diese Arbeit sollst Du bewerten, welche Methoden effizeinter zur Verschleißerkennung geeignet sind. Deine Arbeit hilft uns dabei, dass zukünftige Potential von Bildverarbeitung und deepLearning in unserer Qualitätssicherung zu nutzen. Einfache Vorkenntniss im Einsatz von Python wären von Vorteil.
Dein Nutzen:
Du wirst in ein Team aus Forschung, Qualität integriert. Du bekommst einen Einblick in textile Papiermaschinenbespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.
Ansprechpartner:
Heimbach: Kai Klopp
MASKOR: Tobias Arndt
ITA: Rosario Othen
Ansprechpartner:
www.heimbach.com
www.maskor.fh- aachen.de
www.ita.rwth- aachen.de
Aufbau eines KI- basierten Assistenzsystems inn der Instandhaltung
Hintergrund:
MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen zum Aufbau eines Assistenzsystems erarbeitet werden. Wir haben bereits Erfahrungen mit einem System in der Produktion machen können. Die zu verarbeitenden Daten unterscheiden sich aber Umfang und Information sehr, so dass andere Algorithmen eingesetzt werden müssen.
Deine Aufgaben und Vorkenntnisse:
Du sollst Algorithmen/Methoden der Sprachverarbeitung,- aufbereitung und des Clustering recherchieren, bewerten und mittels Python auswerten. Erforderlich dazu sind Datenanalysen, Bewertung und Auswahl von Daten (data underdstanding, feature selection) und Einsatz neuronaler Netze (deepLearning). Durch diese Arbeit sollst Du bewerten, welche Methoden für ein Assistenzsystem geeignet sind. Deine Arbeit hilft uns dabei, einen Demonstrator für die Empfehlungen von Lösungsalternativen für Instandhaltungsprobleme zu haben.
Einfache Vorkenntnisse im Einsatz von Python wären von Vorteil.
Dein Nutzen:
Du wirst in ein Team aus Forschung, Instandhaltung und IT integriert. Du bekommst einen Einblick in textile Papiermaschinen- bespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI – insbesondere Natural Language Processing. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.
Ansprechpartner:
Heimbach: Kai Klopp
MASKOR: Tobias Arndt
ITA: Rosario Othen
Ansprechpartner:
www.heimbach.com
www.maskor.fh- aachen.de
www.ita.rwth- aachen.de
Ausgangssituation
Im Forschungsprojekt wird mit einem Hersteller von Medizintextilien kooperiert, der über einen digitalisierten Produktionsprozess verfügt. Dieser Prozess besteht aus einer Vielzahl von Maschinenparametern/Einflussfaktoren, die erfasst werden. Beim Produzieren müssen Zielgrößen aus der Textiltechnik eingehalten werden.
Das Herstellen vom Zusammenhang zwischen den Einflussfaktoren und den Zielgrößen/Qualitätskriterien soll durch ML Verfahren erreicht werden. Dafür soll die bestehende Datengrundlage mit einem der bekannten Vorgehensmodelle für datengetriebene Projekte untersucht werden. Außerdem soll ein Prognosemodell am Ende entstehen, womit die Auswirkung von unterschiedlich eingestellten Einflussfaktoren untersucht werden können.
Aufgaben
- Aufarbeitung der bestehenden Datengrundlage mittels bekannte Vorgehensmodelle
- Evaluierung der Modellierungsansätze für die Prognose
Gewünschte Ergebnisse
- Erkenntnisse zu der Datengrundlage
- Vergleich von Modellierungsansätzen
- Machbarkeit der Modellierung ausgewertet
Stichpunkte
Prognosemodell
Industrie 4.0
Maschinelles Lernen
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die
derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Ziel
Ziel dieser Arbeit ist es den generative Neural Network Ansätze Super-Resolution (SR) auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.
Dabei soll der Einsatz von Transformer-Netzwerken gegenüber üblichen Netzwerken wie UNet gegeneinander evaluiert werden. Des Weiteren sollen iterative Verfahren zur Lösung evaluiert werden.
Für SR wird das Ursprungsbild auf weniger Pixel reduziert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder
möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.
Visual Transformer sind sowohl für SR als auch für Anomaly Detection state-of-the-art und bieten somit ein hohes Potential. Allerdings wurden sie noch nie in der Art kombiniert eingesetzt.
Iterative Ansätze wurden bereits für SR evaluiert und sorgten für eine signifikante Verbesserung der Ergebnisse.für
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.
Aufgaben
1. Implementierung und Training von mehreren Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen:
1. U-Net-like Baseline für SR in einem Schritt
2. U-Net-like Baseline für iterativen SR Ansatz
3. Transformer-basiertes SR Netzwerk
4. Iteratives Transformer-basiertes SR Netzwerk
2. Anpassungen/Optimierung der Modelle und Evaluation
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Aktive Forschung: SR wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Transformer sowie iterative SR Verfahren sind sehr neu.
3. Möglichkeit Teil einer Veröffentlichung zu werden.
Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.
Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.
Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Diese Methoden sind in der Regel abhängig von einer hohen Anzahl und von einer hohen Varianz der Datenpunkte, da erst so gewährleistet werden kann, dass die Generalisierung evaluiert und die Algorithmen den tatsächlichen Anwendungsfall lernen.
Aufgrund der hohen Qualität in der Produktion des Unternehmenspartners ist insbesondere der Punkt der Varianz nicht gegeben. Sehr viele Datenpunkte sind fast identisch, sodass für ein Neutraining und eine konstante Evaluierung davon auszugehen ist, dass viele Datenpunkte redundant
sind.
Dieser Aspekt ist herausfordernd, da es aus wirtschaftlichen Gesichtspunkten zu Problemen führen kann, weil eigentlich bekannte Datenpunkte händisch gelabelt werden müssen und uninteressante Datenpunkte das Training in die Länge ziehen, was jeweils mit Kosten verbunden ist.
Algorithmen, die Lösungsansätze für diese Herausforderungen anbieten, lassen sich unter dem Namen Active Learning zusammenfassen.
Ziel dieser Arbeit ist relevante Verfahren dieser Klasse miteinander zu vergleichen und systematisch zu erfassen, mit der Absicht die Trainings- als auch die Labelinglast zu reduzieren bei gleichbleibender Leistung von von uns vorgegebenen Anomalieerkennungsverfahren.
Einfache Pythonkenntnisse wären von Vorteil.
Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle
2. Gründliche Recherche über theoretische Grundlagen, daraus abgeleiteten Verfahren des aktiven Lernens und Spezifika in Bezug auf Deep Learning.
3. Entwickeln einer Baseline (z.B. randomiserte Auswahl von Datenpunkten) und festlegen von Gütekriterien. Für die Vergleichbarkeit können zum Beispiel der Aufwand der
Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung,
Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.
4. Implementierungen dieser Algorithmen in Abhängigkeit von methodenspezifischen Parametern.
5. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.
Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.
3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.
4. Möglichkeit Teil einer großen Veröffentlichung zu werden.
Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de
Hintergrund:
Verseidag ist spezialisiert auf die Herstellung von technischen Textilien, bei denen die Qualitätssicherung eine zentrale Rolle spielt. Während der Produktion werden hochauflösende Bilder aufgenommen, um potenzielle Anomalien oder Fehler in den Textilien zu identifizieren. Diese Bilder dienen als Grundlage für die Fehlerklassifikation. Da sich Fehler überlagern können, ist eine präzise Lokalisierung und Klassifizierung besonders herausfordernd.
Ziel der Arbeit:
Entwicklung eines Deep-Learning-Modells zur Anomaliedetektion und Klassifikation in hochauflösenden Produktionsbildern. Das Modell soll in der Lage sein, Fehler genau zu lokalisieren und zu klassifizieren, auch wenn mehrere Fehlerklassen gleichzeitig auftreten.
Aufgabenstellung:
Literaturrecherche:
Analyse bestehender Methoden zur Anomaliedetektion und -klassifikation in Bildern, insbesondere in industriellen Anwendungen.
Überblick über Deep-Learning-Techniken, die für Bildanalyseaufgaben eingesetzt werden, wie Convolutional Neural Networks (CNNs), Region-based CNNs (R-CNNs), und generative Adversarial Networks (GANs).
Datenaufbereitung:
Sammlung und Aufbereitung der Bilddaten, die während der Produktion bei Verseidag aufgenommen werden.
Annotationsprozess zur Markierung und Klassifikation der Anomalien, die als Ground Truth dienen.
Modellentwicklung:
Auswahl und Implementierung geeigneter Deep-Learning-Modelle für die Aufgabe. Training und Feinabstimmung der Modelle zur Erkennung und Klassifikation der Fehler.
E-Mail: arndt@fh-aachen.de
- Einführung in die Theorie und Praxis von SOMs.
- Analyse existierender Implementierungen und deren Limitierungen.
- Untersuchung des Mehrwerts multidimensionaler SOMs im Vergleich zu traditionellen zweidimensionalen SOMs.
- Erkundung der Nutzung von SOM-Repräsentationen für Downstream Tasks wie Klassifikation und Anomalieerkennung.
Design der multidimensionalen SOM:
- Konzeption eines Modells für die multidimensionale SOM.
- Festlegung der Anforderungen und Spezifikationen für die Implementierung in Keras3.
Implementierung in Keras3:
- Entwicklung der multidimensionalen SOM in Keras3.
- Integration der SOM-Implementierung mit einem Interface, das kompatibel zu SKLearn ist.
Evaluation und Testen:
- Durchführung von Tests mit verschiedenen Datensätzen, um die Funktionalität und Effizienz der Implementierung zu validieren. – Vergleich der Ergebnisse mit bestehenden zweidimensionalen SOMs und Analyse der Vorteile mehrdimensionaler SOMs.
- Anwendung der erlernten SOM-Repräsentationen auf Downstream Tasks wie Klassifikation und Anomalieerkennung.
Dokumentation:
- Erstellung einer umfassenden Dokumentation der Implementierung und ihrer Nutzung.
- Verfassen der Bachelorarbeit mit Darstellung der theoretischen Grundlagen, dem Implementierungsprozess, den Ergebnissen und einer abschließenden Bewertung.
Ansprechpartner:
Tobias Arndt (arndt@fh-aachen.de)
Hintergrund und Motivation
Tiefe konvolutionale neuronale Netze (Deep Convolutional Neural Networks, DCNNs) haben sich als leistungsstarke Werkzeuge in verschiedenen Bereichen des maschinellen Lernens und der künstlichen Intelligenz etabliert. Ein wesentliches Merkmal von DCNNs ist ihre Fähigkeit, komplexe Merkmale aus Eingabedaten zu extrahieren, die als Feature Maps bezeichnet werden. Um die Funktionsweise dieser Modelle besser zu verstehen und zu interpretieren, ist die Visualisierung dieser Feature Maps sowie der zugehörigen Activity Maps von großer Bedeutung. Dies kann sowohl für die Forschung als auch für praktische Anwendungen, wie z.B. die Erklärung von Modellergebnissen, nützlich sein.
Ziel der Arbeit
Ziel dieser Bachelorarbeit ist es, verschiedene Methoden zur Visualisierung von DCNN Feature Maps und Activity Maps zu vergleichen und zu bewerten. Der Fokus liegt auf der Analyse existierender Methoden sowie deren Re-Implementierung. Basierend auf diesen Erkenntnissen soll ein Demonstrator entwickelt werden, der die Visualisierungen anschaulich und interaktiv darstellt.
Aufgabenstellung
Literaturrecherche:
- Umfassende Recherche zu existierenden Methoden zur Visualisierung von Feature und Activity Maps in DCNNs.
- Untersuchung der Vor- und Nachteile verschiedener Ansätze, z.B. Grad-CAM, Guided Backpropagation, Layer-wise Relevance Propagation.
Konzeptualisierung und Planung:
- Auswahl der am besten geeigneten Methoden für eine Re-Implementierung.
- Entwicklung eines Kriterienkatalogs zur Bewertung der Visualisierungsmethoden (z.B. Interpretierbarkeit, Berechnungskomplexität, Anwendungsspektrum).
Re-Implementierung oder Integration:
- Implementierung oder Verfügbarkeitsmachung der ausgewählten Visualisierungsmethoden in einer geeigneten Programmiersprache (z.B. Python).
- Vergleich der Implementierungen anhand von vorgegebenen Datensätzen und Modellen.
Entwicklung eines Demonstrators:
- Entwicklung einer interaktiven Benutzeroberfläche zur Darstellung der Visualisierungen.
- Integration der verschiedenen Visualisierungsmethoden in den Demonstrator.
Evaluation:
- Analyse der Ergebnisse und Bewertung der implementierten Methoden gemäß dem entwickelten Kriterienkatalog.
- Diskussion der Stärken und Schwächen der einzelnen Methoden.
Dokumentation:
- Ausarbeitung der Ergebnisse in einer wissenschaftlichen Arbeit.
- Erstellen einer umfassenden Dokumentation der Implementierungen und des Demonstrators.
Voraussetzungen
- Grundkenntnisse in maschinellem Lernen und neuronalen Netzen.
- Erfahrung mit Programmierung, vorzugsweise in Python.
- Interesse an Datenvisualisierung und der Analyse komplexer Modelle.
E-Mail: arndt@fh-aachen.de
Hintergrund
Die Textilindustrie erfordert präzise Verfahren zur Erkennung und Klassifikation von Anomalien auf texturierten Oberflächen. Solche Anomalien können Hinweise auf Produktionsfehler oder Abweichungen von Qualitätsstandards geben. Ziel dieser Arbeit ist es, auf Basis moderner Deep-Learning-Methoden einen Ansatz zu entwickeln, der sowohl die Anomalien erkennt als auch die erkannten Anomalien klassifiziert. Ein zentraler Aspekt ist das Erlernen eines latenten Raumes, der sinnvolle, trennbare Repräsentationen von Texturpatches liefert.
Aufgabenstellung
Im Rahmen dieser Arbeit sollen folgende Schritte bearbeitet werden:
- Datensatz-Erstellung:
- Aufbau eines gelabelten Datensatzes mit texturierten Patches aus der Textilindustrie.
- Definieren von Anomalien und deren Klassifikationen.
- Latenter Raum und Anomalieerkennung:
- Erlernen eines sinnvollen latenten Raumes für die Patches unter Verwendung von metrischen Lernmethoden.
- Einsatz moderner Methoden des Deep Learning, insbesondere:
- MiniRocket2D
- Autoencoder
- Untrainierte Feature Extraktion mit vortrainierten Neuronalen Netzen
- Selbstüberwachtes Lernen (Die Abgrenzung zu den oben vorgestellten
Methoden stellt die Hauptarbeit dar)
- Klassifikation von Anomalien:
- Untersuchung von einfachen ML-Methoden wie k-NN zur Klassifikation der Anomalien im gelernten Raum.
- Analyse der Verwendung von Prototypen zur Repräsentation einzelner Klassen.
- Entwicklung einer Datenverarbeitungspipeline:
- Implementierung eines Dataloaders für die patchbasierte Verarbeitung der Daten.
- Pipeline für Training, Feature-Extraktion und Klassifikation.
- Methodenvergleich:
- Systematische Gegenüberstellung der Ergebnisse der verschiedenen Methoden des Feature-Lernens.
Ziele der Arbeit
- Entwicklung einer robusten und flexiblen Pipeline zur Anomalieerkennung und klassifikation auf textilen Texturen.
- Identifikation von Vor- und Nachteilen verschiedener Feature-Learning-Ansätze.
- Erstellung eines gelabelten Datensatzes für die textile Anomalieerkennung, der in zukünftigen Arbeiten als Benchmark dienen kann.
Betreuung und Unterstützung
Die Betreuung umfasst eine intensive Einführung in die Methoden des Deep Learning und metrischen Lernens, regelmäßige Feedback-Sitzungen sowie Unterstützung bei der Implementierung und Analyse. Der/die Studierende wird außerdem Zugang zu relevanten Ressourcen wie GPU-Rechnern und Fachliteratur erhalten.
Beschreibung:
Heute gebräuchliche Bildklassifikatoren basieren auf tiefen neuronalen Faltungsnetzen, deren Klassifikationsstufe aus Feed-Forward-Netzen bestehen, die mittels Backpropagation trainiert werden. Die Arbeit soll untersuchen, welche Leistungen, Vor- und Nachteile bei der Nutzung von Prototypennetzen, wie LVQ, RBF, u.ä, sowie dynamisch konstruierten Derivaten entstehen.
Hierzu sind, basierend auf einem Foundation Netzwerk, dessen Top-Layer mit den jeweils zu untersuchenden Netzen ersetzt wird, verschiedene Topologien zu untersuchen.
Aufgabenstellung:
- Recherche: Umfassende Literaturrecherche zu Prototypen-Architekturen und deren Verwendung in Klassifikationsaufgaben, sowie zu dynamisch wachsenden Architekturen.
- Vergleich: Entwickeln von Kriterien zum Vergleich der Verfahren unter Berücksichtigung der Problemstellung.
- Implementierung: Implementierung von mindestens drei Architekturen und Test auf einem gegebenen Datensatz. Leistungsmessung und Vergleich.
- Auswertung: Bewertung der Leistungen anhand der entwickelten Kriterien.
Voraussetzungen
Gute Kenntnisse in Python und den Frameworks zur Datenanalyse und neuronalen Netzen (Keras) .
Betreuung:
Ingo Elsen, Baran Dirakie
Externe Abschlussarbeiten und Ausschreibungen
Bei Interesse wenden Sie sich bitte an Herrn Professor Elsen, welcher den Kontakt zu den jeweiligen Unternehmen herstellen wird.
Externe Abschlussarbeiten
Externe Ausschreibung
Ausgangssituation:
CanControls ist ein innovatives Software-Unternehmen mit Schwerpunkten im Bereich der Echtzeit-Bildverarbeitung, Computer Vision und videobasierten Szenenanalyse.
Von uns entwickelte Technologien kommen in der der Automobilindustrie, der Luft- und Raumfahrt, der Medizintechnik, dem Straßenwesen und der Unterhaltungselektronik zum Einsatz.
Digitale Zwillinge unserer Systeme erlauben es, die Bildgebung/Bildverarbeitung in existierenden Anwendungen zu optimieren, sowie neue Anwendungsfelder digital zu bewerten.
Dafür ist eine möglichst realitiätsnahe Bildsynthese essentiell.
Moderne Methoden der generativen künstlichen Intelligenz stellen hierfür einen vielversprechenden Ansatz dar.
Deine Aufgaben und Vorkenntnisse:
Moderne Verfahren der Bildsynthese berücksichtigen ausschließlich den sichtbaren Wellenlängenbereich in Form von RGB-Bildern.
Ziel dieser Arbeit ist es auf Stable Diffusion basierende Bildsynthese für RGB auf den nicht sichtbaren Wellenlängenbereich zu übertragen.
1. Einarbeitung in Stable Diffusion
2. Recherche gängiger Methoden der „Personalisierung“ etablierter text-to-image Modelle (Textual Inversion, DreamBooth, LoRa, HyperNetworks, etc.)
3. Bewertung dieser Methoden im Kontext unserer proprietären Bilddaten
Vorkenntnisse in Python sowie in gängigen Deep-Learning Bibliotheken (TensorFlow/PyTorch) sind wünschenswert.
Fließendes Englisch in Wort und Schrift ist erforderlich.
Deine Benefits:
1. Du wirst Teil eines internationalen Teams mit Sitz im Zentrum von Aachen
2. Lernen von State-of-the-Art Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
3. Persönliche Betreuung während des Praktikums.
4. Möglichkeit Teil einer Veröffentlichung auf einer Top-Konferenz zu werden (CVPR, ICCV, ECCV, NeurIPS ).
Ansprechpartner:
luttermann@cancontrols.com
Dr. Tarek Luttermann
Informationen zum Unternehmen:
Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.
Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.
Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.
Übersicht:
Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.
Recommender System für Produktionssteuerung:
Bachelor- / Masterarbeit:
- Vorschlag für den Bediener für das nächste zeiteffektivste Rezept / Werkstück => Max. Durchsatz
Masterarbeit:
- Generieren der Fahrbefehle für das Portal unter Einhaltung der festen Prozesszeiten bzw. im zeitlichen Rahmen der flexiblen Prozesszeiten unter in der Maschine befindlichen Körbe / Rezepte
- Maximieren des Durchsatzes unter Berücksichtigung der realen Beladung mit Losgröße „1“.
Ansprechpartner:
Ecoclean GmbH
Rüdiger Fritzen
E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net
Informationen zum Unternehmen:
Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.
Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.
Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.
Übersicht:
Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.
KI-Planungssystem für optimale Prozessdurchführung:
Bachelor- / Masterarbeit Maschinenkonfigurationstool:
- Anhand der definierten Taktzeitvorgaben / Durchsatzmenge, Rezepten, Stückzahlen und der Beladereihenfolge
- Bestimmung der Anzahl der Portale zur Erreichung der Vorgaben
- Bestimmung der Anzahl der notwendigen Mehrfach-Prozessstationen zur Erreichung der Vorgaben
Ansprechpartner:
Ecoclean GmbH
Rüdiger Fritzen
E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net
Abgeschlossene Abschlussarbeiten
Prüfer | Abschluss | Datum | Name | Thema |
---|---|---|---|---|
Ingo Elsen | Bachelor | 28.02.2019 | Fabian Rüb | Entwicklung eines Verfahrens zur kamerabasierten Blickrichtungserkennung |
Ingo Elsen | Master | 27.03.2019 | Manuel Bareiss | Bildbasierte Erkennung von Maschinenteilen im ein- und ausgebauten Zustand mittels Verfahren des maschinellen Lernens |
Ingo Elsen | Master | 26.04.2019 | Matthias Heinemann | Erstellung eines technischen Konzepts für eine Plattform zur unternehmensübergreifenden Disposition |
Ingo Elsen | Master | 30.01.2020 | Horst Sebastian Perry Herzog | Entwurf und Realisierung eines adaptiven Fütterungssystems für Aquaponikanlagen |
Ingo Elsen | Bachelor | 27.02.2020 | Maik Wydra | Einsatz von Prozcess Mining zur Optimierung des Softewaresupportprozesses |
Ingo Elsen | Bachelor | 12.03.2020 | Dmitrii Anisovich | Analyse eines Datensatzes von Lokomotiven |
Ingo Elsen | Bachelor | 13.03.2020 | Alexander-Wilhelm Wiens | Entwicklung von Datenanalysen und Prognosemodellen für erneuerbare Energien in Deutschland |
Ingo Elsen | Bachelor | 03.04.2020 | Florian Lange | Intelligente Initialisierung von Smart Building Optimierungsalgorithmen |
Ingo Elsen | Master | 20.05.2020 | Alexandre Charoy | Entwicklung eines Digital Shadow im Materialmanagement zur Korrelation von Material- und Prozessdaten |
Ingo Elsen | Bachelor | 09.06.2020 | Christopher Kremkow | Untersuchung zur Blickrichtungserkennung mit künstlichen Neuronalen Netzen |
Ingo Elsen | Master | 17.06.2020 | Nils Schlicher | Vergleich von Datenbanken für einen Hadoop-Cluster |
Ingo Elsen | Bachelor | 21.07.2020 | Katrin Hammacher | Absatzprognose neuer Produkte im Einzelhandel basierend auf homogenen Abverkaufsgruppen mithilfe von Methoden des maschinellen Lernens |
Ingo Elsen | Bachelor | 24.07.2020 | Sarah Beschorner | Automated Hyperparameter Tuning of Language Based Anomaly Detection for Log files |
Ingo Elsen | Master | 08.07.2020 | Dustin Hellmann | Verarbeitung und Analyse von SCADA-Prozessdaten mit Werkzeugen der Big Data Analysis |
Ingo Elsen | Bachelor | 27.08.2020 | Simon Westfechtel | Erzeugung eines künstlichen Datensatzes zur Bremsprognose von Güterzügen und Validierung der Big Data Verarbeitung |
Ingo Elsen | Bachelor | 28.08.2020 | Oskar Galla | Erkennung von technischen Ausfällen bei Triebwagen mittels Anomalieerkennung |
Ingo Elsen | Bachelor | 28.08.2020 | Patrick Reckeweg | Untersuchung der Effizienz und Effektivität der AVOD Architektur bei der Objektlokalisierung in LiDAR und Kamera Daten |
Ingo Elsen | Master | 11.09.2020 | Lennart Stich | Vergleich von cloud-basierten Container- und Virtualisierungstechnologien im Kontext von Kubernetes |
Ingo Elsen | Bachelor | 03.11.2020 | Lukas Weller | Anwendung und Vergleich verschiedender Machine-Learning-Verfahren zur Vorhersage von Passagierzahlen |
Ingo Elsen | Master | 06.11.2020 | Daniel Moritz | Konzeption und Umsetzung eines hyper-konvergenten Kubernetes Cluster im Unternehmensfeld als Edge Computing Ansatz |
Ingo Elsen | Bachelor | 04.03.2021 | Arne Steen | Creation and Validation of an Artificial Dataset for 3d Object Classification |
Ingo Elsen | Bachelor | 06.04.2021 | Alexander Olear | Development of a low power sensor module with an esp32 microcontroller |
Ingo Elsen | Bachelor | 28.04.2021 | Thomas Sommer | Implementierung von Selbstorganisierenden Merkmalskarten und Radialen Basisfunktionsnetzen in Python |
Ingo Elsen | Master | 29.07.2021 | Björn Kops | Konzept und Entwicklung einer KI-basierten Lösung zur Analyse der Datenqualität von Produktionsdaten |
Ingo Elsen | Bachelor | 17.08.2021 | Sachar Matkovskiy | Automatic Detection of Deliberate Speed Changes after Cleared Flight Level |
Ingo Elsen | Bachelor | 18.08.2021 | Björn Kohlen | Entwurf und Implementierung eines Web-Frontends zur Abfrage und Visualisierung von Umweltsensordaten |
Ingo Elsen | Master | 14.09.2021 | Carlo Nießen | Analyse und Optimierung eines Software-Release-Cycle mit Focus auf Risikominimierung |
Ingo Elsen | Master | 14.09.2021 | Carlo Nießen | Entwicklung einer Datenpipeline zur Speicherung und Aufbereitung von Sensordaten |
Ingo Elsen | Bachelor | 20.01.2022 | Max Conzen | Anwesenheitsprognose mittels Umweltsensordaten für die Gebäudeautomatisierung |
Ingo Elsen | Master | 27.01.2022 | Marin Jukic | Automatisierte Themenbestimmung von Textdaten durch Machine Learning und Deep Learning Methoden mithilfe der Evidenztheorie |
Ingo Elsen | Bachelor | 02.02.2022 | Robin Mai | Improving data consistency in the ingestion process of a denormalized Cloud Data Warehouse |
Ingo Elsen | Master | 07.02.2022 | Florian Lange | Modellfreies Reinforcement Learning für die intelligente Gebäudesteuerung |
Ingo Elsen | Master | 16.03.2022 | Mirko Reimbold | Anforderungen an mandantenfähige Cluster und der aktuelle Stand in Kubernetes |
Ingo Elsen | Bachelor | 25.04.2022 | Josres Arnol Ngompe Fotie | Erweiterung der bestehenden iOS-App des digitalen Shopfloor-Management-Systems LISA ( Learn Industrial Solutions Applications) |
Ingo Elsen | Bachelor | 02.06.2022 | Tobias Arndt | Vergleich von Verfahren des Maschinellen Lernens zur Klassifikation von Baudetails aus Konstruktionszeichnungen |
Ingo Elsen | Bachelor | 01.08.2022 | Casimir Giesler | Datengetriebene Auslastungsprognose für öffentliche Verkehrsinfrastruktur am Beispiel von Parkhäusern |
Ingo Elsen | Bachelor | 18.04.2022 | Nico Heijnk | Generieren von Vorschlägen für Merkmalswerte in einer Werkzeugdatenbank durch maschinelles Lernen |
Ingo Elsen | Bachelor | 12.06.2022 | Philipp Hünnerscheidt | Aufbau einer Datenpipeline zur Erzeugung von 3D Ansichten aus CAD Daten |
Ingo Elsen | Bachelor | 05.05.2022 | Alexander Loosen | Prognose der Anwesenheit von Personen für die Gebäudeautomatisierung mittels Umweltsensordaten |
Ingo Elsen | Bachelor | 10.04.2022 | Timo Schloemer | Prognose der Restlebensdauer von Kolbenkompressorventilen mittels Methoden des Maschinellen Lernens |
Ingo Elsen | Bachelor | 09.05.2022 | Julian Schultheiß | Performanceuntersuchung des Cloud-Deployments einer IoT-Plattform zur automatisierten Qualit¨atsprognose von zerspanten Bauteilen |
Ingo Elsen | Bachelor | 30.09.2022 | Daniel Sept | Entwicklung und Implementierung einer MQTT Testumgebung mit verschiedenen Clients |
Ingo Elsen | Master | 07.10.2022 | Maik Wydra | Entwicklung eines Recommender Systems auf Basis von Bewertungen deutscher IT Unternehmen |
Ingo Elsen | FB10 | 30.01.2023 | Markus Klein | Recommender Systems for Research Data Management |
Ingo Elsen | Bachelor | 17.04.2023 | Jens Peter Dennigmann | Vergleich von Tiefen Neuronalen Netzen zur Erkennung von 3D Maschinenteilen |
Ingo Elsen | Master | 15.05.2023 | Hanna Babilon | Comparison of Neural Network Topologies for 3D Recognition of Machine Parts |
Ingo Elsen | ETP | 22.08.2023 | Yannic Schlosser | Deep Learning-Based Visual Quality Inspection in Vertical Farming Systems |
Ingo Elsen | Master | 29.08.2023 | Luca Bonn | Patch-based Feature Extraction for High-Resolution Image Anomaly Detection |
Ingo Elsen | Bachelor | 06.09.2023 | Marc Schwägerl | Methoden zur Überführung von Produktbezeichnungen in standardisierte Benennungssysteme |
Ingo Elsen | Bachelor | 29.09.2023 | Sagar Adhikari | Image-based error detection for quality control using machine learning methods (Unsupervised Learning) |
Ingo Elsen | Bachelor | 23.10.2023 | Sven Starzer | Improving Gaze Prediction based on Eye Segmentation through Pre-Training with Synthetic Data |
Ingo Elsen | Bachelor | 07.12.2023 | Alexander Schechtel | Untersuchungen zum verteilten Training von Machine Learning Algorithmen auf einem Clusterrechner |
Ingo Elsen | Bachelor | 21.12.2023 | Baran Dirakie | Untersuchung zur optimalen Auswahl von Trainingsdaten aus großen Datensätzen |
Ingo Elsen | Bachelor | 10.04.2024 | Tobias Neumann | Graphenbasierte Visualisierung der Modulstruktur eines Studiengangs |
Ingo Elsen | MCD | 22.05.2024 | Sophia Bongards | Analyse von Visualisierungsmethoden für dynamische Partikelverteilungen in 2D und 3D |
Ingo Elsen | MCD | 22.05.2024 | Christina Papenfuss | Entwurf eines Verfahrens zur Visualisierung von dynamischen Partikelverteilungen in Virtual Reality |
Ingo Elsen | Bachelor | 10.07.2024 | Irene Ackermann | Anomaliedetektion zur elektrochemischen Impedanzspektroskopie |
Ingo Elsen | Bachelor | 06.09.2024 | Julius Busch | Prototype Implementation for Retrieval Augmented Generation and Evaluation of Major LLMs |
Ingo Elsen | Bachelor | 28.08.2024 | Nodirjon Tadjiev | Design and Implementation of a Data- and Training-Pipeline for Anomaly Detection in Large Images |
Ingo Elsen | Bachelor | 03.09.2024 | Oskar Heuwes | Architekturkonzept für sprachbasierte User-Interfaces in ERP-Systemen mittels Large Language Models |
Ingo Elsen | BMA | 23.09.2024 | Maximilian Hibert | Vergleich klassischer Bildverarbeitungsmethoden mit Machine Learning Algorithmen zur Erkennung der Verschmutzung auf Papiermaschinenbespannungen |
Ingo Elsen | Bachelor | 26.09.2024 | Martin Tomaszewski | Vergleich von Active-Learning-Methoden zur Reduktion der Trainings- und Labelinglast |
Ingo Elsen | Bachelor | 10.10.2024 | Leon Plum | Industrial Anomaly Detection Using 2D-Rocket and Deep Convolutional Neural Networks |
Ingo Elsen | Master | 20.11.2024 | Benjamin Papajewski | Sensor Scan Simulation for Automated Tuning of Gate-Defined Semiconductor Quantum Dots |
Ingo Elsen | Master | 22.11.2024 | Klara Schnorrenberg | Conceptualization of a Central Storage and Management for Routines within Laboratory Measurements |
Ingo Elsen | Bachelor | 27.11.2024 | Malte Hartmann | Implementierung von Künstlicher Intelligenz zur Optimierung von Arbeitsabläufen und Einstiegsprozessen für Application Engineers |
Ingo Elsen | Master | 02.12.2024 | Benedikt Drügh | Industrial Anomaly Detection Using Transformer-Based Cascading Super-Resolution |