Abschlussarbeiten
Unsere Forschungsfragen und Themenvorschläge für Abschlussarbeiten
Du suchst ein praxisnahes Thema für deine Abschlussarbeit? Bei uns kannst du im Rahmen deiner Bachelor- oder Masterarbeit an praxisrelevanten Fragestellungen in den Bereichen Informatik oder Data Science arbeiten. Als Werkstudent:in profitierst du von fairer Bezahlung, flexiblen Arbeitszeiten und starken Lern- und Entwicklungsmöglichkeiten – mit Perspektive auf eine Festanstellung nach deinem Abschluss.
Folgende Themen stehen bei uns zur Auswahl. Kein passendes für dich dabei? Melde dich trotzdem gerne bei uns, und wir finden gemeinsam einen Weg zu deiner Abschlussarbeit bei singularIT.
Optimiertes Retrieval in großer Fach-Dokumentendatenbank – Studiengänge: Informatik, Data Science, oder vergleichbar
Das effiziente Durchsuchen und Identifizieren von Verknüpfungen in Fach-Dokumentendatenbank ist essenziell, um für Anwender relevante Informationen schnell zugänglich zu machen. Diese Arbeit vergleicht verschiedene Strategien zum Aufbau eines RAG (retrieval-augmented Generation) Agentensystems welches dies ermöglichen soll. Dabei sollen unter anderem die genaue Zusammensetzung des Systems aus Generalisten- und Spezialisten-Agenten und Möglichkeiten, effektiv Schlagworte zu generieren untersucht werden und hinsichtlich ihrer Nützlichkeit ausgewertet werden. Ein weiteres Ziel ist es, mit dem System Beziehungen zwischen verschiedenen Fachkonzepten über unterschiedliche Dokumente hinweg zu verknüpfen, um Fachanwendern gezielt in ihren Anfragen zu unterstützen.
Vorhersage und Steuerung von Chemischen Batch Prozessen – Studiengänge: Informatik, Data Science, oder vergleichbar
Bei chemischen Batch Prozessen wird ein chemisches Produkt durch kontinuierliche Kombination von Ausgangsstoffen erzeugt. Die chemischen Reaktionen sind abhängig von unbekannten Umgebungseinflüssen, welche im Labor nicht kontrolliert werden können. Um die Wirtschaftlichkeit der Herstellung zu gewährleisten will man, trotz dieser Unsicherheiten im Herstellungsprozess, ein optimales Ergebnis, z.B. geringe Anzahl an Nebenprodukten, Vermeidung von Überhitzung, minimaler Zeitaufwand etc., erreichen.
Ziel dieser Masterarbeit ist es, mit modernen Machine-Learning Methoden Vorhersagen im laufenden Prozess über unterschiedliche Metriken des weiteren Prozessverlaufs zu treffen (z. B. Qualität, Zeitbedarf, Temperatur, etc.) . Die so entstandenen Vorhersagemodelle bilden dann die Basis eines agenten-basierten Regelsystems welches es erlaubt den Produktionsprozess optimal zu steuern.
Qualitätsvorhersage für Industrieprozesse unter zeitverzögerten Abhängigkeiten – Studiengänge: Data Science, Informatik, Mathematik oder vergleichbar
In vielen Industrieprozessen führen zeitverzögerte und varianzbehaftet Abhängigkeiten, wie sie etwa durch unterschiedliche Fließgeschwindigkeiten oder Zwischenlagerung von Materialien entlang der Produktionsstrecke entstehen, zu Herausforderungen in der Datenanalyse und Vorhersagemodellierung. Obwohl theoretische Untersuchungen darauf hindeuten, dass solche Variationen die Vorhersageperformance negativ beeinflussen können, bleibt die Frage offen, ob die Vorhersageleistung unter realen Bedingungen ausreichend ist. Diese Arbeit zielt darauf ab, diese Wissenslücke zu schließen, indem die theoretischen Erkenntnisse durch praktische Untersuchungen anhand realer Sensordaten entlang der Produktionsstrecke validiert werden. Dabei sollen geeignete ML-Algorithmen gesucht, implementiert und deren Performance evaluiert werden, um den Herausforderungen zeitverzögerter Abhängigkeiten effektiv zu begegnen.
Wirtschaftliche Nutzung von synthetischen Daten – Studiengänge: Wirtschaftsinformatik, Betriebswirtschaftlehre oder vergleichbar
Synthetische Daten sind künstlich erzeugte Imitationen von sensiblen Daten und erlauben Nutzenden das Training von KI- und ML-Modellen ohne auf echte, betriebsinterne, Daten zuzugreifen. In den letzten Jahren erfreut sich die Forschung zur Generierung dieser Daten großer Beliebtheit. Es ist jedoch unklar, in welchem Umfang Unternehmen in Deutschland das Potential an synthetische Daten nutzen und was die Herausforderungen, die einer breiten Anwendung dieser Technik im Wege stehen, sind. Mit dieser Abschlussarbeit wollen wir dazu beitragen, diese Lücke zwischen Forschung und Industrie schließen, indem wir die Anforderungen die Unternehmen an synthetische Daten verfolgen erörtern.
Automatisches Extrahieren von Anforderungen aus Ausschreibungsunterlagen – Studiengänge: Informatik, Data Science oder vergleichbar
Ausschreibungsunterlagen enthalten zentrale Anforderungen an Produkte und Dienstleistungen, liegen jedoch meist in unstrukturierter Textform vor und erfordern einen hohen manuellen Analyseaufwand. Ziel dieser Arbeit ist die Entwicklung und Evaluation eines automatisierten Ansatzes zur Extraktion von Anforderungen aus solchen Dokumenten. Hierzu sollen Methoden der natürlichen Sprachverarbeitung (NLP) mit Fokus auf große Sprachmodelle untersucht, implementiert und miteinander verglichen werden. Die Qualität der extrahierten Anforderungen wird anhand geeigneter Metriken sowie im Vergleich zu manuellen Referenzanalysen bewertet.
Benchmarking eines Quanten-ML-Ansatzes zur Vorhersage von Bettenbedarfen: Informatik, Physik oder vergleichbar
Die Vorhersage von Bettenbedarfen ist eine zentrale Herausforderung im Gesundheitswesen, da sie eine effiziente Ressourcenplanung ermöglicht. Neben klassischen Machine-Learning-Verfahren gewinnen Quanten-Machine-Learning-Ansätze zunehmend an Aufmerksamkeit. Ziel dieser Arbeit ist es, einen Quanten-ML-Ansatz zur Vorhersage von Bettenbedarfen zu implementieren und dessen Leistungsfähigkeit systematisch mit klassischen ML-Verfahren zu vergleichen. Dabei sollen sowohl Vorhersagegenauigkeit als auch Rechenaufwand und Skalierbarkeit betrachtet werden.
Vergleich von Closed-Source- und Open-Source-Data-Warehouse-Plattformen: Wirtschaftsinformatik, Informatik oder vergleichbar
Data-Warehouse/Data-Lakehouse-Plattformen bilden das Rückgrat moderner datengetriebener Organisationen. Neben etablierten Closed-Source-Lösungen existieren zunehmend leistungsfähige Open-Source-Alternativen. Ziel dieser Arbeit ist ein systematischer Vergleich ausgewählter Closed-Source- und Open-Source-Data-Warehouse-Plattformen hinsichtlich Performance, Skalierbarkeit, Kosten, Wartbarkeit und Funktionsumfang. Die Evaluation erfolgt anhand definierter realitätsnaher Benchmarks sowie realitätsnaher Anwendungsszenarien inkl. dem Aufsetzen solch einer neuen Struktur.
Recherche und Benchmarking von State-of-the-Art-Ansätzen zur Multi-Table-Datensynthese: Informatik, Data Science, Statistik oder vergleichbar
Datensynthese spielt eine große Bedeutung zur Wahrung von Datenschutz und zur Generierung realistischer Testdaten. Während viele Verfahren auf einzelnen Tabellen basieren, stellt die Synthese relationaler Multi-Table-Daten besondere Herausforderungen dar (Fremdschlüsseln, n:m-Beziehungen, andere constraints). Ziel dieser Arbeit ist eine umfassende Recherche aktueller State-of-the-Art-Ansätze zur Multi-Table-Datensynthese sowie deren systematisches Benchmarking. Die Verfahren sollen hinsichtlich Datenqualität, Konsistenz zwischen Tabellen und praktischer Anwendbarkeit evaluiert werden.
Vergleich von Lernverfahren und regelbasierten Verfahren zur Echtzeit-Erkennung von Ball und Spielern im Tischkicker: Informatik, Data Science oder vergleichbar
In einer Vorarbeit wurden Ball- und Spieler-Positionen regelbasiert (bzw. mit Blob Detection) aus einem Videostream beim Tischkickern extrahiert. In Bildverarbeitungsverfahren kommen mittlerweile meistens lernbasierte Ansätze zum Einsatz. Ziel dieser Arbeit ist ein Vergleich von klassischen regelbasierten Verfahren mit modernen Machine-Learning- bzw. Deep-Learning-Methoden zur Echtzeit-Erkennung. Dabei sollen Erkennungsgenauigkeit, Robustheit sowie Echtzeitfähigkeit unter realen Bedingungen (insbesondere wechselnde Licht und Kamera-Verhältnisse) untersucht werden.
Untersuchung von Kreativität und Varianz in der Sportkommentierung am Beispiel Tischkicker: Informatik, Data Science oder vergleichbar
Automatisierte Sportkommentierung ist ein wachsendes Anwendungsfeld der natürlichen Sprachgenerierung. In einer Vorarbeit konnten einfache Kommentierungen in Echtzeit zu einem Tischkicker-Spiel generiert werden. Neben inhaltlicher Korrektheit spielen Kreativität und sprachliche Varianz eine entscheidende Rolle für die Nutzerakzeptanz. Ziel dieser Arbeit ist die Untersuchung unterschiedlicher Ansätze zur automatischen Sportkommentierung im Kontext Tischkicker hinsichtlich ihrer Kreativität und Varianz. Die Bewertung erfolgt sowohl anhand quantitativer Metriken als auch durch qualitative Analysen.
Einbeziehung von Hintergrundwissen in die Sportkommentierung am Beispiel Tischkicker: Informatik, Data Science oder vergleichbar
Hintergrundwissen, etwa zu Spielstrategien, Spielerhistorie oder Spielsituationen, kann die Qualität automatisierter Sportkommentierung erheblich verbessern. In einer Vorarbeit konnten einfache Kommentierungen in Echtzeit zu einem Tischkicker-Spiel generiert werden. Ziel dieser Arbeit ist die Untersuchung, wie solches Hintergrundwissen in Systeme zur automatischen Sportkommentierung integriert werden kann. Am Beispiel Tischkicker sollen unterschiedliche Wissensrepräsentationen und Integrationsstrategien entwickelt und evaluiert werden, um deren Einfluss auf Verständlichkeit, Informationsgehalt und Natürlichkeit der Kommentare zu analysieren.
Verwendung von dichtebasierten Verfahren bei der Rekonstruktion von Strahlungswolken: Informatik, Mathematik, Physik oder vergleichbar
Die Rekonstruktion dreidimensionaler Strahlungswolken aus Expositionsdaten entlang von Pfaden ist ein spannendes Problem, welches in Zusammenarbeit mit dem Bundesamt für Strahlenschutz untersucht wurde. In bestehenden Vorarbeiten wurde hierfür ein Ansatz auf Basis von Cuboid Splatting eingesetzt, der die Summe von Cuboids (sozusagen Boxen) zur Approximation der Strahlungsverteilung verwendet. Ziel dieser Masterarbeit ist es, diesen Ansatz weiterzuentwickeln und durch dichtebasierte Verfahren, insbesondere auf Gaussian-Dichtefunktionen basierende Modelle, zu ersetzen oder zu ergänzen. Dazu sollen geeignete dichtebasierte Rekonstruktionsmethoden recherchiert, implementiert und mit dem bestehenden Cuboid-Splatting-Ansatz hinsichtlich Rekonstruktionsqualität, Robustheit und Rechenaufwand verglichen werden.
Bei Fragen stehen wir dir gerne zur Verfügung: bewerbung@singular-it.de
Und schaue gerne mal bei Forschung und Publikationen vorbei.
Unsere aktuellen Stellenangebote findest du bei den Jobs. Und hier erfährst du was wir bieten und hier wie der Bewerbungsprozess bei uns läuft.
