Semantische Suche

Freitag, 5. Oktober 2018, 12:00 Uhr

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Maximilian Peters
Titel Evaluation und Optimierung der Wartbarkeit von Software-Architekturen
Vortragstyp Bachelorarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung Kurzfassung
Vortragende(r) Julian Hinrichs
Titel Verification of Access Control Policies in Software Architectures
Vortragstyp Bachelorarbeit
Betreuer(in) Stephan Seifermann
Vortragsmodus
Kurzfassung Security in software systems becomes more important as systems becomes more complex and connected. Therefore, it is desirable to to conduct security analysis on an architectural level. A possible approach in this direction are data-based privacy analyses. Such approaches are evaluated on case studies. Most exemplary systems for case studies are developed specially for the approach under investigation. Therefore, it is not that simple to find a fitting a case study. The thesis introduces a method to create usable case studies for data-based privacy analyses. The method is applied to the Community Component Modeling Example (CoCoME). The evaluation is based on a GQM plan and shows that the method is applicable. Also it is shown that the created case study is able to check if illegal information flow is present in CoCoME. Additionally, it is shown that the provided meta model extension is able to express the case study.

Freitag, 12. Oktober 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Markus Raster
Titel Informationsbedürfnisse zur Untersuchung der Begriffsgeschichte
Vortragstyp Proposal
Betreuer(in) Jens Willkomm
Vortragsmodus
Kurzfassung Die Begriffsgeschichte, als Konzept geschichtswissenschaftlicher Forschung, befasst sich mit der historischen Entwicklung der Semantik einzelner Begriffe. Hierbei bildet oft Wortursprung, Sprachgebrauch sowie Verbreitung Gegenstand wissenschaftlicher Untersuchungen.

Die Bachelorarbeit setzt sich mit der Kombination von Informationstechnologien, in Form von Datenbanken, mit der Forschungsarbeit der Historiker auseinander. Ziel ist es Einflussfaktoren auf die Semantik von Wörtern zu identifizieren. Dabei liegt der Fokus auf einer vollständigen Abdeckung des Themenbereiches, sowie auf einer Strukturierung der einzelnen Informationsbedürfnisse.

Im Anschluss der Identifikation der Informationsbedürfnisse sollen einzelne Datenbankanfragen/Queries formuliert werden, die es ermöglichen sollen die entsprechenden Semantischen Entwicklungen der Wörter darzustellen, sowie deren Untersuchung zu vereinfachen.

Vortragende(r) Marco Sturm
Titel On the Interpretability of Anomaly Detection via Neural Networks
Vortragstyp Masterarbeit
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung Verifying anomaly detection results when working in on an unsupervised use case is challenging. For large datasets a manual labelling is economical unfeasible. In this thesis we create explanations to help verifying and understanding the detected anomalies. We develop a method to rule generation algorithm that describe frequent patterns in the output of autoencoders. The number of rules is significantly lower than the number of anomalies. Thus, finding explanations for these rules is much less effort compared to finding explanations for every single anomaly. Its performance is evaluated on a real-world use case, where we achieve a significant reduction of effort required for domain experts to understand the detected anomalies but can not specify the usefulness in exact numbers due to the missing labels. Therefore, we also evaluate the approach on benchmark dataset.
Vortragende(r) Daniel Hamann
Titel Vollständigkeits- und Semantikprüfung für gesprochene Aussagen
Vortragstyp Bachelorarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Diese Arbeit betrachtet das Problem von unvollständigen Aussagen in natürlicher Sprache. Solche Aussagen enthalten nicht explizit alle Informationen, die für die vollständige Umsetzung einer Handlung benötigt werden.

Menschen fällt es leicht, aus solchen Aussagen wieder einen Sinn zu extrahieren, indem sie sich auf ihr gelerntes Wissen beziehen. Für Sprachverarbeitungssysteme ist dieser Schritt jedoch nicht so einfach nachvollziehbar. Um diesen Prozess greifbar zu machen wird ein Ansatz entwickelt, der solchen Systemen menschliches, implizites, Wissen verfügbar macht. Damit wird eine durch Wissen begründete Entscheidung über die Vollständigkeit von Aussagen gemacht. Im Weiteren werden durch den Ansatz Kandidaten generiert, welche für die fehlenden Rollen infrage kommen könnten. Diese werden mithilfe von Wissen über die Welt bezüglich ihrer Eignung für die Rolle bewertet und die Aussage somit wieder vervollständigt. Um die Funktion des implementierten PARSE-Agenten zu prüfen wurde eine Evaluation der Ergebnisse im Vergleich zu einer händisch erstellten Lösung durchgeführt. Fehlende Rollen konnten mit einer Präzision von 51% bestimmt werden und eine Vervollständigung war in 25% (Im Falle des Subjektes sogar 100%) der Fälle korrekt möglich.

Freitag, 19. Oktober 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Fabian Scheytt
Titel Konzepte für kontrollfluss- und modellbasierte Sicherheitsanalyse eines Industrie-4.0-Systems
Vortragstyp Bachelorarbeit
Betreuer(in) Emre Taşpolatoğlu
Vortragsmodus
Kurzfassung Durch die voranschreitende Vernetzung und Digitalisierung vergrößert sich die Angriffsfläche von Industrieanlagen drastisch. Umso wichtiger wird es beim Entwurf von Industrie 4.0 Anlagen, so früh wie möglich eine Betrachtung der Sicherheitsaspekte vorzunehmen. Die Durchführung von Sicherheitsanalysen zur Entwurfszeit sind jedoch Aufwändig und müssen immer händisch von einem Sicherheitsexperten durchgeführt werden. Obwohl bereits Lösungsansätze zur modellbasierten Unterstützung von Sicherheitsanalysen existieren, sind diese nicht auf den Kontext der Industrie 4.0 zugeschnitten. In dieser Bachelorarbeit werden zwei Konzepte für eine modellbasierte Unterstützung von Sicherheitsanalysen im frühen Entwurf von Industrie 4.0 Anlagen vorgestellt. Dabei werden die Sicherheitsanforderungen von Datenflüssen über die gesamte Anlage hinweg betrachtet und weiterhin eine kontextbasierte Sicherheitsanalyse zur Unterstützung vorgeschlagen.
Vortragende(r) Eric Klappert
Titel Microgrid-Topologien für Smart Grids
Vortragstyp Bachelorarbeit
Betreuer(in) Maximilian Walter
Vortragsmodus
Kurzfassung In Zeiten des Umstiegs auf erneuerbare Energien und dem Einsatz von Smart Metern zum Messen und Steuern des Netzes stellen sich neue Herausforderungen für die Stromversorgung. Um die Kommunikation des Smart Grids zu ermöglichen wird vorgeschlagen das Netzwerk in Microgrids zu unterteilen. Dazu wird eine sinnvolle Aufteilung und eine robuste Kommunikationstopologie benötigt. In dieser Arbeit werden die Anforderungen einer solchen Aufteilung und Topologie erarbeitet und verschiedene Lösungsansätze vorgeschlagen und verglichen. Basierend auf den Ergebnissen wird ein anpassungsfähiger Algorithmus entworfen, der ein Stromnetz in mehrere Microgrids zerlegt und eine Kommunikationstopologie erzeugt.
Vortragende(r) Maximilian Eckert
Titel Modellierung geschachtelter Freiheitsgrade zur automatischen Evaluation von Software-Architekturen
Vortragstyp Masterarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung In der modernen Software-Entwicklung wird eine Vielzahl von Subsystemen von Drittanbietern wiederverwendet, deren Realisierungen und Varianten jeweils einen dedizierten Einfluss auf die Qualitätseigenschaften des Gesamtsystems implizieren. Doch nicht nur die Realisierung und Variante eines Subsystems, sondern auch die Platzierung in der Zielarchitektur haben einen Einfluss auf die resultierende Qualität.

In dieser Arbeit wird der bestehende Ansatz zur Modellierung und Simulation von wiederverwendbaren Subsystemen in Palladio bzw. PerOpteryx um einen neuen Inklusionsmechanismus erweitert, der eine flexible, feingranulare Modellierung und anschließende automatisierte Qualitätsoptimierung der Platzierung von wiederverwendbaren Subsystemen ermöglicht. Dazu wird eine domänenspezifische Sprache definiert, die eine deklarativen Beschreibung der Einwebepunkte in einem Architekturmodell durch aspektorientierte Semantiken erlaubt. Mithilfe eines Modellwebers werden die wiederverwendbaren Subsysteme in eine annotierte Zielarchitektur eingewebt. Schließlich wird der Ansatz in die automatisierte Qualitätsoptimierung von PerOpteryx integriert, sodass der Architekt bei seinen Entwurfsentscheidungen bezüglich dieser Freiheitsgrade unterstützt wird. Das vorgestellte Verfahren wurde durch eine simulationsbasierte Fallstudie anhand von realen Applikationsmodellen evaluiert. Es hat sich gezeigt, dass der Ansatz geeignet ist, um eine Vielzahl von Architekturkandidaten automatisiert generieren bzw. evaluieren und somit einen Architekten bei seinen Entwurfsentscheidungen unterstützen zu können.

Freitag, 26. Oktober 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Dennis Vetter
Titel Batch query strategies for one-class active learning
Vortragstyp Proposal
Betreuer(in) Holger Trittenbach
Vortragsmodus
Kurzfassung One-class classifiers learn to distinguish normal objects from outliers. These classifiers are therefore suitable for strongly imbalanced class distributions with only a small fraction of outliers. Extensions of one-class classifiers make use of labeled samples to improve classification quality. As this labeling process is often time-consuming, one may use active learning methods to detect samples where obtaining a label from the user is worthwhile, with the goal of reducing the labeling effort to a fraction of the original data set. In the case of one-class active learning this labeling process consists of sequential queries, where the user labels one sample at a time. While batch queries where the user labels multiple samples at a time have potential advantages, for example parallelizing the labeling process, their application has so far been limited to binary and multi-class classification. In this thesis we explore whether batch queries can be used for one-class classification. We strive towards a novel batch query strategy for one-class classification by applying concepts from multi-class classification to the requirements of one-class active learning.
Vortragende(r) Jonas Kunz
Titel Efficient Data Flow Constraint Analysis
Vortragstyp Masterarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung Aktuelle Entwicklungen in der Softwaretechnik zeigen einen Trend zur Dezentralisierung von Softwaresystemen. Mit dem Einsatz von Techniken wie Cloud-Computing oder Micro-Services fließen immer mehr Daten über öffentliche Netzwerke oder über die Infrastruktur von Drittanbietern.

Im Gegensatz dazu führen aktuelle gesetzliche Änderungen wie die "General Data Protection Regulations" der EU dazu, dass es für Softwareentwickler immer wichtiger wird sicherzustellen, dass die Datenflüsse ihrer Software gesetzliche Beschränkungen einhalten. Um dies trotz der stetig wachsenden Komplexität von Softwaresystemen zu ermöglichen, wurden verschiedenste modellbasierte Ansätze vorgeschlagen. Ein Nachteil der meisten Ansätze ist jedoch, dass sie oftmals keine voll automatisierte Analyse bezüglich der Verletzung Datenflussbeschränkungen ermöglichen. Aus diesem Grund schlagen wir ein neues Metamodell zur Beschreibung von Datenflüssen von Softwaresystemen vor. Diese Metamodell ist so entworfen, dass eine automatisierte Übersetzung von Instanzen in ein Programm der logischen Programmiersprache Prolog ermöglicht wird. Dieses Programm erlaubt dann die einfache Formulierung von Regeln zur automatisierten Prüfung der Einhaltung von Datenflussbeschränkungen. Ein wichtiger Aspekt für den Entwurf und die Implementierung unseres Ansatzes war die Skalierbarkeit: Ziel war es, sicherzustellen dass unser Ansatz effizient einsetzbar ist. Hierbei haben wir insbesondere Techniken zur Optimierung von Prolog Programmen entwickelt, deren Einsatzmöglichkeiten nicht nur auf unseren Ansatz beschränkt sind.

Freitag, 2. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 9. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 301 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 9. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Lukas Böhm
Titel Pattern-Based Heterogeneous Parallelization
Vortragstyp Masterarbeit
Betreuer(in) Philip Pfaffe
Vortragsmodus
Kurzfassung In dieser Arbeit werden zwei neue Arten der Codegenerierung durch den automatisch parallelisierenden Übersetzer Aphes für beschleunigte Ausführung vorgestellt. Diese basieren auf zwei zusätzlich erkannten Mustern von implizitem Parallelismus in Eingabeprogrammen, nämlich Reduktionen in Schleifen und rekursive Funktionen die das Teile-und-herrsche-Muster umsetzen. Aphes hebt sich in zwei Punkten von herkömmlichen parallelisierenden Übersetzern hervor, die über das reine Parallelisieren hinausgehen: Der erste Punkt ist, dass Aphes sich auf heterogene Systeme spezialisiert. Das zweite Hervorstellungsmerkmal ist der Einsatz von Online-Autotuning. Beide Aspekte wurden während der Umsetzung dieser Arbeit beachtet. Aus diesem Grund setzen die von uns implementierten Code-Generatoren sowohl lokale Beschleunigung über OpenMP und C++11 Threads als auch entfernte Beschleunigung mittels Nvidias CUDA um. Desweiteren setzt der generierte Code weiter auf die bereits in Aphes vorhandene Infrastruktur zum Autotuning des generierten Maschinencodes zur Laufzeit.

Während unserer Tests ließen sich in mit Aphes kompilierten Programmen mit Reduktionen in Schleifen Beschleunigungen von bis zu Faktor 50 gegenüber mit Clang kompilierten Programmen beobachten. Von Aphes transformierter Code mit rekursiven Funktionen erzielte Beschleunigungswerte von 3,15 gegenüber herkömmlich mit GCC und Clang generierten ausführbaren Dateien des gleichen Programms. In allen Fällen war der Autotuner in der Lage, innerhalb der ersten 50 Ausführungsiterationen des zu optimierenden Kernels zu konvergieren. Allerdings wiesen die konvergierten Ausführungszeiten teils erhebliche Unterschiede zwischen den Testläufen auf.

Vortragende(r) Kevin Angele
Titel Semi-automatische Generierung von Aktiven Ontologien aus Datenbankschemata
Vortragstyp Masterarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Es wird prognostiziert, dass in Zukunft die Hälfte der Firmenausgaben für mobile Anwendungen in die Entwicklung von Chatbots oder intelligenten Assistenten fließt.

In diesem Bereich benötigt es zur Zeit viel manuelle Arbeit zur Modellierung von Beispielfragen. Diese Beispielfragen werden benötigt, um natürlichsprachliche Anfragen zu verstehen und in Datenbankanfragen umsetzen zu können. Im Rahmen dieser Arbeit wird ein Ansatz vorgestellt, welcher die manuelle Arbeit reduziert. Dazu wird mittels der Daten aus der Datenbank und Formulierungen, inklusive Synonymen, aus Dialogflow (ein intelligenter Assistent von Google) eine Aktive Ontologie erzeugt. Diese Ontologie verarbeitet anschließend die natürlichsprachlichen Anfragen und extrahiert die Parameter, welche für die Anfrage an die Datenbank benötigt werden. Die Ergebnisse der Aktiven Ontologie werden mit den Ergebnissen aus Dialogflow verglichen. Bei der Evaluation fällt auf, dass die Aktiven Ontologien fehleranfällig sind. Es werden zusätzliche, unerwünschte Parameter extrahiert, welche das Ergebnis verschlechtern. Die Übereinstimmungsrate bei einem Eins-zu-Eins-Vergleich mit Dialogflow liegt bei etwa 40%. Zukünftig könnte durch das Hinzufügen einer zusätzlichen selektiven Schicht innerhalb der Aktiven Ontologien die Parameterextraktion verbessert werden.

Freitag, 9. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 301 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Till Stöckmann
Titel Tradeoff zwischen Privacy und Utility für Short Term Load Forecasting
Vortragstyp Bachelorarbeit
Betreuer(in) Christine Tex
Vortragsmodus
Kurzfassung Mit der Etablierung von Smart Metern gehen verschiedene Vor- und Nachteile einher. Einerseits bieten die Smart Meter neue Möglichkeiten Energieverbräuche akkurater vorherzusagen (Forecasting) und sorgen damit für eine bessere Planbarkeit des Smart Grids. Andererseits können aus Energieverbrauchsdaten viele private Informationen extrahiert werden, was neue potentielle Angriffsvektoren auf die Privatheit der Endverbraucher impliziert. Der Schutz der Privatheit wird in der Literatur durch verschiedene Perturbations-Methoden umgesetzt. Da Pertubation die Daten verändert, sorgt dies jedoch für weniger akkurate Forecasts. Daher gilt es ein Tradeoff zu finden. In dieser Arbeit werden verschiedene gegebene Techniken zur Perturbation hinsichtlich ihrer Privacy (Schutz der Privatheit) und Utility (Akkuratheit der Forecasts) experimentell miteinander verglichen. Hierzu werden verschiedene Datensätze, Forecasting-Algorithmen und Metriken zur Bewertung von Privacy und Utility herangezogen. Die Arbeit kommt zum Schluss, dass die so genannte Denoise- und WeakPeak-Technik zum Einstellen eines Tradeoffs zwischen Privacy und Utility besonders geeignet ist.

Freitag, 16. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 301 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Philipp Schüler
Titel Query Synthesis in One-Class Active Learning
Vortragstyp Proposal
Betreuer(in) Adrian Englhardt
Vortragsmodus
Kurzfassung Although machine learning plays an ever-increasing role in modern technology, there are still some parts where a human is needed to help with the learning process. With active learning a human operator is added to the process and helps with the classification of unknown samples. This improves the precision of the machine learning process. Although increasing the precision is important, the addition of a human operator introduces a problem known since the invention of the computer: Humans are slow compared to machines. Therefore it is essential to present the human operator with queries having the highest value of informativeness to optimize the learning process. The better the queries are chosen, the less time the learning process needs.

Current query selection strategies, use class label information to interpolate between opposite pairs at the decision boundary or select a query from a set of given unlabeled data points. However, these strategies cannot be used when no unlabeled and no negative observations are available. Then, one uses a query strategy function that rates the informativeness for any query candidate to synthesize the optimal query. While it is easy to calculate the most informative point in just a few dimensions, the curse of dimensionality quickly becomes a problem when searching for the most informative point in a high-dimensional space. This thesis takes a look at synthesizing queries in high-dimensional one-class cases via metaheuristics. The goal is to compare different metaheuristics experimentally with multiple data sets.

Freitag, 16. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Daniel Weißer
Titel Einbindung eines EDA-Programms zur Erstellung elektronischer Leiterplatten in das Vitruvius-Framework
Vortragstyp Bachelorarbeit
Betreuer(in) Daniel Zimmermann
Vortragsmodus
Kurzfassung Mithilfe der modellgetriebenen Softwareentwicklung kann im Entwicklungsprozess eines Software-Systems, dieses bzw. dessen Teile und Abstraktionen durch Modelle beschrieben werden. Diese Modelle können untereinander in Abhängigkeitsbeziehungen stehen sowie über redundante Informationen verfügen. Um Inkonsistenzen zu vermeiden, werden Tools zur automatisierten Konsistenzhaltung eingesetzt.

In dieser Arbeit wird das EDA-Programm Eagle, das zur Erstellung elektronischer Schaltpläne und Leiterplatten genutzt wird, in das Vitruvius-Framework eingebunden. Bestandteile sind hierbei das Ableiten eines Ecore-Metamodells, das die Schaltplandatei von Eagle beschreibt, das Etablieren von Transformationen zwischen Ecore-Modellen und Schaltplandateien sowie das Extrahieren von Änderungen zwischen zwei chronologisch aufeinanderfolgenden Schaltplandateien. Die extrahierten Änderungen werden in das Vitruvius-Framework eingespielt, wo sie durch das Framework zu in Konsistenzbeziehung stehenden Ecore-Modellen propagiert werden. Zudem wird ein Verfahren eingesetzt, um Änderungen in der Schaltplandatei einem eindeutigen elektronischen Bauteil zuordnen zu können. Dies ist erforderlich, um Bauteile im Kontext mit anderen Programmen zu verfolgen, da die Eigenschaften eines Bauteils in verschiedenen Programmen variieren können.

Vortragende(r) Nicolas Boltz
Titel Representing dynamic context information in data-flow based privacy analysis
Vortragstyp Bachelorarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung Durch Industrie 4.0 sind Organisationen in der Lage kleinere Produktionseinheiten, oder individualisierte Produkte kosteneffizienter herzustellen. Dies wird erreicht durch selbstorganisierende Produktions- und Lieferketten, bei der die im Prozess beteiligten Menschen, Maschinen und Organisationen ad-hoc zusammenarbeiten. Um den, durch diese ad-hoc Zusammenarbeit entstehenden, Datenfluss, kontrollieren zu können, reichen aktuelle Zugriffskontrollsysteme nicht aus. Im Zuge dieser Bachelorarbeit wird ein Metamodell vorgestellt, welches in der Lage ist die sich dynamisch ändernden Kontextinformationen von den im Prozess beteiligten Entitäten abzubilden und zur Zugriffskontrolle zu nutzen.

Dabei werden Kontexte zum Darstellen von einzelnen Eigenschaften und als Menge zum Definieren eines Zustands in dem sich eine Entität befinden muss um auf ein Datum zugreifen zu dürfen. Des Weiteren wird eine Analyse beschrieben und evaluiert, welche in der Lage ist verbotene Datenzugriffe in einem modelliertem Systemzustand und Datenfluss zu identifizieren.

Freitag, 23. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Benjamin Dornfeld
Titel Abschlusspräsentation BA "Bestimmung eines Quartiers anhand von Positionsdaten"
Vortragstyp Bachelorarbeit
Betreuer(in) Walter F. Tichy
Vortragsmodus
Kurzfassung Im Forschungsprojekt QuartrBack wurden Menschen mit Demenz GPS-Tracker mitgegeben, um deren Position zu jeder Zeit bestimmen zu können. Die Herausforderung dieser Bachelorarbeit war es, aus den erhaltenen (sehr dünnen) Daten ein möglichst genaues Quartier (also jene Wege, die oft von einer Person gelaufen werden) zu erstellen. Dies wurde mithilfe der OpenStreetMaps Daten realisiert.
Vortragende(r) Janis Estelmann
Titel Performanzabschätzung von parallelen Programmen durch symbolische Ausführung
Vortragstyp Masterarbeit
Betreuer(in) Marc Aurel Kiefer
Vortragsmodus
Kurzfassung Das Ziel dieser Arbeit war es, einen Entwickler dabei zu unterstützen, in einer Anwendung Schleifen mit Parallelisierungspotential zu finden. Hierzu wurde das auf der Compiler-Infrastruktur LLVM aufbauende Test-Programm KLEE erweitert. Mit Hilfe von symbolischer Ausführung werden Variablenbelegungen bestimmt, die zu hohen Ausführungskosten bei einem Pfad führen. Durch die Analyse der Pfade auf Hot-Spots, also Bereiche, die besonders hohe Kosten verursachen, wird es einem Entwickler ermöglicht, gezielt diese auf ihr Parallelisierungspotential zu untersuchen.

Freitag, 30. November 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Vitali Chaiko
Titel Ontologie-unterstützte Klassifikation von Software-Anforderungen
Vortragstyp Masterarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Die Analyse der Lastenhefte für die Planung der Software bringt einen erheblichen manuellen Aufwand mit sich. Bei der Robert Bosch Engineering GmbH werden die Anforderungen aus den Lastenheften der Kunden auf eine V-Prozessmodell-Datenbank abgebildet. Diese Datenbank besteht aus sogenannten internen Anforderungen, die Richtlinien für Hardware-und Softwareentwicklung enthalten. Jede Kundenanforderung muss von den Mitarbeitern manuell auf eine oder mehrere interne Anforderungen abgebildet werden. In Rahmen dieser Arbeit wurde ein automatisiertes Verfahren entwickelt, welches den Mitarbeiter bei dem Abbildungsprozess unterstützen kann. Dafür wurde aus den Textdaten der Kundenanforderungen eine Ontologie automatisch generiert, welche Fachbegriffe und ihre Beziehungen enthält. Aus dieser Ontologie wurden Merkmale erzeugt, welche mit einem unüberwachten Verfahren des maschinellen Lernens, nämlich hiearchisches Clustering gruppiert wurden. Dadurch war es möglich eine neue Kundenanforderung in ein bestehendes Cluster einzuordnen und basierend auf die Kundenanforderungen in dem Cluster Vorschläge für die zutreffenden internen Anforderungen zu erhalten. Um die entstandene Ontologie zu evaluieren, wurde diese auf falsch extrahierte Konzepte und Beziehungen überprüft. 16% der Konzepte und 24% der Relationen erwiesen sich als falsch. Die Voraussage der Vorschläge erreichte einen F-Maß Wert von 62%, bei den Evaluationsmetriken Präzision@5 und Ausbeute@5.
Vortragende(r) Alexander Dick
Titel User-centric Outlier Detection on Energy data
Vortragstyp Bachelorarbeit
Betreuer(in) Holger Trittenbach
Vortragsmodus
Kurzfassung Am Campus Nord messen Smart Meter in einer Forschungsfabrik alle 5 Sekunden den Stromverbrauch und weitere elektrische Messgrößen wie z.B. die elektrische Spannung. In meiner Arbeit geht es darum, ein interaktives System zur Erkennung von Auffälligkeiten in den daraus resultierenden Zeitreihen zu erstellen. Zudem soll ein Fachexperte zu einem Teil der Datenpunkte Feedback geben und so die Verwendung von semiüberwachten Lernverfahren ermöglichen. Allerdings sind aktuelle Lernverfahren, die den Nutzer in die Ausreißererkennung einbinden, nicht für Zeitreihen ausgelegt.

In der Arbeit werden die Zeitreihen auf statische Features abgebildet, um die Lernverfahren aus der Literatur anwenden zu können. Danach müssen die Features visualisiert werden, damit der Nutzer Feedback geben kann. Es wurde evaluiert inwiefern ein Fachexperte erkennen kann, ob es sich bei Zeitreihen um Ausreißer handelt und wie er bei der Entscheidung unterstützt werden kann.

Freitag, 7. Dezember 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 14. Dezember 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 301 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Florian Hennerich
Titel Erkennung Semantischer Wortveränderungen auf Textströmen
Vortragstyp Masterarbeit
Betreuer(in) Adrian Englhardt
Vortragsmodus
Kurzfassung Die natürliche Sprache befindet sich in ständigem Wandel. Mittels Semantic Change Detection kann eine Änderung der Semantik von Wörtern zwischen Zeitpunkten festgestellt werden. Herkömmliche Semantic Change Detection Systeme arbeiten nur auf statischen Korpora. Durch Social Media ist es möglich, Sprache in Echtzeit zu analysieren. Da bisherige Ansätze jedoch nicht auf Textströmen funktionieren, soll in dieser Masterarbeit ein Echtzeitsystem zur Verarbeitung von Textströmen entworfen werden, welches frühzeitig die Änderung einer Wortbedeutung aufzeigt. Grundlage hierfür sind geeignete Worteinbettungen, die zum einen gute Vektoren liefern und zum anderen trotz Begrenzung des Speichers den Textstrom gut repräsentieren. Zur Evaluation soll ein synthetischer Korpus generiert werden, um die verschiedenen Methoden vergleichen zu können. Anschließend wird eine explorative Untersuchung auf Twitterdaten durchgeführt.
Vortragende(r) Alexander Poth
Titel Statistical Generation of High Dimensional Data Streams with Complex Dependencies
Vortragstyp Bachelorarbeit
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung The evaluation of data stream mining algorithms is an important task in current research. The lack of a ground truth data corpus that covers a large number of desireable features (especially concept drift and outlier placement) is the reason why researchers resort to producing their own synthetic data. This thesis proposes a novel framework ("streamgenerator") that allows to create data streams with finely controlled characteristics. The focus of this work is the conceptualization of the framework, however a prototypical implementation is provided as well. We evaluate the framework by testing our data streams against state-of-the-art dependency measures and outlier detection algorithms.

Freitag, 14. Dezember 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Jan-Philipp Jägers
Titel Iterative Performance Model Parameter Estimation Considering Parametric Dependencies
Vortragstyp Masterarbeit
Betreuer(in) Manar Mazkatli
Vortragsmodus
Kurzfassung A main issue of using performance models, is the effort it takes to keep them updated. They must stay in synchronization with the actual system architecture and source code, in order to produce meaningful results. To address this shortcoming, there exist techniques, which extract the structure of a system and derive a performance model from existing artifacts, for example, from source code. Existing approaches estimate performance model parameters like loop iterations, branch transitions, resource demands and external call arguments for a whole system at once. We present an approach which estimates parameters of such performance models iteratively. We use monitoring data to estimate performance model parameters which are affected by an iterative source code change. We use a decision tree to build a predictive model for branch transitions and regression analysis to build a predictive model for loop iterations and resource demands. These predictive models can include dependency relations to service call arguments. To estimate resource demands iteratively, we must know all resource demands that are executed in a system. We monitor only a part of a system during one iteration and must estimate which resource demands are executed, but not monitored. We use the previously estimated performance model parameters and the control flow information of services to traverse the control flow in order to detect non-monitored resource demands.
Vortragende(r) Torsten Syma
Titel Multi-model Consistency through Transitive Combination of Binary Transformations
Vortragstyp Masterarbeit
Betreuer(in) Heiko Klare
Vortragsmodus
Kurzfassung Software systems are usually described through multiple models that address different development concerns. These models can contain shared information, which leads to redundant representations of the same information and dependencies between the models. These representations of shared information have to be kept consistent, for the system description to be correct. The evolution of one model can cause inconsistencies with regards to other models for the same system. Therefore, some mechanism of consistency restoration has to be applied after changes occurred. Manual consistency restoration is error-prone and time-consuming, which is why automated consistency restoration is necessary. Many existing approaches use binary transformations to restore consistency for a pair of models, but systems are generally described through more than two models. To achieve multi-model consistency preservation with binary transformations, they have to be combined through transitive execution.

In this thesis, we explore transitive combination of binary transformations and we study what the resulting problems are. We develop a catalog of six failure potentials that can manifest in failures with regards to consistency between the models. The knowledge about these failure potentials can inform a transformation developer about possible problems arising from the combination of transformations. One failure potential is a consequence of the transformation network topology and the used domain models. It can only be avoided through topology adaptations. Another failure potential emerges, when two transformations try to enforce conflicting consistency constraints. This can only be repaired through adaptation of the original consistency constraints. Both failure potentials are case-specific and cannot be solved without knowing which transformations will be combined. Furthermore, we develop two transformation implementation patterns to mitigate two other failure potentials. These patterns can be applied by the transformation developer to an individual transformation definition, independent of the combination scenario. For the remaining two failure potentials, no general solution was found yet and further research is necessary.

We evaluate the findings with a case study that involves two independently developed transformations between a component-based software architecture model, a UML class diagram and its Java implementation. All failures revealed by the evaluation could be classified with the identified failure potentials, which gives an initial indicator for the completeness of our failure potential catalog. The proposed patterns prevented all failures of their targeted failure potential, which made up 70% of all observed failures, and shows that the developed implementation patterns are applicable and help to mitigate issues occurring from transitively combining binary transformations.

Freitag, 21. Dezember 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Erdinch Mehmedali
Titel Metric-driven job assignment in cloud-based environments
Vortragstyp Masterarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung A cloud storage migration is usually done in one of two ways - via corresponding storage sync clients or SaaS migration tools. The SaaS migration tools can typically migrate the data significantly faster, as they are not as constrained by the Internet bandwidth as the users are. Such tools incorporate a server that reads the data from the user’s old cloud storage and copies it to another, desired cloud storage. This server is referred to as "migration server". The geographic location of the migration server can influence the duration of the cloud storage migration. Commonly, it is reported that closer distances yield better results in terms of speed over the Internet and hence, the expectation is that a migration server placed at the geographic midpoint between the data centers of the cloud storages involved, will lead to good results. We investigate different influences on cloud storage migration speed and conceptualize an algorithm for choosing a migration server location in a generic cloud storage migration scenario. In an experimental evaluation, the results of the algorithm are compared against the results of the geographic midpoint between the data centers of the cloud storages involved in the migration. midpoint, determine the necessity of developing an algorithm for choosing a migration serverlocation and ultimately present some of the guidelines for developing such an algorithm.
Vortragende(r) Nicolas Boltz
Titel State of the Art: Multi Actor Behaviour and Dataflow Modelling for Dynamic Privacy
Vortragstyp Proposal
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung State of the Art Vortrag im Rahmen der Praxis der Forschung.

Freitag, 11. Januar 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Timo Kopf
Titel Adaptives Online-Tuning für kontinuierliche Zustandsräume
Vortragstyp Masterarbeit
Betreuer(in) Philip Pfaffe
Vortragsmodus
Kurzfassung Raytracing ist ein rechenintensives Verfahren zur Erzeugung photorealistischer Bilder. Durch die automatische Optimierung von Parametern, die Einfluss auf die Rechenzeit haben, kann die Erzeugung von Bildern beschleunigt werden. Im Rahmen der vorliegenden Arbeit wurde der Auto-Tuner libtuning um ein generalisiertes Reinforcement Learning-Verfahren erweitert, das in der Lage ist, bestimmte Charakteristika der zu zeichnenden Frames bei der Auswahl geeigneter Parameterkonfigurationen zu berücksichtigen. Die hierfür eingesetzte Strategie ist eine ε-gierige Strategie, die für die Exploration das Nelder-Mead-Verfahren zur Funktionsminimierung aus libtuning verwendet. Es konnte gezeigt werden, dass ein Beschleunigung von bis zu 7,7 % in Bezug auf die gesamte Rechenzeit eines Raytracing-Anwendungsszenarios dieser Implementierung gegenüber der Verwendung von libtuning erzielt werden konnte.

Freitag, 11. Januar 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Martin Löper
Titel Eine Sprache für die Spezifikation disziplinübergreifender Änderungsausbreitungsregeln
Vortragstyp Bachelorarbeit
Betreuer(in) Kiana Busch
Vortragsmodus
Kurzfassung In der Änderungsausbreitungsanalyse wird untersucht, wie sich Änderungen in Systemen ausbreiten. Dazu werden unter anderem Algorithmen entwickelt, die identifizieren, welche Elemente in einem System von einer Änderung betroffen sind. Für die Anpassung bestehender Algorithmen existiert keine spezielle Sprache, weshalb Domänenexperten universelle Programmiersprachen, wie Java, verwenden müssen, um Änderungsausbreitungen zu formulieren. Durch den imperativen Charakter von Java, benötigen Domänenexperten mehr Code und mehr Wissen über Implementierungsdetails, als sie mit einer, auf die Änderungs- ausbreitungsanalyse zugeschnittenen, Sprache bräuchten. Eine Sprache sollte stets an den Algorithmus der jeweiligen Änderungsausbreitungsanalyse angepasst sein. Für den in dieser Arbeit betrachteten Ansatz zur Änderungsausbreitungsanalyse mit der Bezeichnung Karlsruhe Architectural Maintainability Prediction (KAMP), besteht noch keine spezielle Sprache. KAMP ist ein Ansatz zur Bewertung architekturbasierter Änderungsanfragen, der in einem gleichnamigen Softwarewerkzeug implementiert ist. Diese Arbeit präsentiert mit der Change Propagation Rule Language (CPRL) eine spezielle Sprache für den, in KAMP verwendeten, Algorithmus der Änderungsausbreitungsanalyse. Zum Abschluss wird der Vorteil der entwickelten Sprache, gegenüber drei konkurrierenden Sprachen, ermittelt. Die Arbeit kommt zum Schluss, dass CPRL kompakter als konkurrierende Sprachen ist und es gleichzeitig erlaubt, die Mehrheit an denkbaren Änderungsausbreitungen zu beschreiben.
Vortragende(r) Andreas Lang
Titel Modellgetriebene Konsistenzerhaltung von Automationssystemen
Vortragstyp Masterarbeit
Betreuer(in) Heiko Klare
Vortragsmodus
Kurzfassung In dieser Arbeit werden Verfahren entwickelt, um die den Datenaustausch in Fabrikanlagen durch die Anwendung von modell- und änderungsgetriebener Konsistenzerhaltung, wie sie für die Softwaretechnik entwickelt wurde, zu unterstützen. In der Arbeit fokussieren wir uns dabei besonders auf die Eingabe einer fehlerhaften (nicht auflösbaren) Referenz. Dafür kategorisieren wir die Eigenschaften der Referenzen und des Typs des jeweiligen Fehlers und entwickeln basierend darauf ein Regelwerk. Zum anderen werden in CAEX Prototypen genutzt, um Objekte zu instantiieren. Dabei hängt es von den individuellen Eigenschaften ab, ob die Prototypen und Klone im Anschluss daran konsistent gehalten werden sollen. Hierfür entwickeln wir wiederum Kategorien für die jeweiligen Eigenschaften, und aufbauend darauf ein Regelwerk. Beispielsweise sollte bei einem Prototypen für einen Roboter eine Änderung an seiner Hardware nicht auf Klone übertragen werden, die bereits in Fabriken eingesetzt werden. Diesen Ansatz implementierten wir mithilfe des VITRUVIUS-Frameworks, das ein Framework zur modell- und änderungsgetriebenen Konsistenzerhaltung darstellt. Anhand dessen konnten wir die Funktionalität unserer Implementierung zeigen. Durch ein Beispielmodell konnten wir zeigen, dass unsere Kategorisierungen von Referenzen, Fehlertypen, Eigenschaften und Klonen in der Fabrikanlagenplanung anwendbar sind.

Freitag, 18. Januar 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Lena Witterauf
Titel Density-Based Outlier Detection Benchmark on Synthetic Data
Vortragstyp Proposal
Betreuer(in) Georg Steinbuss
Vortragsmodus
Kurzfassung Outlier detection algorithms are widely used in application fields such as image processing and fraud detection. Thus, during the past years, many different outlier detection algorithms were developed. While a lot of work has been put into comparing the efficiency of these algorithms, comparing methods in terms of effectiveness is rather difficult. One reason for that is the lack of commonly agreed-upon benchmark data.

In this thesis the effectiveness of density-based outlier detection algorithms (such as KNN, LOF and related methods) on entirely synthetically generated data are compared, using its underlying density as ground truth.

Vortragende(r) Peter Schuller
Titel Dynamic adaptation to service usage policies
Vortragstyp Masterarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung Developing and approach for dynamic adaptation to service usage policies.

Freitag, 25. Januar 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Daniel Warzel
Titel Modeling Quality-Tradeoffs for the Optimization of Li-Ion Storage Systems
Vortragstyp Masterarbeit
Betreuer(in) Dominik Werle
Vortragsmodus
Kurzfassung Durch den gezielten Einsatz von Energiespeichern, wie bspw. Lithium-Ionen-Batterien, können Spitzenlasten in Verbrauchsprofilen und damit unter anderem auch für Großverbraucher von den Spitzenlasten abhängige Energiekosten reduziert werden. Die Planung solcher Energiespeicher wird in der Regel mit Hilfe historischer Daten durchgeführt. Im Zuge dieser Arbeit wurde der Einfluss von Störungen (z.B. durch Sampling) in derartigen Daten auf Peak-Shaving-Ansätze am Beispiel einer Produktionsanlage am KIT Campus Nord genauer betrachtet. Mit den gewonnen Informationen wurden verschiedene Prädiktionsmodelle erzeugt, welche die Abweichung der Ergebnisse auf gestörten Zeitreihen gegenüber ungestörten Zeitreihen vorhersagen. Es konnte festgestellt werden, dass durch die Kombination aus den Ergebnissen und den Vorhersage der Modelle in den meisten Fällen eine Verbesserung der absoluten Abweichung erzielt werden kann.