Semantische Suche

Freitag, 20. Oktober 2017

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Martin Gauch
Titel Data-Driven Approaches to Predict Material Failure and Analyze Material Models
Vortragstyp Bachelorarbeit
Betreuer(in) Holger Trittenbach
Vortragsmodus
Kurzfassung Te prediction of material failure is useful in many industrial contexts such as predictive maintenance, where it helps reducing costs by preventing outages. However, failure prediction is a complex task. Typically, material scientists need to create a physical material model to run computer simulations. In real-world scenarios, the creation of such models is ofen not feasible, as the measurement of exact material parameters is too expensive. Material scientists can use material models to generate simulation data. Tese data sets are multivariate sensor value time series. In this thesis we develop data-driven models to predict upcoming failure of an observed material. We identify and implement recurrent neural network architectures, as recent research indicated that these are well suited for predictions on time series. We compare the prediction performance with traditional models that do not directly predict on time series but involve an additional step of feature calculation. Finally, we analyze the predictions to fnd abstractions in the underlying material model that lead to unrealistic simulation data and thus impede accurate failure prediction. Knowing such abstractions empowers material scientists to refne the simulation models. The updated models would then contain more relevant information and make failure prediction more precise.
Vortragende(r) Thomas Mayer
Titel Encryption-aware SQL query log rewriting for LIKE predicates
Vortragstyp Diplomarbeit
Betreuer(in) Martin Schäler
Vortragsmodus
Kurzfassung In the area of workflow analysis, the workflow in respect to e.g. a working process can

be analyzed by looking into the data which was used for the working process or created during the working process. The main contribution of this work is to extend CoVER in such a way that it supports LIKE predicates with order preserving encryption.

Vortragende(r) Hendrik Braun
Titel Quantitativer Vergleich von Metriken für mehrdimensionale Abhängigkeiten
Vortragstyp Bachelorarbeit
Betreuer(in) Michael Vollmer
Vortragsmodus
Kurzfassung In der datengetriebenen Forschung ist das Analysieren hochdimensionaler Daten von zentraler Bedeutung. Hierbei ist es nicht immer ausreichend lediglich Abhängigkeiten zwischen Paaren von Attributen zu erkennen. Häufig sind hier Abhängigkeiten zwischen mehreren Attributen vorhanden, welche sich zwischen den zweidimensionalen Paaren nicht feststellen lassen. Zur Erkennung monotoner Zusammenhänge zwischen beliebig vielen Dimensionen existiert bereits eine mehrdimensionale Erweiterung des Spearman Rangkorrelationskoeffizienten, für beliebige Abhängigkeiten existiert jedoch kein solches erprobtes Maß. Hier setzt diese Arbeit an und vergleicht die beiden multivariaten informationstheoretischen Metriken "allgemeine Redundanz" und "Interaktionsinformation" miteinander. Als Basislinie für diesen Vergleich dienen die Spearman Rangkorrelation, sowie das Kontrastmaß von HiCS.

Freitag, 27. Oktober 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Andreas Schatz
Titel Platzierung von Versteckten Ausreißern in Nutzerdaten
Vortragstyp Diplomarbeit
Betreuer(in) Georg Steinbuss
Vortragsmodus
Kurzfassung In dieser Arbeit werden Methoden entwickelt um versteckte Ausreißer in Datensätzen zu platzieren. Versteckte Ausreißer sind dabei abweichende Datenpunkte die im Gesamtraum als abweichend erkannte werden können, aber in gewissen Teilräumen als normale Datenpunkte erscheinen. Zusätzlich werden benutzerdefinierte Einschränkungen entwickelt, die es einem Benutzer erlauben, den Bereich in dem versteckte Ausreißer platziert werden sollen, einzuschränken. Die Verfahren werden in unterschiedlichen Szenarien mit realen und synthetischen Daten evaluiert.

Freitag, 3. November 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Joshua Gleitze
Titel Eine deklarative Sprache zur Konsistenzhaltung mehrerer Modelle
Vortragstyp Bachelorarbeit
Betreuer(in) Heiko Klare
Vortragsmodus
Kurzfassung Der Einsatz mehrerer Modelle zur Beschreibung eines Softwaresystems birgt oftmals die Herausforderung, diese konsistent zu halten. Während es viel Forschung zur Konsistenzhaltung zweier Modelle gibt, untersuchen nur wenige Arbeiten die Spezifika der Konsistenzhaltung mehrerer Modelle. In dieser Bachelorarbeit wird eine neue Programmiersprache vorgestellt, die es erlaubt, Transformationen zu erstellen, die mehr als zwei Modelle konsistent halten. Die Sprache verwendet ein Zwischen-Metamodell, sodass alle Transformationen zuerst von einem existierenden Modell in das Zwischenmodell und dann erst in die anderen Modelle ausgeführt werden.
Vortragende(r) Sonja Amann
Titel Integrated Reliability Analysis of Business Processes and Information Systems
Vortragstyp Diplomarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung Today it is hardly possible to find a business process (BP) that does not involve working with an information system (IS). In order to better plan and improve such BPs a lot of research has been done on modeling and analysis of BPs. Given the dependency between BPs and IS such assessment of BPs should take the IS into account. Furthermore, in most assessment of BPs only the functionality, but not the so called non-functional requirements (NFR) are taken into account. This is not adequate, since NFRs influence BPs just as they influence IS. In particular the NFR reliability is interesting for planning of BPs in business environments. Therefore, the presented approach provides an integrated reliability analysis of BPs and IS. The proposed analysis takes humans, device resources and the impact from the IS into account. In order to model reliability information it has to be determined, which metrics will be used for each BP element. Thus a structured literature search on reliability modeling and analysis is conducted in seven resources. Through the structured search 40 papers on modeling and analysis of BP reliability were found. Ten of them were classified as relevant for the topic. The structured search revealed that no approach allows for modeling reliability of activities and resources separate from each other. Moreover, there is no common answer on how to model human resources in BPs. In order to enable such an integrated approach the reliability information of BPs is modeled as an extension of the IntBIIS approach. BP actions get a failure probability and the resources are extended with two reliability related attributes. For device resources the commonly used MTTF and MTTR are added in order to provide reliability information. Roles, that are associated with actor resources, are annotated with MTTF and a newly developed MTTRepl. The next step is a reliability analysis of an BP including the IS. Markov chains and reduction rules are used to analyze the BP reliability. This approach is exemplary implemented with Java in the context of PCM, that already provides analysis for IS. The result of the analysis is the probability of successful execution of the BP including the IS. An evaluation of the implemented analysis presents that it is possible to analyze the reliability of a BP including all resources and the involved IS. The results show that the reliability prediction is more accurate, when BP and IS are assessed through a combined analysis.
Vortragende(r) Rüdiger Heres
Titel Vergleich von Metamodellerweiterungsmethoden in EMOF
Vortragstyp Bachelorarbeit
Betreuer(in) Misha Strittmatter
Vortragsmodus
Kurzfassung Die Nutzung von Metamodellen ist durch die modellgetriebene Software-Entwicklung

(MDSD) geprägt. Weiterhin ist das Metamodell ein zentrales Entwicklungselement in allen aktuellen MDSD-Projekten. Das Erweitern von Metamodellen wird somit zwangsläufig ein zentrales Thema bei der Weiterentwicklung. Hierbei wird immer mehr darauf geachtet, die Erweiterungen so zu implementieren, dass man sie separieren kann. Da dieser Trend immer stärker zunimmt, keine wissenschaftliche Arbeit gibt, welche die derzeit existierenden Erweiterungsmethoden in EMOF untersucht und bewertet, wird das Thema in dieser Bachelorthesis aufgegriffen. Ziel der Bachelorthesis ist es, eine aktuelle Übersicht über die existierenden Erweiterungsmöglichkeiten zu erstellen, sowie diese zu untersuchen und zu bewerten.

Freitag, 10. November 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 17. November 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Chris Hiatt
Titel Dynamisches Autotuning mehrerer nominaler Parameter
Vortragstyp Masterarbeit
Betreuer(in) Martin Tillmann
Vortragsmodus
Kurzfassung In dieser Arbeit wird dieses Problem unter Zuhilfenahme des Wissens über kausale Abhängigkeiten verschiedener Tuningaufgaben vereinfacht. Da sich die Fragen nach einigen Parameterwerten oft nur dann stellen, wenn andere Parameter gewisse Werte einnehmen, ist es unsinnig, erstere in jedem Fall in den Optimierungsprozess einzubeziehen. Insbesondere erlaubt das entwickelte Verfahren das verlustfreie, simultane Autotuning voneinander abhängiger nominaler und Verhältnisparameter, ohne auf möglicherweise wertvolle Informationen über deren gegenseitige Einflussnahme aufeinander zu verzichten.

Freitag, 24. November 2017

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Milena Nedelcheva
Titel Data-Flow Correctness and Compliance Verification for Data-Aware Workflows in Energy Markets
Vortragstyp Diplomarbeit
Betreuer(in) Jutta Mülle
Vortragsmodus
Kurzfassung Data flow is becoming more and more important for business processes over the last few years. Nevertheless, data in workflows is often considered as second-class object and is not sufficiently supported. In many domains, such as the energy market, the importance of compliance requirements stemming form legal regulations or specific standards has dramatically increased over the past few years. To be broadly applicable, compliance verification has to support data-aware compliance rules as well as to consider data conditions within a process model. In this thesis we model the data-flow of data

objects for a scenario in the energy market domain. For this purpose we use a scientific workflow management system, namely the Apache Taverna. We will then insure the correctness of the data flow of the process model. The theoretical starting point for this thesis is a verification approach of the supervisors of this thesis. It formalizes BPMN process models by mapping them to Petri Nets and unfolding the execution semantics regarding data. We develop an algorithm for transforming Taverna workflows to BPMN 2.0. We then ensure the correctness of the data-flow of the process model. For this purpose we analyse which compliance rules are relevant for the data objects and how to specify them using anti-patterns.

Vortragende(r) Jakob Bach
Titel Impact of Aggregation Methods on Clustering of High-Resolution Energy Data
Vortragstyp Masterarbeit
Betreuer(in) Holger Trittenbach
Vortragsmodus
Kurzfassung Energy data can be used to gain insights into production processes. In the industrial domain, sensors have high sampling rates, resulting in large time series. Therefore, aggregation techniques are used to reduce computation times and memory requirements of data mining techniques like clustering. However, it is unclear what effects the aggregation has on clustering results and how these effects could be described.

In our work, we propose measures to analyse the impact of aggregation on clustering and evaluate them experimentally. In particular, we aggregate with standard summary statistics and assess the impact using clustering structure measures, internal validity indices, external validity indices and instance-based forecasting. We adapt these evaluation measures and other data mining techniques to our use case. Furthermore, we propose a decision framework which allows to choose an aggregation level and other experimental settings, considering the trade-off between clustering quality and computational cost.

Our extensive experiments comprise the cross-product of 6 physical attributes, 7 clustering algorithms, 7 aggregation techniques, 9 aggregation levels and 13 time series dissimilarities. We use real-world data from different machines and sensors of a production site at the KIT Campus North, extracting time series of fixed and variable length. Overall, we find that clustering results become less similar the more the data is aggregated. However, the exact effect and value of evaluation measures depends on the type of aggregate, clusteringalgorithm, dataset and dissimilarity measure.

Freitag, 24. November 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Nils Wilka
Titel Abstrakte und konsistente Vertraulichkeitsspezifikation von der Architektur bis zum Code
Vortragstyp Bachelorarbeit
Betreuer(in) Kateryna Yurchenko
Vortragsmodus
Kurzfassung Software-Systeme können sensible Informationen verarbeiten. Um ihre Vertraulichkeit zu gewährleisten, können sowohl das Architekturmodell, als auch seine Implementierung hinsichtlich des Informationsflusses untersucht werden. Dazu wird eine Vertraulichkeitsspezifikation definiert. Beide Modellebenen besitzen eine Repräsentation der gleichen Spezifikation. Wird das System weiterentwickelt, kann sie sich auf beiden Ebenen verändern und dementsprechend widersprüchliche Aussagen enthalten. Möchte man die Vertraulichkeit der Informationen verifizieren, müssen die Spezifikationselemente im Quellcode in einem zusätzlichen Schritt in eine weitere Sprache übersetzt werden. Die Bachelorarbeit beschäftigt sich mit der Transformation der unterschiedlichen Repräsentationen der Vertraulichkeitsspezifikation eines Software-Systems. Das beinhaltet ein Abbildungskonzept zur Konsistenzhaltung der Vertraulichkeitsspezifikation und die Übersetzung in eine Sprache, die zur Verifikation benutzt werden kann.
Vortragende(r) René Hahn
Titel Bad Smells and Antipatterns in Metamodeling
Vortragstyp Masterarbeit
Betreuer(in) Misha Strittmatter
Vortragsmodus
Kurzfassung In modern software development, metamodels play an important role as they build the basis for domain-specific modeling languages, which are used for system design, simulation and code generation. Like any artifact in a software-development process, these languages and their respective models need to evolve over time. However, if metamodels that define those languages are badly designed, the evolution process is complicated and therefore additional effort has to be spent for maintenance. Such design problems are considered as a bad smell. Existing approaches to detect smells in metamodels deal mainly with simple defects or focus only on a small number of smells. Therefore, we present a comprehensive investigation of bad smells and antipatterns by reviewing design smells of object-oriented programming and, if possible, transfer them to metamodeling. These smells are in part automatically detectable, thus, we provide tool support with suitable detection methods as an extension for EMF Refactor. We evaluate this approach by testing every automatically detectable smell with appropriate models and an application of the tool support on an already existing large metamodel to evaluate the suggested refactorings.

Freitag, 1. Dezember 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Robin Miller
Titel Untersuchung der Auswirkungen von Messdatenverschleierung auf Disaggregations-Qualität
Vortragstyp Proposal
Betreuer(in) Christine Tex
Vortragsmodus
Kurzfassung In diesem Vortrag geht es um den Schutz der Privatsphäre im Kontext von Smart Meter Daten. Im Rahmen einer Bachelorthesis werden Ansätze zur Verschleierung von Smart Meter Daten mittels bekannten Algorithmen zur Disaggregation evaluiert. Disaggregation bezeichnet dabei das extrahieren von Geräteverwendungen aus aggregierten Smart Meter Daten.

Freitag, 8. Dezember 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Rosina Kazakova
Titel Relevance-Driven Feature Engineering
Vortragstyp Masterarbeit
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung In predictive maintenance scenarios, failure classification is challenging because large high-dimensional data volumes are being generated continuously in modern factories. Currently complex error analysis occurs manually based on recorded data in our industry use-case. The resulting misclassification leads to longer rework times. Our goal is to perform automated failure detection. In particular, this thesis builds a classification model to detect faulty engines in the vehicle manufacturing process.

The work’s first part focuses on the binary anomaly detection classification problem and aims to predict an engine’s deficiency status. Here, we manage to recognize more than 90% of the faulty engines. In the second part, we extend our analysis to the multi-class classification problem with high-unbalanced classes. Here, our objective is to forecast the exact type of failure. To some extent, this situation shows similarities with the microarray analysis – we observe high-dimensional data with few instances available. This thesis develops a relevance-driven feature engineering meta-algorithm framework. We study the integration of feature relevance evaluation in the construction process of new features. We also use ensemble feature selection algorithms and define our own criteria to determine the relevance of feature subsets. These criteria are integrated in the feature engineering process in order to accelerate it by ignoring parts of the search space without significantly degrading the data quality.

Freitag, 15. Dezember 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Lucas Krauß
Titel Efficient Reduction of Energy Time Series
Vortragstyp Proposal
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung Kurzfassung
Vortragende(r) Timm Bäder
Titel Portables Auto-Tuning paralleler Anwendungen
Vortragstyp Masterarbeit
Betreuer(in) Philip Pfaffe
Vortragsmodus
Kurzfassung Sowohl Offline- als auch Online-Tuning stellen gängige Lösungen zur automatischen Optimierung von parallelen Anwendungen dar. Beide Verfahren haben ihre individuellen Vor- und Nachteile: das Offline-Tuning bietet minimalen negativen Einfluss auf die Laufzeiten der Anwendung, die getunten Parameterwerte sind allerdings nur auf im Voraus bekannter Hardware verwendbar. Online-Tuning hingegen bietet dynamische Parameterwerte, die zur Laufzeit der Anwendung und damit auf der Zielhardware ermittelt werden, dies kann sich allerdings negativ auf die Laufzeit der Anwendung ausüben.

Wir versuchen die Vorteile beider Ansätze zu verschmelzen, indem im Voraus optimierte Parameterkonfigurationen auf der Zielhardware, sowie unter Umständen mit einer anderen Anwendung, verwendet werden. Wir evaluieren sowohl die Hardware- als auch die Anwendungsportabilität der Konfigurationen anhand von fünf Beispielanwendungen.

Vortragende(r) David Englert
Titel Statistischer Vergleich mehrsprachiger und zeitabhängiger Sprachkorpora am Beispiel des Google Books Ngram Datensatzes
Vortragstyp Bachelorarbeit
Betreuer(in) Jens Willkomm
Vortragsmodus
Kurzfassung Der Vergleich von zwei Sprachkorpora wird durch einen Homogenitätstest realisiert. Aufgrund der Verfügbarkeit vieler Sprachkorpora unterschiedlicher Sprachen als auch deren zeitlichen Entwicklung, ist diese Methode nicht mehr ausreichend.

Diese Arbeit beschäftigt sich damit unterschiedlich sprachige Korpora vergleichbar zu machen. Darüber hinaus werden erste Ansätze zum Vergleich zeitlicher Entwicklungen zwischen verschiedenen Sprachkorpora gegeben.

Freitag, 22. Dezember 2017

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 12. Januar 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Milena Neumann
Titel KAMP for Build Avoidance on Generation of Documentation
Vortragstyp Bachelorarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung Especially in large software systems there are cases where only a subset of the dependents of a component needs to be built in order to produce sound build results for a certain change scenario; in the context of this work, this is called a build shortcut. The utilization of build shortcuts shortens build times, as the rebuilding of unafected parts is avoided. This thesis is concerned with the question of how the benefts of build shortcuts can be made accessible to a whole team of developers where not every member is a build expert. Our approach is to model the change specifc dependencies in a Palladio Component Model and determine the components to be built for a given change with the change propagation algorithm of the KAMP approach, posing as an example to integrate it into an agile development process.

Freitag, 19. Januar 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Florian Pieper
Titel Neural-Based Outlier Detection in Data Streams
Vortragstyp Proposal
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung Outlier detection often needs to be done unsupervised with high dimensional data in data streams. “Deep structured energy-based models” (DSEBM) and “Variational Denoising Autoencoder” (VDA) are two promising approaches for outlier detection. They will be implemented and adapted for usage in data streams. Finally, their performance will be shown in experiments including the comparison with state of the art approaches.

Freitag, 26. Januar 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 2. Februar 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Sophie Schulz
Titel Erweiterung der Sprachdomäne durch das Erlernen von Synonymen basierend auf dem Dialogsystem JustLingo
Vortragstyp Bachelorarbeit
Betreuer(in) Alexander Wachtel
Vortragsmodus
Kurzfassung Diese Arbeit beschäftigt sich mit der Frage, ob und inwieweit das Verständnis natürlichsprachlicher Systeme durch das Erlernen von Synonymen gefördert werden kann. Als Grundlage und Benutzerschnittstelle wurde das Dialogsystem JustLingo, ein System zur natürlichsprachlichen Programmierung, verwendet. In vorangegangenen Arbeiten wurde JustLingo als Excel Add-in umgesetzt, mithilfe dessen man u.a. komplexe Algorithmen beschreiben kann. Darauf aufbauend wird in der vorliegenden Arbeit die Umsetzung eines Synonymmoduls beschrieben. Diesem liegen verschiedene Wortnetze zugrunde, die als Quellen dienen und aus denen anschließend relevante Synonyme extrahiert werden. Hierbei achtet das Modul auf den dem System bekannten Wortschatz. Bestätigt der Nutzer ein im Wortschatz vorkommendes Synonym, wird dieses erlernt und kann im Anschluss verwendet werden. Damit ist das in dieser Arbeit entwickelte Modell dem überwachten Lernen unterzuordnen. Um die Effektivität des Synonym-Lernens abzuschätzen, wurden abschließend sowohl Performanz, als auch die, durch Eingaben einer Nutzerstudie, erfasste Qualität geprüft. Hierbei zeigte sich eine enorme Verbesserung des Systems durch das Synonymmodul. Statt bisherigen 59% konnten 82% der Nutzereingaben interpretiert werden.

Freitag, 9. Februar 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 16. Februar 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Dennis Weigelt
Titel Komplexe Abbildungen von Formularelementen zur Generierung von aktiven Ontologien
Vortragstyp Bachelorarbeit
Betreuer(in) Martin Blersch
Vortragsmodus
Kurzfassung Unser heutiges Leben wird zunehmend von Assistenzsystemen erleichtert. Hierzu gehören auch die immer häufiger verwendeten intelligenten Sprachassistenten wie Apple's Siri. Statt lästigem Flüge vergleichen auf diversen Internetportalen können Sprachassistenten dieselbe Arbeit tun.

Um Informationen verarbeiten und an den passenden Webdienst weiterleiten zu können, muss das Assistenzsystem natürliche Sprache verstehen und formal repräsentieren können. Hierfür werden bei Siri aktive Ontologien (AOs) verwendet, die derzeit mit großem manuellem Aufwand manuell erstell werden müssen. Die am KIT entwickelte Rahmenarchitektur EASIER beschäftigt sich mit der automatischen Generierung von aktiven Ontologien aus Webformularen. Eine Herausforderung bei der Erstellung von AOs aus Webformularen ist die Zuordnung unterschiedlich ausgeprägter Formularelemente mit gleicher Semantik, da semantisch gleiche aber unterschiedlich realisierte Konzepte zu einem AO-Knoten zusammengefasst werden sollen. Es ist daher nötig, semantisch ähnliche Formularelemente identifizieren zu können. Diese Arbeit beschäftigt sich mit der automatischen Identifikation solcher Ähnlichkeiten und der Konstruktion von Abbildungen zwischen Formularelementen.

Freitag, 23. Februar 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 2. März 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 9. März 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Dominik Fuchß
Titel Verarbeitung natürlich-sprachlicher Beziehungsbeschreibungen zwischen Objekten
Vortragstyp Bachelorarbeit
Betreuer(in) Alexander Wachtel
Vortragsmodus
Kurzfassung Diese Arbeit verfolgt das Ziel, durch das Erkennen von Beziehungen zwischen Klassen und Objekten, einen Benutzer des Systems in die Lage zu versetzen, diese für das Beantworten von Fragestellungen auszunutzen. Als Basis hierfür dient das Dialogsystem JustLingo,

welches als Erweiterung von Excel konzipiert ist. Im Rahmen dieser Arbeit werden zwei Schritte durchgeführt. In einem ersten Schritt wird JustLingo dazu befähigt, Beschreibungen von Beziehungen zu interpretieren. Dadurch wird es möglich, Modelle zu erzeugen und mit diesen zu arbeiten. Der zweite Schritt ist dann, das Ermöglichen der Verarbeitung von Fragen, welche anhand der generierten Modelle gezielt beantwortet werden können. Neben diesen zwei Aspekten wird JustLingo in die Lage versetzt, Entwurfsmuster aus der Softwaretechnik bzw. ihre Struktur zu erkennen und innerhalb eines Modells nach diesen zu suchen. In einem letzten Schritt wird die erschaffene Erweiterung auf zwei Aspekte, dem der Erkennung und dem der Verwendung hin, evaluiert. Bei dem Erkennen von Beziehungen wurden bei 13 Teilnehmern und 15 Elementen (Klassen und Beziehungen) im Schnitt 94,9% korrekt in ein Modell eingefügt. Die 13 Teilnehmer konnten von 10 Fragen, wobei sie eine der Fragen selbst definieren konnten, durchschnittlich 86,8% beantworten.

Freitag, 16. März 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Marcel Groß
Titel Creating Study Plans by Generating Workflow Models from Constraints in Temporal Logic
Vortragstyp Bachelorarbeit
Betreuer(in) Jutta Mülle
Vortragsmodus
Kurzfassung Students are confronted with a huge amount of regulations when planning their studies at a university. It is challenging for them to create a personalized study plan while still complying to all official rules. The STUDYplan software aims to overcome the difficulties by enabling an intuitive and individual modeling of study plans. A study plan can be interpreted as a sequence of business process tasks that indicate courses to make use of existing work in the business process domain. This thesis focuses on the idea of synthesizing business process models from declarative specifications that indicate official and user-defined regulations for a study plan. We provide an elaborated approach for the modeling of study plan constraints and a generation concept specialized to study plans. This work motivates, discusses, partially implements and evaluates the proposed approach.
Vortragende(r) Jan Keim
Titel Themenextraktion zur Domänenauswahl für Programmierung in natürlicher Sprache
Vortragstyp Masterarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Für den Menschen sind Kontexte von Anweisungen für die Programmierung in natürlicher Sprache einfach ersichtlich, für den Rechner ist dies nicht der Fall.

Eine Art des Kontextwissens ist das Verständnis der Themen. Hierfür wird im Rahmen des PARSE-Projekts zur Programmierung in natürlicher Sprache ein Ansatz zur Themenextraktion vorgestellt. Dafür wird eine Auflösung von mehrdeutigen Nomen benötigt, weshalb in dieser Arbeit ebenfalls ein Werkzeug dafür entwickelt wurde. Als einen Anwendungsfall für die extrahierten Themen wird die Auswahl von passenden Ontologien angegangen. Durch diese Auswahl wird ermöglicht, statt einer großen Ontologie mehrere kleine domänenspezifische Ontologien einzusetzen. Für die Evaluation der Themenextraktion wurde eine Umfrage durchgeführt, die ergab, dass das erste extrahierte Thema in bis zu 63,6% der Fälle treffend war. In 91% der Fälle ist mindestens eines der ersten vier extrahierten Themen passend. Die Evaluation der Ontologieauswahl ergab ein F1-Maß von 90,67% und ein F2-Maß von 89,94%.

Freitag, 23. März 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Janek Bettinger
Titel Efficient k-NN Search of Time Series in Arbitrary Time Intervals
Vortragstyp Masterarbeit
Betreuer(in) Jens Willkomm
Vortragsmodus
Kurzfassung The k nearest neighbors (k-NN) of a time series are the k closest sequences within a

dataset regarding a distance measure. Often, not the entire time series, but only specific time intervals are of interest, e.g., to examine phenomena around special events. While numerous indexing techniques support the k-NN search of time series, none of them is designed for an efficient interval-based search. This work presents the novel index structure Time Series Envelopes Index Tree (TSEIT), that significantly speeds up the k-NN search of time series in arbitrary user-defined time intervals.

Vortragende(r) Christopher Kaag
Titel Statische Extraktion von Laufzeit-Indikatoren
Vortragstyp Masterarbeit
Betreuer(in) Martin Tillmann
Vortragsmodus
Kurzfassung In dieser Arbeit geht es um die Analyse von LLVM-Quellcode mit dem Ziel, einen Indikator für die Anzahl der CPU-Instruktionen zu finden. Ein Indikator ist ein geschlossener Term, der für eine bestimmte Eingabe die Anzahl der CPU-Instruktionen eines Stück Codes liefert. Diese Definition korreliert mit der Eingabegröße eines Programmes. Wir analysieren den Kontrollflussgraph und Schleifenbedingungen, um Variablen im Code zu finden, die stellvertretend für die Eingabegröße stehen. Diese Indikator-Ermittlung ist ein Fundament für bessere Online-Autotuner in der Zukunft, die sich automatisch auf Eingaben wechselnder Größen einstellen können.

Freitag, 6. April 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 13. April 2018

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Valentin Kiechle
Titel Bewertung des lokalen und globalen Effekts von Lastverschiebungen von Haushalten
Vortragstyp Bachelorarbeit
Betreuer(in) Christine Tex
Vortragsmodus
Kurzfassung Erneuerbare Energien wie Photovoltaik-Anlagen stellen für den Privathaushalt eine Möglichkeit dar, eigenen Strom zu produzieren und damit den Geldbeutel sowie die Umwelt zu schonen. Auch in größeren Wohnblocks mit vielen Partien kommen solche Anlagen gemeinschaftlich genutzt zum Einsatz. Der Wunsch, die Nutzung zu optimieren, verleitet dazu, Demand Side Management Strategien zu verwenden. Speziell werden dabei Lastverschiebungen von einzelnen Haushaltsgeräten betrachtet, um die Sonnenenergie besser zu nutzen. Diese Arbeit bewertet verschiedene solcher Lastverschiebungen und ihre lokalen und globalen Effekte auf die Haushalte. Dazu werden verschiedene Modelle für variable Strompreisberechnung, Haushaltssimulation und Umsetzung von Lastverschiebung entworfen und in einem eigens geschriebenen Simulator zur Anwendung gebracht. Ziel dabei ist es, durch verschiedene Experimente, die Auswirkungen auf die Haushalte in ausgewählten Bewertungsmetriken zu erfassen. Es stellt sich heraus, dass es mäßige Sparmöglichkeiten für private Photovoltaik-Nutzer durch Lastverschiebung gibt, die Optimierung jedoch sowohl im lokalen als auch um globalen Bereich aber ein spezifisches Problem darstellt.
Vortragende(r) Robin Miller
Titel Influence of Load Profile Perturbation and Temporal Aggregation on Disaggregation Quality
Vortragstyp Bachelorarbeit
Betreuer(in) Christine Tex
Vortragsmodus
Kurzfassung Smart Meters become more and more popular. With Smart Meter, new privacy issues arise. A prominent privacy issue is disaggregation, i.e., the determination of appliance usages from aggregated Smart Meter data. The goal of this thesis is to evaluate load profile perturbation and temporal aggregation techniques regarding their ability to prevent disaggregation. To this end, we used a privacy operator framework for temporal aggregation and perturbation, and the NILM TK framework for disaggregation. We evaluated the influence on disaggregation quality of the operators from the framework individually and in combination. One main observation is that the de-noising operator from the framework prevents disaggregation best.

Freitag, 20. April 2018

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Fabian Müller
Titel Aufbau einer Werkzeugkette zur Automatisierung der Softwareentwicklung
Vortragstyp Bachelorarbeit
Betreuer(in) Korbinian Molitorisz
Vortragsmodus
Kurzfassung Die Entwicklung professioneller Software ist aus verschiedenen Gründen eine höchst komplexe Aufgabe: Menschen unterschiedlicher Blickwinkel sind daran beteiligt, die Software zu spezifizieren, zu implementieren, zu testen und zu installieren. Dazu arbeiten diese Teams häufig regional oder zeitlich verteilt. Dies macht Maßnahmen zur Softwarequalität zu einem notwendigen Bestandteil von Softwareentwicklungsprozessen.

In dieser Bachelor-Arbeit wurden Werkzeuge und wissenschaftliche Arbeiten zur fortlaufenden Integration untersucht und eine Werkzeugkette aufgebaut, die dieses Prinzip umsetzt. Sie automatisiert neben der Softwareerstellung auch die Testausführung, die Bereitstellung und die Performanzmessung auf verschiedenen Zielsystemen und führt alle Zwischenergebnisse an einer Stelle zusammen. In Zusammenarbeit mit Agilent Technologies wurde eine Benutzerstudie durchgeführt, die aufzeigt, dass die Werkzeugkette eine Funktionalitäts- bzw. Leistungsaussage zu Quellcodeänderungen innerhalb weniger Minuten nach dem Einchecken ermöglicht, was sonst typischerweise Tage bis Wochen benötigt.

Vortragende(r) Lucas Krauß
Titel Reduction of Energy Time Series
Vortragstyp Bachelorarbeit
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung Data Reduction is known as the process of compressing large amounts of data down to its most relevant parts and is an important sub-field of Data Mining.

Energy time series (ETS) generally feature many components and are gathered at a high temporal resolution. Hence, it is required to reduce the data in order to allow analysis or further processing of the time series. However, existing data reduction methods do not account for energy-related characteristics of ETS and thus may lead to unsatisfying results.

In this work, we present a range of state-of-the art approaches for time series reduction (TSR) in the context of energy time series. The aim is to identify representative time slices from the multivariate energy time series without any prior knowledge about the inherent structure of the data. We rely on unsupervised approaches, i.e., clustering algorithms, to derive these representatives. For validation purpose, we apply the proposed reduction methods in two distinct approaches:

First, we use the TSR method to reduce the run time of energy system optimization models (ESM). ESM produce predictions and recommendations for the future energy system on the basis of historical data. As the model complexity and execution time of the ESM increases dramatically with the temporal resolution of the input data, reducing the input data without impacting the quality of predictions allows analysis at scales that are out of reach otherwise. In particular, we will study the Perseus-EU model. Our analysis show the extent to which each TSR method can reduce run times without degrading the quality of the prediction significantly.

The second application relates to the compression of ETS emerging from grid measurement data. Measurements from sensors installed in the energy grid collect observations in a high temporal resolution but are often highly redundant. Hence, while the storage requirements are high, the collected time series only contain few interesting and representative observations. Here, we use TSR methods to reduce the multivariate time series to a set of representative time slices. We show that amount of redundant observations can be greatly reduced in that way while preserving rare and interesting observations.

Freitag, 27. April 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Nadim Hammoud
Titel Automated Extraction of Stateful Power Models for Cyber Foraging Systems
Vortragstyp Bachelorarbeit
Betreuer(in) Christian Stier
Vortragsmodus
Kurzfassung Mobile devices are strongly resource-constrained in terms of computing and battery capacity. Cyber-foraging systems circumvent these constraints by offloading a task to a more powerful system in close proximity. Offloading itself induces additional workload and thus additional power consumption on the mobile device. Therefore, offloading systems must decide whether to offload or to execute locally. Power models, which estimate the power consumption for a given workload can be helpful to make an informed decision.

Recent research has shown that various hardware components such as wireless network interface cards (WNIC), cellular network interface cards or GPS modules have power states, that is, the power consumption behavior of a hardware component depends on the current state. Power models that consider power states (stateful power models) can be modeled as Power State Machines (PSM). For systems with multiple power states, stateful models proved to be more accurate than models that do not consider power states (stateless models).

Manually generating PSMs is time-consuming and limits the practicability of PSMs. Therefore, in this thesis, we explore the possibility of automatically generating PSMs. The contribution of this thesis is twofold: (1) We introduce an automated measurementbased profiling approach (2) and we introduce a step-based approach, which, provided with profiling data, automatically extracts PSMs along with tail states and state transitions.

We evaluate the automated PSM extraction in a case study on an offloading speech recognition system. We compare the power consumption prediction accuracy of the generated PSM with the prediction accuracy of a stateless regression based model. Because we measure the power consumption of the whole system, we use along with all WiFi power models the same CPU power model in order to predict the power consumption of the whole system. We find that a slightly adapted version of the generated PSM predicts the power consumption with a mean error of approx. 3% and an error of approx. 2% in the best case. In contrast, the regression model produces a mean error of approx. 19% and an error of approx. 18% in the best case.

Vortragende(r) Marc Ueberschaer
Titel Optimierung von Inkrementellen Modellanalysen
Vortragstyp Masterarbeit
Betreuer(in) Georg Hinkel
Vortragsmodus
Kurzfassung In der Modellgetriebenen Softwareentwicklung sind Analysen der entstehenden Modelle notwendig, um Validierungen schon auf der Modellebene durchführen zu können, um so kostenintensiveren Fehlern vorzubeugen und Kosten zu sparen. Allerdings sind die Modelle stetigen Änderungen unterworfen, die sich auch auf die Analyseergebnisse auswirken können, die man gerne stets aktuell hätte. Da die Modelle sehr groß werden können, sich aber immer nur kleine Teile dieser Modelle ändern, ist es sinnvoll diese Analysen inkrementell zu gestalten. Ein Ansatz für solche inkrementellen Modellanalysen ist NMF Expressions, das im Hintergrund einen Abhängigkeitsgraphen der Analyse aufbaut und bei jeder atomaren Änderung des Modells aktualisiert. Die Effizienz der Analysen hängt dabei aber oft von der genauen Formulierung der Anfragen ab. Eine ungeschickte Formulierung kann somit zu einer ineffizienten Analyse führen. In der Datenbankwelt hingegen spielt die genaue Formulierung der Anfragen keine so große Rolle, da automatische Optimierungen der Anfragen üblich sind. In dieser Masterarbeit wird untersucht, inwieweit sich die Konzepte der Optimierungen von Anfragen aus der Datenbankwelt auf die Konzepte von inkrementelle Modellanalysen übertragen lassen. Am Beispiel von NMF Expression wird gezeigt, wie solche Optimierungen für inkrementelle Modellanalysen umgesetzt werden können. Die implementierten Optimierungen werden anhand von definierten Modellanalysen getestet und evaluiert.

Freitag, 4. Mai 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 11. Mai 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Lennart Hensler
Titel Streaming Model Analysis - Synergies from Stream Processing and Incremental Model Analysis
Vortragstyp Masterarbeit
Betreuer(in) Georg Hinkel
Vortragsmodus
Kurzfassung Many modern applications take a potentially infinite stream of events as input to interpret and process the data. The established approach to handle such tasks is called Event Stream Processing. The underlying technologies are designed to process this stream efficiently, but applications based on this approach can become hard to maintain, as the application grows. A model-driven approach can help to manage increasing complexity and changing requirements. This thesis examines how a combination of Event Stream Processing and Model-Driven Engineering can be used to handle an incoming stream of events. An architecture that combines these two technologies is proposed and two case studies have been performed. The DEBS grand challenges from 2015 and 2016 have been used to evaluate applications based on the proposed architecture towards their performance, scalability and maintainability. The result showed that they can be adapted to a variety of change scenarios with an acceptable cost, but that their processing speed is not competitive.

Freitag, 18. Mai 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Simon Dürr
Titel Modellierung und Verifikation von Mehrgüterauktionen als Workflows am Beispiel eines Auktionsdesigns
Vortragstyp Masterarbeit
Betreuer(in) Jutta Mülle
Vortragsmodus
Kurzfassung The presentation will be in English.

Die Zielsetzung in dieser Arbeit war die Entwicklung eines Systems zur Verifikation von Mehrgüterauktionen als Workflows am Beispiel eines Auktionsdesigns. Aufbauend auf diversen Vorarbeiten wurde in dieser Arbeit das Clock-Proxy Auktionsdesign als Workflow modelliert und zur Verifikation mit Prozessverifikationsmethoden vorbereitet. Es bestehen bereits eine Vielzahl an Analyseansätzen für Auktionsdesign, die letztendlich aber auf wenig variierbaren Modellen basieren. Für komplexere Auktionsverfahren, wie Mehrgüterauktionen, die in dieser Arbeit betrachtet wurden, liefern diese Ansätze keine zufriedenstellenden Möglichkeiten. Basierend auf den bereits bestehenden Verfahren wurde ein Ansatz entwickelt, dessen Schwerpunkt auf der datenzentrierten Erweiterung der Modellierung und der Verifikationsansätze liegt. Im ersten Schritt wurden daher die Regeln und Daten in das Workflowmodell integriert. Die Herausforderung bestand darin, den Kontroll-und Datenfluss sowie die Daten und Regeln aus dem Workflowmodell über einen Algorithmus zu extrahieren und bestehende Transformationsalgorithmen hinreichend zu erweitern. Die Evaluation des Ansatzes zeigt, dass die Arbeit mit der entwickelten Software das globale Ziel, einen Workflow mittels Eigenschaften zu verifizieren, erreicht hat.

Vortragende(r) Alexander Poth
Titel Statistical Generation of High-Dimensional Data Streams with Complex Dependencies
Vortragstyp Proposal
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung The extraction of knowledge from data streams is one of the most crucial tasks of modern day data science. Due to their nature data streams are ever evolving and knowledge derrived at one point in time may be obsolete in the next period. The need for specialized algorithms that can deal with high-dimensional data streams and concept drift is prevelant.

A lot of research has gone into creating these kind of algorithms. The problem here is the lack of data sets with which to evaluate them. A ground truth for a common evaluation approach is missing. A solution to this could be the synthetic generation of data streams with controllable statistical propoerties, such as the placement of outliers and the subspaces in which special kinds of dependencies occur. The goal of this Bachelor thesis is the conceptualization and implementation of a framework which can create high-dimensional data streams with complex dependencies.

Freitag, 25. Mai 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Christian Bitterwolf
Titel Bestimmung von Aktionsidentität in gesprochener Sprache
Vortragstyp Bachelorarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Natürliche Sprache enthält Aktionen, die ausgeführt werden können.

Innerhalb eines Diskurses kommt es häufig vor, dass Menschen eine Aktion mehrmals beschreiben. Dies muss nicht immer bedeuten, dass diese Aktion auch mehrmals ausgeführt werden soll. Diese Bachelorarbeit untersucht, wie erkannt werden kann, ob sich eine Nennung einer Aktion auf eine bereits genannte Aktion bezieht. Es wird ein Vorgehen erarbeitet, das feststellt, ob sich mehrere Aktionsnennungen in gesprochener Sprache auf dieselbe Aktionsidentität beziehen. Bei diesem Vorgehen werden Aktionen paarweise verglichen. Das Vorgehen wird als Agent für die Rahmenarchitektur PARSE umgesetzt und evaluiert. Das Werkzeug erzielt ein F1-Maß von 0,8, wenn die Aktionen richtig erkannt werden und Informationen über Korreferenz zwischen Entitäten zur Verfügung stehen.

Freitag, 1. Juni 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 8. Juni 2018

iCal (Download)
Ort: Raum 252 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Fabian Wiest
Titel Objektorientierte Programmierung im natürlichsprachlichen Dialogsystem JustLingo
Vortragstyp Masterarbeit
Betreuer(in) Alexander Wachtel
Vortragsmodus
Kurzfassung Das in Microsoft Excel integrierte Add-In JustLingo ist ein System, das ermöglicht, natürlichsprachliche Eingaben in die Formelsprache von Excel zu überführen. Motiviert durch die Möglichkeit einfache Algorithmenbeschreibungen der Benutzer zu erkennen, wird in dieser Arbeit eine zusätzliche Erweiterung zum bestehenden System vorgestellt, die das Themengebiet der Objektorientierung einführt. Dabei werden die Nutzereingaben zunächst in UML-Klassennotation überführt. Diese Zwischendarstellung kann dann in ausführbaren C#-Klassencode samt Klassen, Attribute sowie Methoden überführt werden. Zusätzlich verfügt der Prototyp über ein Werkzeug, das in den UML-Diagrammen nicht nur nach existierenden Entwurfsmustern der Softwaretechnik sucht, sondern auch teilweise vorhandene Muster automatisiert vervollständigen kann. Zur Evaluierung der Arbeit wurde das System mit Beschreibungen aus den Klausuraufgaben, die Informatikstudenten im dritten Semester lösen können müssen, konfrontiert. Bei den acht Klausuraufgaben sollten Klassen und deren Beziehungen sowie Attribute und Methoden in den Beschreibungen erkannt werden. Das System hat dabei einen Precision-Wert von 0,70, einen Recall-Wert von 0,59 und einen F-Wert von 0,63 erreicht.

Freitag, 15. Juni 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Timo Maier
Titel Automatische Vorhersage von Änderungsausbreitung basierend auf Anforderungsänderungen in Automatisierungssystemen
Vortragstyp Bachelorarbeit
Betreuer(in) Kiana Busch
Vortragsmodus
Kurzfassung Automatisierungssysteme sind langlebige, softwaregesteuerte Systeme, die aufgrund wechselnder Anforderungen typischerweise mehrere Evolutionszyklen durchlaufen. Da Automatisierungshardware und Software eng verzahnt sind betreffen Änderungen am System oft beide Bestandteile und Änderungsausbreitung ist von Hand nur schwer nachvollziehbar. KAMP ist ein existierender Ansatz zur automatischen Änderungsausbreitungsanalyse. Hier werden Metamodelle verwendet um Änderungsausbreitung mithilfe von definierten Regeln zu berechnen. Die hier vorgestellte Bachelorarbeit erweitert KAMP mit dem Ziel, von der Architektur dieser Systeme zu abstrahieren und Anforderungen mit einzubeziehen. Somit soll eine Änderungsausbreitungsanalyse auf Basis von Anforderungsänderungen in Automatisierungssystemen unterstützen werden. Um Anforderungen zu formalisieren werden Metamodelle für Anforderungen und Entwurfsentscheidungen eingebunden. Evaluiert wird auf Basis vordefinierter Evolutionsszenarien eines Labormodells einer Automatisierungsanlage (xPPU).
Vortragende(r) Inna Belyantseva
Titel Eine Domänenspezifische Sprache für Änderungsausbreitungsregeln
Vortragstyp Masterarbeit
Betreuer(in) Kiana Busch
Vortragsmodus
Kurzfassung Im Zuge der Masterarbeit sollte eine domänenspezifische Sprache für Änderungsausbreitungsregeln evaluiert und erweitert werden.

Durch diese Sprache wird es Domänenexperten ermöglicht, Änderungsausbreitungsregeln auf Grundlage eines Metamodells innerhalb des Änderungsausbreitungsframeworks zu erstellen. Dabei sind keine tiefer gehenden Kenntnisse der Java-Programmierung oder des Änderungsausbreitungsframeworks notwendig. Aus den in dieser Sprache formulierten Regeln werden automatisch Java-Klassen generiert, die eine Änderungsausbreitungsberechnung durchführen können. Zu Evaluationszwecken wurden die bisher mittels Java-Methoden implementierten Änderungsausbreitungsberechnungen untersucht. Diese konnten in Regelklassen gegliedert und teilweise in der Sprache abgebildet werden. Für die nicht abbildbaren Regeln wurden neue Sprachkonstrukte konzipiert. Zudem wurde die Übertragbarkeit von der Sprache zwischen unterschiedlichen Anwendungsdomänen untersucht.

Vortragende(r) Nico Kopp
Titel Entwicklungsmethoden für Produktfamilien
Vortragstyp Masterarbeit
Betreuer(in) Erik Burger
Vortragsmodus
Kurzfassung In dieser Masterarbeit werden Methodiken erarbeitet, welche die Entwicklung von Produktlinien in der Modellbasierten Systementwicklung (MBSE) unterstützen sollen.

Für die Verhaltensbeschreibung von Systemen werden unter anderem Aktivitätsdiagramme verwendet, die keine expliziten Konstrukte zur Modellierung von Variabilität anbieten. Deshalb wird in dieser Arbeit ein Ansatz zur Modellierung von Variabilität in Aktivitätsdiagrammen vorgestellt, der Metamodell-unabhängig ist und somit nicht nur für Aktivitätsdiagramme verwendet werden kann. Dieser Ansatz wird mit gängigen Ansätzen der Variabilitätsmodellierung verglichen und es wird unter anderem untersucht, inwieweit dieser Ansatz die Elementredundanz im Vergleich zu den anderen Ansätzen verringert. Anschließend wird erarbeitet, wie Aktivitätsdiagramme und gefärbte Petri-Netze untereinander konsistent gehalten werden können. Dazu werden deren Gemeinsamkeiten und Unterschiede herausgearbeitet, um Konsistenzhaltungsregeln zu definieren und die Grenzen der Konsistenzhaltung zu finden. Zum Abschluss wird skizziert, was notwendig ist, um die beiden Ansätze miteinander zu kombinieren, um eine Verhaltensbeschreibung einer Produktlinie aus Aktivitätsdiagrammen und gefärbten Petri-Netze zu erhalten, bei denen stets die Aktivitätsdiagramme und Petri-Netze der einzelnen Produktkonfigurationen konsistent zueinander sind.

Freitag, 15. Juni 2018

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Florian Hennerich
Titel Trend Monitoring on Twitter Streams with Semantic Change Analysis
Vortragstyp Proposal
Betreuer(in) Adrian Englhardt
Vortragsmodus
Kurzfassung Die natürliche Sprache befindet sich in ständigem Wandel. Mittels Semantic Change Analysis kann eine Änderung der Bedeutung von Wörtern zwischen Zeitpunkten festgestellt werden. Herkömmliche Semantic Change Detection Systeme arbeiten nur auf statischen Korpora. Durch Social Media wird es jedoch ermöglicht Sprache in Echtzeit zu analysieren. Bisherige Ansätze sind jedoch nicht dafür geeignet auf einem Textstrom zu arbeiten. In dieser Masterarbeit soll deshalb ein Echtzeitsystem zur Verarbeitung von Textströmen entworfen werden, welches frühzeitig die Änderung einer Wortbedeutung aufzeigt. Grundlage hierfür ist die Nutzung und Anpassung geeigneter Einbettung von Wörtern, die zum einen gute Vektoren liefern und zum anderen trotz Begrenzung der Laufzeit und des Speichers den Textstrom gut repräsentieren. Des Weiteren muss das System einen geeigneten Change Detection Algorithmus umfassen. Zur Evaluation soll ein synthetischer Korpus generiert werden, um die verschiedenen Methoden vergleichen zu können. Anschließend soll eine explorative Untersuchung auf Echtweltdaten durchgeführt werden.

Freitag, 22. Juni 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Dou Beibei
Titel Analysis of Classifier Performance on Aggregated Energy Status Data
Vortragstyp Masterarbeit
Betreuer(in) Dominik Werle
Vortragsmodus
Kurzfassung Non-intrusive load monitoring (NILM) algorithms aim at disaggregating consumption curves of households to the level of single appliances. However, there is no conventional way of quantifying and representing the tradeoff between the quality of analyses, such as the accuracy of the disaggregated consumption curves, and the load on the available computing resources. Thus, it is hard to plan the underlying infrastructure and resources for the analysis system and to find the optimal configuration of the system. This thesis introduces a system that assesses the quality of different analyses and their runtime behavior. This assessment is done based on varying configuration parameters and changed characteristics of the input dataset. Varied characteristics are the granularity of the data and the noisiness of the data. We demonstrate that the collected runtime behavior data can be used to choose reasonable characteristics of the input data set.
Vortragende(r) Eric Weinstock
Titel Blueprint for the Transition from Static to Dynamic Deployment
Vortragstyp Bachelorarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung This thesis defnes a blueprint describing a successful ad-hoc deployment with generally applicable rules, thus providing a basis for further developments. The blueprint itself is based on the experience of developing a Continuous Deployment system, the subsequent tests and the continuous user feedback. In order to evaluate the blueprint, the blueprint-based dynamic system was compared with the previously static deployment and a user survey was conducted. The result of the study shows that the rules described in the blueprint have far-reaching consequences and generate an additional value for the users during deployment.

Freitag, 29. Juni 2018

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Marcel Hiltscher
Titel Robust Subspace Search
Vortragstyp Proposal
Betreuer(in) Georg Steinbuss
Vortragsmodus
Kurzfassung In this thesis, the idea of finding robust subspaces with help of an iterative process is being discussed. The process firstly aims for subspaces where hiding outliers is feasible. Subsequently, the subspaces used in the first part are being adjusted. In doing so, the convergence of this iterative process can reveal valuable insights in systems where the existence of hidden outliers poses a high risk (e.g. power station). The main part of this thesis will deal with the aspect of hiding outliers in high dimensional data spaces and the challenges resulting from such spaces.
Vortragende(r) Till Stöckmann
Titel Untersuchung des Trade-Offs zwischen Privacy und Forecasting-Qualität
Vortragstyp Proposal
Betreuer(in) Christine Tex
Vortragsmodus
Kurzfassung Diese Arbeit befasst sich mit den Themen Realisierung des Privacy-Aspekts bei Smart Meter Daten durch Pertubation, sowie der Güte der Forecasts auf ebendiesen Daten. Genaue Vorhersagen über zukünftigen Stromverbrauch (Forecast) gelten als eine der Errungenschaft durch die Etablierung von Smart Metern. Installiert in Privathaushalten stellen Smart Meter aber auch ein neues Einfallstor in die Privatsphäre des Verbrauchers dar. Die Lösung ist es, die Daten vor der weitergehenden Verarbeitung durch Pertubation zu verschleiern. Mit dem Gewinn an Privatsphäre verlieren die Messdaten an Güte. Die Bachelorarbeit befasst sich mit diesen gegensätzlichen Eigenschaften der Messdaten. Zentrale Fragestellung ist, wie weit man die Daten verschleiern kann und trotzdem gute Forecast-Ergebnisse bekommt.

Freitag, 29. Juni 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Robert Hochweiß
Titel Analyse und Korrektur von Disfluenzen in gesprochener Sprache
Vortragstyp Bachelorarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Bei Disfluenzen handelt es sich um Unterbrechungen des normalen Sprechflusses, die durch Fehler, Wortwiederholungen, Füllwörter oder ähnliche andere Wörter entstanden sind. Sie sind ein wesentlicher Bestandteil von spontan gesprochenen Äußerungen. Sie erschweren jedoch eine nachfolgende Bearbeitung dieser Äußerungen und müssen daher korrigiert werden.

Eine automatisierte Korrektur erweist sich aufgrund des unregelmäßigen Aufbaus der Disfluenzen als schwierig. Deshalb wird in dieser Bachelorarbeit die Erkennung und Korrektur von Disfluenzen in natürlichsprachlichen Äußerungen untersucht. Hierzu wird mit Hilfe eines maschinellen Lernverfahrens ein Klassifikator entwickelt, der Disfluenzen erkennt und korrigiert. Der Klassifikator wird dabei als Agent für die Rahmenarchitektur PARSE umgesetzt. Die Funktionalität des entworfenen Werkzeugs wird anhand von händischen Transkriptionen sowie einem Testdatensatz des Switchboard-Korpus evaluiert. Auf diesen beiden Datensätzen wird entsprechend ein F1-Wert von 0,710 beziehungsweise 0,792 erreicht.

Freitag, 6. Juli 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Dominik Klooz
Titel Semi-automatic Consistency Preservation of Models
Vortragstyp Bachelorarbeit
Betreuer(in) Heiko Klare
Vortragsmodus
Kurzfassung In order to manage the high complexity of developing software systems, oftentimes several models are employed describing different aspects of the system under development. Models often contain redundant or dependent information, meaning changes to one model without adjustments to others representing the same concepts lead to inconsistencies, which need to be repaired automatically. Otherwise, developers would have to know all dependencies to preserve consistency by hand.

For automated consistency preservation, model transformations can be used to specify how elements from one model correspond to those of another and define consistency preservation operations to fix inconsistencies. In this specification, it is not always possible to determine one generally correct way of preserving consistency without insight into the intentions of the developer responsible for making the changes. To be able to factor in underlying intentions, user interactions used to clarify the course of consistency preservation in ambiguous cases are needed. Existing approaches either do not consider user interactions during consistency preservation or provide an unstructured set of interaction options. In this thesis, we therefore identify a structured classification of user interaction types to employ during consistency preservation. By applying those types in preexisting case studies for consistency preservation between models in different application domains, we were able to show the applicability of these types in terms of completeness and appropriateness.

Furthermore, software projects are rarely developed by a single person, meaning that multiple developers may work on the same models in different development branches and combine their work at some point using a merge operation. One reasonable option to merge different development branches of models is to track model changes and merge the change sequences by applying one after another. Since the model state changed due to changes made in the one branch, the changes in the other branch can potentially lead to different user decisions being necessary for consistency preservation. Nevertheless, most necessary decisions will be the same, which is why it would be useful to reuse the previously applied choices if possible. To achieve this, we provide a concept for storing and reapplying decisions during consistency preservation in this thesis. Thus, we establish which information is necessary and reasonable to represent a user interaction and allow for its correct reuse. By applying the reuse mechanism to a change scenario with several user interactions in one of the case studies mentioned above, we were able to show the feasibility of our overall concept for correctly reusing changes.

Vortragende(r) Maximilian Schecher
Titel Using Architectural Design Space Exploration to Quantify Cost-to-Quality Relationship
Vortragstyp Bachelorarbeit
Betreuer(in) Anne Koziolek
Vortragsmodus
Kurzfassung QUPER ist eine Methode um bei einer Release-Plannung, bei der eine bestimmte Qualitätsanforderung zentral ist, das Fällen von Entscheidungen einfacher zu machen. Die Methode ist genau dann äußerst hilfreich, wenn das Softwareprojekt mehrere konkurrierende Produkte auf dem Markt hat und eine bestimmte Qualitätsanforderung den Wert der Software für den Kunden stark beeinflusst. QUPER benötigt allerdings Schätzungen des Entwicklungsteams und ist somit stark von der Erfahrung dessen abhängig. Das Palladio Component Model in Kombination mit PerOpteryx können dabei helfen, diese groben Schätzungen durch genauere Information für ein kommendes Release zu ersetzen: Mit einem gegebenen Palladio-Modell und einer potentiellen Verbesserung für die Software kann uns PerOpteryx die genaue Verbesserung der Qualitätsanforderung geben. In dieser Arbeit werden zuerst die QUPER-Methode allein und dann QUPER mit Hilfe von PerOpteryx auf zwei exemplarische Softwareprojekte angewandt und die Ergebnisse verglichen.

Freitag, 13. Juli 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Alexander Dick
Titel User-centric Outlier Detection on Energy Data
Vortragstyp Proposal
Betreuer(in) Holger Trittenbach
Vortragsmodus
Kurzfassung Am Campus Nord messen Smart Meter in einer Forschungsfabrik alle 5 Sekunden den Stromverbrauch und weitere elektrische Messgrößen wie z.B. die elektrische Spannung. In meiner Arbeit geht es darum, ein interaktives System zur Erkennung von Auffälligkeiten in den daraus resultierenden Zeitreihen zu erstellen. Zudem soll ein Fachexperte zu einem Teil der Datenpunkte Feedback geben und so die Verwendung von semiüberwachten Lernverfahren ermöglichen. Allerdings sind aktuelle Lernverfahren, die den Nutzer in die Ausreißererkennung einbinden, nicht für Zeitreihen ausgelegt.

Das Ziel der Arbeit ist die Anpassung von bestehenden interaktiven Lernverfahren auf Zeitreihen und die anschließende Evaluierung dieser Verfahren mit Fachexperten. Im Rahmen dieser Arbeit werden dafür zunächst die Zeitreihen auf statische Features abgebildet. Im Anschluss werden anhand eines Prototypen verschiedene interaktive Lernstrategien mit einem Nutzer evaluiert.

Freitag, 20. Juli 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 27. Juli 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 17. August 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Xinxin Yang
Titel Vorhersage und Optimierung von Konzernsteuerquoten auf Basis der SEC-Edgar-Datenbank
Vortragstyp Masterarbeit
Betreuer(in) Mathias Landhäußer
Vortragsmodus
Kurzfassung Ziel der vorliegenden Arbeit ist die Konzernsteuerquoten (effecktive tax rate, oder ETR) vorherzusagen durch die Prognosemodelle in Data-Mining. Durch die Analyse und Vergleich von ETR kann die Wettbewerbsfähigkeit verbessert werden und spielt somit eine große Rolle in der Konzernplanung in kommenden Jahren.

Voraussetzung ist eine verlässliche Grundlage von Beispieldaten aus der realen Steuerungskennzahl (key performance indicator, oder KPI) eines Jahresabschlussberichtes, um ein erfolgreiches Training der Modelle zu ermöglichen. Eine solche Datengrundlage bietet die SEC-Edgar-Datenbank. Ab dem Jahr 1994 uber die Edgar-Datenbank (Electronic Data Gathering, Analysis, and Retrieval) sind alle Dokumente zugänglich. Eine SEC-Filling ist ein formales und standardisiertes Dokument, welches amerikanische Unternehmen seit dem Securities Exchange Act von 1934 bei der SEC einreichen mussen. Laut dem Steuerexperte werden die KPIs durch Python-Skript in der uber mehrerer Jahre (2012-2016) hinweg extrahiert. Wegen der fehlenden Kenntnisse von der Hochladen des Unternehmen sind die 10-K Reporte sehr dunn (mehr als 60% Daten sind fehlende). Zufällige dunne Besetzung (random sparsity) entsteht bei nicht regelmäßiger bzw. schwer vorhersehbarer Belegung.

Ein bewährter Ansatz fur die fehlende Werte ist Online Spärlichkeit Lineare Regression (OSLR). OSLR stellt einerseits eine Art der Ausfullen der fehlenden Werte dar und dienen andererseits der Beseitigung der Datenqualitätsmängel.

Die Untersuchung der Anwendbarkeit Multipler lineare Regression, der Zeitreihenanalyse (ARIMA) und kunstlicher neuronaler Netze (KNN) im Bereich der Finanzberichterstattung. Es wird dabei die ETR berucksichtigt. Danach werden diese Methode aus den Bereich Data-Mining verwendet, um die ETR aus Steuerungsgröße vorherzusagen.

Freitag, 31. August 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Yves Schneider
Titel Parametrisierung der Spezifikation von Qualitätsannotationen in Software-Architekturmodellen
Vortragstyp Masterarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung Qualitätseigenschaften von komponentenbasierten Software-Systemen hängen sowohl von den eingesetzten Komponenten, als auch von ihrem eingesetzten Kontext ab. Während die kontextabhängige Parametrisierung für einzelne Qualitätsanalysemodelle, wie z.B. Performance, bereits fundiert wissenschaftlich analysiert wurde, ist dies für andere Qualitätsattribute, insbesondere für qualitativ beschreibende Modelle, noch ungeklärt. Die vorgestellte Arbeit stellt die Qualitätseffekt-Spezifikation vor, die eine kontextabhängige Analyse und Transformation beliebiger Qualitätsattribute erlaubt. Der Ansatz enthält eine eigens entworfene domänenspezifischen Sprache zur Modellierung von Auswirkungen in Abhängigkeit des Kontextes und dazu entsprechende Transformation der Qualitätsannotationen.

Freitag, 7. September 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Maximilian Stemmer-Grabow
Titel Calibrating Performance Models for Particle Physics Workloads
Vortragstyp Bachelorarbeit
Betreuer(in) Anne Koziolek
Vortragsmodus
Kurzfassung Particle colliders are a primary method of conducting experiments in particle physics, as they allow to both create short-lived, high-energy particles and observe their properties. The world’s largest particle collider, the Large Hadron Collider (subsequently referred to as LHC), is operated by the European Organization for Nuclear Research (CERN) near Geneva. The operation of this kind of accelerator requires the storage and computationally intensive analysis of large amounts of data. The Worldwide LHC Computing Grid (WLCG), a global computing grid, is being run alongside the LHC to serve this purpose.

This Bachelor’s thesis aims to support the creation of an architecture model and simulation for parts of the WLCG infrastructure with the goal of accurately being able to simulate and predict changes in the infrastructure such as the replacement of the load balancing strategies used to distribute the workload between available nodes.

Montag, 17. September 2018

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 21. September 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Frederik Beiche
Titel Modularization approaches in the context of monolithic simulations
Vortragstyp Masterarbeit
Betreuer(in) Sandro Koch
Vortragsmodus
Kurzfassung Quality characteristics of a software system such as performance or reliability can determine

its success or failure. In traditional software engineering, these characteristics can only be determined when parts of the system are already implemented and past the design process. Computer simulations allow to determine estimations of quality characteristics of software systems already during the design process. Simulations are build to analyse certain aspects of systems. The representation of the system is specialised for the specific analysis. This specialisation often results in a monolithic design of the simulation. Monolithic structures, however, can induce reduced maintainability of the simulation and decreased understandability and reusability of the representations of the system. The drawbacks of monolithic structures can be encountered by the concept of modularisation, where one problem is divided into several smaller sub-problems. This approach allows an easier understanding and handling of the sub-problems. In this thesis an approach is provided to describe the coupling of newly developed and already existing simulations to a modular simulation. This approach consists of a Domain-Specific Language (DSL) developed with model-driven technologies. The DSL is applied in a case-study to describe the coupling of two simulations. The coupling of these simulations with an existing coupling approach is implemented according to the created description. An evaluation of the DSL is conducted regarding its completeness to describe the coupling of several simulations to a modular simulation. Additionally, the modular simulation is examined regarding the accuracy of preserving the behaviour of the monolithic simulation. The results of the modular simulation and the monolithic version are compared for this purpose. The created modular simulation is additionally evaluated in regard to its scalability by analysis of the execution times when multiple simulations are coupled. Furthermore, the effect of the modularisation on the simulation execution times is evaluated. The obtained evaluation results show that the DSL can describe the coupling of the two simulations used in the case-study. Furthermore, the results of the accuracy evaluation suggest that problems in the interaction of the simulations with the coupling approach exist. However, the results also show that the overall behaviour of the monolithic simulation is preserved in its modular version. The analysis of the execution times suggest, that the modular simulation experiences an increase in execution time compared to the monolithic version. Also, the results regarding the scalability show that the execution time of the modular simulation does not increase exponentially with the number of coupled simulations.

Freitag, 5. Oktober 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Timo Kegelmann
Titel A Parallelizing Compiler for Adaptive Auto-Tuning
Vortragstyp Masterarbeit
Betreuer(in) Philip Pfaffe
Vortragsmodus
Kurzfassung Parallelisierende Compiler und Auto-Tuner sind zwei der vielen Technologien, die Entwick-

lern das Schreiben von leistungsfähigen Anwendungen für moderne heterogene Systeme erleichtern können. In dieser Arbeit stellen wir einen parallelisierenden Compiler vor, der Parallelität in Programmen erkennen und parallelen Code für heterogene Systeme erzeu- gen kann. Außerdem verwendet der vorgestellte Compiler Auto-Tuning, um eine optimale Partitionierung der parallelisierten Codeabschnitte auf mehrere Plattformen zur Laufzeit zu finden, welche die Ausführungszeit minimiert. Anstatt jedoch die Parallelisierung ein- mal für jeden parallelen Abschnitt zu optimieren und die gefundenen Konfigurationen so lange zu behalten wie das Programm ausgeführt wird, sind Programme, die von unserem Compiler generiert wurden, in der Lage zwischen verschiedenen Anwendungskontexten zu unterscheiden, sodass Kontextänderungen erkannt und die aktuelle Konfiguration für je- den vorkommenden Kontext individuell angepasst werden kann. Zur Beschreibung von Kontexten verwenden wir sogenannte Indikatoren, die bestimmte Laufzeiteigenschaften des Codes ausdrücken und in den Programmcode eingefügt werden, damit sie bei der Aus- führung ausgewertet und vom Auto-Tuner verwendet werden können. Darüber hinaus speichern wir gefundene Konfigurationen und die zugehörigen Kontexte in einer Daten- bank, sodass wir Konfigurationen aus früheren Läufen wiederverwenden können, wenn die Anwendung erneut ausgeführt wird. Wir evaluieren unseren Ansatz mit der Polybench Benchmark-Sammlung. Die Ergeb- nisse zeigen, dass wir in der Lage sind, Kontextänderungen zur Laufzeit zu erkennen und die Konfiguration dem neuen Kontext entsprechend anzupassen, was im Allgemeinen zu niedrigeren Ausführungszeiten führt.

Freitag, 5. Oktober 2018

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Maximilian Peters
Titel Evaluation und Optimierung der Wartbarkeit von Software-Architekturen
Vortragstyp Bachelorarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung Kurzfassung
Vortragende(r) Julian Hinrichs
Titel Verification of Access Control Policies in Software Architectures
Vortragstyp Bachelorarbeit
Betreuer(in) Stephan Seifermann
Vortragsmodus
Kurzfassung Security in software systems becomes more important as systems becomes more complex and connected. Therefore, it is desirable to to conduct security analysis on an architectural level. A possible approach in this direction are data-based privacy analyses. Such approaches are evaluated on case studies. Most exemplary systems for case studies are developed specially for the approach under investigation. Therefore, it is not that simple to find a fitting a case study. The thesis introduces a method to create usable case studies for data-based privacy analyses. The method is applied to the Community Component Modeling Example (CoCoME). The evaluation is based on a GQM plan and shows that the method is applicable. Also it is shown that the created case study is able to check if illegal information flow is present in CoCoME. Additionally, it is shown that the provided meta model extension is able to express the case study.

Freitag, 12. Oktober 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Markus Raster
Titel Informationsbedürfnisse zur Untersuchung der Begriffsgeschichte
Vortragstyp Proposal
Betreuer(in) Jens Willkomm
Vortragsmodus
Kurzfassung Die Begriffsgeschichte, als Konzept geschichtswissenschaftlicher Forschung, befasst sich mit der historischen Entwicklung der Semantik einzelner Begriffe. Hierbei bildet oft Wortursprung, Sprachgebrauch sowie Verbreitung Gegenstand wissenschaftlicher Untersuchungen.

Die Bachelorarbeit setzt sich mit der Kombination von Informationstechnologien, in Form von Datenbanken, mit der Forschungsarbeit der Historiker auseinander. Ziel ist es Einflussfaktoren auf die Semantik von Wörtern zu identifizieren. Dabei liegt der Fokus auf einer vollständigen Abdeckung des Themenbereiches, sowie auf einer Strukturierung der einzelnen Informationsbedürfnisse.

Im Anschluss der Identifikation der Informationsbedürfnisse sollen einzelne Datenbankanfragen/Queries formuliert werden, die es ermöglichen sollen die entsprechenden Semantischen Entwicklungen der Wörter darzustellen, sowie deren Untersuchung zu vereinfachen.

Vortragende(r) Marco Sturm
Titel On the Interpretability of Anomaly Detection via Neural Networks
Vortragstyp Masterarbeit
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung Verifying anomaly detection results when working in on an unsupervised use case is challenging. For large datasets a manual labelling is economical unfeasible. In this thesis we create explanations to help verifying and understanding the detected anomalies. We develop a method to rule generation algorithm that describe frequent patterns in the output of autoencoders. The number of rules is significantly lower than the number of anomalies. Thus, finding explanations for these rules is much less effort compared to finding explanations for every single anomaly. Its performance is evaluated on a real-world use case, where we achieve a significant reduction of effort required for domain experts to understand the detected anomalies but can not specify the usefulness in exact numbers due to the missing labels. Therefore, we also evaluate the approach on benchmark dataset.
Vortragende(r) Daniel Hamann
Titel Vollständigkeits- und Semantikprüfung für gesprochene Aussagen
Vortragstyp Bachelorarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Diese Arbeit betrachtet das Problem von unvollständigen Aussagen in natürlicher Sprache. Solche Aussagen enthalten nicht explizit alle Informationen, die für die vollständige Umsetzung einer Handlung benötigt werden.

Menschen fällt es leicht, aus solchen Aussagen wieder einen Sinn zu extrahieren, indem sie sich auf ihr gelerntes Wissen beziehen. Für Sprachverarbeitungssysteme ist dieser Schritt jedoch nicht so einfach nachvollziehbar. Um diesen Prozess greifbar zu machen wird ein Ansatz entwickelt, der solchen Systemen menschliches, implizites, Wissen verfügbar macht. Damit wird eine durch Wissen begründete Entscheidung über die Vollständigkeit von Aussagen gemacht. Im Weiteren werden durch den Ansatz Kandidaten generiert, welche für die fehlenden Rollen infrage kommen könnten. Diese werden mithilfe von Wissen über die Welt bezüglich ihrer Eignung für die Rolle bewertet und die Aussage somit wieder vervollständigt. Um die Funktion des implementierten PARSE-Agenten zu prüfen wurde eine Evaluation der Ergebnisse im Vergleich zu einer händisch erstellten Lösung durchgeführt. Fehlende Rollen konnten mit einer Präzision von 51% bestimmt werden und eine Vervollständigung war in 25% (Im Falle des Subjektes sogar 100%) der Fälle korrekt möglich.

Freitag, 19. Oktober 2018

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Fabian Scheytt
Titel Konzepte für kontrollfluss- und modellbasierte Sicherheitsanalyse eines Industrie-4.0-Systems
Vortragstyp Bachelorarbeit
Betreuer(in) Emre Taşpolatoğlu
Vortragsmodus
Kurzfassung Durch die voranschreitende Vernetzung und Digitalisierung vergrößert sich die Angriffsfläche von Industrieanlagen drastisch. Umso wichtiger wird es beim Entwurf von Industrie 4.0 Anlagen, so früh wie möglich eine Betrachtung der Sicherheitsaspekte vorzunehmen. Die Durchführung von Sicherheitsanalysen zur Entwurfszeit sind jedoch Aufwändig und müssen immer händisch von einem Sicherheitsexperten durchgeführt werden. Obwohl bereits Lösungsansätze zur modellbasierten Unterstützung von Sicherheitsanalysen existieren, sind diese nicht auf den Kontext der Industrie 4.0 zugeschnitten. In dieser Bachelorarbeit werden zwei Konzepte für eine modellbasierte Unterstützung von Sicherheitsanalysen im frühen Entwurf von Industrie 4.0 Anlagen vorgestellt. Dabei werden die Sicherheitsanforderungen von Datenflüssen über die gesamte Anlage hinweg betrachtet und weiterhin eine kontextbasierte Sicherheitsanalyse zur Unterstützung vorgeschlagen.
Vortragende(r) Eric Klappert
Titel Microgrid-Topologien für Smart Grids
Vortragstyp Bachelorarbeit
Betreuer(in) Maximilian Walter
Vortragsmodus
Kurzfassung In Zeiten des Umstiegs auf erneuerbare Energien und dem Einsatz von Smart Metern zum Messen und Steuern des Netzes stellen sich neue Herausforderungen für die Stromversorgung. Um die Kommunikation des Smart Grids zu ermöglichen wird vorgeschlagen das Netzwerk in Microgrids zu unterteilen. Dazu wird eine sinnvolle Aufteilung und eine robuste Kommunikationstopologie benötigt. In dieser Arbeit werden die Anforderungen einer solchen Aufteilung und Topologie erarbeitet und verschiedene Lösungsansätze vorgeschlagen und verglichen. Basierend auf den Ergebnissen wird ein anpassungsfähiger Algorithmus entworfen, der ein Stromnetz in mehrere Microgrids zerlegt und eine Kommunikationstopologie erzeugt.
Vortragende(r) Maximilian Eckert
Titel Modellierung geschachtelter Freiheitsgrade zur automatischen Evaluation von Software-Architekturen
Vortragstyp Masterarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung In der modernen Software-Entwicklung wird eine Vielzahl von Subsystemen von Drittanbietern wiederverwendet, deren Realisierungen und Varianten jeweils einen dedizierten Einfluss auf die Qualitätseigenschaften des Gesamtsystems implizieren. Doch nicht nur die Realisierung und Variante eines Subsystems, sondern auch die Platzierung in der Zielarchitektur haben einen Einfluss auf die resultierende Qualität.

In dieser Arbeit wird der bestehende Ansatz zur Modellierung und Simulation von wiederverwendbaren Subsystemen in Palladio bzw. PerOpteryx um einen neuen Inklusionsmechanismus erweitert, der eine flexible, feingranulare Modellierung und anschließende automatisierte Qualitätsoptimierung der Platzierung von wiederverwendbaren Subsystemen ermöglicht. Dazu wird eine domänenspezifische Sprache definiert, die eine deklarativen Beschreibung der Einwebepunkte in einem Architekturmodell durch aspektorientierte Semantiken erlaubt. Mithilfe eines Modellwebers werden die wiederverwendbaren Subsysteme in eine annotierte Zielarchitektur eingewebt. Schließlich wird der Ansatz in die automatisierte Qualitätsoptimierung von PerOpteryx integriert, sodass der Architekt bei seinen Entwurfsentscheidungen bezüglich dieser Freiheitsgrade unterstützt wird. Das vorgestellte Verfahren wurde durch eine simulationsbasierte Fallstudie anhand von realen Applikationsmodellen evaluiert. Es hat sich gezeigt, dass der Ansatz geeignet ist, um eine Vielzahl von Architekturkandidaten automatisiert generieren bzw. evaluieren und somit einen Architekten bei seinen Entwurfsentscheidungen unterstützen zu können.