Semantische Suche

Freitag, 28. Juni 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 5. Juli 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Klaus Bertsch
Titel Praktikumsbericht: Toolentwicklung zur Bearbeitung und Analyse von High-Speed-Videoaufnahmen
Vortragstyp Vortrag
Betreuer(in) Anne Koziolek
Vortragsmodus
Kurzfassung Während des Praktikums bestand mein Aufgabengebiet im Rahmen der Weiterentwicklung einer vollumfangreichen Softwareumgebung zur Videobearbeitung und Synchronisation von Motordaten daraus, mich in die Softwareumgebung MATLAB einzuarbeiten und mich daraufhin mit der vorhandenen Software vertraut zu machen, um diese dann in vielerlei Hinsicht aufzufrischen und um neue Funktionen zu erweitern.
Vortragende(r) Vanessa Steurer
Titel Synthese von Methodendefinitionen aus natürlichsprachlichen Äußerungen
Vortragstyp Masterarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Das Lehren neuen Wissens erfolgt beim Menschen schon von Kindesalter an durch Erklärungen in gesprochener Sprache.

Bei computerbasierten Systemen hingegen wird diese Wissensvermittlung bisher durch die Definition von Konzepten und Prozeduren in einer spezifischen Programmiersprache realisiert. Für die Programmierung in natürlicher Sprache wird im Rahmen des PARSE-Projektes ein Ansatz zur Synthese von Methodendefinitionen aus natürlichsprachlichen Äußerungen vorgestellt. Dieser Ansatz ermöglicht es, natürlichsprachlich formulierte Funktionserweiterungen in ein Zielsystem zu integrieren. Um die dabei auftretende Vielfalt der Nutzerformulierungen behandeln zu können, werden verschiedene neuronale Netze trainiert. Diese Netze klassifizieren die Nutzereingabe hinsichtlich ihrer Intention und extrahieren verschiedene inhaltliche Bestandteile der beschriebenen, neuen Zielsystem-Funktionalität. Anschließend werden diese Bestandteile auf die Programmschnittstelle des Zielsystems abgebildet. Dazu werden verschiedene Sprachverarbeitungswerkzeuge sowie Kontext-Wissen und Synonyme eingesetzt. Für die Abbildung der Bestandteile auf bestehende Zielsystem-Funktionsaufrufe wird ein F1-Wert von bis zu 90.9% erreicht. Die korrekte Abbildung vollständiger Funktionen inklusive aller benötigten Parameter erzielt ein F1-Wert von bis zu 69.4%. Auch die Synthese eines aussagekräftigen Namens für diese neu definierte Funktionalität wird mit 90.4% Genauigkeit umgesetzt. Zusätzlich dazu ist das entwickelte Werkzeug in der Lage, neben den Definitionen neuen Wissens auch diktierte Anweisungsfolgen des Nutzers auf Skripte bestehend aus Zielsystem-Bibliotheksaufrufen abzubilden. Abschließend wurde festgestellt, dass in den meisten Fällen ein fehlendes Verständnis der Semantik einer Nutzereingabe zu Fehlern führt. Dieses Verständnis könnte zukünftig ausgebaut werden.

Vortragende(r) Jan Droll
Titel Vorstellungstermin Berufspraktikum Jan Droll
Vortragstyp Vortrag
Betreuer(in) Anne Koziolek
Vortragsmodus
Kurzfassung Das Praktikum findet im Bereich Softwareentwicklung statt. Der Fokus liegt in der Entwicklung von Blockchainanwendungen und dem damit verbundenen Wissensaufbau. Die betreuende Firma ist ETECTURE GmbH (https://www.etecture.de/), ein reines Softwaredienstleistungsunternehmen mit Hauptsitz in Frankfurt am Main und Niederlassungen in Düsseldorf und Karlsruhe.

Freitag, 12. Juli 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Noureddine Dahmane
Titel Adaptive Monitoring for Continuous Performance Model Integration
Vortragstyp Masterarbeit
Betreuer(in) Manar Mazkatli
Vortragsmodus
Kurzfassung Performance Models (PMs) can be used to predict software performance and evaluate the alternatives at the design stage. Building such models manually is a time consuming and not suitable for agile development process where quick releases have to be generated in short cycles. To benefit from model-based performance prediction during agile software development the developers tend to extract PMs automatically. Existing approaches that extract PMs based on reverse-engineering and/or measurement techniques require to monitor and analyze the whole system after each iteration, which will cause a high monitoring overhead.

The Continuous Integration of Performance Models (CIPM) approach address this problem by updating the PMs and calibrate it incrementally based on the adaptive monitoring of the changed parts of the code.

In this work, we introduced an adaptive monitoring approach for performance model integration, which instruments automatically only the changed parts of the source code using specific pre-defined probes types. Then it monitors the system adaptively. The resulting measurements are used by CIPM to estimate PM parameters incrementally.

The evaluation confirmed that our approach can reduce the monitoring overhead to 50%.

Freitag, 19. Juli 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Yimin Zhang
Titel Interactive Visualization of Correlations in High-Dimensional Streams
Vortragstyp Bachelorarbeit
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung Correlation analysis aims at discovering and summarizing the relationship between the attributes of a data set. For example, in financial markets, the price of stocks evolves over time. Via a careful estimation of the relationship between stocks, one can try to predict which stock to buy or sell to maximize the wealth of a portfolio.

The standard tool of correlation analysis is the computation of a correlation matrix. However, in the case of streams with many dimensions, it is difficult to extract actionable insights from the correlation matrix, as the number of pairs of attributes increases quadratically and the coefficients evolve over time in unforeseen ways. Thus, novel visualization methods are required.

In this thesis, we will investigate how to visualize the evolution of correlation in high-dimensional data streams in an intuitive way. We will, for example, discuss visualization methods based on force-directed graphs. Also, we will develop a web interface to visualize the correlation structure of data streams and evaluate it systematically via user studies.

Freitag, 26. Juli 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 2. August 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 9. August 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Andreas Foitzik
Titel Enhancing Non-Invasive Human Activity Recognition by Fusioning Electrical Load and Vibrational Measurements
Vortragstyp Masterarbeit
Betreuer(in) Klemens Böhm
Vortragsmodus
Kurzfassung Professional installation of stationary sensors burdens the adoption of Activity Recognition Systems in households. This can be circumvented by utilizing sensors that are cheap, easy to set up and adaptable to a variety of homes. Since 72% of European consumers will have Smart Meters by 2020, it provides an omnipresent basis for Activity Recognition.

This thesis investigates, how a Smart Meter’s limited recognition of appliance involving activities can be extended by Vibration Sensors. We provide an experimental setup to aggregate a dedicated dataset with a sampling frequency of 25,600 Hz. We evaluate the impact of combining a Smart Meter and Vibration Sensors on a system’s accuracy, by means of four developed Activity Recognition Systems. This results in the quantification of the impact. We found out that through combining these sensors, the accuracy of an Activity Recognition System rather strives towards the highest accuracy of a single underlying sensor, than jointly surpassing it.

Freitag, 16. August 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Huijie Wang
Titel Predictability of Classfication Performance Measures with Meta-Learning
Vortragstyp Bachelorarbeit
Betreuer(in) Jakob Bach
Vortragsmodus
Kurzfassung Choosing a suitable classifier for a given dataset is an important part in the process of solving a classification problem. Meta-learning, which learns about the learning algorithms themselves, can predict the performance of a classifier without training it. The effect of different types of performance measures remains unclear, as it is hard to draw a comparison between results of existing works, which are based on different meta-datasets as well as meta-models. In this thesis, we study the predictability of different classification performance measures with meta-learning, also we compare the performances of meta-learning using different meta-regression models. We conduct experiments with meta-datasets from previous studies considering 11 meta-targets and 6 meta-models. Additionally, we study the relation between different groups of meta-features and the performance of meta-learning. Results of our experiments show that meta-targets have similar predictability and the choice of meta-model has a big impact on the performance of meta-learning.

Freitag, 23. August 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 30. August 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Albu Dumitru-Cristian
Titel Implementation and Evaluation of CHQL Operators in Relational Database Systems to Query Large Temporal Text Corpora
Vortragstyp Bachelorarbeit
Betreuer(in) Jens Willkomm
Vortragsmodus
Kurzfassung Relational database management systems have an important place in the informational revolution. Their release on the market facilitates the storing and analysis of data. In the last years, with the release of large temporal text corpora, it was proven that domain experts in conceptual history could also benefit from the performance of relational databases. Since the relational algebra behind them lacks special functionality for this case, the Conceptual History Query Language (CHQL) was developed. The first result of this thesis is an original implementation of the CHQL operators in a relational database, which is written in both SQL and its procedural extension. Secondly, we improved substantially the performance with the trigram indexes. Lastly, the query plan analysis reveals the problem behind the query optimizers choice of inefficient plans, that is the inability of predicting correctly the results from a stored function.

Freitag, 6. September 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Johannes Grün
Titel Development of an Approach to Describe and Compare Simulators
Vortragstyp Masterarbeit
Betreuer(in) Sandro Koch
Vortragsmodus
Kurzfassung Ziel der Arbeit ist die Beschreibung von Simulatoren und deren Vergleich.

Damit Simulatoren beschrieben werden können ist es notwendig die Elemente zu identifizieren, die in Summ eine vollständige Beschreibung eines Simulators ermöglicht. Basierend auf der Beschreibung werden dann Vergleichsmöglichkeiten entwickelt, sodass beschriebene Simulatoren miteinander Verglichen werden können. Der Vergleich dient der Ermittlung der Ähnlichkeit von Simulatoren. Da die Ähnlichkeit zwischen Simulatoren nicht allgemeingültig definierbar ist, ist auch Teil der Arbeit diese Ähnlichkeitsmaße zu definieren und zu beschreiben. Im Fokus dieser Arbeit sind diskrete ereignisorientierte Simulatoren. Das übergeordnete Ziel ist das wiederfinden von Simulatoren in bereits bestehenden Simulationen um die Wiederverwendung zu ermöglichen. Daher ist das Ziel die Vergleichsmöglichkeiten dahingehend zu entwickeln, dass auch Teile von Simulationen wiedergefunden werden können. Das entwickelte Tool DesComp implementiert sowohl die Möglichkeit der Beschreibung als auch die notwendigen Verfahren für den Vergleich von Simulatoren. Für die Evaluation der Eignung der entwickelten Verfahren wird eine Fallstudie anhand des Simulators EventSim durchgeführt.

Vortragende(r) Florian Fei
Titel Instrumentation with Runtime Monitors for Extraction of Performance Models during Software Evolution
Vortragstyp Bachelorarbeit
Betreuer(in) Emre Taşpolatoğlu
Vortragsmodus
Kurzfassung In recent times, companies are increasingly looking to migrate their legacy software system to a microservice architecture. This large-scale refactor is often motivated by concerns over high levels of interdependency, developer productivity problems and unknown boundaries for functionality. However, modernizing legacy software systems has proven to be a difficult and complex process to execute properly. This thesis intends to provide a mean of decision support for this migration process in the form of an accurate and meaningful performance monitoring instrumentation and a performance model of said system. It specifically presents an instrumentation concept that incurs minimal performance overhead and is generally compatible with legacy systems implemented using object-oriented programming paradigms. In addition, the concept illustrates the extraction of performance model specifics with the monitoring data. This concept was developed on an enterprise legacy system provided by Capgemini. This concept was then implemented on this system. A subsequent case study was conducted to evaluate the quality of the concept.

Freitag, 13. September 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 20. September 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 27. September 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 11. Oktober 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Zdravko Marinov
Titel On the semantics of similarity in deep trajectory representations
Vortragstyp Bachelorarbeit
Betreuer(in) Saeed Taghizadeh
Vortragsmodus
Kurzfassung Recently, a deep learning model (t2vec) for trajectory similarity computation has been proposed. Instead of using the trajectories, it uses their deep representations to compute the similarity between them. At this current state, we do not have a clear idea how to interpret the t2vec similarity values, nor what they are exactly based on. This thesis addresses these two issues by analyzing t2vec on its own and then systematically comparing it to the the more familiar traditional models.

Firstly, we examine how the model’s parameters influence the probability distribution (PDF) of the t2vec similarity values. For this purpose, we conduct experiments with various parameter settings and inspect the abstract shape and statistical properties of their PDF. Secondly, we consider that we already have an intuitive understanding of the classical models, such as Dynamic Time Warping (DTW) and Longest Common Subsequence (LCSS). Therefore, we use this intuition to analyze t2vec by systematically comparing it to DTW and LCSS with the help of heat maps.

Freitag, 18. Oktober 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Stefan Elbert
Titel Combination of Model-Based Systems Engineering and Safety Engineering
Vortragstyp Masterarbeit
Betreuer(in) Nico Kopp
Vortragsmodus
Kurzfassung An der Entwicklung komplexer Systeme sind viele Teams aus verschiedenen Disziplinen vertreten. So sind zum Beispiel an der Entwicklung einer sicherheitskritischen Systemarchitektur mindestens ein Systemarchitekt als auch ein Sicherheitsexperte beteiligt. Die Aufgabe des ersteren ist es, eine Systemarchitektur zu entwickeln, welche alle funktionalen und nicht-funktionalen Anforderungen erfüllt. Der Sicherheitsexperte analysiert diese Architektur und trägt so zum Nachweis bei, dass das System die geforderten Sicherheitsanforderungen erfüllt. Sicherheit steht hierbei für die Gefahrlosigkeit des Nutzers und der Umwelt durch das System (Safety).

Um ihr Ziel zu erreichen, folgen sowohl der Systemarchitekt als auch der Sicherheitsexperte einem eigenen Vorgehensmodell. Aufgrund fehlender Interaktionspunkte müssen beide unabhängig voneinander und unkoordiniert durchgeführt werden. Dies kann zu Inkonsistenzen zwischen Architektur- und Sicherheitsartefakten führen und zusätzlichen Aufwand verursachen, was sich wiederum negativ auf die Entwicklungszeit und Qualität auswirkt. In dieser Arbeit kombinieren wir zwei ausgewählte Vorgehensmodelle zu einem neuen, einzelnen Vorgehensmodell. Die Kombination erfolgt auf Basis des identifizierten Informationsflusses innerhalb und zwischen den ursprünglichen zwei Vorgehensmodellen. Durch die Kombination werden die Vorteile beider Ansätze übernommen und die zuvor genannten Probleme angegangen. Bei den zwei ausgewählten Vorgehensmodellen handelt es sich um den Harmony-Ansatz von IBM und die ISO-Norm 26262. Ersterer erlaubt es eine Systemarchitektur systematisch und modellbasiert mit SysML zu entwickeln, während die ISO-Norm dem Sicherheitsexperten bei seiner Arbeit bezüglich der funktionalen Sicherheit in Straßenfahrzeugen unterstützt. Die Evaluation unseres Ansatzes zeigt dessen Anwendbarkeit im Rahmen einer realen Fallstudie. Außerdem werden dessen Vorteile bezüglich Konsistenz zwischen Architektur- und Sicherheitsartefakten und Durchführungszeit diskutiert, basierend auf einem Vergleich mit ähnlichen Ansätzen.

Vortragende(r) Roland Osterrieter
Titel Integration of Reactions and Mappings in Vitruvius
Vortragstyp Masterarbeit
Betreuer(in) Heiko Klare
Vortragsmodus
Kurzfassung Realizing complex software projects is often done by utilizing multiple programming or modelling languages. Separate parts of the software are relevant to certain development tasks or roles and differ in their representation. These separate representations are related and contain redundant information. Such redundancies exist for example with an implementation class for a component description, which has to implement methods with signatures as specified by the component. Whenever redundant information is affected in a development update, other representations that contain redundant information have to be updated as well. This additional development effort is required to keep the redundant information consistent and can be costly.

Consistency preservation languages can be used to describe how consistency of representations can be preserved, so that in use with further development tools the process of updating redundant information is automated. However, such languages vary in their abstraction level and expressiveness. Consistency preservation languages with higher abstraction specify what elements of representations are considered consistent in a declarative manner. A language with less abstraction concerns how consistency is preserved after an update using imperative instructions. A common trade-off in the decision for selecting a fitting language is between expressiveness and abstraction. Higher abstraction on the one hand implies less specification effort, on the other hand it is restricted in expressiveness compared to a more specific language.

In this thesis we present a concept for combining two consistency specification languages of different abstraction levels. Imperative constructs of a less abstract language are derived from declarative consistency expressions of a language of higher abstraction and combined with additional imperative constructs integrated into the combined language. The combined language grants the benefits of the more abstract language and enables realizing parts of the specification without being restricted in expressiveness. As a consequence a developer profits from the advantages of both languages, as previously a specification that can not be completely expressed with the more abstract language has to be realized entirely with the less abstract language.

We realize the concepts by combining the Reactions and Mappings language of the VITRUVIUS project. The imperative Reactions language enables developers to specify triggers for certain model changes and repair logic. As a more abstract language, Mappings specify consistency with a declarative description between elements of two representations and what conditions for the specific elements have to apply. We research the limits of expressiveness of the declarative description and depict, how scenarios are supported that require complex consistency specifications. An evaluation with a case study shows the applicability of the approach, because an existing project, prior using the Reactions language, can be realized with the combination concept. Furthermore, the compactness of the preservation specification is increased.

Freitag, 18. Oktober 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 301 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Stefanie Fischer
Titel Challenges for Service Integration into Third-Party Application
Vortragstyp Bachelorarbeit
Betreuer(in) Robert Heinrich
Vortragsmodus
Kurzfassung Im Laufe der Zeit hat sich die Softwareentwicklung von der Entwicklung von Komplett-systemen zur Entwicklung von Software Komponenten, die in andere Applikation inte-

griert werden können,verändert.Bei Software Komponenten handelt es sich um Services, die eine andere Applikation erweitern.Die Applikation wird dabeivonDritten entwickelt. In dieser Bachelorthesis werden die Probleme betrachtet, die bei der Integration von Ser- vices auftreten. Mit einer Umfrage wird das Entwicklungsteam von LogMeIn, welches für die Integration von Services zuständig ist, befragt. Aus deren Erfahrungen werden Probleme ausfndig gemacht und Lösungen dafür entwickelt. Die Probleme und Lösungen werden herausgearbeitet und an hand eines fort laufenden Beispiels, des GoToMeeting Add-ons für den Google Kalender,veranschaulicht.Für die Evaluation wird eine Fallstudie durchgeführt, in der eine GoToMeeting Integration für Slack entwickelt wird. Während dieser Entwicklung treten nicht alle ausgearbeiteten Probleme auf. Jedoch können die Probleme, die auftreten mit den entwickelten Lösungen gelöst werden. Zusätzlich tritt ein neues Problem auf, für das eine neue Lösung entwickelt wird. Das Problem und die zugehörige Lösung werden anschließend zu dem bestehenden Set von Problemen und Lösungen hinzugefügt. Das Hinzufügen des gefundenen Problems ist ein perfektes Beispiel dafür, wie das Set in Zukunft bei neuen Problemen, erweitert werden kann.

Vortragende(r) Henning Ballweber
Titel Hierarchische Erklärung von Black-Box-Modellen zur Entscheidungsfindung in Sentimentanalysen
Vortragstyp Bachelorarbeit
Betreuer(in) Clemens Müssener
Vortragsmodus
Kurzfassung Diese Arbeit untersucht die Erklärbarkeit von Sentimentanalyse. Sentimentanalyse ist ein aktuelles Forschungsthema, das sich mit der automatisierten Auswertung der Stimmung von Texten befasst. Dabei klassifiziert ein Entscheider diese als positiv oder negativ. Jedoch sind die meisten hier angewandten Verfahren des maschinellen Lernens Black Boxes, also für Menschen nicht unmittelbar nachvollziehbar. Trotzdem ist es oftmals wünschenswert, ohne Kenntnis des zugrundeliegenden Modells eine Erklärung für die Entscheidung des Klassifikators zu liefern. Der LIME-Algorithmus ist ein gängiger Erklärer für das Problem, der jedoch nur auf Wortebene erklärt. Im Rahmen dieser Arbeit wurde ein Erklärer entwickelt, der auch die größeren Bausteine der Texthierarchie wie Sätze oder Absätze berücksichtigt. Dadurch liefert er einen höheren Informationsgehalt als LIME und er ermöglicht interaktive Erklärungen. Anwendungsfall der Untersuchung sind eine Datenbank aus Filmrezensionen sowie Klassifikatoren in Verbindung mit Word Embeddings.
Vortragende(r) Sebastian Weber
Titel Performanzmodellierung von Apache Cassandra im Palladio-Komponentenmodell
Vortragstyp Bachelorarbeit
Betreuer(in) Dominik Werle
Vortragsmodus
Kurzfassung NoSQL-Datenbankmanagementsysteme werden als Back-End für Software im Big-Data-Bereich verwendet, da sie im Vergleich zu relationalen Datenbankmanagementsystemen besser skalieren, kein festes Datenbankschema benötigen und in virtuellen Systemen einfach eingesetzt werden können. Apache Cassandra wurde aufgrund seiner Verbreitung und seiner Lizensierung als Open-Source-Projekt als Beispiel für NoSQL-Datenbankmanagementsysteme ausgewählt. Existierende Modelle von Apache Cassandra betrachten dabei nur die maximal mögliche Anzahl an Anfragen an Cassandra und deren Durchsatz und Latenz. Diese Anzahl zu reduzieren erhöht die Latenz der einzelnen Anfragen. Das in dieser Bachelorarbeit erstellte Modell soll unter anderem diesen Effekt abbilden.

Die Beiträge der Arbeit sind das Erstellen und Parametrisieren eines Modells von Cassandra im Palladio-Komponentenmodell und das Evaluieren des Modells anhand von Benchmarkergebnissen. Zudem wird für dieses Ziel eine Vorgehensweise entwickelt, die das Erheben der notwendigen Daten sowie deren Auswertung und Evaluierung strukturiert und soweit möglich automatisiert und vereinfacht. Die Evaluation des Modells erfolgt durch automatisierte Simulationen, deren Ergebnisse mit den Benchmarks verglichen werden. Dadurch konnte die Anwendbarkeit des Modells für einen Thread und eine beliebige Anzahl Anfragen bei gleichzeitiger Verwendung von einer oder mehreren verschiedenen Operationen, abgesehen von der Scan-Operation, gezeigt werden.

Freitag, 25. Oktober 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) J. Bernhard
Titel Analyse von Zeitreihen-Kompressionsmethoden am Beispiel von Google N-Grams
Vortragstyp Proposal
Betreuer(in) Martin Schäler
Vortragsmodus
Kurzfassung Temporal text corpora like the Google Ngram dataset usually incorporate a vast number of words and expressions, called ngrams, and their respective usage frequencies over the years. The large quantity of entries complicates working with the dataset, as transformations and queries are resource and time intensive. However, many use-cases do not require the whole corpus to have a sufficient dataset and achieve acceptable results. We propose various compression methods to reduce the absolute number of ngrams in the corpus. Additionally, we utilize time-series compression methods for quick estimations about the properties of ngram usage frequencies. As basis for our compression method design and experimental validation serve CHQL (Conceptual History Query Language) queries on the Google Ngram dataset. The goal is to find compression methods that reduce the complexity of queries on the corpus while still maintaining good results.
Vortragende(r) Felix Pieper
Titel Rahmenwerk zur Generierung von Sichten aus dem Palladio-Komponentenmodell
Vortragstyp Bachelorarbeit
Betreuer(in) Yves Kirschner
Vortragsmodus
Kurzfassung In Palladio werden die erstellten Modelle groß, weil die heutigen Softwaresysteme durch ihre Komplexität immer größer werden und nur noch mit der modellgetriebener Softwareentwicklung eine gute Architektur erstellt werden kann. Das Softwaresystem wird in mehrere Modelle aufgeteilt, damit sie unabhängig voneinander sind und ersetzt werden können. Dadurch werden die Modelle unübersichtlich, zum Beispiel müssen mehrere Modelle geöffnen werden, um einen Ablauf nachvollziehen zu können. In verteilten Modellen sind Abläufe aufwendiger zu verfolgen und das Modell schwerer zu verstehen. Aus diesem Grund wurde ein Werkzeug entwickelt, das Teile von Palladio als Sicht anzeigen kann.

Palladio ist ein Werkzeug zur modellbasierten Performance-Analyse. Die modellierten Softwaresysteme sind in vier Modelle aufgeteilt, so kann dieselbe Repository-Spezifikation mit verschiedenen System-Modellen oder Hardware-Konfigurationen simuliert werden. In Palladio ist es aufwendig den Ablauf eines Systemaufrufs in einem System zu finden. Durch die Unübersichtlichkeit werden die gefundenen Abläufe fehlerhaft und inkonsistent, was den Einstieg in die Software, das Warten und das Erweitern der Modelle erschwert. In dieser Bachelorarbeit wird im ersten Teil ein Rahmenwerk zum Erzeugen von Sichten vorgestellt. Diesem Rahmenwerk können neue Sichten hinzugefügt werden, die eine Hilfestellung beim Erstellen und Verstehen von Modellen geben. Mit Hilfe von Modelltransformationen erzeugt dieses Rahmenwerk neue Blickwinkel auf gesonderte Teile des Palladio-Komponentenmodells. Eine erste Sicht ist die Darstellung des Palladio-Komponentenmodells als ein Sequenzdiagramm, die im zweiten Teil der Bachelorarbeit vorgestellt wird. Die Diagramme wurden mit PlantUML erzeugt. Der PlantUML-Quelltext wird mit einer Model-zu-Text-Transformation generiert.

Durch das erstellte Rahmenwerk können neue Einblicke auf ein Palladio-Komponentenmodell gegeben werden. Neue Benutzer von Palladio müssen sich nicht durch Modelle arbeiten. Sie können mit dem Rahmenwerk Abläufe direkt erkennen. Die Entwickler von Palladio können eigene Sichten hinzufügen. Dadurch erweitert sich der Werkzeugkasten von Palladio und ermöglicht einen leichteren Einstieg in das Softwaresimulationsprogramm.

Freitag, 25. Oktober 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Thomas Weber
Titel Angreifer-Modellierung für Intelligente Stromnetze
Vortragstyp Bachelorarbeit
Betreuer(in) Maximilian Walter
Vortragsmodus
Kurzfassung Durch den Umstieg auf erneuerbare Energien und die damit einhergehende Dezentralisierung sowie die immer weiter fortschreitende Digitalisierung des Stromnetzes ergeben sich neue Herausforderungen für den Betrieb eines Stromnetzes. Eine dieser Herausforderungen sind die deutlich erweiterten Angriffsmöglichkeiten, die sich durch den verstärkten Einsatz von Intelligenten Stromzählern und Geräten des Internet der Dinge und deren maßgeblichem Beitrag zur Stromverteilung ergeben. Um diese Angriffsmöglichkeiten in Analysen abbilden zu können, wird in dieser Bachelorarbeit eine Erweiterung der bestehenden Analyse von Angriffen auf Intelligente Stromnetze aus dem Smart Grid Resilience Framework vorgenommen. Zu diesem Zweck erfolgt eine Transformation des bestehenden Modells in eine Netzwerktopologie, auf welcher dann eine Angreiferanalyse ausgeführt wird. Die Evaluation dieser Angreiferanalyse erfolgt dabei anhand der bereits bestehenden Angreiferanalyse des Smart Grid Resilience Frameworks. Weiterhin wird die Genauigkeit der Transformation sowie die Skalierbarkeit von Transformation und Angreiferanalyse evaluiert.
Vortragende(r) Jonathan Schenkenberger
Titel Context-based confidentiality analysis in dynamic Industry 4.0 scenarios
Vortragstyp Bachelorarbeit
Betreuer(in) Maximilian Walter
Vortragsmodus
Kurzfassung In Industry 4.0 environments highly dynamic and flexible access control strategies are needed. State of the art strategies are often not included in the modelling process but must be considered afterwards. This makes it very difficult to analyse the security properties of a system. In the framework of the Trust 4.0 project the confidentiality analysis tries to solve this problem using a context-based approach. Thus, there is a security model named “context metamodel”. Another important problem is that the transformation of an instance of a security model to a wide-spread access control standard is often not possible. This is also the case for the context metamodel. Moreover, another transformation which is very interesting to consider is one to an ensemble based component system which is also presented in the Trust 4.0 project. This thesis introduces an extension to the beforementioned context metamodel in order to add more extensibility to it. Furthermore, the thesis deals with the creation of a concept and an implementation of the transformations mentioned above. For that purpose, at first, the transformation to the attribute-based access control standard XACML is considered. Thereafter, the transformation from XACML to an ensemble based component system is covered. The evaluation indicated that the model can be used for use cases in Industry 4.0 scenarios. Moreover, it also indicated the transformations produce adequately accurate access policies. Furthermore, the scalability evaluation indicated linear runtime behaviour of the implementations of both transformations for respectively higher number of input contexts or XACML rules.

Freitag, 8. November 2019, 11:30 Uhr

iCal (Download)
Ort: Raum 010 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Ryan Christopher Arbai
Titel Konzept eines Dokumentationsassistenten zur Erzeugung strukturierter Anforderungen basierend auf Satzschablonen
Vortragstyp Bachelorarbeit
Betreuer(in) Tobias Hey
Vortragsmodus
Kurzfassung Um die Qualität und Glaubwürdigkeit eines Produktes zu erhalten, ist ein systematisches Anforderungsmanagement erforderlich, wobei die Merkmale eines Produkts durch Anforderungen beschrieben werden. Deswegen wurde im Rahmen dieser Arbeit ein Konzept für einen Dokumentationsassistenten entwickelt, mit dem Benutzer strukturierte Anforderungen basierend auf den Satzschablonen nach SOPHIST erstellen können. Dies beinhaltet einen linguistischen Aufbereitungsansatz, der semantische Rollen aus freiem Text extrahiert. Während des Dokumentationsprozesses wurden die semantischen Rollen benutzt, um die passendste Satzschablone zu identifizieren und diese als Hilfestellung dem Benutzer aufzuzeigen. Zudem wurde eine weitere Hilfestellung angeboten, nämlich die Autovervollständigung, die mithilfe von Markovketten das nächste Wort vorhersagen kann. Insgesamt wurden rund 500 Anforderungen aus verschiedenen Quellen herangezogen, um die Integrität des Konzepts zu bewerten. Die Klassifizierung der Texteingabe in eine Satzschablone erreicht ein F1-Maß von 0,559. Dabei wurde die Satzschablone für funktionale Anforderungen mit einem F1-Maß von 0,908 am besten identifiziert. Außerdem wurde der Zusammenhang zwischen den Hilfestellungen mithilfe eines Workshops bewertet. Hierbei konnte gezeigt werden, dass die Anwendung des vorliegenden Konzepts, die Vollständigkeit von Anforderungen verbessert und somit die Qualität der zu dokumentierenden Anforderungen steigert.