Semantische Suche

Freitag, 21. September 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Frederik Beiche
Titel Modularization approaches in the context of monolithic simulations
Vortragstyp Masterarbeit
Betreuer(in) Sandro Koch
Vortragsmodus
Kurzfassung Quality characteristics of a software system such as performance or reliability can determine

its success or failure. In traditional software engineering, these characteristics can only be determined when parts of the system are already implemented and past the design process. Computer simulations allow to determine estimations of quality characteristics of software systems already during the design process. Simulations are build to analyse certain aspects of systems. The representation of the system is specialised for the specific analysis. This specialisation often results in a monolithic design of the simulation. Monolithic structures, however, can induce reduced maintainability of the simulation and decreased understandability and reusability of the representations of the system. The drawbacks of monolithic structures can be encountered by the concept of modularisation, where one problem is divided into several smaller sub-problems. This approach allows an easier understanding and handling of the sub-problems. In this thesis an approach is provided to describe the coupling of newly developed and already existing simulations to a modular simulation. This approach consists of a Domain-Specific Language (DSL) developed with model-driven technologies. The DSL is applied in a case-study to describe the coupling of two simulations. The coupling of these simulations with an existing coupling approach is implemented according to the created description. An evaluation of the DSL is conducted regarding its completeness to describe the coupling of several simulations to a modular simulation. Additionally, the modular simulation is examined regarding the accuracy of preserving the behaviour of the monolithic simulation. The results of the modular simulation and the monolithic version are compared for this purpose. The created modular simulation is additionally evaluated in regard to its scalability by analysis of the execution times when multiple simulations are coupled. Furthermore, the effect of the modularisation on the simulation execution times is evaluated. The obtained evaluation results show that the DSL can describe the coupling of the two simulations used in the case-study. Furthermore, the results of the accuracy evaluation suggest that problems in the interaction of the simulations with the coupling approach exist. However, the results also show that the overall behaviour of the monolithic simulation is preserved in its modular version. The analysis of the execution times suggest, that the modular simulation experiences an increase in execution time compared to the monolithic version. Also, the results regarding the scalability show that the execution time of the modular simulation does not increase exponentially with the number of coupled simulations.

Freitag, 5. Oktober 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Timo Kegelmann
Titel A Parallelizing Compiler for Adaptive Auto-Tuning
Vortragstyp Masterarbeit
Betreuer(in) Philip Pfaffe
Vortragsmodus
Kurzfassung Parallelisierende Compiler und Auto-Tuner sind zwei der vielen Technologien, die Entwick-

lern das Schreiben von leistungsfähigen Anwendungen für moderne heterogene Systeme erleichtern können. In dieser Arbeit stellen wir einen parallelisierenden Compiler vor, der Parallelität in Programmen erkennen und parallelen Code für heterogene Systeme erzeu- gen kann. Außerdem verwendet der vorgestellte Compiler Auto-Tuning, um eine optimale Partitionierung der parallelisierten Codeabschnitte auf mehrere Plattformen zur Laufzeit zu finden, welche die Ausführungszeit minimiert. Anstatt jedoch die Parallelisierung ein- mal für jeden parallelen Abschnitt zu optimieren und die gefundenen Konfigurationen so lange zu behalten wie das Programm ausgeführt wird, sind Programme, die von unserem Compiler generiert wurden, in der Lage zwischen verschiedenen Anwendungskontexten zu unterscheiden, sodass Kontextänderungen erkannt und die aktuelle Konfiguration für je- den vorkommenden Kontext individuell angepasst werden kann. Zur Beschreibung von Kontexten verwenden wir sogenannte Indikatoren, die bestimmte Laufzeiteigenschaften des Codes ausdrücken und in den Programmcode eingefügt werden, damit sie bei der Aus- führung ausgewertet und vom Auto-Tuner verwendet werden können. Darüber hinaus speichern wir gefundene Konfigurationen und die zugehörigen Kontexte in einer Daten- bank, sodass wir Konfigurationen aus früheren Läufen wiederverwenden können, wenn die Anwendung erneut ausgeführt wird. Wir evaluieren unseren Ansatz mit der Polybench Benchmark-Sammlung. Die Ergeb- nisse zeigen, dass wir in der Lage sind, Kontextänderungen zur Laufzeit zu erkennen und die Konfiguration dem neuen Kontext entsprechend anzupassen, was im Allgemeinen zu niedrigeren Ausführungszeiten führt.

Freitag, 5. Oktober 2018, 12:00 Uhr

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Maximilian Peters
Titel Evaluation und Optimierung der Wartbarkeit von Software-Architekturen
Vortragstyp Bachelorarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung Kurzfassung
Vortragende(r) Julian Hinrichs
Titel Verification of Access Control Policies in Software Architectures
Vortragstyp Bachelorarbeit
Betreuer(in) Stephan Seifermann
Vortragsmodus
Kurzfassung Security in software systems becomes more important as systems becomes more complex and connected. Therefore, it is desirable to to conduct security analysis on an architectural level. A possible approach in this direction are data-based privacy analyses. Such approaches are evaluated on case studies. Most exemplary systems for case studies are developed specially for the approach under investigation. Therefore, it is not that simple to find a fitting a case study. The thesis introduces a method to create usable case studies for data-based privacy analyses. The method is applied to the Community Component Modeling Example (CoCoME). The evaluation is based on a GQM plan and shows that the method is applicable. Also it is shown that the created case study is able to check if illegal information flow is present in CoCoME. Additionally, it is shown that the provided meta model extension is able to express the case study.

Freitag, 12. Oktober 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Markus Raster
Titel Informationsbedürfnisse zur Untersuchung der Begriffsgeschichte
Vortragstyp Proposal
Betreuer(in) Jens Willkomm
Vortragsmodus
Kurzfassung Die Begriffsgeschichte, als Konzept geschichtswissenschaftlicher Forschung, befasst sich mit der historischen Entwicklung der Semantik einzelner Begriffe. Hierbei bildet oft Wortursprung, Sprachgebrauch sowie Verbreitung Gegenstand wissenschaftlicher Untersuchungen.

Die Bachelorarbeit setzt sich mit der Kombination von Informationstechnologien, in Form von Datenbanken, mit der Forschungsarbeit der Historiker auseinander. Ziel ist es Einflussfaktoren auf die Semantik von Wörtern zu identifizieren. Dabei liegt der Fokus auf einer vollständigen Abdeckung des Themenbereiches, sowie auf einer Strukturierung der einzelnen Informationsbedürfnisse.

Im Anschluss der Identifikation der Informationsbedürfnisse sollen einzelne Datenbankanfragen/Queries formuliert werden, die es ermöglichen sollen die entsprechenden Semantischen Entwicklungen der Wörter darzustellen, sowie deren Untersuchung zu vereinfachen.

Vortragende(r) Marco Sturm
Titel On the Interpretability of Anomaly Detection via Neural Networks
Vortragstyp Masterarbeit
Betreuer(in) Edouard Fouché
Vortragsmodus
Kurzfassung Verifying anomaly detection results when working in on an unsupervised use case is challenging. For large datasets a manual labelling is economical unfeasible. In this thesis we create explanations to help verifying and understanding the detected anomalies. We develop a method to rule generation algorithm that describe frequent patterns in the output of autoencoders. The number of rules is significantly lower than the number of anomalies. Thus, finding explanations for these rules is much less effort compared to finding explanations for every single anomaly. Its performance is evaluated on a real-world use case, where we achieve a significant reduction of effort required for domain experts to understand the detected anomalies but can not specify the usefulness in exact numbers due to the missing labels. Therefore, we also evaluate the approach on benchmark dataset.
Vortragende(r) Daniel Hamann
Titel Vollständigkeits- und Semantikprüfung für gesprochene Aussagen
Vortragstyp Bachelorarbeit
Betreuer(in) Sebastian Weigelt
Vortragsmodus
Kurzfassung Diese Arbeit betrachtet das Problem von unvollständigen Aussagen in natürlicher Sprache. Solche Aussagen enthalten nicht explizit alle Informationen, die für die vollständige Umsetzung einer Handlung benötigt werden.

Menschen fällt es leicht, aus solchen Aussagen wieder einen Sinn zu extrahieren, indem sie sich auf ihr gelerntes Wissen beziehen. Für Sprachverarbeitungssysteme ist dieser Schritt jedoch nicht so einfach nachvollziehbar. Um diesen Prozess greifbar zu machen wird ein Ansatz entwickelt, der solchen Systemen menschliches, implizites, Wissen verfügbar macht. Damit wird eine durch Wissen begründete Entscheidung über die Vollständigkeit von Aussagen gemacht. Im Weiteren werden durch den Ansatz Kandidaten generiert, welche für die fehlenden Rollen infrage kommen könnten. Diese werden mithilfe von Wissen über die Welt bezüglich ihrer Eignung für die Rolle bewertet und die Aussage somit wieder vervollständigt. Um die Funktion des implementierten PARSE-Agenten zu prüfen wurde eine Evaluation der Ergebnisse im Vergleich zu einer händisch erstellten Lösung durchgeführt. Fehlende Rollen konnten mit einer Präzision von 51% bestimmt werden und eine Vervollständigung war in 25% (Im Falle des Subjektes sogar 100%) der Fälle korrekt möglich.

Freitag, 19. Oktober 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Fabian Scheytt
Titel Konzepte für kontrollfluss- und modellbasierte Sicherheitsanalyse eines Industrie-4.0-Systems
Vortragstyp Bachelorarbeit
Betreuer(in) Emre Taşpolatoğlu
Vortragsmodus
Kurzfassung Durch die voranschreitende Vernetzung und Digitalisierung vergrößert sich die Angriffsfläche von Industrieanlagen drastisch. Umso wichtiger wird es beim Entwurf von Industrie 4.0 Anlagen, so früh wie möglich eine Betrachtung der Sicherheitsaspekte vorzunehmen. Die Durchführung von Sicherheitsanalysen zur Entwurfszeit sind jedoch Aufwändig und müssen immer händisch von einem Sicherheitsexperten durchgeführt werden. Obwohl bereits Lösungsansätze zur modellbasierten Unterstützung von Sicherheitsanalysen existieren, sind diese nicht auf den Kontext der Industrie 4.0 zugeschnitten. In dieser Bachelorarbeit werden zwei Konzepte für eine modellbasierte Unterstützung von Sicherheitsanalysen im frühen Entwurf von Industrie 4.0 Anlagen vorgestellt. Dabei werden die Sicherheitsanforderungen von Datenflüssen über die gesamte Anlage hinweg betrachtet und weiterhin eine kontextbasierte Sicherheitsanalyse zur Unterstützung vorgeschlagen.
Vortragende(r) Eric Klappert
Titel Microgrid-Topologien für Smart Grids
Vortragstyp Bachelorarbeit
Betreuer(in) Maximilian Walter
Vortragsmodus
Kurzfassung In Zeiten des Umstiegs auf erneuerbare Energien und dem Einsatz von Smart Metern zum Messen und Steuern des Netzes stellen sich neue Herausforderungen für die Stromversorgung. Um die Kommunikation des Smart Grids zu ermöglichen wird vorgeschlagen das Netzwerk in Microgrids zu unterteilen. Dazu wird eine sinnvolle Aufteilung und eine robuste Kommunikationstopologie benötigt. In dieser Arbeit werden die Anforderungen einer solchen Aufteilung und Topologie erarbeitet und verschiedene Lösungsansätze vorgeschlagen und verglichen. Basierend auf den Ergebnissen wird ein anpassungsfähiger Algorithmus entworfen, der ein Stromnetz in mehrere Microgrids zerlegt und eine Kommunikationstopologie erzeugt.
Vortragende(r) Maximilian Eckert
Titel Modellierung geschachtelter Freiheitsgrade zur automatischen Evaluation von Software-Architekturen
Vortragstyp Masterarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung In der modernen Software-Entwicklung wird eine Vielzahl von Subsystemen von Drittanbietern wiederverwendet, deren Realisierungen und Varianten jeweils einen dedizierten Einfluss auf die Qualitätseigenschaften des Gesamtsystems implizieren. Doch nicht nur die Realisierung und Variante eines Subsystems, sondern auch die Platzierung in der Zielarchitektur haben einen Einfluss auf die resultierende Qualität.

In dieser Arbeit wird der bestehende Ansatz zur Modellierung und Simulation von wiederverwendbaren Subsystemen in Palladio bzw. PerOpteryx um einen neuen Inklusionsmechanismus erweitert, der eine flexible, feingranulare Modellierung und anschließende automatisierte Qualitätsoptimierung der Platzierung von wiederverwendbaren Subsystemen ermöglicht. Dazu wird eine domänenspezifische Sprache definiert, die eine deklarativen Beschreibung der Einwebepunkte in einem Architekturmodell durch aspektorientierte Semantiken erlaubt. Mithilfe eines Modellwebers werden die wiederverwendbaren Subsysteme in eine annotierte Zielarchitektur eingewebt. Schließlich wird der Ansatz in die automatisierte Qualitätsoptimierung von PerOpteryx integriert, sodass der Architekt bei seinen Entwurfsentscheidungen bezüglich dieser Freiheitsgrade unterstützt wird. Das vorgestellte Verfahren wurde durch eine simulationsbasierte Fallstudie anhand von realen Applikationsmodellen evaluiert. Es hat sich gezeigt, dass der Ansatz geeignet ist, um eine Vielzahl von Architekturkandidaten automatisiert generieren bzw. evaluieren und somit einen Architekten bei seinen Entwurfsentscheidungen unterstützen zu können.