Semantische Suche

Freitag, 12. November 2021, 12:00 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Maximilian Georg
Titel Review of dependency estimation with focus on data efficiency
Vortragstyp Proposal
Betreuer(in) Bela Böhnke
Vortragsmodus
Kurzfassung In our data-driven world, large amounts of data are collected in all kinds of environments. That is why data analysis rises in importance. How different variables influence each other is a significant part of knowledge discovery and allows strategic decisions based on this knowledge. Therefore, high-quality dependency estimation should be accessible to a variety of people. Many dependency estimation algorithms are difficult to use in a real-world setting. In addition, most of these dependency estimation algorithms need large data sets to return a good estimation. In practice, gathering this amount of data may be costly, especially when the data is collected in experiments with high costs for materials or infrastructure. I will do a comparison of different state-of-the-art dependency estimation algorithms. A list of 14 different criteria I but together, will be used to determine how promising the algorithm is. This study focuses especially on data efficiency and uncertainty of the dependency estimation algorithms. An algorithm with a high data efficiency can give a good estimation with a small amount of data. A degree of uncertainty helps to interpret the result of the estimator. This allows better decision-making in practice. The comparison includes a theoretical analysis and conducting different experiments with dependency estimation algorithms that performed well in the theoretical analysis.
Vortragende(r) Karl Rubel
Titel Umsetzung einer architekturellen Informationsflussanalyse auf Basis des Palladio-Komponentenmodells
Vortragstyp Bachelorarbeit
Betreuer(in) Christopher Gerking
Vortragsmodus
Kurzfassung Es ist essentiell, dass Softwaresysteme die Vertraulichkeit von Informationen gewährleisten. Das Palladio Component Model (PCM) bietet bereits Werkzeuge zur Beschreibung von Softwarearchitekturen mit dem Ziel der Vorhersage von Qualitätseigenschaften. Es bietet allerdings keine unmittelbare Unterstützung zur Untersuchung der Vertraulichkeit von Dienstbeschreibungen auf Architekturebene. In dieser Arbeit wird eine Analysetechnik zur Überprüfung einer im PCM modellierten Architektur auf Vertraulichkeitseigenschaften entwickelt. Diese Analyse beruht auf der Untersuchung der im PCM erstellen Dienstbeschreibungen. In der Konzeption wird eine vorhandene Analysetechnik als Grundlage herangezogen und für die Verwendung mit dem PCM adaptiert. Dabei wird die Fragestellung nach der Vertraulichkeit durch Modelltransformation auf eine durch Model Checking überprüfbare Eigenschaft reduziert. Die Genauigkeit und Performance des Ansatzes werden anhand einer Fallstudie evaluiert. Durch die entwickelte Analysetechnik wird es Softwarearchitekten ermöglicht, frühzeitig auf Architekturebene eine Vertraulichkeitsanalyse auf komponentenbasierten Modellen durchzuführen.

Freitag, 12. November 2021, 12:00 Uhr

iCal (Download)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Hermann Krumrey
Titel Automatische Klassifikation von GitHub-Projekten nach Anwendungsbereichen
Vortragstyp Masterarbeit
Betreuer(in) Yves Kirschner
Vortragsmodus
Kurzfassung GitHub ist eine der beliebtesten Plattformen für kollaboratives Entwickeln von Software-Projekten und ist eine wertvolle Ressource für Software-Entwickler. Die große Anzahl von Projekten, welche auf diesem Dienst zu finden sind, erschwert allerdings die Suche nach relevanten Projekten. Um die Auffindbarkeit von Projekten auf GitHub zu verbessern, wäre es nützlich, wenn diese in Kategorien klassifiziert wären. Diese Informationen könnten in einer Suchmaschine oder einem Empfehlungssystem verwendet werden. Manuelle Klassifikation aller Projekte ist allerdings wegen der großen Anzahl von Projekten nicht praktikabel. Daher ist ein automatisches Klassifikationssystem wünschenswert. Diese Arbeit befasst sich mit der Problematik, ein automatisches Klassifikationssystem für GitHub-Projekte zu entwickeln. Bei der vorgestellten Lösung werden GitHub-Topics verwendet, welches manuelle Klassifikation von GitHub-Projekten sind, welche von den Eigentümern der Projekte vorgenommen wurden. Diese klassifizierten Projekte werden als Trainingsdaten für ein überwachtes Klassifikationssystem verwendet. Somit entfällt die Notwendigkeit, manuell Trainingsdaten zu erstellen. Dies ermöglicht die Klassifikation mit flexiblen Klassenhierarchien. Im Kontext dieser Arbeit wurde ein Software-Projekt entwickelt, welches die Möglichkeit bietet, Trainingsdaten mithilfe der GitHub-API basierend auf GitHub-Topics zu generieren und anschließend mit diesen ein Klassifikationssystem zu trainieren. Durch einen modularen Ansatz können für den Zweck der Klassifikation eine Vielzahl von Vektorisierungs- und Vorhersagemethoden zum Einsatz kommen. Neue Implementierungen solcher Verfahren können ebenfalls leicht eingebunden werden. Das Projekt bietet zudem Schnittstellen für externe Programme, welche es ermöglicht, einen bereits trainierten Klassifikator für weiterführende Zwecke zu verwenden. Die Klassifikationsleistung des untersuchten Ansatzes bietet für Klassenhierarchien, welche sich gut auf GitHub-Topics abbilden lassen, eine bessere Klassifikationsleistung als vorherige Arbeiten. Bei Klassenhierarchien, wo dies nicht der Fall ist, die Klassifikationsleistung hingegen schlechter.
Vortragende(r) Moritz Halm
Titel The hW-inference Algorithm: Theory and Application
Vortragstyp Masterarbeit
Betreuer(in) Daniel Zimmermann
Vortragsmodus
Kurzfassung Active inference-Alogrithmen konstruieren ein Modell einer als black box gegebenen Software durch interaktives Testen. hW-inference ist ein solcher active inference Algorithmus, welcher insbesonder Modelle von Software lernen kann ohne sie währendessen neu zu starten. Die gelernten Modelle sind endliche Zustandsautomaten mit Eingaben und Ausgaben (Mealy Automaten).

Der theoretische Teil der Arbeit behandelt das bislang ungelöste Problem, einen formalen Beweis für die Korrektheit von hW-inference zu finden. Im praktischen Teil schlagen wir heuristische Optimierungen vor, die die Anzahl der zum Lernen benötigten Eingaben verringern. Diese Heuristiken sind potentiell auch für anderen Lern- oder Testverfahren von endlichen Zustandsautomaten relevant. Endliche Zustandsautomaten sind außerdem ein verbreitetes Modell, das zum automatisiertem Testen von Anwendungen mit graphischen Benutzeroberflächen (GUIs) verwendet wird. Wir erötern, dass mit active inference-Algorithmen besonders präzise Modelle existierender GUI-Anwendugnen gelernt werden können. Insbesondere können dabei interne, nicht sichtbare Zustände der Anwendung unterschieden werden. Die Anwendung wird außerdem bereits durch den interkativen inference-Prozess gründlich getestet. Wir evaluieren diesen Ansatz in einer Fallstudie mit hW-inference.

Freitag, 26. November 2021, 11:30 Uhr

iCal (Download)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 10. Dezember 2021, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Anton Winter
Titel Information Content of Targeted Disturbances in the Electrical Grid
Vortragstyp Proposal
Betreuer(in) Bela Böhnke
Vortragsmodus
Kurzfassung A power grid has to ensure high voltage quality, i.e., the voltage should be stable at all times. Poor voltage quality stresses all connected devices, leading to damage, misbehavior, and accelerated aging. So-called Smart Transformers (ST) can prevent blackouts in the case of a problem in a higher voltage grid. STs need information about the “voltage sensitivity”, i.e., how a newly added or removed node or the change of the signal formed voltages will change the grids voltage. To measure voltage sensitivity, STs periodically introduce targeted disturbances into the electricity grid. Observing the resulting voltage change gives indications about the voltage sensitivity. The goal of my thesis is, to find out if it is possible to predict the Voltage Sensitivity with feeding less (or even no) disturbances into the grid.

Freitag, 17. Dezember 2021, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Jonas Zoll
Titel Injection Molding Simulation based on Graph Neural Networks
Vortragstyp Proposal
Betreuer(in) Moritz Renftle
Vortragsmodus
Kurzfassung Injection molding simulations are important tools for the development of new injection molds. Existing simulations mostly are numerical solvers based on the finite element method. These solvers are reliable and precise, but very computionally expensive even on simple part geometries. In this thesis, we aim to develop a faster injection molding simulation based on Graph Neural Networks (GNNs). Our approach learns a simulation as a composition of three functions: an encoder, a processor and a decoder. The encoder takes in a graph representation of a 3D geometry of a mold part and returns a numeric embedding of each node and edge in the graph. The processor updates the embeddings of each node multiple times based on its neighbors. The decoder then decodes the final embeddings of each node into physically meaningful variables, say, the fill time of the node. The envisioned GNN architecture has two interesting properties: (i) it is applicable to any kind of material, geometry and injection process parameters, and (ii) it works without a “time integrator”, i.e., it predicts the final result without intermediate steps. We plan to evaluate our architecture by its accuracy and runtime when predicting node properties. We further plan to interpret the learned GNNs from a physical perspective.