Semantische Suche

Freitag, 20. Juli 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 27. Juli 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 17. August 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Xinxin Yang
Titel Vorhersage und Optimierung von Konzernsteuerquoten auf Basis der SEC-Edgar-Datenbank
Vortragstyp Masterarbeit
Betreuer(in) Mathias Landhäußer
Vortragsmodus
Kurzfassung Ziel der vorliegenden Arbeit ist die Konzernsteuerquoten (effecktive tax rate, oder ETR) vorherzusagen durch die Prognosemodelle in Data-Mining. Durch die Analyse und Vergleich von ETR kann die Wettbewerbsfähigkeit verbessert werden und spielt somit eine große Rolle in der Konzernplanung in kommenden Jahren.

Voraussetzung ist eine verlässliche Grundlage von Beispieldaten aus der realen Steuerungskennzahl (key performance indicator, oder KPI) eines Jahresabschlussberichtes, um ein erfolgreiches Training der Modelle zu ermöglichen. Eine solche Datengrundlage bietet die SEC-Edgar-Datenbank. Ab dem Jahr 1994 uber die Edgar-Datenbank (Electronic Data Gathering, Analysis, and Retrieval) sind alle Dokumente zugänglich. Eine SEC-Filling ist ein formales und standardisiertes Dokument, welches amerikanische Unternehmen seit dem Securities Exchange Act von 1934 bei der SEC einreichen mussen. Laut dem Steuerexperte werden die KPIs durch Python-Skript in der uber mehrerer Jahre (2012-2016) hinweg extrahiert. Wegen der fehlenden Kenntnisse von der Hochladen des Unternehmen sind die 10-K Reporte sehr dunn (mehr als 60% Daten sind fehlende). Zufällige dunne Besetzung (random sparsity) entsteht bei nicht regelmäßiger bzw. schwer vorhersehbarer Belegung.

Ein bewährter Ansatz fur die fehlende Werte ist Online Spärlichkeit Lineare Regression (OSLR). OSLR stellt einerseits eine Art der Ausfullen der fehlenden Werte dar und dienen andererseits der Beseitigung der Datenqualitätsmängel.

Die Untersuchung der Anwendbarkeit Multipler lineare Regression, der Zeitreihenanalyse (ARIMA) und kunstlicher neuronaler Netze (KNN) im Bereich der Finanzberichterstattung. Es wird dabei die ETR berucksichtigt. Danach werden diese Methode aus den Bereich Data-Mining verwendet, um die ETR aus Steuerungsgröße vorherzusagen.

Freitag, 31. August 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Yves Schneider
Titel Parametrisierung der Spezifikation von Qualitätsannotationen in Software-Architekturmodellen
Vortragstyp Masterarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung Qualitätseigenschaften von komponentenbasierten Software-Systemen hängen sowohl von den eingesetzten Komponenten, als auch von ihrem eingesetzten Kontext ab. Während die kontextabhängige Parametrisierung für einzelne Qualitätsanalysemodelle, wie z.B. Performance, bereits fundiert wissenschaftlich analysiert wurde, ist dies für andere Qualitätsattribute, insbesondere für qualitativ beschreibende Modelle, noch ungeklärt. Die vorgestellte Arbeit stellt die Qualitätseffekt-Spezifikation vor, die eine kontextabhängige Analyse und Transformation beliebiger Qualitätsattribute erlaubt. Der Ansatz enthält eine eigens entworfene domänenspezifischen Sprache zur Modellierung von Auswirkungen in Abhängigkeit des Kontextes und dazu entsprechende Transformation der Qualitätsannotationen.

Freitag, 7. September 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Maximilian Stemmer-Grabow
Titel Calibrating Performance Models for Particle Physics Workloads
Vortragstyp Bachelorarbeit
Betreuer(in) Anne Koziolek
Vortragsmodus
Kurzfassung Particle colliders are a primary method of conducting experiments in particle physics, as they allow to both create short-lived, high-energy particles and observe their properties. The world’s largest particle collider, the Large Hadron Collider (subsequently referred to as LHC), is operated by the European Organization for Nuclear Research (CERN) near Geneva. The operation of this kind of accelerator requires the storage and computationally intensive analysis of large amounts of data. The Worldwide LHC Computing Grid (WLCG), a global computing grid, is being run alongside the LHC to serve this purpose.

This Bachelor’s thesis aims to support the creation of an architecture model and simulation for parts of the WLCG infrastructure with the goal of accurately being able to simulate and predict changes in the infrastructure such as the replacement of the load balancing strategies used to distribute the workload between available nodes.