Semantische Suche

Abfrageanweisungen (Bedingungen)
Ausgabeanweisungen (Anzeige)
Optionen
Parameter [
limit:

Legt fest, wie viele Ergebnisse bei der Ausgabe der Abfrageergebnisse maximal angezeigt werden sollen
offset:

Legt fest, ab dem wievielten Ergebnis mit der Ausgabe der Abfrageergebnisse begonnen werden soll
link:

Legt fest, ob die Datenwerte der Ergebnisse bei der Ausgabe der Abfrageergebnisse als Link angezeigt werden sollen
headers:

Legt fest, ob Überschriften bzw. Attributbezeichnungen bei der Ausgabe der Abfrageergebnisse verwendet werden sollen
mainlabel:

Legt fest, welche Überschrift oder Bezeichnung für die Hauptergebnisspalte bei der Ausgabe der Abfrageergebnisse angezeigt werden soll
intro:

Legt fest, welcher Text vor der Ausgabe der Abfrageergebnisse angezeigt werden soll
outro:

Legt fest, welcher Text nach der Ausgabe der Abfrageergebnisse angezeigt werden soll
searchlabel:

Legt fest, welcher Text als Link zur Ausgabe weiterer Abfrageergebnisse angezeigt werden soll
default:

Legt fest, welcher Text angezeigt werden soll, sofern keine Abfrageergebnisse vorhanden sind
import-annotation:

Legt fest, ob die zusätzlich annotierten Daten während des Parsens einer Seite kopiert werden sollen
propsep:

Legt fest, welches Trennzeichen zwischen den Attributen der Ergebnisse genutzt werden soll
valuesep:

Legt fest, welches Trennzeichen zwischen den Attributwerten der Ergebnisse genutzt werden soll
template:

Legt fest, welche Vorlage zum Anzeigen der Abfrageergebnisse verwendet werden soll
named args:

Legt fest, ob Bezeichnungen für die Parameter an die Vorlage bei der Ausgabe der Abfrageergebnisse weitergegeben werden sollen
userparam:

Legt fest, welcher Wert jedem Vorlagenaufruf übergeben wird, sofern eine Vorlage genutzt wird
class:

Legt fest, welche zusätzliche CSS-Klasse genutzt werden soll
introtemplate:

Legt fest, welche Vorlage vor der Ausgabe von Abfrageergebnissen eingefügt werden soll
outrotemplate:

Legt fest, welche Vorlage nach der Ausgabe von Abfrageergebnissen eingefügt werden soll
sep:

Legt fest, welches Trennzeichen bei der Ausgabe der Abfrageergebnisse genutzt werden soll
prefix:

Control display of namespace in printouts
Sortierbedingungen
Löschen
Sortierbedingung hinzufügen

Freitag, 27. Juli 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)

Freitag, 17. August 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Xinxin Yang
Titel Vorhersage und Optimierung von Konzernsteuerquoten auf Basis der SEC-Edgar-Datenbank
Vortragstyp Masterarbeit
Betreuer(in) Mathias Landhäußer
Vortragsmodus
Kurzfassung Ziel der vorliegenden Arbeit ist die Konzernsteuerquoten (effecktive tax rate, oder ETR) vorherzusagen durch die Prognosemodelle in Data-Mining. Durch die Analyse und Vergleich von ETR kann die Wettbewerbsfähigkeit verbessert werden und spielt somit eine große Rolle in der Konzernplanung in kommenden Jahren.

Voraussetzung ist eine verlässliche Grundlage von Beispieldaten aus der realen Steuerungskennzahl (key performance indicator, oder KPI) eines Jahresabschlussberichtes, um ein erfolgreiches Training der Modelle zu ermöglichen. Eine solche Datengrundlage bietet die SEC-Edgar-Datenbank. Ab dem Jahr 1994 uber die Edgar-Datenbank (Electronic Data Gathering, Analysis, and Retrieval) sind alle Dokumente zugänglich. Eine SEC-Filling ist ein formales und standardisiertes Dokument, welches amerikanische Unternehmen seit dem Securities Exchange Act von 1934 bei der SEC einreichen mussen. Laut dem Steuerexperte werden die KPIs durch Python-Skript in der uber mehrerer Jahre (2012-2016) hinweg extrahiert. Wegen der fehlenden Kenntnisse von der Hochladen des Unternehmen sind die 10-K Reporte sehr dunn (mehr als 60% Daten sind fehlende). Zufällige dunne Besetzung (random sparsity) entsteht bei nicht regelmäßiger bzw. schwer vorhersehbarer Belegung.

Ein bewährter Ansatz fur die fehlende Werte ist Online Spärlichkeit Lineare Regression (OSLR). OSLR stellt einerseits eine Art der Ausfullen der fehlenden Werte dar und dienen andererseits der Beseitigung der Datenqualitätsmängel.

Die Untersuchung der Anwendbarkeit Multipler lineare Regression, der Zeitreihenanalyse (ARIMA) und kunstlicher neuronaler Netze (KNN) im Bereich der Finanzberichterstattung. Es wird dabei die ETR berucksichtigt. Danach werden diese Methode aus den Bereich Data-Mining verwendet, um die ETR aus Steuerungsgröße vorherzusagen.

Freitag, 31. August 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Yves Schneider
Titel Parametrisierung der Spezifikation von Qualitätsannotationen in Software-Architekturmodellen
Vortragstyp Masterarbeit
Betreuer(in) Axel Busch
Vortragsmodus
Kurzfassung Qualitätseigenschaften von komponentenbasierten Software-Systemen hängen sowohl von den eingesetzten Komponenten, als auch von ihrem eingesetzten Kontext ab. Während die kontextabhängige Parametrisierung für einzelne Qualitätsanalysemodelle, wie z.B. Performance, bereits fundiert wissenschaftlich analysiert wurde, ist dies für andere Qualitätsattribute, insbesondere für qualitativ beschreibende Modelle, noch ungeklärt. Die vorgestellte Arbeit stellt die Qualitätseffekt-Spezifikation vor, die eine kontextabhängige Analyse und Transformation beliebiger Qualitätsattribute erlaubt. Der Ansatz enthält eine eigens entworfene domänenspezifischen Sprache zur Modellierung von Auswirkungen in Abhängigkeit des Kontextes und dazu entsprechende Transformation der Qualitätsannotationen.

Freitag, 7. September 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 348 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}}

Vortragende(r) Maximilian Stemmer-Grabow
Titel Calibrating Performance Models for Particle Physics Workloads
Vortragstyp Bachelorarbeit
Betreuer(in) Anne Koziolek
Vortragsmodus
Kurzfassung Particle colliders are a primary method of conducting experiments in particle physics, as they allow to both create short-lived, high-energy particles and observe their properties. The world’s largest particle collider, the Large Hadron Collider (subsequently referred to as LHC), is operated by the European Organization for Nuclear Research (CERN) near Geneva. The operation of this kind of accelerator requires the storage and computationally intensive analysis of large amounts of data. The Worldwide LHC Computing Grid (WLCG), a global computing grid, is being run alongside the LHC to serve this purpose.

This Bachelor’s thesis aims to support the creation of an architecture model and simulation for parts of the WLCG infrastructure with the goal of accurately being able to simulate and predict changes in the infrastructure such as the replacement of the load balancing strategies used to distribute the workload between available nodes.

Montag, 17. September 2018, 11:30 Uhr

iCal (Download)
Ort: Raum 333 (Gebäude 50.34)
Webkonferenz: {{{Webkonferenzraum}}} (Keine Vorträge)