Skalierung der SVDD für große Datenmengen: Unterschied zwischen den Versionen

Aus IPD-Institutsseminar
Zur Navigation springen Zur Suche springen
(Die Seite wurde neu angelegt: „{{Vortrag |vortragender=Benjamin Acar |email=usgdy@student.kit.edu |vortragstyp=Proposal |betreuer=Adrian Englhardt |termin=Institutsseminar/2020-11-20 |kurzfa…“)
 
Zeile 5: Zeile 5:
 
|betreuer=Adrian Englhardt
 
|betreuer=Adrian Englhardt
 
|termin=Institutsseminar/2020-11-20
 
|termin=Institutsseminar/2020-11-20
|kurzfassung=TBD
+
|kurzfassung=„Support Vector Data Description“  (SVDD) ist ein gängiges Verfahren, welches im Rahmen der 1-Klassen-Klassifikatoren Anwendung findet.  Einer der Vorteile der SVDD liegt darin, dass sie in manchem Kontext effizienter arbeitet als bspw. die verwandte Methode der „Support Vector Machines“ (SVM).  Vorausgehende Arbeiten zeigten, dass für eine optimale Anwendung der SVDD nicht alle Observationen des Datensatzes benötigt werden. Es zeigte sich hierbei, dass vor allem jene, die sich am Rand der Verteilung befinden, von Interesse sind. Die Anzahl der Observationen lässt sich dabei auf unterschiedlichste Weise reduzieren, so bspw. mittels hierarchischer Methoden oder aber Kernel-Approximationen. Da in der Praxis eine Reduktion der Observationen eine Skalierung der SVDD für große Datensätze ermöglicht, liegt der Fokus der Arbeit auf der Suche nach einer solchen geeigneten Methode, die die Anzahl der Observationen reduziert ohne gleichzeitig signifikante Einbußen in der Präzision des Klassifikators zu zeigen. Darauf aufbauend soll der Trade-Off zwischen der Präzision des Klassifikators und der Anzahl der Observationen quantitativ beschrieben werden.
 
}}
 
}}

Version vom 17. November 2020, 09:01 Uhr

Vortragende(r) Benjamin Acar
Vortragstyp Proposal
Betreuer(in) Adrian Englhardt
Termin Fr 20. November 2020
Kurzfassung „Support Vector Data Description“ (SVDD) ist ein gängiges Verfahren, welches im Rahmen der 1-Klassen-Klassifikatoren Anwendung findet. Einer der Vorteile der SVDD liegt darin, dass sie in manchem Kontext effizienter arbeitet als bspw. die verwandte Methode der „Support Vector Machines“ (SVM). Vorausgehende Arbeiten zeigten, dass für eine optimale Anwendung der SVDD nicht alle Observationen des Datensatzes benötigt werden. Es zeigte sich hierbei, dass vor allem jene, die sich am Rand der Verteilung befinden, von Interesse sind. Die Anzahl der Observationen lässt sich dabei auf unterschiedlichste Weise reduzieren, so bspw. mittels hierarchischer Methoden oder aber Kernel-Approximationen. Da in der Praxis eine Reduktion der Observationen eine Skalierung der SVDD für große Datensätze ermöglicht, liegt der Fokus der Arbeit auf der Suche nach einer solchen geeigneten Methode, die die Anzahl der Observationen reduziert ohne gleichzeitig signifikante Einbußen in der Präzision des Klassifikators zu zeigen. Darauf aufbauend soll der Trade-Off zwischen der Präzision des Klassifikators und der Anzahl der Observationen quantitativ beschrieben werden.