https://sdq.kastel.kit.edu/api.php?action=feedcontributions&user=Jakob.bach%40kit.edu&feedformat=atomSDQ-Institutsseminar - Benutzerbeiträge [de]2024-03-28T13:00:30ZBenutzerbeiträgeMediaWiki 1.39.6https://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Predictability_of_Classfication_Performance_Measures_with_Meta-Learning&diff=1059Predictability of Classfication Performance Measures with Meta-Learning2019-08-07T06:28:44Z<p>Jakob.bach@kit.edu: Die Seite wurde neu angelegt: „{{Vortrag |vortragender=Huijie Wang |email=upssh@student.kit.edu |vortragstyp=Bachelorarbeit |betreuer=Jakob Bach |termin=Institutsseminar/2019-08-16 |kurzfass…“</p>
<hr />
<div>{{Vortrag<br />
|vortragender=Huijie Wang<br />
|email=upssh@student.kit.edu<br />
|vortragstyp=Bachelorarbeit<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-08-16<br />
|kurzfassung=Choosing a suitable classifier for a given dataset is an important part in the process of solving a classification problem. Meta-learning, which learns about the learning algorithms themselves, can predict the performance of a classifier without training it. The effect of different types of performance measures remains unclear, as it is hard to draw a comparison between results of existing works, which are based on different meta-datasets as well as meta-models. In this thesis, we study the predictability of different classification performance measures with meta-learning, also we compare the performances of meta-learning using different meta-regression models. We conduct experiments with meta-datasets from previous studies considering 11 meta-targets and 6 meta-models. Additionally, we study the relation between different groups of meta-features and the performance of meta-learning. Results of our experiments show that meta-targets have similar predictability and the choice of meta-model has a big impact on the performance of meta-learning.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Bayesian_Optimization_for_Wrapper_Feature_Selection&diff=994Bayesian Optimization for Wrapper Feature Selection2019-06-04T14:10:08Z<p>Jakob.bach@kit.edu: </p>
<hr />
<div>{{Vortrag<br />
|vortragender=Adrian Kruck<br />
|email=uaenk@student.kit.edu<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-06-07<br />
|kurzfassung=Wrapper feature selection can lead to highly accurate classifications. However, the computational costs for this are very high in general. Bayesian Optimization on the other hand has already proven to be very efficient in optimizing black-box functions. This approach uses Bayesian Optimization in order to minimize the number of evaluations, i.e. the training of models with different feature subsets. We will use Gaussian processes, random forests and other regression learners for the surrogate model. On 10 different classification datasets the approach will be compared against established wrapper feature selection methods, but also against filter and embedded methods.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Evaluierung_unbalancierter_Lernmethoden&diff=989Evaluierung unbalancierter Lernmethoden2019-05-29T13:30:53Z<p>Jakob.bach@kit.edu: </p>
<hr />
<div>{{Vortrag<br />
|vortragender=Daniela Ruchser<br />
|email=uvdik@student.kit.edu<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-06-07<br />
|kurzfassung=Die binäre Klassifikation von Daten mit unbalancierter Klassenverteilung ist ein relevantes Data-Mining-Problem. In vielen Anwendungsgebieten tritt die interessierende Klasse viel seltener auf als die Mehrheitsklasse, beispielsweise in der medizinischen Diagnose. Standard-Lernalgorithmen und -Evaluationsmaße sind in solchen Situationen nicht gut geeignet. In der Literatur gibt es viele Ansätze, die dieses Problem mit geeigneteren Evaluationsmaßen und Lernmethoden adressieren. Die Frage, unter welchen Umständen welche der Lernmethoden am besten funktionieren, soll durch eine umfassende experimentelle Vergleichsstudie beantwortet werden. Ein weiteres Ziel dieser Masterarbeit ist, den Einfluss verschiedener Datencharakteristiken auf die Performanz der Methoden mithilfe von Meta-Learning zu untersuchen.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Evaluierung_unbalancierter_Lernmethoden&diff=988Evaluierung unbalancierter Lernmethoden2019-05-29T13:30:28Z<p>Jakob.bach@kit.edu: </p>
<hr />
<div>{{Vortrag<br />
|vortragender=Daniela Ruchser<br />
|email=uvdik@student.kit.edu<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-06-07<br />
|kurzfassung=Die binäre Klassifikation von Daten mit unbalancierter Klassenverteilung ist ein relevantes Data-Mining-Problem. In vielen Anwendungsgebieten tritt die interessierende Klasse viel seltener auf als die Mehrheitsklasse, beispielsweise in der medizinischen Diagnose. Standard-Lernalgorithmen und -Evaluationsmaße sind in solchen Situationen nicht gut geeignet. In der Literatur gibt es viele Ansätze, die dieses Problem mit geeigneteren Evaluationsmaßen und Lernmethoden adressieren. Die Frage, unter welchen Umständen welche der Lernmethoden am besten funktionieren, soll durch eine umfassende experimentelle Vergleichsstudie beantwortet werden. Ein weiteres Ziel dieser Masterarbeit ist, den Einfluss verschiedener Datencharakteristiken auf die Performanz der Methoden mithilfe von Metalearning zu untersuchen.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Evaluierung_unbalancierter_Lernmethoden&diff=987Evaluierung unbalancierter Lernmethoden2019-05-29T13:29:28Z<p>Jakob.bach@kit.edu: Die Seite wurde neu angelegt: „{{Vortrag |vortragender=Daniela Ruchser |email=uvdik@student.kit.edu |vortragstyp=Proposal |betreuer=Jakob Bach |termin=Institutsseminar/2019-06-07 |kurzfassun…“</p>
<hr />
<div>{{Vortrag<br />
|vortragender=Daniela Ruchser<br />
|email=uvdik@student.kit.edu<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-06-07<br />
|kurzfassung=Die binäre Klassifikation von Daten mit unbalancierter Klassenverteilung ist ein relevantes Data Mining Problem. In vielen Anwendungsgebieten tritt die interessierende Klasse viel seltener auf als die Mehrheitsklasse, beispielsweise in der medizinischen Diagnose. Standard Lernalgorithmen und Evaluationsmaße sind in solchen Situationen nicht gut geeignet. In der Literatur gibt es viele Ansätze, die dieses Problem mit geeigneteren Evaluationsmaßen und Lernmethoden adressieren. Die Frage, unter welchen Umständen welche der Lernmethoden am besten funktionieren, soll durch eine umfassende experimentelle Vergleichsstudie beantwortet werden. Ein weiteres Ziel dieser Masterarbeit ist, den Einfluss verschiedener Datencharakteristiken auf die Performanz der Methoden mithilfe von Metalearning zu untersuchen.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Bayesian_Optimization_for_Wrapper_Feature_Selection&diff=986Bayesian Optimization for Wrapper Feature Selection2019-05-29T13:27:25Z<p>Jakob.bach@kit.edu: </p>
<hr />
<div>{{Vortrag<br />
|vortragender=Adrian Kruck<br />
|email=uaenk@student.kit.edu<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-06-07<br />
|kurzfassung=Wrapper feature selection can lead to highly accurate classifications. However, the computational costs for this are very high in general. Bayesian Optimization on the other hand has already proven to be very efficient in optimizing black box functions. This approach uses Bayesian Optimization in order to minimize the number of evaluations, i.e. the training of models with different feature subsets.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Bayesian_Optimization_for_Wrapper_Feature_Selection&diff=985Bayesian Optimization for Wrapper Feature Selection2019-05-29T05:42:51Z<p>Jakob.bach@kit.edu: </p>
<hr />
<div>{{Vortrag<br />
|vortragender=Adrian Kruck<br />
|email=adrian.kruck@googlemail.com<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-06-07<br />
|kurzfassung=Wrapper feature selection can lead to highly accurate classifications. However, the computational costs for this are very high in general. Bayesian Optimization on the other hand has already proven to be very efficient in optimizing black box functions. This approach uses Bayesian Optimization in order to minimize the number of evaluations, i.e. the training of models with different feature subsets.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Bayesian_Optimization_for_Wrapper_Feature_Selection&diff=984Bayesian Optimization for Wrapper Feature Selection2019-05-27T12:09:16Z<p>Jakob.bach@kit.edu: Die Seite wurde neu angelegt: „{{Vortrag |vortragender=Adrian Kruck |email=adrian.kruck@googlemail.com |vortragstyp=Proposal |betreuer=Jakob Bach |termin=Institutsseminar/2019-06-07 |kurzfas…“</p>
<hr />
<div>{{Vortrag<br />
|vortragender=Adrian Kruck<br />
|email=adrian.kruck@googlemail.com<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-06-07<br />
|kurzfassung=...<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Predictability_of_Classi%EF%AC%81cation_Performance_Measures_with_Meta-Learning&diff=944Predictability of Classification Performance Measures with Meta-Learning2019-04-02T08:48:13Z<p>Jakob.bach@kit.edu: Die Seite wurde neu angelegt: „{{Vortrag |vortragender=Huijie Wang |email=upssh@student.kit.edu |vortragstyp=Proposal |betreuer=Jakob Bach |termin=Institutsseminar/2019-04-12 |kurzfassung=In…“</p>
<hr />
<div>{{Vortrag<br />
|vortragender=Huijie Wang<br />
|email=upssh@student.kit.edu<br />
|vortragstyp=Proposal<br />
|betreuer=Jakob Bach<br />
|termin=Institutsseminar/2019-04-12<br />
|kurzfassung=In machine learning, classification is the problem of identifying to which of a set of categories a new instance belongs. Usually, we cannot tell how the model performs until it is trained. Meta-learning, which learns about the learning algorithms themselves, can predict the performance of a model without training it based on meta-features of datasets and performance measures of previous runs. Though there is a rich variety of meta-features and performance measures on meta-learning, existing works usually focus on which meta-features are likely to correlate with model performance using one particular measure. The effect of different types of performance measures remain unclear as it is hard to draw a comparison between results of existing works, which are based on different meta-data sets as well as meta-models. The goal of this thesis is to study if certain types of performance measures can be predicted better than other ones and how much does the choice of the meta-model matter, by constructing different meta-regression models on same meta-features and different performance measures. We will use an experimental approach to evaluate our study.<br />
}}</div>Jakob.bach@kit.eduhttps://sdq.kastel.kit.edu/mediawiki-institutsseminar/index.php?title=Jakob_Bach&diff=942Jakob Bach2019-04-01T15:06:02Z<p>Jakob.bach@kit.edu: Die Seite wurde neu angelegt: „{{Betreuer |email=jakob.bach@kit.edu |homepage=http://dbis.ipd.kit.edu/2562.php |lehrstuhl=IPD Böhm }}“</p>
<hr />
<div>{{Betreuer<br />
|email=jakob.bach@kit.edu<br />
|homepage=http://dbis.ipd.kit.edu/2562.php<br />
|lehrstuhl=IPD Böhm<br />
}}</div>Jakob.bach@kit.edu