Dr. Sandra Zilles
(University of Alberta, Edmonton, Canada)"Iteratives Lernen - formale Grundlagen für effiziente maschinelle Lernverfahren"
Beim Lernen von Klassifikatoren aus Datenströmen ist es im Allgemeinen nicht machbar,
online neue Hypothesen zu berechnen und dabei alle bisherigen Daten zu berücksichtigen.
Oft sind iterative Algorithmen, die ihre vorherige Hypothese allein anhand des aktuellen
Trainingsbeispiels revidieren, besser geeignet.
Im Vortrag geht es um die Frage, ob man bestimmte intuitive Anforderungen an solche
iterativen Lernverfahren stellen kann, ohne deren prinzipielle Leistungsfähigkeit zu
beeinträchtigen. Dazu analysieren wir das iterative Lernen in Golds abstraktem Modell vom
Lernen im Limes. Intuitive Anforderungen sind in diesem Fall Konsistenz (Hypothesen
dürfen bekannten Daten nie widersprechen) und Konservativität (Hypothesen müssen
beibehalten werden, solange sie konsistent sind). Beide Anforderungen werden beispielsweise
von Rosenblatts Perzeptron-Algorithmus (einem klassischen iterativen Lernverfahren), aber
nicht notwendigerweise von jedem iterativen Lernverfahren erfüllt.
Die Ergebnisse einer formalen Analyse illustrieren, inwiefern verschiedene Konsistenz- bzw.
Konservativitätsanforderungen die Leistungsfähigkeit iterativer Lernverfahren beeinflussen
können.
Am Beispiel des iterativen Lernens sowie an anderen Beispielen sollen letztlich Zusammenhänge
zwischen der algorithmischen Lerntheorie, der Künstlichen Intelligenz und dem
Maschinellen Lernen aufgezeigt werden.
Zeit: | Mittwoch, 06.02.2008, 15.30 Uhr |
---|---|
Ort: | Gebäude 48, Raum 210 |