Zur Seitennavigation oder mit Tastenkombination für den accesskey-Taste und Taste 1 
Zum Seiteninhalt oder mit Tastenkombination für den accesskey und Taste 2 

ONLINE im WS 21/22: Lerntheorie - Inferenz in probabilistischen Modellen - Einzelansicht

  • Funktionen:
Grunddaten
Veranstaltungsart Vorlesung/Übung Langtext
Veranstaltungsnummer 180722 Kurztext
Semester WS 2021 SWS 4
Teilnehmer 1. Platzvergabe 10 Max. Teilnehmer 2. Platzvergabe 10
Rhythmus Jedes 2. Semester Studienjahr
Credits für IB und SPZ
E-Learning
Hyperlink
Sprache Deutsch
Belegungsfrist Zur Zeit keine Belegung möglich
Abmeldefristen
Nach Zulassung ist eine Abmeldung nur durch den Dozenten möglich.

Nach Zulassung ist eine Abmeldung auch durch den Teilnehmer möglich.

Nach Zulassung ist eine Abmeldung nur durch den Dozenten möglich.
Termine Gruppe: 1-Gruppe iCalendar Export für Outlook
  Tag Zeit Rhythmus Dauer Raum Lehrperson (Zuständigkeit) Status Bemerkung fällt aus am Max. Teilnehmer 2. Platzvergabe
Einzeltermine anzeigen Mo. 10:00 bis 12:00 w. 18.10.2021 bis
07.02.2022
    findet statt  
Einzeltermine anzeigen Mi. 10:00 bis 12:00 w. 20.10.2021 bis
09.02.2022
    findet statt  
Gruppe 1-Gruppe:



Zugeordnete Personen
Zugeordnete Personen Zuständigkeit
Giesen, Joachim, Universitätsprofessor, Dr. verantwortlich
Habeck, Michael, Universitätsprofessor, Dr. verantwortlich
Laue, Sören , Dr.-Ing. verantwortlich
Zuordnung zu Einrichtungen
Fakultät für Mathematik und Informatik
Inhalt
Kommentar

Ein probabilistisches Modell ist eine multivariate Wahrscheinlichkeitsverteilung, d.h. eine Wahrscheinlichkeitsverteilung auf einem multidimensionalen Sample Space. Mithilfe des Modells möchte man verschiedene Inferenzanfragen bedienen. Eine erste Inferenzanfrage ist, dass man die Wahrscheinlichkeitsverteilung an einem Punkt aus dem Sample Space auswerten will. Diese Anfrage wird auch probability of evidence (PoE) genannt. Eine weitere Anfrage ist Marginalisieren, d.h. eine Projektion der Wahrscheinlichkeitsverteilung auf ausgewählte Komponenten des Sample Spaces. Die Projektion wird auf Prior Marginal genannt. Manchmal möchte man auch einen Teil der Komponenten auf feste Werte setzen. In diesem Fall spricht man von einem Posterior-Marginal. In jedem Fall ist das Ergebnis einer Marginalisierungsanfrage ist wieder eine Wahrscheinlichkeitsverteilung. Ein dritter Typ von Anfrage fixiert auch wieder einen Teil der Komponenten und fragt nach der Belegung der restlichen Komponenten, die das entsprechende Posterior-Marginal maximieren. Eine solche Anfrage wird maximum a posteriori Hypothese (MAP) genannt. Im Spezialfall, dass für keine Komponente Werte fixiert werden, spricht man auch von der maximal probable explanation (MEP).

Im Allgemeinen sind alle drei Typen von Anfragen schwierig, d.h. es gibt keine effizienten Algorithmen für sie. Deshalb spielen Approximationsalgorithmen eine wichtige Rolle in der Inferenz. Eine wichtige Klasse von Approximationsalgorithmen sind Sampling basiert, d.h. die Algorithmen samplen aus der Wahrscheinlichkeitsverteilung und beantworten die Anfrage mithilfe des Samples. Eine andere Klasse von Approximationsalgorithmen sucht nach einer besten Approximation an die Antwort der Inferenzanfrage in einer parametrisierten Klasse von Wahrscheinlichkeitsverteilungen. Damit wird das approximative Inferenzproblem auf ein (Parameter-)Optimierungsproblem reduziert.

In der Vorlesung sollen exakte Inferenzmethoden, Sampling-basierte Methoden (Markov Chain Monte Carlo Methoden) und Optimierungsmethoden (Variationsinferenz) besprochen werden. Die Vorlesung gliedert sich also in die drei Teile exakte Methoden, Sampling und Variationsinferenz, die von verschiedenen Dozenten gehalten werden. Joachim Giesen startet mit einer Einführung und exakten Methoden. Danach übernimmt Michael Habeck für den Teil über Sampling. Den Abschluss macht Soeren Laue, der Variationsinferenz besprechen wird.

Literatur

Zum Vorlesungsteil exakte Inferenz wird es ein Vorlesungsskript geben, das über Moodle zur Verfügung gestellt wird.

Zielgruppe

Masterstudierende oder fortgeschrittene Bachelorstudierende mit Interesse an theoretischer Informatik und/oder maschinellem Lernen.

Strukturbaum
Keine Einordnung ins Vorlesungsverzeichnis vorhanden. Veranstaltung ist aus dem Semester WS 2021 , Aktuelles Semester: SoSe 2024

Impressum | Datenschutzerklärung