Zur Seitennavigation oder mit Tastenkombination für den accesskey-Taste und Taste 1 
Zum Seiteninhalt oder mit Tastenkombination für den accesskey und Taste 2 

Informatik Kolloquium - Einzelansicht

  • Funktionen:
Grunddaten
Veranstaltungsart Kolloquium Langtext
Veranstaltungsnummer 194075 Kurztext
Semester WS 2021 SWS
Teilnehmer 1. Platzvergabe 40 Max. Teilnehmer 2. Platzvergabe 40
Rhythmus keine Übernahme Studienjahr
Credits für IB und SPZ
E-Learning
Hyperlink
Sprache Englisch
Belegungsfrist Zur Zeit keine Belegung möglich
Abmeldefrist derzeit keine Abmeldung von zugelassenen Lehrveranstaltungen möglich
Termine Gruppe: 1-Gruppe iCalendar Export für Outlook
  Tag Zeit Rhythmus Dauer Raum Lehrperson (Zuständigkeit) Status Bemerkung fällt aus am Max. Teilnehmer 2. Platzvergabe
Einzeltermine ausblenden Di. 10:00 bis 12:00 Einzel-V. 26.10.2021 bis
26.10.2021
Carl-Zeiß-Straße 3 - SR 308   findet statt  
Einzeltermine:
  • 26.10.2021
Gruppe 1-Gruppe:
 



Zugeordnete Person
Zugeordnete Person Zuständigkeit
Denzler, Joachim, Universitätsprofessor, Dr.-Ing. verantwortlich
Zuordnung zu Einrichtungen
Institut für Informatik
Inhalt
Kommentar

Informatik-Kolloquium

der Friedrich-Schiller-Universität Jena

Regionalgruppe Ostthüringen der Gesellschaft für Informatik (GI)

Ernst-Abbe-Hochschule Jena

 

José Miguel Hernández Lobato

„Probabilistic Methods for Increased Robustness in Machine Learning “

 

Most machine learning methods are brittle and their performance degrades catastrophically when the input data distribution changes. In this talk, I will describe two probabilistic approaches to address this problem. First, to obtain methods that degrade gracefully, I will focus on scaling accurate approximate Bayesian inference to large neural networks. I will show that it is enough to perform inference over a small subset of the model weights to obtain accurate predictive posteriors. The resulting method, called subnetwork inference, achieves very significant improvements when making predictions under distribution shift. Second, to avoid performance degradation in specific cases, I will describe invariant Causal Representation Learning (iCaRL), an approach that enables accurate out-of-distribution generalization when there is training data collected under different conditions (environments). iCaRL achieves generalization guarantees by assuming that the latent variables encoding the inputs follow a general exponential family distribution when conditioning on the outputs and the training environment. Experiments on both synthetic and real-world datasets show that iCaRL produces very significant improvements over existing baselines.

 

Alle Interessierte sind herzlich eingeladen!

J. Denzler (FSU), Ch. Erfurth (EAH), H. Schilder (axxur, GI- Regionalgruppe)

Strukturbaum
Keine Einordnung ins Vorlesungsverzeichnis vorhanden. Veranstaltung ist aus dem Semester WS 2021 , Aktuelles Semester: SoSe 2024

Impressum | Datenschutzerklärung