Kommentar |
Das Schlagwort "Künstliche Intelligenz" (KI; Artificial Intelligence -- AI) erlebt seit einigen Jahren eine Hochkonjunktur. Als wissenschaftliches Forschungsgebiet Mitte der 1950er Jahre entstanden, verbinden sich mit der KI von Anfang an ebenso Hoffnungen auf die Unterstützung menschlichen Denkens und Handelns durch lernende Automaten wie Befürchtungen der Unterordnung des Menschen unter Maschinen, die seine Intelligenz übersteigen. Eine wichtige theoretische Frage bei der Einschätzung der KI betrifft die Nachvollziehbarkeit des Verhaltens intelligenter Systeme: Einem System, dessen Verhalten für den Nutzer, womöglich sogar für den Erbauer nicht erklärbar und deshalb auch nur sehr begrenzt beeinflussbar ist, wird wesentlich weniger Vertrauen entgegengebracht werden als einem System, dessen Verhalten nachvollziehbar ist. Die Erklärbarkeit des Verhaltens zu einem Grundprinzip der Entwicklung von KI-Systemen zu machen, ist wesentliches Ziel der sogenannten "Explainable AI" (XAI). Das Seminar wird sowohl erkenntnistheoretische Grundlagen (z.B. den Begriff der Erklärbarkeit) und informatische Aspekte als auch normative Fragen (etwa der Regulierung des Einsatzes von KI-Systemen) der Diskussion um XAI interdisziplinär erörtern.
|