1. Funktionsweise von Large Language Models: Wir werden uns ausgehend von einer groben Einführung zu Neuronalen Netzen über Recurrent Neuronal Networks und speziell mit Transformern beschäftigen. Dabei soll es auch insbesondere um Transformer-Models gehen, auf denen aktuelle Large Language Models wie ChatGPT beruhen. Dabei soll die Funktionsweise und der Trainingsprozess sowie deren Pitfalls im Fokus stehen.
2. Anwendung von Large Language Models: In diesem Abschnitt soll (unter anderem am Beispiel von ChatGPT) erörtert werden, wie die Technologie effektiv angewesendet werden kann undwelche Möglichkeiten sich daraus ergeben. Wir werden verschiedene konkrete Anwendungsbeispiele untersuchen und auch Ideen diskutieren, auf die Technologie aufzusetzen und sie weiterzuentwickeln.
3. Grenzen und Herausforderungen: Wir werden uns eingehend mit den technologischen und natürlichen Grenzen von Large Language Models beschäftigen und herausfinden, welche Themenbereiche für diese Technologie ungeeignet sind. Außerdem werden wir uns mit Plagiatsvorwürfen und dem Erkennen von generierten Texten auseinandersetzen. Schlussendlich leiten wir mit den Risiken, die sich aus der Technologie ergeben in den letzten Abschnitt über.
4. Auswirkungen auf die Gesellschaft: Im letzten Abschnitt werden wir uns mit den Auswirkungen von ChatGPT auf die Gesellschaft und verschiedene Berufe beschäftigen. Wir werden eine gesellschaftswissenschaftliche Diskussion führen über die Auswirkungen der Technologie auf jeden einzelnen wie auch auf die Gesellschaft als solche und wie sich dies in der Zukunft entwickeln könnte.
|