LLM für den Hausgebrauch – Large Language Models verständlich erklärt

Eine fundierte Einführung in Large Language Models – von Tokenisierung und Embeddings bis Transformer, Self-Attention und Retrieval-Augmented Generation (RAG)

Large Language Models (LLMs) wie GPT oder LLaMA prägen moderne Softwareentwicklung, Recherche und Wissensarbeit. Doch wie funktionieren diese Modelle intern? Dieses Skript erklärt Large Language Models verständlich und mathematisch sauber – geeignet für Studium, Lehre und technisch Interessierte.

Beginnend bei der Tokenisierung über Embeddings und den Self-Attention-Mechanismus bis hin zur Transformer-Architektur wird Schritt für Schritt gezeigt, wie LLMs Wahrscheinlichkeiten für das nächste Token berechnen und daraus Antworten erzeugen.

📄 Downloads & Materialien

PDF herunterladen: LLM für den Hausgebrauch (50 Seiten, deutsch)

Downloads:

💻 Jupyter Notebooks & Quellcode auf GitHub

Überblick über das Skript

Das Skript führt systematisch durch die Architektur moderner Large Language Models: von den mathematischen Grundlagen über Trainingsverfahren bis hin zu aktuellen Erweiterungen wie Vektor-Datenbanken und Retrieval-Augmented Generation (RAG).

Inhaltliche Schwerpunkte

Zielgruppe

Das Skript richtet sich an Studierende der Informatik sowie technisch interessierte Praktiker:innen, die Large Language Models nicht nur anwenden, sondern verstehen möchten.

Interaktive Jupyter Notebooks

Zu allen zentralen Konzepten stehen interaktive Jupyter Notebooks zur Verfügung, die direkt in Google Colab ausgeführt werden können – ohne lokale Installation.

Kontakt & Feedback

Autor: Karsten Keßler
Stand: Januar 2026
E-Mail: tutor@kkessler.de