LLM für den Hausgebrauch – Large Language Models verständlich erklärt
Kompaktes Lehrskript: von Tokenisierung bis Transformer & RAG – verständlich erklärt und mathematisch sauber, inkl. Notebooks.
📄 Downloads
Was drin ist (Kurzüberblick):
- Wie LLMs Tokens in Wahrscheinlichkeiten und Antworten verwandeln
- Transformer & Self-Attention (mit Rechenbeispielen)
- Training: Softmax, Cross-Entropy, Gradienten/Backpropagation
- RAG: Kontext-Erweiterung zur Laufzeit statt Retraining
- Vektor-DBs: Embeddings, Similarity Search, Indexing (HNSW)
- Vektorsuche vs. SQL-Suche: semantische Ähnlichkeit vs. exakte Text-/Filterabfragen
- HNSW-Index: schnelle Approximate-Nearest-Neighbor-Suche über Graph + Hierarchie