LayerNorm vs. RMSNorm: Warum RMSNorm reicht
LayerNorm zentriert und skaliert, RMSNorm nur skaliert. Warum die Zentrierung verzichtbar ist, ohne Modellqualität zu verlieren, zeigt eine geometrische Erklärung.
Notizen aus dem Data Science Studium. Code, Gedanken, Experimente.
LayerNorm zentriert und skaliert, RMSNorm nur skaliert. Warum die Zentrierung verzichtbar ist, ohne Modellqualität zu verlieren, zeigt eine geometrische Erklärung.
transpose() macht Tensoren non-contiguous (logische ≠ physische Reihenfolge). view() funktioniert nur mit contiguous Tensoren → RuntimeError. Lösung: reshape() statt view()!
Eine praktische Reise durch das Fine-Tuning eines LLAMA 3.1 Modells zur Übersetzung zwischen Standarddeutsch und schwäbischem Dialekt, Datenaufbereitung mit synthetischem Kontext, QLoRA-basierte …
A beginner-friendly guide to neural networks: from individual neurons to a complete Python model that predicts house prices using NumPy.
Eine JavaScript-Lösung für LeetCodes "Remove Duplicates"-Problem, die die Entwicklung vom initialen Ansatz zur finalen Implementierung zeigt, mit Erklärungen der aufgetretenen Bugs und den unterwegs …
Eine prägnante Lösung für LeetCodes Search Insert Position Problem, die mit linearer Suche findet, wo ein Zielwert in einem sortierten Array hingehört, und dabei exzellente Laufzeit-Performance …
Lösungsansatz für LeetCode-Problem 07: „Reverse Integer"
Ein verständlicher Einstieg in die lineare Regression mit Modell, Kostenfunktion und Gradientenabstieg, erklärt am Beispiel von Lernstunden und Noten.