University · Artificial Intelligence · Deep Learning
Transformers and Attention Mechanisms
4 Abschnitte1 Karteikarten-Decks1 Quizze
Self-attention, encoder/decoder transformers, and the architecture behind modern LLMs
Inhaltsübersicht
- Attention Is All You Need: The Core Mechanism
- Encoder, Decoder, and the Full Transformer Block
- Efficient and Long-Context Attention
- Applications Beyond Language: Vision, Multimodality, and Practical Use

📚 Vollständiges Lernmaterial mit 4 Abschnitten, Karteikarten und Quizzen verfügbar nach Anmeldung.
Jetzt kostenlos lernen →Related Topics
Interaktiv lernen mit Karteikarten & Quizzen
Melde dich an und lerne Deep Learning mit intelligenten Wiederholungen, Quizzen und KI-Lernhilfen. 7 Tage kostenlos.
Kostenlos testen