Retour au portfolio
Section 13

Architectures Transformers

Deep dives into modele internals: construction Multi-Head Attention mechanisms depuis the ground up.

Projets dans cette section: 0

Transformer LLM from scratch
Architectures TransformersGitHub

Transformer LLM from scratch

Complete transformer-based language modele construit depuis scratch.

Multi-Head Attention depuis zero
Architectures TransformersChemin local

Multi-Head Attention depuis zero

construction the Attention mechanism tensor by tensor.