Multi-Head-Attention in LLMs, visuell erklärt: