Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
temas clave para aprender cómo funcionan los llms, todo lo que se necesita es < 2 años si tienes una base en cs
> tokenización y embeddings
> embeddings posicionales (absolutos, rope, alibi)
> autoatención y atención multi-cabeza
> transformadores
> qkv
> parámetros de muestreo: temperatura, top-k top-p
> caché kv (y por qué la inferencia es rápida)
> atención infinita y ventana deslizante (trucos de contexto largo)
> mezcla de expertos (capas de enrutamiento moe)
> atención de consulta agrupada
> normalización y activaciones
> objetivos de preentrenamiento (causal, enmascarado, etc)
> ajuste fino vs ajuste por instrucciones vs rlhf
> leyes de escalado y curvas de capacidad del modelo
temas adicionales:
> cuantizaciones - qat vs ptq (ggufs, awq, etc)
> pilas de entrenamiento vs inferencia (deepspeed, vllm, etc)
> generación de datos sintéticos
Parte superior
Clasificación
Favoritos