Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

steve hsu
Físico, fundador de IA, Manifold Podcast
EE. UU. gasta ~1% del PIB para competir con la RPC hacia la AGI, pero los ideólogos no pueden molestarse en entender el impacto de la IA/ML y los enormes conjuntos de datos genómicos en la REPRODUCCIÓN HUMANA. 🤡🐒

steve hsu7 dic, 23:50
The Guardian se está uniendo lentamente a la comunidad basada en la realidad en genómica.
Las parejas de IVF del Reino Unido utilizan un vacío legal para clasificar embriones según el potencial de IQ, altura y salud.
¿Qué es el cribado embrionario poligénico en IVF y funciona?
Los científicos han desarrollado algoritmos que proporcionan puntuaciones predictivas para una serie de rasgos físicos y mentales.

8,06K
The Guardian se está uniendo lentamente a la comunidad basada en la realidad en genómica.
Las parejas de IVF del Reino Unido utilizan un vacío legal para clasificar embriones según el potencial de IQ, altura y salud.
¿Qué es el cribado embrionario poligénico en IVF y funciona?
Los científicos han desarrollado algoritmos que proporcionan puntuaciones predictivas para una serie de rasgos físicos y mentales.

15,45K
Atención Escasa de DeepSeek (DSA) en V3.2:
"Nuestro benchmark de Razonamiento de Largo Contexto no mostró ningún costo en la inteligencia con la introducción de DSA. DeepSeek reflejó esta ventaja de costo de V3.2-Exp al reducir el precio de su API de primera parte de $0.56/$1.68 a $0.28/$0.42 por 1M de tokens de entrada/salida - una reducción del 50% y 75% en los precios de los tokens de entrada y salida respectivamente."

Artificial Analysis3 dic, 14:52
DeepSeek V3.2 es el modelo de pesos abiertos más inteligente en el puesto #2 y también se clasifica por delante de Grok 4 y Claude Sonnet 4.5 (Pensamiento) - saca a DeepSeek Sparse Attention del estado de ‘experimental’ y lo combina con un aumento material en la inteligencia.
@deepseek_ai V3.2 obtiene una puntuación de 66 en el Índice de Inteligencia de Análisis Artificial; un aumento sustancial de inteligencia sobre DeepSeek V3.2-Exp (+9 puntos) lanzado en septiembre de 2025. DeepSeek ha cambiado su punto final principal de API a V3.2, sin cambios en los precios respecto a la tarifa de V3.2-Exp - esto coloca el precio en solo $0.28/$0.42 por 1M de tokens de entrada/salida, con un 90% de descuento para los tokens de entrada en caché.
Desde el lanzamiento original de DeepSeek V3 hace aproximadamente 11 meses a finales de diciembre de 2024, la arquitectura V3 de DeepSeek con 671B de parámetros totales/37B de parámetros activos ha visto cómo pasaron de un modelo que puntuaba 32 a uno que puntúa 66 en el Índice de Inteligencia de Análisis Artificial.
DeepSeek también ha lanzado V3.2-Speciale, una variante solo de razonamiento con capacidades mejoradas pero un uso de tokens significativamente mayor. Este es un compromiso común en los modelos de razonamiento, donde un razonamiento más mejorado generalmente produce puntuaciones de inteligencia más altas y más tokens de salida. V3.2-Speciale está disponible a través de la API de primera parte de DeepSeek hasta el 15 de diciembre.
V3.2-Speciale actualmente puntúa más bajo en el Índice de Inteligencia de Análisis Artificial (59) que V3.2 (Razonamiento, 66) porque la API de primera parte de DeepSeek aún no admite la llamada a herramientas para este modelo. Si V3.2-Speciale igualara la puntuación tau2 de V3.2 (91%) con la llamada a herramientas habilitada, obtendría una puntuación de aproximadamente 68 en el Índice de Inteligencia, convirtiéndose en el modelo de pesos abiertos más inteligente. V3.2-Speciale utiliza 160M de tokens de salida para ejecutar el Índice de Inteligencia de Análisis Artificial, casi el doble de la cantidad de tokens utilizados por V3.2 en modo de razonamiento.
DeepSeek V3.2 utiliza una arquitectura idéntica a V3.2-Exp, que introdujo DeepSeek Sparse Attention (DSA) para reducir el cómputo requerido para la inferencia de contexto largo. Nuestro benchmark de Razonamiento de Contexto Largo no mostró ningún costo en inteligencia por la introducción de DSA. DeepSeek reflejó esta ventaja de costo de V3.2-Exp al reducir los precios en su API de primera parte de $0.56/$1.68 a $0.28/$0.42 por 1M de tokens de entrada/salida - una reducción del 50% y 75% en los precios de los tokens de entrada y salida respectivamente.
Puntos clave de benchmarking:
➤🧠 DeepSeek V3.2: En modo de razonamiento, DeepSeek V3.2 obtiene 66 en el Índice de Inteligencia de Análisis Artificial y se coloca equivalente a Kimi K2 Thinking (67) y por delante de Grok 4 (65), Grok 4.1 Fast (Razonamiento, 64) y Claude Sonnet 4.5 (Pensamiento, 63). Demuestra aumentos notables en comparación con V3.2-Exp (57) en el uso de herramientas, razonamiento de contexto largo y codificación.
➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale puntúa más alto que V3.2 (Razonamiento) en 7 de los 10 benchmarks en nuestro Índice de Inteligencia. V3.2-Speciale ahora tiene las puntuaciones más altas y la segunda más alta entre todos los modelos para AIME25 (97%) y LiveCodeBench (90%) respectivamente. Sin embargo, como se mencionó anteriormente, la API de primera parte de DeepSeek para V3.2-Speciale no admite la llamada a herramientas y el modelo obtiene una puntuación de 0 en el benchmark tau2.
➤📚 Alucinación y Conocimiento: DeepSeek V3.2-Speciale y V3.2 son los modelos de pesos abiertos mejor clasificados en el Índice de Omnisciencia de Análisis Artificial con puntuaciones de -19 y -23 respectivamente. Los modelos propietarios de Google, Anthropic, OpenAI y xAI suelen liderar este índice.
➤⚡ Rendimiento no razonado: En modo no razonado, DeepSeek V3.2 obtiene 52 en el Índice de Inteligencia de Análisis Artificial (+6 puntos frente a V3.2-Exp) y es el modelo no razonado más inteligente en el puesto #3. DeepSeek V3.2 (No razonado) iguala la inteligencia de DeepSeek R1 0528, un modelo de razonamiento de frontera de mayo de 2025, destacando los rápidos avances en inteligencia logrados a través de mejoras en el preentrenamiento y el RL este año.
➤⚙️ Eficiencia de tokens: En modo de razonamiento, DeepSeek V3.2 utilizó más tokens que V3.2-Exp para ejecutar el Índice de Inteligencia de Análisis Artificial (de 62M a 86M). El uso de tokens sigue siendo similar en la variante no razonada. V3.2-Speciale demuestra un uso de tokens significativamente mayor, utilizando aproximadamente 160M de tokens de salida por delante de Kimi K2 Thinking (140M) y Grok 4 (120M).
➤💲Precios: DeepSeek no ha actualizado el precio por token para su primera parte y las tres variantes están disponibles a $0.28/$0.42 por 1M de tokens de entrada/salida.
Otros detalles del modelo:
➤ ©️ Licencia: DeepSeek V3.2 está disponible bajo la Licencia MIT.
➤ 🌐 Disponibilidad: DeepSeek V3.2 está disponible a través de la API de DeepSeek, que ha reemplazado a DeepSeek V3.2-Exp. Los usuarios pueden acceder a DeepSeek V3.2-Speciale a través de una API temporal de DeepSeek hasta el 15 de diciembre. Dado el aumento de inteligencia en este lanzamiento, esperamos que varios proveedores de terceros ofrezcan este modelo pronto.
➤ 📏 Tamaño: DeepSeek V3.2 Exp tiene 671B de parámetros totales y 37B de parámetros activos. Esto es lo mismo que todos los modelos anteriores en las series DeepSeek V3 y R1.

9,72K
Parte superior
Clasificación
Favoritos
