Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
El lanzamiento de Extropic de hoy plantea algunas nuevas banderas rojas.
Comencé a seguir a esta empresa cuando se negaron a explicar la especificación de entrada/salida de lo que están construyendo, dejándonos esperando una aclaración.)
Aquí hay 3 banderas rojas de hoy:
1. De
"La IA generativa es muestreo. Todos los algoritmos de IA generativa son esencialmente procedimientos para muestrear de distribuciones de probabilidad. Entrenar un modelo de IA generativa corresponde a inferir la distribución de probabilidad que subyace a algunos datos de entrenamiento, y ejecutar inferencias corresponde a generar muestras de la distribución aprendida. Debido a que los TSUs muestrean, pueden ejecutar algoritmos de IA generativa de forma nativa."
Esta es una afirmación altamente engañosa sobre los algoritmos que alimentan las IA modernas más útiles, al mismo nivel de manipulación que llamar al cerebro humano un ordenador termodinámico. Según entiendo, hasta donde se sabe, la mayoría del trabajo de computación de IA no coincide con el tipo de entrada/salida que se puede alimentar en el chip de Extropic.
La página dice:
"El siguiente desafío es averiguar cómo combinar estos primitivos de una manera que permita escalar las capacidades a algo comparable a los LLM de hoy. Para hacer esto, necesitaremos construir TSUs muy grandes e inventar nuevos algoritmos que puedan consumir una cantidad arbitraria de recursos de computación probabilística."
¿Realmente necesitas construir TSUs grandes para investigar si es posible que aplicaciones similares a LLM se beneficien de este hardware? Pensé que valdría la pena gastar un par de millones de dólares en investigar esa pregunta a través de una combinación de teoría y hardware moderno de supercomputación en la nube, en lugar de gastar más de 30 millones de dólares en construir hardware que podría ser un puente a ninguna parte.
Su propia documentación para su THRML (su biblioteca de código abierto) dice:
"THRML proporciona herramientas aceleradas por GPU para muestreo en bloques en gráficos dispersos y heterogéneos, lo que lo convierte en un lugar natural para prototipar hoy y experimentar con el hardware Extropic del futuro."
Estás diciendo que careces de una forma en que tus primitivos de hardware podrían *en principio* aplicarse a aplicaciones útiles de algún tipo, y creaste esta biblioteca para ayudar a hacer ese tipo de investigación utilizando las GPUs de hoy…
¿Por qué no simplemente lanzaste la biblioteca de Python antes (THRML), hiciste la investigación sobre cuellos de botella que dijiste que necesitaba hacerse antes, y comprometiste a la comunidad para ayudar a obtener una respuesta a esta pregunta clave hasta ahora? ¿Por qué estuviste esperando todo este tiempo para lanzar primero este prototipo de hardware extremadamente nicho y a pequeña escala para explicar este cuello de botella crucial, y solo publicitar tu búsqueda de posibles socios que tengan algún tipo de "cargas de trabajo probabilísticas" ahora, cuando el costo de no hacerlo fue de 30 millones de dólares y 18 meses?
2. De
"Desarrollamos un modelo de nuestra arquitectura TSU y lo utilizamos para estimar cuánta energía tomaría ejecutar el proceso de desruido mostrado en la animación anterior. Lo que encontramos es que los DTM que funcionan en TSUs pueden ser aproximadamente 10,000 veces más eficientes energéticamente que los algoritmos estándar de generación de imágenes en GPUs."
Ya estoy viendo a la gente en Twitter hypeando la afirmación de 10,000 veces. Pero para cualquiera que haya seguido la saga de décadas de empresas de computación cuántica que afirman haber alcanzado la "supremacía cuántica" con cifras de hype similares, sabes cuánto cuidado se necesita para definir ese tipo de referencia.
En la práctica, tiende a ser extremadamente difícil señalar situaciones donde un enfoque de computación clásica *no* sea mucho más rápido que el supuesto enfoque de "computación termodinámica 10,000 veces más rápido". El equipo de Extropic sabe esto, pero optó por no elaborar sobre el tipo de condiciones que podrían reproducir este benchmark de hype que querían ver volverse viral.
3. La terminología que están usando ha sido cambiada a "ordenador probabilístico": "Diseñamos el primer ordenador probabilístico escalable del mundo." Hasta hoy, estaban usando "ordenador termodinámico" como su término, y afirmaron por escrito que "el cerebro es un ordenador termodinámico".
Se les podría dar el beneficio de la duda por cambiar su terminología. Es solo que siempre estaban hablando tonterías sobre el cerebro siendo un "ordenador termodinámico" (en mi opinión, el cerebro no es ni eso ni un "ordenador cuántico"; es muy mucho un algoritmo de red neuronal que funciona en una arquitectura de ordenador clásica). Y este repentino cambio de terminología es consistente con que han estado hablando tonterías en ese frente.
Ahora, para los aspectos positivos:
* ¡Se construyó algo de hardware!
* Explican cómo su entrada/salida potencialmente tiene una aplicación en desruido, aunque como se mencionó, son vagos sobre los detalles de la supuesta "supremacía termodinámica 10,000 veces" que lograron en este frente.
En general:
Esto es lo que esperaba cuando comencé a preguntar por la entrada/salida hace 18 meses.
Tenían una idea legítimamente genial para un hardware, pero no tenían un plan para hacerlo útil, pero tenían algunos comienzos vagos de alguna investigación teórica que tenía una oportunidad de hacerlo útil.
Parece que han hecho un progreso respetable al llevar el hardware a producción (la cantidad que 30 millones de dólares te compra), y aparentemente menos progreso encontrando razones por las cuales este hardware particular, incluso después de 10 generaciones de refinamientos sucesores, va a ser útil para alguien.
De aquí en adelante, en lugar de responder a preguntas sobre la entrada/salida de tu dispositivo "mogando" a la gente y diciendo que es un secreto de la empresa, y tuiteando hipersticiones sobre tu dios termodinámico, recomendaría ser más abierto sobre la aparentemente gigante pregunta de vida o muerte que la comunidad tecnológica podría estar realmente interesada en ayudarte a responder: si alguien puede escribir un programa en Python en tu simulador con evidencia más sólida de que algún tipo de "supremacía termodinámica" con tu concepto de hardware puede ser alguna vez una realidad.

Supongo que algunos otros también caerán en la misma caracterización errónea que tú, así que aclararé:
Esto no es un paso 1 en el camino hacia un paso 10 útil. Se está avanzando agresivamente en hardware sin una historia teórica coherente, lo cual admiten. Está bien, simplemente es inusual estar tan bien financiados. Hay muchos proyectos de investigación en universidades con presupuestos ajustados que tienen una historia más coherente sobre lo que necesita ser construido y por qué.
@NGDPAB 2. Veo media página aquí, pero mi punto es que demostrar aceleraciones a una escala pequeña no vale mucho. Todos lo sabemos.

Re: Bandera roja #2, la engañosa exageración de "10,000x":

Como estaba diciendo, el cuello de botella para el éxito de Extropic es la esperanza de que alguien aparezca con una aplicación útil de su idea arriesgada.
Simplemente no es recomendable gastar más de 30 millones de dólares cuando esta misma jugada arriesgada podría haberse hecho primero.
287,48K
Parte superior
Clasificación
Favoritos

