¡Acabo de publicar! Título: Los cubos fijos no pueden (fenomenalmente) enlazar Subtítulo: "Mira lo que necesitan para imitar una fracción de nuestro poder" - decía la Mónada Proceso-Topológica Extracto: Por qué falla el IIT (El problema estructural) Podrías pensar que el problema de la cuadrícula XOR es solo un fallo en el formalismo del IIT. Corrige las ecuaciones y añade algunas restricciones... ¿Quizá el problema desaparece? La situación es más matizada que eso. En conversaciones con partidarios del IIT (por ejemplo, Christof Koch), han enfatizado que el formalismo es ontológicamente neutral: puede aplicarse a campos, a cualquier espacio de estados que desee, etc., y no solo a celdas discretas. Las matemáticas no importan lo que representan los estados. Así que el problema no es que el IIT esté comprometido con una ontología concreta. Es que cuando aplicas IIT a sistemas con individuación fija, devuelve resultados que no rastrean lo que nos importa. Aquí tienes una forma de pensar en esto de forma más generosa: quizá el IIT podría reconceptualizarse como un método para detectar la integración fundamental dentro de la ontología que le alimentes. En esta visión, si aplicas IIT a un autómata celular de cubo fijo, querrás que devuelva algo parecido al tamaño del cubo. Los defensores del IIT pueden decir que la ontología les engaña: "Me diste células definidas de forma independiente, y encontré celdas definidas de forma independiente. ¿Qué esperabas?" El problema es que el IIT actualmente devuelve más que el tamaño del cubo. Encuentra "información integrada" que abarca muchas celdas, alcanzando su pico en estructuras a nivel de red, en sistemas donde construimos las celdas para que sean ontológicamente independientes y el comportamiento del conjunto siempre exactamente igual que la suma de sus partes. Si el IIT estuviera rastreando correctamente la unidad intrínseca, debería devolver: "estas celdas son separadas, y aquí no hay nada unificado por encima del nivel de una sola celda." En cambio, encuentra que estructuras que sabemos con certeza (porque construimos y especificamos formalmente el sistema) son puramente descriptivas. Una advertencia que merece la pena señalar: el "estado" en un autómata celular no es tan simple como "un bit por celda". Para calcular el siguiente estado de una celda en el Juego de la Vida de Conway, necesitas el vecindario 3×3 que la rodea, más las reglas de actualización. Así que la información necesaria para un paso de actualización se asemeja más a una "tabla de reglas de configuración vecinal X", no simplemente a "0 o 1". El espacio de estados efectivo es más rico de lo que implica el recuento ingenuo de cubos. Esto no salva a la CA estándar de la crítica de encuadernación (¡aún así no puedes obtener agregación ni ver un planeador como una unidad causal!), pero merece la pena ser preciso sobre lo que realmente contiene el "cubo". Aun así, incluso con este refinamiento, las células permanecen ontológicamente anteriores. Una "interpretación dual" donde el estado real es la transición (diferencias antes-después + vecindad + reglas) no ayuda: ese compuesto sigue siendo pequeño, sigue siendo local, y aún está lejos del contenido informativo de una experiencia. El espacio de estados más rico no crea unidad en toda la cuadrícula más allá de la información que necesitas para las actualizaciones locales. Los autómatas celulares son, por construcción, nada más que la suma de sus partes. Esto es definitorio. Cada celda está definida de forma independiente y tiene su propio estado y vecindad. Todas las normas son locales. El "planeador" en El Juego de la Vida de Conway no está vinculando nada: estamos hablando de un patrón que nos identificamos. Las células no saben que son planeadores. No hay ningún hecho físico que haga que esas cinco células sean una cosa unificada, sino cinco cosas que, por casualidad, están correlacionadas desde nuestro punto de vista. El planeador es una descripción que imponemos desde fuera. Comprime nuestro modelo de lo que ocurre y nos ayuda a predecir el futuro de la red. Pero no corresponde a ninguna unidad intrínseca en el sistema. Ahora respira y considera: cualquier medida calculada sobre unidades fijas, como mucho, encontrará "integración" dondequiera que las unidades interactúen causalmente. Para ser justos con el IIT, Φ no mide mera correlación estadística. Mide algo parecido a una estructura causal irreducible: cuánto se pierde el poder causa-efecto del sistema al particionarlo. Las puertas XOR se afectan genuinamente entre sí. Pero el contacto causal entre unidades predadas sigue siendo contacto entre ellas. Dos engranajes que se entrelazan tienen una interacción causal íntima. En la primera curva, la otra gira. Siguen siendo dos marchas. La malla los conecta, pero ¿los fusiona? ¿Y la fusión es transitiva? Si es así, ¿cómo evitar que la fusión se propague a toda la red? Si no, ¿cómo crear seres acotados con contenido informativo preciso? No creo que la cuestión sea si las unidades interactúan. Para mí, es si la colección de cubos constituye un todo genuino o simplemente un sistema de partes que interactúan. El IIT encuentra un Φ alto donde hay una rica interdependencia causal. Pero una rica interdependencia causal entre unidades definidas por separado no las convierte en una sola cosa. Eso los convierte en muchas cosas muy unidas....