¡Publicación reciente! Título: Los cubos fijos no pueden (fenomenalmente) unir Subtítulo: "Mira lo que necesitan para imitar una fracción de nuestro poder" - dijo el Monad Procesal-Topológico Extracto: Por qué IIT falla (el problema estructural) Podrías pensar que el problema de la cuadrícula XOR es solo un error en el formalismo de IIT. ¿Arreglas las ecuaciones y añades algunas restricciones… quizás el problema desaparezca? La situación es más matizada que eso. En conversación con los defensores de IIT (por ejemplo, Christof Koch), han enfatizado que el formalismo es ontológicamente neutral: se puede aplicar a campos, a cualquier espacio de estados que desees, etc., y no solo a celdas discretas. A las matemáticas no les importa qué representan los estados. Así que el problema no es que IIT esté comprometido con una ontología particular. Es que cuando aplicas IIT a sistemas con individuación fija, devuelve resultados que no rastrean lo que nos importa. Aquí hay una forma de pensar en esto de manera más benévola: tal vez IIT podría ser reconceptualizado como un método para detectar la integración fundamental dentro de cualquier ontología que le proporciones. Desde este punto de vista, si aplicas IIT a un autómata celular de cubo fijo, querrías que devolviera algo como el tamaño del cubo. Los defensores de IIT pueden decir que la ontología los está engañando: “Me diste celdas definidas independientemente, y encontré celdas definidas independientemente. ¿Qué esperabas?” El problema es que IIT actualmente devuelve más que el tamaño del cubo. Encuentra “información integrada” que abarca muchas celdas, alcanzando picos en estructuras a nivel de cuadrícula, en sistemas donde construimos las celdas para que sean ontológicamente independientes y el comportamiento del todo siempre es exactamente el mismo que la suma de sus partes. Si IIT estuviera rastreando adecuadamente la unidad intrínseca, debería devolver: “estas celdas son separadas, y no hay nada unificado aquí por encima del nivel de una sola celda.” En cambio, encuentra estructuras que sabemos con certeza (porque construimos y especificamos formalmente el sistema) que son puramente descriptivas. Una advertencia que vale la pena señalar: el “estado” en un autómata celular no es tan simple como “un bit por celda.” Para calcular el siguiente estado de una celda en el Juego de la Vida de Conway, necesitas el vecindario de 3×3 a su alrededor, más las reglas de actualización. Así que la información requerida para un paso de actualización es más parecida a “configuración del vecindario X tabla de reglas,” no meramente “0 o 1.” El espacio de estados efectivo es más rico de lo que implica un conteo ingenuo de cubos. Esto no salva al CA estándar de la crítica de unión, sin embargo (¡todavía no puedes obtener agregación y todavía no puedes ver un planeador como una unidad causal!), pero vale la pena ser preciso sobre lo que realmente contiene el “cubo.” Aún así, incluso con este refinamiento, las celdas siguen siendo ontológicamente anteriores. Una "interpretación dual" donde el estado real es la transición (diferencia antes-después + vecindario + reglas) no ayuda: ese compuesto sigue siendo pequeño, sigue siendo local, sigue estando muy lejos del contenido informativo de una experiencia. El espacio de estado más rico no crea unidad a través de la cuadrícula más allá de la información que necesitas para las actualizaciones locales. Los autómatas celulares son, por construcción, nada más que la suma de sus partes. Esto es definicional. Cada celda está definida independientemente y tiene su propio estado y vecindario. Todas las reglas son locales. El “planeador” en el Juego de la Vida de Conway no está uniendo nada: estamos hablando de un patrón que identificamos nosotros mismos. Las celdas no saben que son un planeador. No hay un hecho físico que convierta esas cinco celdas en una cosa unificada en lugar de cinco cosas que suceden a estar correlacionadas desde nuestro punto de vista. El planeador es una descripción que imponemos desde afuera. Comprime nuestro modelo de lo que está sucediendo y nos ayuda a predecir el futuro de la cuadrícula. Pero no corresponde a ninguna unidad intrínseca en el sistema. Ahora respira hondo y considera: cualquier medida calculada sobre unidades fijas encontrará, como máximo, “integración” dondequiera que las unidades interactúen causalmente. Para ser justos con IIT, Φ no está midiendo mera correlación estadística. Está midiendo algo como estructura causal irreducible: cuánto se pierde el poder de causa-efecto del sistema cuando lo partitionas. Las puertas XOR realmente se afectan causalmente entre sí. Pero el contacto causal entre unidades predefinidas sigue siendo contacto entre ellas. Dos engranajes que encajan tienen una interacción causal íntima. Gira uno, el otro gira. Siguen siendo dos engranajes. El engranaje los conecta, pero ¿los fusiona? ¿Y es la fusión transitiva? Si es así, ¿cómo evitar que la fusión se propague a toda la cuadrícula? Si no, ¿cómo crear seres limitados con contenido informativo preciso? No creo que la pregunta sea si las unidades interactúan. Para mí, es si la colección de cubos constituye un todo genuino o solo un sistema de partes interactivas. IIT encuentra un alto Φ donde hay una rica interdependencia causal. Pero la rica interdependencia causal entre unidades definidas por separado no las convierte en una sola cosa. Las convierte en muchas cosas estrechamente acopladas....