C'è un 2x2 qui per l'AI trasformativa come: generalizza contro specializza, armonizza contro destabilizza. Il primo tiene traccia della centralizzazione, tende verso modelli più grandi e meno numerosi nello stato più generalizzato. Il secondo riguarda di più il blocco della frequenza delle AI ai tempi umani, ai modelli di coordinamento, ai cicli che sono importanti per noi. Quindi potresti avere un mondo che generalizza / armonizza, con giganti gentili che lavorano insieme in modo lecito, oppure specializza / destabilizza, una guerra asimmetrica di tutti contro tutti, ecc. Aspetta, ho appena reinventato i grafici di allineamento?