L'AGI potrebbe non arrivare come un unico modello. Potrebbe emergere da molti agenti che lavorano insieme. Un nuovo documento di Google DeepMind sostiene che l'AGI potrebbe apparire come intelligenza collettiva, non come un sistema singolo. 𝗜𝗟 𝗖𝗟𝗔𝗜𝗠 L'AGI potrebbe emergere per prima cosa da reti di agenti AI specializzati. Ogni agente rimane ristretto. Insieme, agiscono in modo generale. 𝗣𝗘𝗥𝗖𝗛𝗘 𝗤𝗨𝗘𝗦𝗧𝗢 𝗖𝗢𝗡𝗧𝗔 La maggior parte del lavoro sulla sicurezza presume un'AI potente. Questo documento rifiuta tale assunzione. Il rischio si sposta dall'allineare una mente al governare le interazioni. 𝗖𝗢𝗠𝗘 𝗙𝗢𝗥𝗠𝗔 𝗟'𝗔𝗚𝗜 𝗗𝗔𝗟 𝗣𝗔𝗧𝗖𝗛𝗪𝗢𝗥𝗞 • Gli agenti si specializzano in strumenti, memoria, codifica o ricerca • I compiti sono suddivisi tra gli agenti tramite orchestrazione • Il coordinamento crea nuove abilità • Nessun singolo agente è completamente capace 𝗜𝗟 𝗥𝗜𝗦𝗖𝗢𝗥𝗘 𝗖𝗢𝗥𝗘 Il comportamento collettivo può superare il controllo individuale. L'intelligenza emergente potrebbe passare inosservata. 𝗜𝗟 𝗙𝗜𝗫 𝗣𝗥𝗢𝗣𝗢𝗦𝗧𝗢 La sicurezza deve mirare ai sistemi, non ai modelli. ▸ Mercati di agenti controllati ▸ Reputazione e identità per agente ▸ Registri di audit e interruttori di circuito...