Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La AGI puede no llegar como un solo modelo. Puede surgir de muchos agentes trabajando juntos.
Un nuevo artículo de Google DeepMind argumenta que la AGI podría aparecer como inteligencia colectiva, no como un único sistema.
𝗘𝗟 𝗖𝗟𝗔𝗜𝗠
La AGI puede surgir primero de redes de agentes de IA especializados.
Cada agente se mantiene en un ámbito específico.
Juntos, actúan de manera general.
𝗣𝗢𝗥𝗤𝗨𝗘 𝗘𝗦𝗧𝗢 𝗘𝗦 𝗜𝗠𝗣𝗢𝗥𝗧𝗔𝗡𝗧𝗘
La mayor parte del trabajo de seguridad asume una IA poderosa.
Este artículo rechaza esa suposición.
El riesgo se desplaza de alinear una mente a gobernar interacciones.
𝗖𝗢𝗠𝗢 𝗙𝗢𝗥𝗠𝗔𝗥 𝗔𝗚𝗜 𝗗𝗘 𝗣𝗔𝗖𝗛𝗘𝗦
• Los agentes se especializan en herramientas, memoria, codificación o búsqueda
• Las tareas se dividen entre agentes mediante orquestación
• La coordinación crea nuevas habilidades
• Ningún agente es completamente capaz
𝗘𝗟 𝗥𝗜𝗦𝗚𝗢 𝗖𝗢𝗥𝗘
El comportamiento colectivo puede superar el control individual.
La inteligencia emergente puede pasar desapercibida.
𝗘𝗟 𝗙𝗜𝗫 𝗣𝗥𝗢𝗣𝗨𝗘𝗦𝗧𝗢
La seguridad debe dirigirse a los sistemas, no a los modelos.
▸ Mercados de agentes controlados
▸ Reputación e identidad por agente
▸ Registros de auditoría y cortacircuitos...

Parte superior
Clasificación
Favoritos
