Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Häftig artikel från Meta.
Och ytterligare en utmärkt tillämpning av multiagentsystem.
(bokmärk den)
Att träna moderna AI-modeller kräver enorma mängder högkvalitativ data.
Men flaskhalsen är inte bara kvantiteten. Datan är helt enkelt inte tillräckligt mångsidig. Enskilda modeller som genererar syntetisk data tenderar att producera homogena utdata, upprepade mönster och saknar den nyanserade variation som finns i människoskapade datamängder.
Denna nya forskning från Meta introducerar Matrix, ett peer-to-peer-ramverk där flera AI-agenter tillsammans genererar syntetisk träningsdata genom decentraliserade interaktioner.
Matrix uppnår 2–15× högre datagenereringsgenomströmning under identiska hårdvaruresurser, utan att kompromissa med utdatakvaliteten.
TL; DR: Istället för att en modell producerar data spelar specialiserade agenter distinkta roller och interagerar med varandra. En ställer frågor, en annan svarar, en tredje utvärderar kvalitet. Dessa samtal med flera omgångar fångar komplext resonemang och olika perspektiv.
Vad som gör Matrix annorlunda: ingen central koordinator. Agenter kommunicerar direkt i en helt decentraliserad arkitektur. Detta möjliggör skalbarhet utan flaskhalsar i infrastrukturen.
Ramverket fungerar genom rollbaserade konversationsprotokoll, interaktionsmönster med flera turer och inbyggd kvalitetsfiltrering i varje steg. Endast data som uppfyller kvalitetströsklar tas med i den slutliga träningsuppsättningen.
Samarbete mellan flera agenter producerar mer varierad syntetisk data än enskilda modellmetoder. De resulterande datamängderna förbättrar prestandan för nedströmsmodeller över resonerande och instruktionsföljande benchmarks.

Topp
Rankning
Favoriter

