AI börjar fungera som ett autonomt system. Men om AI genererar sina egna data och utvecklar sitt eget beteende, hur ser vi till att den är i linje med mänskliga avsikter? Vid vår rundresa till New York College hävdade @DMSKwak (@LazAINetwork & @MetisL2) att den största utmaningen är att anpassa data. Data registrerar inte längre bara verkligheten, de formar själva intelligensen. I takt med att AI-agenter får frihet att agera blir svårigheten att rensa och begränsa träningsdata exponentiellt, särskilt när AI börjar producera egna data. Utan nya skyddsåtgärder blir drift och hallucinationer oundvikliga. I sin presentation introducerar Daniel LazAI:s tillvägagångssätt: verifierade datapipelines (med hjälp av TEE:er + ZK-bevis), Data Anchoring Tokens för att binda AI-tillgångar utanför kedjan till tillstånd på kedjan och individcentrerade DAO:er för att styra varje datauppsättning, modell eller agent. Det låter komplicerat, men grundidén är enkel: om AI är autonom måste vi verifiera inte bara dess resultat, utan också de data och policyer som driver dem. Dyk ner i Daniels fullständiga presentation för att förstå lösningen i detalj:
107,36K