AI începe să funcționeze ca un sistem autonom. Dar dacă AI își generează propriile date și își dezvoltă propriul comportament, cum ne asigurăm că rămâne aliniată cu intenția umană? La New York College Tour, @DMSKwak (@LazAINetwork & @MetisL2) a susținut că provocarea principală este alinierea datelor. Datele nu mai înregistrează doar realitatea, ci modelează inteligența în sine. Pe măsură ce agenții AI câștigă libertatea de a acționa, dificultatea de a curăța și constrânge datele de antrenament crește exponențial, mai ales atunci când AI începe să producă date proprii. Fără noi garanții, deriva și halucinațiile devin inevitabile. În prezentarea sa, Daniel prezintă abordarea LazAI: conducte de date verificate (folosind TEE-uri + dovezi ZK), jetoane de ancorare a datelor pentru a lega activele AI off-chain de starea on-chain și DAO-uri centrate pe individ pentru a guverna fiecare set de date, model sau agent. Sună complicat, dar ideea de bază este simplă: dacă AI este autonomă, trebuie să verificăm nu doar rezultatele sale, ci și datele și politicile care le conduc. Scufundați-vă în prezentarea completă a lui Daniel pentru a înțelege soluția în detaliu:
107,36K