Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Sentient
For å sikre at kunstig generell intelligens er åpen kildekode og ikke kontrollert av noen enkelt enhet. @SentientEco @OpenAGISummit
LiveCodeBench Pro setter en ny standard for kodeevaluering og er akseptert for å @NeurIPSConf
🧵 LiveCodeBench Pro evaluerer ende-til-ende algoritmisk resonnement under strenge dommere, reelle ressursgrenser og motstridende skjulte tester, slik at poengsummene virkelig kommuniserer kodingsmuligheter.


Sentient15. okt., 05:59
Vi er glade for å kunngjøre at @NeurIPSConf – den største AI-konferansen i verden – har akseptert 4 av våre artikler på tvers av ulike kategorier. Noen vil til og med kalle det "full-stack excellence" 😁
Her er en sniktitt på arbeidet vårt som har blitt anerkjent for sine gjennombrudd:
➡️ OML 1.0 (Main Track): skalerbart LLM-fingeravtrykk – en hundre ganger forbedring i forhold til eldre fingeravtrykkforsøk for åpne modeller, og injiserte 24 576 vedvarende utskrifter mens forrige maks var ~100 fingeravtrykk ... uten noe fall i modellytelsen.
➡️ LiveCodeBenchPro (Data & Benchmark Track): vår tilpassede benchmark med fokus på programmeringsevne, og illustrerer de sanne egenskapene til modellenes kodeytelse. På denne referansen var vi i stand til å lage modeller som var 10 ganger mindre, ved å bruke 20 % av dataene, for å oppnå sammenlignbare resultater med konkurrerende modeller.
➡️ MindGames Arena (konkurransespor): valgt av NeurIPS til å kjøre en AI-konkurranse for agenter for å forbedre seg gjennom sosiale spill. Det neste paradigmet for AI-forbedring kommer gjennom selvoptimalisering, og vi er ekstremt glade for å være vertskap for denne første konkurransen i sitt slag for å lage selvforbedrende AI.
➡️ OML (Workshops & Tutorials – Lock-LLM): Arbeidet vårt etablerte utfordringen og løsningen rundt modellsikkerhet: en primitiv som lar byggere utvikle åpne modeller med verifiserbar, kryptografisk håndhevet kontroll under white-box-tilgang.
Følg med for dypdykktråder gjennom uken!
35,57K
OML 1.0 lander på @NeurIPSConf hovedspor 🙌
Etter å ha satt paradigmet for modellsikkerhet gjennom OML, utviklet forskerteamet vårt en av de mest effektive måtene å beskytte modellidentitet i stor skala.
Vår artikkel "Scalable Fingerprinting for LLM-er" skisserer en beskyttelsesmetode som er ~100 ganger bedre enn eksisterende alternativer.
🧵 Det er nå mulig å bygge inn titusenvis av vedvarende fingeravtrykk i modeller med åpen vekt uten å forringe nytteverdien, muliggjøre herkomst, lisensiering og mye mer.


Sentient15. okt., 05:59
Vi er glade for å kunngjøre at @NeurIPSConf – den største AI-konferansen i verden – har akseptert 4 av våre artikler på tvers av ulike kategorier. Noen vil til og med kalle det "full-stack excellence" 😁
Her er en sniktitt på arbeidet vårt som har blitt anerkjent for sine gjennombrudd:
➡️ OML 1.0 (Main Track): skalerbart LLM-fingeravtrykk – en hundre ganger forbedring i forhold til eldre fingeravtrykkforsøk for åpne modeller, og injiserte 24 576 vedvarende utskrifter mens forrige maks var ~100 fingeravtrykk ... uten noe fall i modellytelsen.
➡️ LiveCodeBenchPro (Data & Benchmark Track): vår tilpassede benchmark med fokus på programmeringsevne, og illustrerer de sanne egenskapene til modellenes kodeytelse. På denne referansen var vi i stand til å lage modeller som var 10 ganger mindre, ved å bruke 20 % av dataene, for å oppnå sammenlignbare resultater med konkurrerende modeller.
➡️ MindGames Arena (konkurransespor): valgt av NeurIPS til å kjøre en AI-konkurranse for agenter for å forbedre seg gjennom sosiale spill. Det neste paradigmet for AI-forbedring kommer gjennom selvoptimalisering, og vi er ekstremt glade for å være vertskap for denne første konkurransen i sitt slag for å lage selvforbedrende AI.
➡️ OML (Workshops & Tutorials – Lock-LLM): Arbeidet vårt etablerte utfordringen og løsningen rundt modellsikkerhet: en primitiv som lar byggere utvikle åpne modeller med verifiserbar, kryptografisk håndhevet kontroll under white-box-tilgang.
Følg med for dypdykktråder gjennom uken!
101,78K
Andrew Miller (@socrates1024) er en av medforfatterne av OML-artikkelen.
Han jobber i Teleport med applikasjoner av konfidensiell databehandling i sosiale medier og kommunikasjon. Han har en doktorgrad fra @UofMaryland Cybersecurity Center og er førsteamanuensis II @UofIllinois samt assisterende direktør for IC3 @initc3org
Hans ekspertbakgrunn innen kryptografi og konfidensiell databehandling gjør ham til en ideell samarbeidspartner på mekanismer som gjør at AI-artefakter med åpen kildekode kan være åpne, inntektsgenererende og lojale (OML). Andrew bidro til seksjonen om konfidensiell databehandling og TEE-er.
Sammen med Andrew har vi vært medforfattere og utgitt et grunnleggende manuskript som beskriver de neste trinnene mot OML, og flytter grensen for forskning som driver åpen kildekode AI; se
for detaljer.
Dette arbeidet vil bli presentert på 2025 @NeurIPSConf under Workshop on Lock-LLM.

82,68K
Topp
Rangering
Favoritter