Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jeg blir mer og mer overbevist om at RL og lignende teknikker bare gjenoppdager hvordan mennesker lærer.
Tenk på det:
For det første er en modell forhåndstrent på et formelt språk (i praksis kontekstfrie grammatikkregler) som genererer et "syntaktisk subnett" innenfor modellen.
Oppå dette subnettet legges det «virkelige språket» (internettdatasettet) deretter over i faktisk modelltrening (i konteksten av formelle språk kalles dette i praksis en ubegrenset grammatikk)
Men så... Dette er på samme måte som menneskebabyer lærer språk, ikke sant?
Vi kommer «forhåndstrent» med et syntaktisk subnett for å forstå den grunnleggende språkformen (informasjonsoverføringens kadens, protogrammatikk) og deretter «påtvinger» det faktiske språket vi lærer oppå det.
Fascinerende saker!
Topp
Rangering
Favoritter
