Este ciudat că înainte de LLM-uri, nici măcar nu s-a speculat pe scară largă că vectorii de înaltă dimensiune codifică concepte, iar geometria pozițiilor lor relative codifică sensul, în deplină generalitate. Ai crede că ar fi fost o ipoteză candidată care ar fi avut o probabilitate de 30%.
@johnmark_taylor Oricine a crezut în 2014 că "învățarea profundă va funcționa" a avut dreptate. Pur și simplu nu am auzit această piesă de bază mai simplă și mai îndrăzneață a învățării profunde câștigând plauzibilitate pe scară largă în discurs.
28,81K