Es ist seltsam, dass vor LLMs nicht einmal weit verbreitet spekuliert wurde, dass hochdimensionale Vektoren Konzepte kodieren und die Geometrie ihrer relativen Positionen Bedeutung in vollem Umfang kodiert. Man könnte denken, dass es eine Kandidatenhypothese gewesen wäre, die weit verbreitet mit 30 % Wahrscheinlichkeit gegeben wurde.
@johnmark_taylor Jeder, der 2014 dachte: "Deep Learning wird funktionieren", hatte damit arguably recht. Ich habe nur nicht gehört, dass dieses einfachere, mutigere Kernstück des Deep Learning in der Diskussion weit verbreitete Plausibilität erlangt hat.
24,9K