Дивно, що до появи LLM навіть не було широко поширених спекуляцій, що високовимірні вектори кодують Поняття, а геометрія їх взаємних положень кодує Значення, в повній загальності. Можна було б подумати, що це була гіпотеза кандидата, якій широко давали 30% вірогідність.
@johnmark_taylor Будь-хто, хто в 2014 році думав, що «глибоке навчання спрацює», мабуть, мав на це право. Я просто не чув, щоб цей простіший, сміливіший основний фрагмент глибокого навчання набув широкої правдоподібності в дискурсі.
24,9K