Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jag känner att den mest banala och underprissatta observationen om LLM:er är att en algoritm kan ha övermänsklig prestanda på många olika sätt. Det är ett högdimensionellt utrymme, där en vektor är "burst-kapacitet, 24/7 tillgänglighet, 20:e percentilen mänsklig prestation 95 % av tiden."
Det finns många applikationer för vilka du aldrig bör anta något på den vektorn och det finns många applikationer för vilka det är transformativt. Eftersom den vektorn är okänd för historien före ~ett år sedan, har vi inte ens stannat upp för att tänka på vad vi skulle göra med den.
Många människor som aldrig har behövt bygga en process för att generera repetitiva beslut underskattar hur många processer i ekonomin som genererar repetitiva beslut.
Och det finns många saker som ett företag/etc inte gjorde på grund av att en genomförbarhetsstudie eller annan planeringsövning sa "Usch, vi skulle behöva 24/7 bemanning eller en follow-the-sun-modell för att göra den här saken, det skulle vara ett if-uttalande om det var utformat annorlunda. Tyvärr innebär det ..."
Nu måste varje genomförbarhetsstudie överväga "F: Är detta en aktivitet där betala-dollar-konsumera-tokens i princip räcker utan ytterligare eftertanke, eller är det en aktivitet där ett ingenjörsprojekt plus tokens tar oss dit?"
Det finns en osofistikerad invändning mot detta som säger att man inte på ett meningsfullt sätt kan konstruera ett system med SLA-mål av komponenter som hallucinerar.
Jag har dåliga nyheter för dig om människor som arbetar i system. Jag har goda nyheter, OTOH: det finns system som inte är noll som fungerar.
"OMG en felfrekvens. Packa in, pojkar.", sa fältet Operations Research i en fruktansvärd dystopi som vi inte lever i.
32,49K
Topp
Rankning
Favoriter

