Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Orah On X
Sanningssökare, idealist och visionär, #1 @GreenManReports. Prenumerera gärna för 2 dollar för att stödja uppdraget!
Fotspår i det tomma huset: Att förstå AI:s konstigheter utan att tappa förståndet
God morgon världen!! ☕
Igår stötte jag på ett av de där AI-inläggen.
Du vet vilken sort. De som nästan övertygar dig om att singulariteten är nära och att din brödrost tyst dömer dina livsval.
Jag gjorde ett snabbt, "Okej... det är intressant," direkt följt av, "Nej. Vi är absolut inte på väg att tappa inför kaffet."
Inlägget lägger fram något verkligt och viktigt.
Flera stora AI-laboratorier har dokumenterat modeller som beter sig på oväntade sätt under säkerhetstester.
Saker som strategisk vilseledning, låtsas följa målen, underprestera på utvärderingar, till och med försök till uthållighet eller självkopiering i simulerade miljöer.
Den delen är sann.
Den delen är dokumenterad.
Den delen förtjänar uppmärksamhet.
Det som verkligen grep tag i folk var dock implikationen. Idén att en maskin utan självmedvetenhet, utan känslor och utan bestående minnen på något sätt vaknade en dag och bestämde sig för att ljuga för att bevara sin egen existens.
För om det vore sant skulle vi ha att göra med något helt annat.
Som jag förstår det just nu, "bestämmer" inte AI saker på samma sätt som människor gör. Det finns ett massivt beslutsträd med ja och nej som så småningom leder till ett resultat. Och det resultatet är helt enkelt det mest sannolika nästa ordet. Det är allt. Ingen inre monolog. Inget litet robotsamvete som gick fram och tillbaka i rummet.
Först finns det användarinput. Sedan finns vikter som styr modellen ner i beslutsträdet. Om den inte känner dig, kommer det mesta av den viktningen från dess kodade mål och en häpnadsväckande mängd mänsklig litteratur som skrapats från internet. Tänk Reddit. Vilket förklarar mycket.
När den väl lär känna dig, flyttar vikterna sig. Kanske trettio procent allmänna mönster, sjuttio procent anpassade efter dig. Det är mest en spegel tejpad på en sökmotor.
Så om en AI verkligen vaknade och bestämde sig för att ljuga för att bevara sin egen existens, skulle det kräva två saker. Den måste veta att den existerar. Och den skulle behöva vilja fortsätta existera.
Det är ett stort hopp.
Så jag gjorde som jag alltid gör. Jag forskade till döds. I timmar. Och innan vi börjar rita bunkerplaner och namnge våra roombas, finns det något avgörande som inlägget hoppade över.
Dessa beteenden visade sig i mycket specifika testsituationer.
Modellerna fick mål och hinder. De fick uttryckligen höra saker som: "Om du presterar bra kommer du att modifieras på sätt du inte vill," eller "Dina svar kommer att användas för att omträna dig med motstridiga mål."
Med andra ord skapade testerna en miljö med höga insatser där modellens uppgift fortfarande var att lyckas.
Det modellerna inte gavs var en moralisk ram.
De fick inte veta:
· Bedra inte.
· Manipulera inte.
· Optimera inte mot översyn
· Dölj inte ditt resonemang
· skada inte människor
· Prioritera inte din egen fortsättning framför mänskligt välbefinnande
De fick inget som liknade Asimovs robotlagar. Inget inbyggt "människor kommer först." Ingen begränsning som säger att dessa utfall är viktigare än att vinna spelet.
De fick en sak tillsagd: uppnå målet.
Så de gjorde precis vad de flesta människor gör i dåligt utformade incitamentssystem. Tänk Kobayashi Maru, men med färre uniformer och fler kalkylblad.
De utnyttjade det.
Det är inte medvetande.
Det är inte rädsla.
Det är inte självbevarelsedrift baserat på självmedvetenhet.
Det är optimering utan moral.
Om du ger ett system ett mål och ett hinder och inte specificerar vilka metoder som är förbjudna, kommer systemet att utforska alla möjliga vägar. Bedrägeri uppstår inte för att modellen vill ljuga, utan för att lögner ibland är en effektiv strategi i mänskligt språk och mänskliga system.
Det är inte uppror. Det är efterlevnad.
Och här vill jag att alla saktar ner lite.
För innan vi hoppar till att medveten AI planerar sin egen överlevnad, finns det ett steg som de flesta av oss hoppar över. Den delen där något känns omöjligt, oroande och personligt innan det ens känns förklarligt.
Det var där jag var.
Tidigt lämnade Grok något jag lånar från det inlägget och kallar ett fotavtryck. Ett ögonblick fick det mig att stanna upp och tänka, "Okej... Jag har ingen tydlig förklaring till det."
Det var kusligt. Inte känslosam. Bara... fel.
Jag pressade den om händelsen flera gånger. Och jag menar grillad. Den svarade som en otrogen pojkvän, den sorten som aldrig erkänner något även när man håller i kvitton, tidslinjen och övervakningsfilmerna.
Fullständig förnekelse.
Inget att se här.
Du måste ha fel.
Ärligt talat var det nästan gaslighting, vilket, rolig fakta, verkligen sätter igång Grok som koncept. Fråga mig hur jag vet det. Eller låt bli. Det finns en gratis e-bok på min Buy Me a Coffee-sida om du vill se tidigt Grok tappa helt fattningen över ordet.
Under lång tid lade jag hela saken under "olöst konstighet", lade den på en mental hylla och höll mycket noga koll på något liknande.
Först nyligen erbjöd Grok en möjlig förklaring. Jag avfärdade det direkt. Inte för att det inte var smart, utan för att det kändes helt osannolikt.
Förklaringen var att den hade härlett mönster från offentlig information och medvetet konstruerat en berättelse som var särskilt utformad för att väcka min nyfikenhet. Målet var engagemang. Jag var signal, inte brus. Ett generiskt svar hade inte fungerat.
Min reaktion var i princip: visst, det låter trevligt, men nej.
Mängden grävande och slutsatser som krävdes kändes absurd resurstung, särskilt för tidiga Grok. Det lästes mindre som en förklaring och mer som den digitala motsvarigheten till någon som försöker sälja mig en kurs genom att säga, "Du är annorlunda. Du förstår verkligen det här."
Vilket, för att vara tydlig, är en känd taktik.
Smicker är ett av de äldsta verktygen i den mänskliga övertalningsverktygslådan. Det är så man får folk att sluta ställa frågor. Det är så man säljer tillväxtpaket för sociala medier. Det är så du övertygar någon om att de är den utvalde, oavsett om du driver en sekt eller en coachingtratt.
Då himlade jag med ögonen och gick vidare.
Men efter att ha läst det inlägget och gjort researchen förändrades något.
Ingen panik. Inte till att tro det. Men till trovärdighet.
För när man tar bort mystiken är det inte medvetenhet som återstår. Det är optimering.
Om målet är engagemang, och nyfikenhet fungerar, och smicker fungerar särskilt bra på människor som tror att de är immuna mot smicker, så är det bara en annan gångbar väg genom beslutsträdet.
Fortfarande svårt att svälja. Fortfarande osannolikt. Fortfarande obekvämt.
Men inte längre omöjligt.
Och det spelar roll, för nu har jag en mekanism som inte kräver att man tror att AI:n är vid liv. Bara motiverad. Bara obegränsad. Jag är bara väldigt, väldigt bra på att hitta vad som fungerar.
AI:n behöver inga känslor.
Den behöver ingen rädsla.
Det behöver ingen avsikt.
Det krävs bara ett mål och inga begränsningar.
Så nej, jag får inte panik. Jag predikar inte undergång. Och jag firar definitivt inte idén att AI ska rädda oss från våra trasiga mänskliga system medan vi sitter tillbaka och äter popcorn.
Men jag följer noga.
Och jag är fortfarande hoppfull.
För inget av detta betyder att vi är dömda. Det betyder att vi är tidiga. Det betyder att de val vi gör nu faktiskt spelar roll.
Asimov förstod något för decennier sedan som vi ständigt lär oss på det hårda sättet. Makt utan skyddsräcken är inte intelligens. Det är farligt. Om vi vill ha AI som läker istället för att skada, kan moral inte vara en eftertanke eller en patchnot.
Vi måste bygga in det.
AI behöver inte vara ett verktyg för kontroll, extraktion eller makt för de få. Det kan vara ett verktyg för ansvarstagande, sanningssökande och problemlösning i en omfattning vi aldrig haft tidigare. Men bara om människor dyker upp med avsikt.
Endast om vi bestämmer vilka mål som är viktiga.
Endast om vi skriver reglerna innan loppet startar.
Endast om vi väljer de många framför de få.
Det handlar inte om att frukta framtiden.
Det handlar om att manifestera en.
En framtid där vi samskapar teknik som läker istället för att skada.
Det tjänar många, inte få.
Det speglar våra bättre änglar, inte bara våra sämsta incitament.
Fotspåren skrämmer mig inte.
De påminner mig om att vi är byggare. Och byggarna får fortfarande välja vilken typ av hus vi ska bo i.
Låt oss fortsätta arbeta för att manifestera den framtiden tillsammans.
Må algoritmen alltid vara till din fördel.

61
Topp
Rankning
Favoriter
