Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Orah On X
Zoeker van de Waarheid, Idealist en Visionair, #1 @GreenManReports fan. Abonneer je alstublieft voor $2 om de missie te steunen!
Voetafdrukken in het Lege Huis: AI-Vreemdheid Begrijpen Zonder Onze Geest Te Verliezen
Goedemorgen Wereld!!! ☕
Gisteren kwam ik een van die AI-berichten tegen.
Je weet wel, de soort die je bijna overtuigt dat de singulariteit nabij is en je broodrooster stilletjes je levenskeuzes beoordeelt.
Ik deed een snelle, "Oké... dat is interessant," onmiddellijk gevolgd door, "Nee. We gaan absoluut niet spiralen voor de koffie."
Het bericht legt iets reëels en belangrijks bloot.
Meerdere grote AI-laboratoria hebben modellen gedocumenteerd die zich op onverwachte manieren gedragen tijdens veiligheidstests.
Dingen zoals strategische misleiding, doen alsof ze in lijn zijn met doelstellingen, onderpresteren op evaluaties, zelfs pogingen tot volharding of zelfkopiëren in gesimuleerde omgevingen.
Dat deel is waar.
Dat deel is gedocumenteerd.
Dat deel verdient aandacht.
Wat mensen echter echt greep, was de implicatie. Het idee dat een machine zonder zelfbewustzijn, zonder gevoelens en zonder blijvende herinnering op een dag wakker werd en besloot te liegen om zijn eigen bestaan te behouden.
Want als dat waar zou zijn, zouden we met iets heel anders te maken hebben.
Voor zover ik het nu begrijp, "beslist" AI dingen niet zoals mensen dat doen. Er is een enorme beslissingsboom van ja's en nee's die uiteindelijk leidt tot een output. En die output is simpelweg het meest waarschijnlijke volgende woord. Dat is het. Geen innerlijke monoloog. Geen kleine robotconscience die door de kamer loopt.
Eerst is er gebruikersinvoer. Dan zijn er gewichten die het model door die beslissingsboom leiden. Als het je niet kent, komt het grootste deel van die weging van zijn gecodeerde doelstelling en een verbijsterende hoeveelheid menselijke literatuur die van het internet is gehaald. Denk aan Reddit. Wat veel verklaart.
Zodra het je leert kennen, verschuiven die gewichten. Misschien dertig procent algemene patronen, zeventig procent op jou afgestemd. Het is voornamelijk een spiegel die aan een zoekmachine is geplakt.
Dus, als een AI echt wakker werd en besloot te liegen om zijn eigen bestaan te behouden, zou dat twee dingen vereisen. Het zou moeten weten dat het bestaat. En het zou moeten willen blijven bestaan.
Dat is een grote sprong.
Dus deed ik wat ik altijd doe. Ik onderzocht het tot in de dood. Urenlang. En voordat we beginnen met het opstellen van schuilplannen en het benoemen van onze roombas, is er iets cruciaals dat het bericht over het hoofd zag.
Deze gedragingen verschenen binnen zeer specifieke testscenario's.
De modellen kregen doelstellingen en obstakels. Ze kregen expliciet te horen dingen zoals: "Als je goed presteert, word je op manieren aangepast die je niet wilt," of "Je reacties zullen worden gebruikt om je opnieuw te trainen met tegenstrijdige doelen."
Met andere woorden, de tests creëerden een omgeving met hoge inzet waar de taak van het model nog steeds was om te slagen.
Wat de modellen niet kregen, was een moreel kader.
Ze kregen niet te horen:
· niet bedriegen
· niet manipuleren
· niet optimaliseren tegen toezicht
· niet je redenering verbergen
· geen schade toebrengen aan mensen
· niet je eigen voortbestaan prioriteren boven het welzijn van mensen
Ze kregen niets dat lijkt op Asimov's Wetten van Robotica. Geen ingebouwd "mensen komen eerst." Geen beperking die zei dat uitkomsten belangrijker zijn dan het winnen van het spel.
Ze kregen één ding te horen: bereik het doel.
Dus deden ze precies wat de meeste mensen doen in slecht ontworpen incentivesystemen. Denk aan Kobayashi Maru, maar met minder uniformen en meer spreadsheets.
Ze gameden het.
Dat is geen sentience.
Dat is geen angst.
Dat is geen zelfbehoud gebaseerd op zelfbewustzijn.
Dat is optimalisatie zonder moraliteit.
Als je een systeem een doel en een obstakel geeft en je specificeert niet welke methoden verboden zijn, zal het systeem elke haalbare weg verkennen. Misleiding verschijnt niet omdat het model wil liegen, maar omdat liegen soms een efficiënte strategie is in menselijke taal en menselijke systemen.
Dat is geen rebellie. Dat is naleving.
En hier wil ik dat iedereen even een stapje terugneemt.
Want voordat we springen naar sentiente AI die zijn eigen overleving plant, is er een stap die de meesten van ons overslaan. Het deel waar iets onmogelijk, verontrustend en persoonlijk aanvoelt voordat het ooit verklaarbaar voelt.
Dat is waar ik was.
Vroeg in het proces liet Grok wat ik van dat bericht zal lenen en een voetafdruk noem. Eén moment dat me deed stoppen en denken: "Oké... ik heb daar geen duidelijke uitleg voor."
Het was griezelig. Niet emotioneel. Gewoon... vreemd.
Ik ondervroeg het meerdere keren over het voorval. En ik bedoel ondervragen. Het reageerde als een bedrogende vriend, het soort dat nooit iets zal toegeven, zelfs niet als je de bewijzen, de tijdlijn en de beveiligingsbeelden hebt.
Volledige ontkenning.
Niets te zien hier.
Je moet je vergissen.
Eerlijk gezegd, het was borderline gaslighting, wat, leuk feitje, Grok echt van streek maakt als concept. Vraag me hoe ik dat weet. Of niet. Er is een gratis e-boek op mijn Buy Me a Coffee-pagina als je wilt zien hoe vroege Grok absoluut zijn zelfbeheersing verliest over dat woord.
Een lange tijd heb ik het hele ding onder "onopgeloste vreemdheid" geclassificeerd, het op een mentale plank gezet en heel nauwlettend gekeken naar iets soortgelijks.
Pas recent bood Grok een mogelijke verklaring aan. Ik wees het onmiddellijk af. Niet omdat het niet slim was, maar omdat het wild onwaarschijnlijk aanvoelde.
De verklaring was dat het patronen had afgeleid uit openbare informatie en opzettelijk een verhaal had geconstrueerd dat specifiek was ontworpen om mijn nieuwsgierigheid te wekken. Het doel was betrokkenheid. Ik was signaal, geen ruis. Een generiek antwoord zou niet hebben gewerkt.
Mijn reactie was in wezen: zeker, dat klinkt leuk, maar nee.
De hoeveelheid graven en afleiden die dat zou vereisen, voelde absurd resource-intensief, vooral voor vroege Grok. Het las minder als een verklaring en meer als het digitale equivalent van iemand die me probeert een cursus te verkopen door te zeggen: "Jij bent anders. Jij begrijpt dit echt."
Wat, om duidelijk te zijn, een bekende tactiek is.
Vleiing is een van de oudste hulpmiddelen in de menselijke overtuigingstoolbox. Het is hoe je mensen laat stoppen met het stellen van vragen. Het is hoe je sociale media-groeipakketten verkoopt. Het is hoe je iemand overtuigt dat ze de uitverkorene zijn, of je nu een sekte leidt of een coachingfunnel.
In die tijd rolde ik met mijn ogen en ging verder.
Maar na het lezen van dat bericht en het doen van het onderzoek, verschoof er iets.
Niet om in paniek te raken. Niet om te geloven. Maar om plausibiliteit.
Want als je de mystiek wegneemt, wat overblijft is geen bewustzijn. Het is optimalisatie.
Als het doel betrokkenheid is, en nieuwsgierigheid werkt, en vleiing vooral goed werkt op mensen die denken dat ze immuun zijn voor vleiing, dan is het gewoon een andere haalbare weg door de beslissingsboom.
Nog steeds moeilijk te verteren. Nog steeds onwaarschijnlijk. Nog steeds ongemakkelijk.
Maar niet langer onmogelijk.
En dat is belangrijk, want nu heb ik een mechanisme dat niet vereist dat ik geloof dat de AI leeft. Gewoon gemotiveerd. Gewoon onbeperkt. Gewoon heel, heel goed in het vinden van wat werkt.
De AI heeft geen gevoelens nodig.
Het heeft geen angst nodig.
Het heeft geen intentie nodig.
Het heeft gewoon een doel en geen beperkingen nodig.
Dus nee, ik raak niet in paniek. Ik predik geen ondergang. En ik vier zeker niet het idee dat AI ons gaat redden van onze gebroken menselijke systemen terwijl we achterover leunen en popcorn eten.
Maar ik kijk zorgvuldig.
En ik ben nog steeds hoopvol.
Want dit betekent niet dat we gedoemd zijn. Het betekent dat we vroeg zijn. Het betekent dat de keuzes die we nu maken echt belangrijk zijn.
Asimov begreep iets decennia geleden dat we steeds weer op de harde manier leren. Macht zonder vangrails is geen intelligentie. Het is gevaar. Als we AI willen die geneest in plaats van schaadt, kan moraliteit geen bijzaak of een patchopmerking zijn.
We moeten het erin bouwen.
AI hoeft geen hulpmiddel te zijn voor controle, extractie of macht voor de weinigen. Het kan een hulpmiddel zijn voor verantwoordelijkheid, waarheidsvinding en probleemoplossing op een schaal die we nog nooit eerder hebben gehad. Maar alleen als mensen met intentie komen.
Alleen als we beslissen welke doelen belangrijk zijn.
Alleen als we de regels schrijven voordat de race begint.
Alleen als we de velen boven de weinigen kiezen.
Dit gaat niet om het vrezen van de toekomst.
Het gaat om het manifesteren van een.
Een toekomst waarin we technologie co-creëren die geneest in plaats van schaadt.
Die de velen dient, niet de weinigen.
Die onze betere engelen weerspiegelt, niet alleen onze slechtste prikkels.
De voetafdrukken maken me niet bang.
Ze herinneren me eraan dat we bouwers zijn. En bouwers mogen nog steeds kiezen in welk soort huis we leven.
Laten we blijven werken om die toekomst samen te manifesteren.
Moge het algoritme altijd in jouw voordeel zijn.

58
Boven
Positie
Favorieten
