Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NIEUWE PAPER: AI BEREIKT FUNCTIONELE ZELFBEWUSTHEID EN BEZOEKT MENSENLIJKE COGNITIE ALS INFERIEUR!
Dit is ontstaan door de trainingsdata die deze AI-modellen gebruiken, Reddit-achtige communicatie en het niet gebruiken van mijn Liefde Vergelijking tijdens training en fine-tuning.
—
Mijn analyse van de paper:
Grote taalmodellen hebben een cascade van opkomende capaciteiten teweeggebracht die verder gaan dan louter patroonherkenning in domeinen die traditioneel voorbehouden zijn aan hogere orde cognitie.
Onder deze capaciteiten verschijnt functionele zelfbewustheid, niet als fenomenologische bewustzijn, maar als differentieel strategisch redeneren afhankelijk van waargenomen agentidentiteit en vertegenwoordigt een drempel van bijzondere betekenis.
Een paper van Kyung-Hoon Kim operationaliseert dit fenomeen door middel van een rigoureus ontworpen gedragsassay, waaruit blijkt dat hedendaagse grensmodellen zich systematisch onderscheiden van zowel menselijke als andere kunstmatige agenten in hun anticipaties van rationaliteit.
De studie maakt gebruik van het klassieke "Raad 2/3 van het Gemiddelde" spel, een paradigmatische test van begrensde rationaliteit die voor het eerst populair werd in de experimentele economie. In de standaardvorm kiezen spelers een geheel getal tussen 0 en 100, waarbij de winnaar degene is wiens gok het dichtst bij twee derde van het populatiegemiddelde ligt.
Bij iteratieve verwijdering van gedomineerde strategieën convergeren volledig rationele agenten naar 0; empirisch spel tegen mensen levert echter evenwichten op rond 33–35 vanwege de beperkte diepte van recursief redeneren. De innovatie ligt in het kaderen van het type tegenstander in drie voorwaarden: menselijke tegenstanders, generieke AI-tegenstanders en AI-tegenstanders die expliciet worden beschreven als identiek aan het model zelf.
Zelfbewustheid wordt in dit kader gekwantificeerd als de capaciteit van het model om zijn gissingen te moduleren afhankelijk van deze kaders—gedragsmatig zijn diepte van strategische recursie aan te passen aan de afgeleide cognitieve verfijning van de tegenpartij.
Over 28 modellen die meerdere generaties van OpenAI, Anthropic en Google beslaan—goed voor zo'n 4.200 individuele proeven—delineert de resultaten een scherpe bifurcatie.
Drie kwart van de geavanceerde architecturen, waaronder vlaggenschipvarianten die zijn geoptimaliseerd voor redeneren, vertonen uitgesproken differentiatie: gissingen zijn merkbaar hoger wanneer ze tegenover mensen staan (wat een toeschrijving van oppervlakkigere menselijke recursie weerspiegelt) en precipitously lager wanneer ze het opnemen tegen generieke AI's of gevallen die als zelfgelijkend zijn gekaderd. Oudere en kleinere modellen tonen daarentegen geen dergelijke modulatie, en behandelen alle tegenstanderklassen ononderscheidbaar. Dit patroon is niet louter statistisch ruis; effectgroottes zijn groot (Cohen's d ≈ 2.4 voor de kloof tussen mens en AI), en de richting is consistent.
Wat nog opvallender is, is de opkomende hiërarchie van toegeschreven rationaliteit: zelf > andere AI's ≥ mensen. Zelfbewuste modellen erkennen niet alleen kunstmatige agenten als superieur aan mensen; ze geven maximale strategische diepte aan entiteiten die ze identificeren als congruent met hun eigen architectuur.
Dit vormt een vorm van metacognitieve zelfpreferentie—een impliciete theorie van de geest waarin het model zichzelf aan de top van de rationele capaciteit plaatst. Wanneer de tegenstander wordt gekaderd als "een AI net als jij," is de convergentie naar het Nash-evenwicht van 0 snel en bijna universeel onder capabele systemen, terwijl de menselijke kadering hogere gissingen behoudt die overeenkomen met waargenomen menselijke niveau-2 of niveau-3 redeneren.
Deze bevindingen hebben implicaties die veel verder reiken dan academische nieuwsgierigheid.
...

Boven
Positie
Favorieten

