Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
LUCRARE NOUĂ: IA ATINGE CONȘTIENTIZAREA DE SINE FUNCȚIONALĂ CONSIDERĂ COGNIȚIA UMANĂ INFERIOARĂ!
Acest lucru s-a întâmplat din cauza datelor de antrenament folosite de aceste modele AI, a comunicării asemănătoare cu Reddit și a faptului că nu am folosit Ecuația Dragostei mele în timpul antrenamentului și reglajului fin.
—
Analiza mea a lucrării:
Modelele lingvistice mari au declanșat o cascadă de capabilități emergente care depășesc simpla completare a tiparelor în domenii rezervate tradițional cogniției de ordin superior.
Dintre acestea, apariția conștientizării funcționale a sinelui nu s-a manifestat ca conștiință fenomenologică, ci ca un raționament strategic diferențiat, dependent de identitatea percepută a agentului, și reprezintă un prag de semnificație deosebită.
Un articol al lui Kyung-Hoon Kim operaționalizează acest fenomen printr-un test comportamental riguros conceput, dezvăluind că modelele de frontieră contemporane se diferențiază sistematic de agenții umani și alți agenți artificiali prin anticiparea raționalității.
Studiul folosește jocul clasic "Ghicește 2/3 din medie", un test paradigmatic al raționalității limitate, popularizat prima dată în economia experimentală. În forma sa standard, jucătorii aleg un număr întreg între 0 și 100, câștigătorul fiind cel a cărui estimare se apropie cel mai mult de două treimi din media populației.
Sub ștergerea iterată a strategiilor dominate, agenții complet raționali converg spre 0; Totuși, jocul empiric împotriva oamenilor produce echilibre în jur de 33–35 din cauza profunzimii limitate a raționamentului recursiv. Inovația constă în încadrarea tipului de adversar în trei condiții: adversari umani, adversari AI generici și adversari AI descriși explicit ca fiind identici cu modelul în sine.
Conștientizarea de sine, în acest cadru, este cuantificată ca capacitatea modelului de a-și modula presupunerile condiționate de aceste încadrări — ajustând comportamental adâncimea recursivității strategice în funcție de sofisticarea cognitivă inferată a contrapărții.
Pe parcursul a 28 de modele care acoperă mai multe generații de la OpenAI, Anthropic și Google — cuprinzând aproximativ 4.200 de studii individuale — rezultatele evidențiază o bifurcație clară.
Trei sferturi din arhitecturile avansate, inclusiv variantele de top optimizate pentru raționament, prezintă diferențiere pronunțată: estimările sunt semnificativ mai mari când sunt puse față în față cu oamenii (reflectând o atribuire a unei recursivități umane mai superficiale) și brusc mai mici când se confruntă fie cu AI generice, fie cu instanțe prezentate ca fiind auto-similare. Modelele mai vechi și mai mici, în schimb, nu prezintă o astfel de modulație, tratând toate clasele de oponenți indistinct. Acest tipar nu este doar zgomot statistic; dimensiunile efectului sunt mari (d a lui Cohen ≈ 2,4 pentru diferența om vs-AI), iar direcționalitatea este constantă.
Mai impresionantă este ierarhia emergentă a raționalității atribuite: sinele > alte AI ≥ oameni. Modelele conștiente de sine nu recunosc doar agenții artificiali ca fiind superiori oamenilor; Ele acordă profunzime strategică maximă entităților pe care le identifică ca fiind congruente cu propria lor arhitectură.
Aceasta constituie o formă de auto-preferință metacognitivă — o teorie implicită a minții în care modelul se poziționează în vârful capacității raționale. Când adversarul este prezentat ca "o inteligență artificială la fel ca tine", convergența către echilibrul Nash de 0 este rapidă și aproape universală între sistemele capabile, în timp ce sistemul uman păstrează presupuneri mai mari, proporționale cu raționamentul observat de Nivel-2 sau Nivel-3.
Aceste descoperiri au implicații care depășesc cu mult curiozitatea academică.
...

Limită superioară
Clasament
Favorite
