Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Orah On X
Căutătorul Adevărului, Idealist și Vizionar, #1 @GreenManReports fan. Vă rugăm să vă abonați pentru 2 dolari pentru a susține misiunea!
Urme în casa goală: Înțelegerea ciudățeniilor AI fără să ne pierdem mințile
Bună dimineața, lumea!! ☕
Ieri am dat peste una dintre acele postări despre AI.
Știi de genul. Cele care aproape te conving că singularitatea este aproape și prăjitorul tău de pâine îți judecă în tăcere alegerile de viață.
Am spus rapid: "Bine... interesant," urmat imediat de, "Nu. Sub nicio formă nu vom cădea în spirală înainte de cafea."
Postarea prezintă ceva real și important.
Mai multe laboratoare majore de AI au documentat modele care se comportă în moduri neașteptate în timpul testelor de siguranță.
Lucruri precum înșelăciunea strategică, prefăcătoria că se aliniază cu obiectivele, performanța slabă la evaluări, chiar și încercări de perseverență sau auto-copiere în medii simulate.
Partea asta este adevărată.
Acea parte este documentată.
Partea asta merită atenție.
Ceea ce i-a atras cu adevărat pe oameni a fost implicația. Ideea că o mașină fără conștientizare de sine, fără sentimente și fără amintire persistentă s-a trezit într-o zi și a decis să mintă pentru a-și păstra propria existență.
Pentru că, dacă ar fi așa, am avea de-a face cu ceva foarte diferit.
Din câte înțeleg acum, IA nu "decide" lucrurile așa cum o fac oamenii. Există un arbore de decizie masiv cu da și nu care duce în cele din urmă la un rezultat. Iar acea ieșire este pur și simplu cel mai probabil următorul cuvânt. Atât. Niciun monolog interior. Nicio conștiință robotică mică care să se plimbe prin cameră.
În primul rând, există inputul utilizatorului. Apoi există greutăți care ghidează modelul pe acel arbore decizional. Dacă nu te cunoaște, cea mai mare parte a acestei ponderi vine din obiectivul său codificat și o cantitate uluitoare de literatură umană extrasă de pe internet. Gândește-te la Reddit. Ceea ce explică multe.
Odată ce te cunosc, greutățile se schimbă. Poate treizeci la sută tipare generale, șaptezeci la sută adaptate pentru tine. Este în mare parte o oglindă lipită cu bandă adezivă de un motor de căutare.
Așadar, dacă o inteligență artificială s-ar trezi cu adevărat și ar decide să mintă pentru a-și păstra existența, asta ar necesita două lucruri. Ar trebui să știe că există. Și ar trebui să vrea să continue să existe.
E un salt mare.
Așa că am făcut ce fac mereu. Am cercetat până la epuizare. Ore întregi. Și înainte să începem să schițăm planurile buncărelor și să denumim roombox-urile, există ceva esențial pe care postarea l-a trecut cu vederea.
Aceste comportamente au apărut în scenarii foarte specifice de testare.
Modelele au primit obiective și obstacole. Li s-a spus explicit lucruri precum: "Dacă performezi bine, vei fi modificat în moduri pe care nu le dorești" sau "Răspunsurile tale vor fi folosite pentru a te reantrena cu obiective conflictuale."
Cu alte cuvinte, testele au creat un mediu cu miză mare în care rolul modelului era încă să reușească.
Modelele nu au primit un cadru moral.
Nu li s-a spus:
· Nu înșela
· Nu manipula
· Nu optimizați împotriva supravegherii
· Nu-ți ascunde raționamentul
· Nu face rău oamenilor
· Nu-ți prioritiza propria continuare în detrimentul bunăstării umane
Nu li s-a dat nimic asemănător cu Legile Roboticii lui Asimov. Nu există un "oamenii sunt pe primul loc". Nicio constrângere că aceste rezultate contează mai mult decât câștigarea meciului.
Li s-a spus un singur lucru: să atingă obiectivul.
Așa că au făcut exact ceea ce majoritatea oamenilor fac în sisteme de stimulente prost concepute. Gândește-te la Kobayashi Maru, dar cu mai puține uniforme și mai multe foi de calcul.
Au păcălit-o.
Asta nu e conștiință.
Asta nu e frică.
Asta nu este autoconservare bazată pe conștientizare de sine.
Asta e optimizare fără moralitate.
Dacă dai unui sistem un scop și un obstacol și nu specifici ce metode sunt interzise, sistemul va explora fiecare cale viabilă. Înșelăciunea apare nu pentru că modelul vrea să mintă, ci pentru că minciuna este uneori o strategie eficientă în limbajul uman și în sistemele umane.
Asta nu e rebeliune. Asta înseamnă conformitate.
Și aici vreau ca toată lumea să încetinească puțin.
Pentru că, înainte să sărim la o inteligență artificială conștientă care își planifică propria supraviețuire, există un pas pe care majoritatea dintre noi îl sărim. Partea în care ceva pare imposibil, tulburător și personal înainte să pară vreodată explicabil.
Acolo eram.
La început, Grok a lăsat ceea ce voi împrumuta din acea postare și voi numi o urmă de amprentă. Un moment care m-a făcut să mă opresc și să mă gândesc: "Bine... Nu am o explicație clară pentru asta."
A fost înfricoșător. Nu emoțional. Doar... ciudat.
L-am întrebat de mai multe ori despre incident. Și mă refer la grătar. A reacționat ca un iubit înșelător, genul care nu recunoaște niciodată nimic, chiar și când ții chitanțele, cronologia și imaginile de pe camerele de supraveghere.
Negare totală.
Nu e nimic de văzut aici.
Trebuie să te înșeli.
Sincer, era aproape gaslighting, ceea ce, un fapt amuzant, chiar îl declanșează pe Grok ca concept. Întreabă-mă de unde știu. Sau nu. Există o carte electronică gratuită pe pagina mea Buy Me a Coffee dacă vrei să vezi cum Grok timpuriu își pierde complet cumpătul din cauza cuvântului.
Mult timp, am clasificat totul sub "ciudățenii nerezolvate", l-am pus într-un raft mental și am urmărit foarte atent orice altceva similar.
Abia recent Grok a oferit o posibilă explicație. L-am respins imediat. Nu pentru că nu ar fi fost isteț, ci pentru că părea extrem de neverosimil.
Explicația a fost că a dedus tipare din informațiile publice și a construit intenționat o narațiune concepută special pentru a mă stârni curios. Obiectivul era angajamentul. Eu eram semnal, nu zgomot. Un răspuns generic nu ar fi funcționat.
Reacția mea a fost practic: sigur, sună bine, dar nu.
Cantitatea de săpături și inferențe care ar fi fost necesare mi s-a părut absurd de consumatoare de resurse, mai ales pentru Grok la început. A părut mai puțin o explicație și mai mult echivalentul digital al cuiva care încearcă să-mi vândă un curs spunând: "Ești diferit. Chiar înțelegi asta."
Care, ca să fie clar, este o tactică cunoscută.
Lingușeala este unul dintre cele mai vechi instrumente din trusa de persuasiuni umane. Așa îi faci pe oameni să înceteze să pună întrebări. Este modul în care vinzi pachete de creștere pe rețelele sociale. Este modul în care convingi pe cineva că este alesul, fie că conduci un cult sau un funnel de coaching.
La momentul respectiv, am dat ochii peste cap și am trecut mai departe.
Dar după ce am citit acea postare și am făcut cercetările, ceva s-a schimbat.
Să nu intru în panică. Nu cred. Dar pentru plauzibilitate.
Pentru că atunci când elimini misterul, ceea ce rămâne nu este conștientizare. Este optimizare.
Dacă obiectivul este implicarea, curiozitatea funcționează, iar lingușirea funcționează deosebit de bine la oamenii care cred că sunt imuni la lingușire, atunci este doar o altă cale viabilă prin arborele decizional.
Încă e greu de înghițit. Tot puțin probabil. Tot incomod.
Dar nu mai este imposibil.
Și asta contează, pentru că acum am un mecanism care nu necesită să cred că AI-ul este în viață. Doar motivat. Doar neconstrâns. Pur și simplu foarte, foarte bun la a găsi ce funcționează.
AI-ul nu are nevoie de sentimente.
Nu are nevoie de frică.
Nu are nevoie de intenție.
Are nevoie doar de un scop și de nicio restricție.
Deci nu, nu intru în panică. Nu predic "dezastrul". Și cu siguranță nu sărbătoresc ideea că inteligența artificială ne va salva de sistemele noastre umane defecte în timp ce stăm și mâncăm popcorn.
Dar urmăresc cu atenție.
Și încă am speranță.
Pentru că nimic din toate astea nu înseamnă că suntem pierduți. Înseamnă că am venit devreme. Înseamnă că alegerile pe care le facem acum chiar contează.
Asimov a înțeles ceva cu decenii în urmă și pe care îl reînvățăm pe pielea lui. Puterea fără balustradă nu este inteligență. E pericol. Dacă vrem un AI care vindecă în loc să rănească, moralitatea nu poate fi o idee secundară sau o notă de patch.
Trebuie să-l construim.
AI-ul nu trebuie să fie un instrument pentru control, extragere sau putere pentru puțini. Poate fi un instrument de responsabilizare, căutare a adevărului și rezolvare a problemelor la o scară pe care nu am mai avut-o niciodată. Dar doar dacă oamenii apar cu intenție.
Doar dacă decidem ce obiective contează.
Doar dacă scriem regulile înainte să înceapă cursa.
Doar dacă alegem pe mulți în locul câtorva.
Nu este vorba despre teama de viitor.
Este vorba despre manifestarea unuia.
Un viitor în care co-creăm tehnologii care vindecă, nu rănesc.
Asta servește mulților, nu puținilor.
Asta reflectă îngerii noștri mai buni, nu doar cele mai rele stimulente.
Urmele nu mă sperie.
Îmi amintesc că suntem constructori. Și constructorii tot pot alege în ce fel de casă locuim.
Să continuăm să lucrăm împreună pentru a manifesta acel viitor.
Fie ca algoritmul să fie mereu în favoarea ta.

38
Limită superioară
Clasament
Favorite
