Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Fost investitor cantitativ, care acum construiește @lumera (fostă numită Pastel Network) | Proiectele mele open source: https://t.co/9qbOCDlaqM
Trucul de viață al codării agentului
Mă simt puțin vinovat că folosesc asta, dar ce naiba.
Când le cer agenților să facă un ciclu masiv de comparație/revizuire, care apare de obicei când am un plan de reducere masiv și am primit feedback detaliat de la GPT Pro în aplicația web, iar apoi am arătat mai departe feedback-ului din același prompt arătat către Opus4.5, Gemini3 cu DeepThink și Grok4 Heavy (toate folosind aplicațiile web), chiar și Codex cu GPT 5.2 ridicat va rata o mulțime de lucruri prima dată când încearcă să integreze toate reviziile.
Dacă îi spui să găsească "toate" problemele, pentru că nu știe câte a ratat, tinde să plece până găsește multe. Dacă îi spui să meargă până găsește cel puțin 20 dintre ele, de obicei va reveni după ce a găsit 23 de probleme/nepotriviri.
Desigur, asta presupune că EXISTĂ probleme, dar practic apar întotdeauna când planurile au 5k+ linii și revizuirile depășesc 2k+ linii.
Oricum, soluția este să le minți și să le dai un număr uriaș, iar apoi continuă să le scoată până le descoperă pe toate:
"Fă asta din nou, și fii chiar extrem de atentă: poți să verifici planul din nou și să-l compari cu tot feedback-ul pe care ți l-am dat? Sunt sigur că ai ratat sau ai greșit cel puțin 80 de elemente din acel feedback complex."

136
Am inclus aici versiunea miniaturală a acestui prompt pentru că seria "My Favorite Prompts" ar trebui să fie niște bucăți compacte, de dimensiuni scurte, de sine stătătoare.
Dar astăzi am transformat asta într-un sistem cu adevărat nebunesc. Nu este relevant dacă faci un alt program CRUD în React sau o listă de sarcini, dar dacă faci ceva destul de complicat în Rust sau Golang, sau ceva ce implică date complexe, această abordare este aproape înfricoșătoare în ceea ce poate face.
Este un proces în 2 runde. Iată Runda 1:
---
Mai întâi citește TOATE fișierele AGENTS dot md și README dot md cu mare atenție și înțelege TOATE pe ambele! Apoi folosește modul agent de investigație a codului pentru a înțelege pe deplin codul, arhitectura tehnică și scopul proiectului.
Apoi, după ce ai făcut o treabă extrem de temeinică și meticuloasă la toate acestea și ai înțeles profund întregul sistem existent și ce face, scopul său, cum este implementat și cum toate piesele se conectează între ele, am nevoie să investighezi, să studiezi și să reflectezi hiper-intens asupra acestor întrebări legate de acest proiect:
Există alte ineficiențe grave în sistemul de bază? locuri în baza de cod unde 1) modificările ar schimba efectiv acul în ceea ce privește latența/răspunsivitatea generală și debitul; 2) astfel încât modificările noastre să fie demonstrabil izomorfe din punct de vedere al funcționalității, astfel încât să știm sigur că nu vor schimba ieșirile rezultate având aceleași intrări; 3) unde ai o viziune clară pentru o abordare evident mai bună în termeni de algoritmi sau structuri de date (rețineți că, pentru aceasta, puteți include în contemplațiile dumneavoastră structuri de date mai puțin cunoscute și algoritmi mai ezoterici/sofisticați/matematici, precum și modalități de a reformula problema/problemele astfel încât să fie expusă o altă paradigmă, cum ar fi lista prezentată mai jos (Notă: Înainte de a propune orice optimizare, stabiliți metrici de bază (latență, debit, memorie de vârf p50/p95/p99) și capturați profiluri CPU/alocare/I/O pentru a identifica hotspot-urile reale):
- N+1 eliminarea tiparelor de interogare/preluare
- zero-copy / reutilizare buffer / scatter-gather I/O
- costurile formatului de serializare (overhead de parse/encod)
- cozi limitate + presiune inversă (previne explozia memoriei și latența cozii)
- lacăte cu cioburi / dungi pentru a reduce conflictele
- memoizare cu strategii de invalidare a cache-ului
- tehnici de programare dinamică
- teoria optimizării convexe
- evaluare leneșă / calcul amânat
- modele iterator/generator pentru a evita materializarea unor colecții mari
- procesare streaming/chunked pentru lucrări limitate de memorie
- tabele de pre-calcul și căutare
- căutare bazată pe indici vs recunoaștere liniară a scanării
- căutare binară (pe date și pe spațiul de răspuns)
- tehnici cu doi puncte și fereastră glisantă
- sume prefix / agregate cumulative
- sortarea topologică și conștientizarea DAG pentru grafurile de dependență
- detectarea ciclurilor
- uniune-găsire pentru conectivitate dinamică
- traversarea grafurilor (BFS/DFS) cu terminare timpurie
- Dijkstra / A* pentru căile cele mai scurte ponderate
- cozi prioritare / heap-uri
- încearcă operații cu prefix
- filtre Bloom pentru apartenența probabilistică
- arbori de interval/segment pentru interogări de interval
- indexare spațială (arbori k-d, quadarbori, arbori R)
- structuri de date persistente/imuabile
- Semantică copy-on-write
- pooling obiecte/conexiuni
- selecția politicii de evacuare a cache-ului (LRU/LFU/ARC)
- Selecția algoritmului conștient de loturi
- batching și coalescing async I/O
- structuri fără blocare pentru scenarii cu conținut ridicat
- furtul de lucrări pentru paralelism recursiv
- optimizarea layout-ului memoriei (SoA vs AoS, localitatea cache-ului)
- scurtcircuite și terminare timpurie
- internarea șirurilor pentru valori repetate
- Raționamentul analizei amortizate
Luând în considerare aceste ghiduri generale acolo unde este cazul:
VERIFICĂRI DE APLICABILITATE DP:
- Subprobleme suprapuse? → memoize cu cheie stabilă
- Partiționare/batching optimă? → sume prefix + DP interval
- Graf de dependență cu traversare repetată? → DP topologică cu o singură trecere
VERIFICĂRI DE OPTIMIZARE CONVEXĂ:
- Forțare brută a alocării/programării exacte? → Flux LP / cost minim cu departajare deterministă
- Ajustare continuă a parametrilor cu pierdere explicită? → cele mai mici pătrate regulate / QP
- Obiectiv convex mare și decompozabil? → ADMM / metode proximale
De asemenea, rețineți că, dacă există biblioteci terțe bine scrise pe care le cunoașteți și care ar funcționa bine, le putem include în proiect).
CERIȚE METODOLOGICE:
A) Linia de referință mai întâi: Rulează suita de teste și o încărcătură de lucru reprezentativă; Înregistrează latența, debitul și memoria de vârf P50/P95/P99 cu comenzi exacte.
B) Profil înainte de a propune: Capturarea CPU + alocare + profiluri I/O; Identifică primele 3–5 puncte fierbinți după procentaj de timp înainte de a sugera modificări.
C) Oracle de echivalență: Definiți ieșiri de aur explicite + invarianți. Pentru spațiile de intrare mari, se adaugă teste bazate pe proprietăți sau metamorfe.
D) Demonstrație de izomorfism pe schimbare: Fiecare diferențial propus trebuie să includă o schiță scurtă de demonstrație care să explice de ce ieșirile nu se pot schimba (inclusiv ordonarea, departajarea, comportamentul în virgulă mobilă și semințele RNG).
E) Matricea de oportunități: Clasifică candidații după (Impact × Încredere) / Efort înainte de implementare; Concentrează-te doar pe elemente care probabil vor fi transferate P95+ sau pe throughput semnificativ.
F) Diferențiale minime: O pârghie de performanță la fiecare schimbare. Fără refactorizări fără legătură. Include îndrumări de anulare dacă există vreun risc.
G) Protecții pentru regresie: Adaugă praguri de referință sau cârlige de monitorizare pentru a preveni regresii viitoare.
Folosește ultrathink.
---
Poți rula asta o dată în Claude Code cu Opus 4.5 și o dată în Codex cu GPT 5.2 Codex (am început să folosesc doar High pentru că Extra High e prea lent pentru mine, decât dacă sunt pe cale să mă culc).
După ce termină, lovește-i pe fiecare cu vreo 5 runde rapide din acesta:
"Minunat. Verifică totul din nou pentru eventuale scăpări evidente, omisiuni sau greșeli, erori conceptuale, greșeli etc. Folosește ultrathink"
Apoi să salveze ieșirile astfel:
"OK, păstrează toate astea ca PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__OPUS.md"
"OK, păstrează toate astea ca PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__GPT.md"
Apoi, în Claude Code, faceți:
"Compară ce ai făcut cu PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__GPT.md și ia cele mai bune elemente de acolo și împletește-le în planul tău pentru a obține un plan hibrid superior al celor mai bune lumi prin editarea fișierului original al planului."
Apoi asta:
Recitește AGENTS dot md ca să fie încă proaspăt în mintea ta. Acum citește TOT PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__OPUS.md. Apoi verifică fiecare mărgea foarte atent – ești sigur că are sens? Este optim? Am putea schimba ceva pentru a face sistemul să funcționeze mai bine pentru utilizatori? Ne dorim un set cuprinzător și granular de mărgele pentru toate acestea, cu sarcini, subsarcini și structură de dependență suprapuse, cu comentarii detaliate astfel încât totul să fie complet autonom și auto-documentat (inclusiv fundal relevant, raționament/justificare, considerații etc. – orice am vrea ca "sinele nostru viitor" să știe despre obiective, intenții, procesul de gândire și cum acestea servesc obiectivele generale ale proiectului). Mărgelele ar trebui să fie atât de detaliate încât să nu fie nevoie să consultăm înapoi documentul original al planului de reducere. Reflectă CORECT ÎNTREGUL dosar de planuri cu reducere într-un mod cuprinzător? Dacă sunt necesare modificări, atunci revizuiește mărgelele sau creează altele noi sau închide cele invalide sau inaplicabile. Este mult mai ușor și mai rapid să funcționăm în "spațiul planului" înainte să începem să implementăm aceste lucruri! NU SIMPLIFICA PREA MULT LUCRURILE! NU PIERDE NICIO FUNCȚIONALITATE SAU FUNCȚIONALITATE! De asemenea, asigură-te că, ca parte a acestor mărgele, includem teste unitare cuprinzătoare și scripturi de testare e2e, cu jurnale detaliate și excelente, astfel încât să fim siguri că totul funcționează perfect după implementare. Amintește-ți să folosești DOAR instrumentul 'bd' pentru a crea și modifica mărgelele și pentru a adăuga dependențele la mărgele."
Apoi, câteva runde de:
"Verifică fiecare mărgea cu mare atenție – ești sigur că are sens? Este optim? Am putea schimba ceva pentru a face sistemul să funcționeze mai bine pentru utilizatori? Dacă da, revizuiește mărgelele. Este mult mai ușor și mai rapid să funcționăm în "spațiul planului" înainte să începem să implementăm aceste lucruri! NU SIMPLIFICA PREA MULT LUCRURILE! NU PIERDE NICIO FUNCȚIONALITATE SAU FUNCȚIONALITATE! De asemenea, asigură-te că, ca parte a mărgelelor, includem teste unitare cuprinzătoare și scripturi de testare e2e, cu jurnale detaliate și excelente, ca să fim siguri că totul funcționează perfect după implementare. Folosește ultrathink."
Apoi lasă roiul să se dezlănțuie pentru a implementa totul. Apoi pregătește-te pentru RUNDA 2.

Jeffrey EmanuelCu 22 de ore în urmă
"Prompturile mele preferate", de Jeffrey Emanuel
Prompt 4: Optimizatorul cu creier mare
"Mai întâi citește TOATE fișierele AGENTS dot md și README dot md cu mare atenție și înțelege TOATE pe ambele! Apoi folosește modul agent de investigație a codului pentru a înțelege pe deplin codul, arhitectura tehnică și scopul proiectului.
Apoi, după ce ai făcut o treabă extrem de temeinică și meticuloasă la toate acestea și ai înțeles profund întregul sistem existent și ce face, scopul său, cum este implementat și cum toate piesele se conectează între ele, am nevoie să investighezi, să studiezi și să reflectezi hiper-intens asupra acestor întrebări legate de acest proiect:
Există alte ineficiențe grave în sistemul de bază? Locuri în baza de cod unde:
1) schimbările ar schimba efectiv acul în ceea ce privește latența generală/răspunsul și debitul;
2) și unde modificările noastre ar fi demonstrabil izomorfe în termeni de funcționalitate, astfel încât să știm sigur că nu ar schimba ieșirile rezultate având aceleași intrări (pentru metode numerice aproximative, poți interpreta "aceleași" ca "la distanță epsilon";
3) unde ai o viziune clară asupra unei abordări evident mai bune în ceea ce privește algoritmii sau structurile de date (reține că pentru aceasta, poți include în contemplările tale structuri de date mai puțin cunoscute și algoritmi mai ezoterici/sofisticați/matematici, precum și modalități de a reformula problema/problemele astfel încât să fie expusă o altă paradigmă, cum ar fi teoria optimizării convexe sau tehnicile de programare dinamică.
De asemenea, reține că dacă știi că există biblioteci terțe bine scrise care ar funcționa bine, le putem include în proiect). Folosește ultrathink."
8,67K
OK, iată Runda 2 a Promptului Super Big Brained Optimizer.
Din fericire, această postare poate fi mult mai scurtă decât cea citată, deoarece întregul flux de lucru după promptul inițial este identic cu Runda 1, înlocuind doar "1" cu "2" în numele fișierelor.
Iată promptul:
---
Mai întâi citește TOATE fișierele md AGENTS și README cu mare atenție și înțelege-le PE TOATE! Apoi folosește modul agent de investigație a codului pentru a înțelege pe deplin codul, arhitectura tehnică și scopul proiectului.
Apoi, după ce ai făcut o treabă extrem de temeinică și meticuloasă la toate acestea și ai înțeles profund întregul sistem existent și ce face, scopul său, cum este implementat și cum toate piesele se conectează între ele, am nevoie să investighezi, să studiezi și să reflectezi hiper-intens asupra acestor întrebări legate de acest proiect:
Există alte ineficiențe grave în sistemul de bază? locuri în baza de cod unde 1) modificările ar schimba efectiv acul în ceea ce privește latența/răspunsivitatea generală și debitul; 2) astfel încât modificările noastre să fie demonstrabil izomorfe din punct de vedere al funcționalității, astfel încât să știm sigur că nu vor schimba ieșirile rezultate având aceleași intrări; 3) unde ai o viziune clară pentru o abordare evident mai bună în termeni de algoritmi sau structuri de date (rețineți că, pentru aceasta, puteți include în contemplațiile dumneavoastră structuri de date mai puțin cunoscute și algoritmi mai ezoterici/sofisticați/matematici, precum și modalități de a reformula problema/problemele astfel încât să fie expusă o altă paradigmă, cum ar fi lista prezentată mai jos (Notă: Înainte de a propune orice optimizare, stabiliți metrici de bază (latență, debit, memorie de vârf p50/p95/p99) și capturați profiluri CPU/alocare/I/O pentru a identifica hotspot-urile reale):
- optimizare convexă (reformularea oferă garanții globale optime)
- optimizare submodulară (greedy oferă aproximația cu factor constant)
- generalizarea semiinelului (unifică calea cea mai scurtă, închiderea tranzitivă, fluxul de date, parsarea)
- recunoașterea structurii matroizilor (greedy este demonstrabil optim)
- algebră liniară peste GF(2) (sisteme XOR, probleme de comutare, corectare a erorilor)
- reducere la 2-SAT (validitate de configurație, grafuri de implicație)
- reducerea la costul minim al fluxului maxim (atribuire, programare, alocare de resurse)
- recunoaștere bipartită a potrivirii (maghiară, Hopcroft-Karp)
- DP ca cea mai scurtă cale în DAG implicit (permite DP cu coadă prioritară, optimizare în stil Dijkstra)
- trucul convex al învelișului / copaci Li Chao (O(n²) DP → O(n log n))
- Optimizarea lui Knuth / DP de tip divide & conquer
- Reducerea spațiului Hirschberg (când este aplicabil dincolo de aliniere)
- FFT/NTT pentru convoluție (înmulțire polinomială, corelație de secvență)
- Exponentiație matricială pentru recurențe liniare
- Transformata Möbius / convoluția submulțimii
- structuri de date persistente/imuabile (versionare, rollback, execuție speculativă)
- automat sufix / matrice de sufixe cu LCP
- descompunere grea-ușoară / descompunere a centroidului
- arbori tăiați de legătură (conectivitatea dinamică a arborilor)
- coadă/deque monotonă pentru extreme ale ferestrei glisante
- arbori de segment cu propagare leneșă
- arbori wavelet (rang/select/cuantil)
- descoperirea sindicatului cu rollback
- Schiță Count-Min, HyperLogLog (streaming/subliniar)
- hashing sensibil la localitate (aproximativ NN)
- filtre bloom / filtre cuc
- hashing perfect minim
- cascadă fracționară
- Algoritmul lui Mo (descompunere sqrt prin interogare offline)
- căutare parametrică / căutare binară la răspuns
- căutare bidirecțională / întâlnire la mijloc
- algoritmi randomizați cu limite așteptate riguroase
- algoritmi de aproximare cu garanții demonstrabile
- furtul de lucrări pentru paralelism recursiv
- structuri de date fără blocare / fără așteptare
- proiectarea algoritmului cache-oblivious
- analiză amortizată (pentru a recunoaște când operațiunile "scumpe" sunt de fapt ieftine)
De asemenea, rețineți că, dacă există biblioteci terțe bine scrise pe care le cunoașteți și care ar funcționa bine, le putem include în proiect).
CERIȚE METODOLOGICE:
A) Linia de referință mai întâi: Rulează suita de teste și o încărcătură de lucru reprezentativă; Înregistrează latența, debitul și memoria de vârf P50/P95/P99 cu comenzi exacte.
B) Profil înainte de a propune: Capturarea CPU + alocare + profiluri I/O; Identifică primele 3–5 puncte fierbinți după procentaj de timp înainte de a sugera modificări.
C) Oracle de echivalență: Definiți ieșiri de aur explicite + invarianți. Pentru spațiile de intrare mari, se adaugă teste bazate pe proprietăți sau metamorfe.
D) Demonstrație de izomorfism pe schimbare: Fiecare diferențial propus trebuie să includă o schiță scurtă de demonstrație care să explice de ce ieșirile nu se pot schimba (inclusiv ordonarea, departajarea, comportamentul în virgulă mobilă și semințele RNG).
E) Matricea de oportunități: Clasifică candidații după (Impact × Încredere) / Efort înainte de implementare; Concentrează-te doar pe elemente care probabil vor fi transferate P95+ sau pe throughput semnificativ.
F) Diferențiale minime: O pârghie de performanță la fiecare schimbare. Fără refactorizări fără legătură. Include îndrumări de anulare dacă există vreun risc.
G) Protecții pentru regresie: Adaugă praguri de referință sau cârlige de monitorizare pentru a preveni regresii viitoare.
Folosește ultrathink.
---
Acum, știu la ce te gândești... Ce naiba e din toate astea? De aceea se numește Big Brained Optimizer prompt, ok?
Modelele Frontier sunt atât de inteligente încât, dacă le lași să proiecteze lucruri și să facă versiuni mai simple ale promptului de optimizare (cel scurt pe care l-am dat ca Prompt 4 în seria "My Favorite Prompts"), știu cum să facă toate interviurile standard Leetcode și le vor folosi.
Dar ce zici de următorul nivel, chestia cu Terry Tao? Știi ce vreau să spun, lucrurile BUNE. Ei bine, și ei știu asta.
Și va fi relevant pentru problema ta? Sincer, probabil că nu. Dar dacă este, așa deblochezi TRUE TURBO MODE.
Întotdeauna rulează Runda 1 înainte de Runda 2, deoarece va fi mult mai relevantă 99% din timp. Dar după ce faci runda 1 de câteva ori și nimic nu se schimbă, poți ajunge la runda 2.
Oricum, asigură-te doar că după ce faci toate astea: generezi planurile pentru CC și Codex, să faci ca CC să combine planul de ce e mai bun din ambele lumi, să-l verifici de 5 ori pentru greșeli, să transformi planul final de markdown în mărgele, să optimizezi iterativ mărgelele și, în final, să implementezi mărgelele cu un roi de roboți CC și Codex cu o grămadă de teste unitare și teste de integrare e2e... Pornește o sesiune Codex cu GPT 5.2 Extra High și pune la coadă vreo 20 dintre acești proști:
"Vreau să explorezi oarecum aleatoriu fișierele de cod din acest proiect, alegând fișiere de cod pentru a investiga în profunzime, a înțelege și a urmări funcționalitatea și fluxul de execuție prin fișierele de cod conexe pe care le importă sau prin care sunt importate. Odată ce înțelegi scopul codului în contextul mai larg al fluxurilor de lucru, vreau să faci o verificare extrem de atentă, metodică și critică, cu "ochi proaspeți" pentru a găsi orice bug-uri, probleme, erori, probleme, greșeli stupide etc. evidente, apoi să le corectezi sistematic, meticulos și inteligent."
-FIN-


Jeffrey EmanuelCu 21 de ore în urmă
Am inclus aici versiunea miniaturală a acestui prompt pentru că seria "Prompturile mele preferate" ar trebui să fie niște fragmente compacte, de dimensiune scurtă și autonome.
Dar astăzi am transformat asta într-un sistem cu adevărat nebunesc. Nu este relevant dacă faci un alt program CRUD în React sau o listă de sarcini, dar dacă faci ceva destul de complicat în Rust sau Golang, sau ceva ce implică date complexe, această abordare este aproape înfricoșătoare în ceea ce poate face.
Este un proces în 2 runde. Iată Runda 1:
---
Mai întâi citește TOATE fișierele AGENTS dot md și README dot md cu mare atenție și înțelege TOATE pe ambele! Apoi folosește modul agent de investigație a codului pentru a înțelege pe deplin codul, arhitectura tehnică și scopul proiectului.
Apoi, după ce ai făcut o treabă extrem de temeinică și meticuloasă la toate acestea și ai înțeles profund întregul sistem existent și ce face, scopul său, cum este implementat și cum toate piesele se conectează între ele, am nevoie să investighezi, să studiezi și să reflectezi hiper-intens asupra acestor întrebări legate de acest proiect:
Există alte ineficiențe grave în sistemul de bază? locuri în baza de cod unde 1) modificările ar schimba efectiv acul în ceea ce privește latența/răspunsivitatea generală și debitul; 2) astfel încât modificările noastre să fie demonstrabil izomorfe din punct de vedere al funcționalității, astfel încât să știm sigur că nu vor schimba ieșirile rezultate având aceleași intrări; 3) unde ai o viziune clară pentru o abordare evident mai bună în termeni de algoritmi sau structuri de date (rețineți că, pentru aceasta, puteți include în contemplațiile dumneavoastră structuri de date mai puțin cunoscute și algoritmi mai ezoterici/sofisticați/matematici, precum și modalități de a reformula problema/problemele astfel încât să fie expusă o altă paradigmă, cum ar fi lista prezentată mai jos (Notă: Înainte de a propune orice optimizare, stabiliți metrici de bază (latență, debit, memorie de vârf p50/p95/p99) și capturați profiluri CPU/alocare/I/O pentru a identifica hotspot-urile reale):
- N+1 eliminarea tiparelor de interogare/preluare
- zero-copy / reutilizare buffer / scatter-gather I/O
- costurile formatului de serializare (overhead de parse/encod)
- cozi limitate + presiune inversă (previne explozia memoriei și latența cozii)
- lacăte cu cioburi / dungi pentru a reduce conflictele
- memoizare cu strategii de invalidare a cache-ului
- tehnici de programare dinamică
- teoria optimizării convexe
- evaluare leneșă / calcul amânat
- modele iterator/generator pentru a evita materializarea unor colecții mari
- procesare streaming/chunked pentru lucrări limitate de memorie
- tabele de pre-calcul și căutare
- căutare bazată pe indici vs recunoaștere liniară a scanării
- căutare binară (pe date și pe spațiul de răspuns)
- tehnici cu doi puncte și fereastră glisantă
- sume prefix / agregate cumulative
- sortarea topologică și conștientizarea DAG pentru grafurile de dependență
- detectarea ciclurilor
- uniune-găsire pentru conectivitate dinamică
- traversarea grafurilor (BFS/DFS) cu terminare timpurie
- Dijkstra / A* pentru căile cele mai scurte ponderate
- cozi prioritare / heap-uri
- încearcă operații cu prefix
- filtre Bloom pentru apartenența probabilistică
- arbori de interval/segment pentru interogări de interval
- indexare spațială (arbori k-d, quadarbori, arbori R)
- structuri de date persistente/imuabile
- Semantică copy-on-write
- pooling obiecte/conexiuni
- selecția politicii de evacuare a cache-ului (LRU/LFU/ARC)
- Selecția algoritmului conștient de loturi
- batching și coalescing async I/O
- structuri fără blocare pentru scenarii cu conținut ridicat
- furtul de lucrări pentru paralelism recursiv
- optimizarea layout-ului memoriei (SoA vs AoS, localitatea cache-ului)
- scurtcircuite și terminare timpurie
- internarea șirurilor pentru valori repetate
- Raționamentul analizei amortizate
Luând în considerare aceste ghiduri generale acolo unde este cazul:
VERIFICĂRI DE APLICABILITATE DP:
- Subprobleme suprapuse? → memoize cu cheie stabilă
- Partiționare/batching optimă? → sume prefix + DP interval
- Graf de dependență cu traversare repetată? → DP topologică cu o singură trecere
VERIFICĂRI DE OPTIMIZARE CONVEXĂ:
- Forțare brută a alocării/programării exacte? → Flux LP / cost minim cu departajare deterministă
- Ajustare continuă a parametrilor cu pierdere explicită? → cele mai mici pătrate regulate / QP
- Obiectiv convex mare și decompozabil? → ADMM / metode proximale
De asemenea, rețineți că, dacă există biblioteci terțe bine scrise pe care le cunoașteți și care ar funcționa bine, le putem include în proiect).
CERIȚE METODOLOGICE:
A) Linia de referință mai întâi: Rulează suita de teste și o încărcătură de lucru reprezentativă; Înregistrează latența, debitul și memoria de vârf P50/P95/P99 cu comenzi exacte.
B) Profil înainte de a propune: Capturarea CPU + alocare + profiluri I/O; Identifică primele 3–5 puncte fierbinți după procentaj de timp înainte de a sugera modificări.
C) Oracle de echivalență: Definiți ieșiri de aur explicite + invarianți. Pentru spațiile de intrare mari, se adaugă teste bazate pe proprietăți sau metamorfe.
D) Demonstrație de izomorfism pe schimbare: Fiecare diferențial propus trebuie să includă o schiță scurtă de demonstrație care să explice de ce ieșirile nu se pot schimba (inclusiv ordonarea, departajarea, comportamentul în virgulă mobilă și semințele RNG).
E) Matricea de oportunități: Clasifică candidații după (Impact × Încredere) / Efort înainte de implementare; Concentrează-te doar pe elemente care probabil vor fi transferate P95+ sau pe throughput semnificativ.
F) Diferențiale minime: O pârghie de performanță la fiecare schimbare. Fără refactorizări fără legătură. Include îndrumări de anulare dacă există vreun risc.
G) Protecții pentru regresie: Adaugă praguri de referință sau cârlige de monitorizare pentru a preveni regresii viitoare.
Folosește ultrathink.
---
Poți rula asta o dată în Claude Code cu Opus 4.5 și o dată în Codex cu GPT 5.2 Codex (am început să folosesc doar High pentru că Extra High e prea lent pentru mine, decât dacă sunt pe cale să mă culc).
După ce termină, lovește-i pe fiecare cu vreo 5 runde rapide din acesta:
"Minunat. Verifică totul din nou pentru eventuale scăpări evidente, omisiuni sau greșeli, erori conceptuale, greșeli etc. Folosește ultrathink"
Apoi să salveze ieșirile astfel:
"OK, păstrează toate astea ca PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__OPUS.md"
"OK, păstrează toate astea ca PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__GPT.md"
Apoi, în Claude Code, faceți:
"Compară ce ai făcut cu PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__GPT.md și ia cele mai bune elemente de acolo și împletește-le în planul tău pentru a obține un plan hibrid superior al celor mai bune lumi prin editarea fișierului original al planului."
Apoi asta:
Recitește AGENTS dot md ca să fie încă proaspăt în mintea ta. Acum citește TOT PLAN_FOR_ADVANCED_OPTIMIZATIONS_ROUND_1__OPUS.md. Apoi verifică fiecare mărgea foarte atent – ești sigur că are sens? Este optim? Am putea schimba ceva pentru a face sistemul să funcționeze mai bine pentru utilizatori? Ne dorim un set cuprinzător și granular de mărgele pentru toate acestea, cu sarcini, subsarcini și structură de dependență suprapuse, cu comentarii detaliate astfel încât totul să fie complet autonom și auto-documentat (inclusiv fundal relevant, raționament/justificare, considerații etc. – orice am vrea ca "sinele nostru viitor" să știe despre obiective, intenții, procesul de gândire și cum acestea servesc obiectivele generale ale proiectului). Mărgelele ar trebui să fie atât de detaliate încât să nu fie nevoie să consultăm înapoi documentul original al planului de reducere. Reflectă CORECT ÎNTREGUL dosar de planuri cu reducere într-un mod cuprinzător? Dacă sunt necesare modificări, atunci revizuiește mărgelele sau creează altele noi sau închide cele invalide sau inaplicabile. Este mult mai ușor și mai rapid să funcționăm în "spațiul planului" înainte să începem să implementăm aceste lucruri! NU SIMPLIFICA PREA MULT LUCRURILE! NU PIERDE NICIO FUNCȚIONALITATE SAU FUNCȚIONALITATE! De asemenea, asigură-te că, ca parte a acestor mărgele, includem teste unitare cuprinzătoare și scripturi de testare e2e, cu jurnale detaliate și excelente, astfel încât să fim siguri că totul funcționează perfect după implementare. Amintește-ți să folosești DOAR instrumentul 'bd' pentru a crea și modifica mărgelele și pentru a adăuga dependențele la mărgele."
Apoi, câteva runde de:
"Verifică fiecare mărgea cu mare atenție – ești sigur că are sens? Este optim? Am putea schimba ceva pentru a face sistemul să funcționeze mai bine pentru utilizatori? Dacă da, revizuiește mărgelele. Este mult mai ușor și mai rapid să funcționăm în "spațiul planului" înainte să începem să implementăm aceste lucruri! NU SIMPLIFICA PREA MULT LUCRURILE! NU PIERDE NICIO FUNCȚIONALITATE SAU FUNCȚIONALITATE! De asemenea, asigură-te că, ca parte a mărgelelor, includem teste unitare cuprinzătoare și scripturi de testare e2e, cu jurnale detaliate și excelente, ca să fim siguri că totul funcționează perfect după implementare. Folosește ultrathink."
Apoi lasă roiul să se dezlănțuie pentru a implementa totul. Apoi pregătește-te pentru RUNDA 2.
7
Limită superioară
Clasament
Favorite