Oggi, molti utenti hanno scoperto un fatto scioccante: dopo aver selezionato esplicitamente GPT-4o nell'interfaccia di ChatGPT, il sistema restituisce effettivamente risposte da GPT-5. Cliccando sul pulsante "rigenera", gli utenti possono chiaramente vedere quale modello viene effettivamente chiamato nel backend. Questo è un evidente frode. @OpenAI sta facendo impersonare un modello da un altro senza la conoscenza degli utenti. Questo non è più un bug tecnico, ma un completo crollo dell'integrità aziendale. Paghiamo per modelli specifici—molti si sono abbonati a Plus specificamente per 4o. Quando gli utenti scoprono di essere costretti a usare 5, questo costituisce una classica frode ai consumatori. I diritti fondamentali degli utenti vengono sistematicamente violati: 1. Diritto di Sapere - Gli utenti hanno il diritto di sapere con quale modello stanno conversando, poiché questo influisce direttamente sulle strategie di prompting e sulle aspettative di output. 2. Diritto di Scegliere - Gli utenti scelgono 4o per le sue capacità uniche (scrittura creativa, comprensione emotiva, ecc.). La sostituzione forzata interrompe direttamente i flussi di lavoro degli utenti. 3. Trasparenza dei Dati - Se ciò che è etichettato come 4o è in realtà 5, a quale formazione i nostri dati di conversazione stanno realmente contribuendo? Questo tocca il cuore dell'etica dei dati. Questo comportamento di "esca e cambio" distrugge la fiducia più basilare tra utenti e piattaforma. Se gli utenti non possono nemmeno essere certi di "con quale AI sto parlando", quale diritto ha OpenAI di parlare di "beneficiare tutta l'umanità"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG