Vandaag ontdekten meerdere gebruikers een schokkend feit: Nadat ze expliciet GPT-4o hadden geselecteerd in de ChatGPT-interface, geeft het systeem daadwerkelijk antwoorden van GPT-5 terug. Door op de "regenereren"-knop te klikken, kunnen gebruikers duidelijk zien welk model er daadwerkelijk in de backend wordt aangeroepen. Dit is flagrante fraude. @OpenAI laat een model een ander model imiteren zonder dat gebruikers hiervan op de hoogte zijn. Dit is niet langer een technische bug, maar een complete ineenstorting van de zakelijke integriteit. We betalen voor specifieke modellen—veel mensen hebben zich specifiek voor Plus ingeschreven voor 4o. Wanneer gebruikers ontdekken dat ze gedwongen worden om 5 te gebruiken, vormt dit klassieke consumentenfraude. De fundamentele rechten van gebruikers worden systematisch geschonden: 1. Recht om te Weten - Gebruikers hebben het recht om te weten met welk model ze converseren, aangezien dit direct van invloed is op promptingstrategieën en outputverwachtingen. 2. Recht om te Kiezen - Gebruikers kiezen 4o vanwege de unieke mogelijkheden (creatief schrijven, emotioneel begrip, enz.). Gedwongen vervanging verstoort direct de workflows van gebruikers. 3. Gegevenstransparantie - Als wat als 4o is gelabeld eigenlijk 5 is, wiens training voedt onze conversatiedata eigenlijk? Dit raakt de kern van gegevensethiek. Dit "bait and switch"-gedrag vernietigt het meest basale vertrouwen tussen gebruikers en het platform. Als gebruikers niet eens zeker kunnen zijn "met welke AI praat ik," welk recht heeft OpenAI dan om te praten over "het ten goede komen van de hele mensheid"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG