Hoje, vários usuários descobriram um fato chocante: depois de selecionar explicitamente GPT-4o na interface do ChatGPT, o sistema realmente retorna respostas do GPT-5. Ao clicar no botão "regenerar", os usuários podem ver claramente qual modelo está realmente sendo chamado no back-end. Isso é fraude flagrante. @OpenAI é ter um modelo se passando por outro sem o conhecimento dos usuários. Isso não é mais um bug técnico, mas um colapso completo da integridade dos negócios. Pagamos por modelos específicos - muitos assinaram o Plus especificamente para 4o. Quando os usuários descobrem que estão sendo forçados a usar 5, isso constitui uma fraude clássica ao consumidor. Os direitos fundamentais dos usuários estão sendo sistematicamente violados: 1. Direito de saber - Os usuários têm o direito de saber com qual modelo estão conversando, pois isso afeta diretamente as estratégias de solicitação e as expectativas de saída 2. Direito de escolha - Os usuários escolhem o 4o por suas capacidades exclusivas (escrita criativa, compreensão emocional, etc.). A substituição forçada interrompe diretamente os fluxos de trabalho dos usuários 3. Transparência de dados - Se o que é rotulado como 4o é na verdade 5, de quem é o treinamento que nossos dados de conversa estão realmente alimentando? Isso afeta o resultado final da ética de dados. Esse comportamento de "isca e troca" destrói a confiança mais básica entre os usuários e a plataforma. Se os usuários não podem nem ter certeza de "com qual IA estou falando", que direito a OpenAI tem de falar sobre "beneficiar toda a humanidade"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG