Saran bagus dari @__ruiters: GPT-5 tidak rusak. Petunjuk Anda adalah. Banyak orang, termasuk saya sendiri, mengharapkan GPT-5 dapat dipertukarkan dalam arti bahwa Anda dapat memasukkannya langsung ke alur kerja Anda yang ada, dan itu akan "berhasil begitu saja." Tetapi kedalaman panduan prompt GPT-5 memperjelas: ini adalah perubahan besar; Bump versi utama, jika Anda mau. Bahkan tim Cursor, yang memimpin adopsi pilot untuk model baru, menyebutkannya: > "GPT-5 adalah salah satu model paling mudah dikemudikan yang pernah saya gunakan. Saya perlu lebih eksplisit tentang apa yang ingin saya capai untuk beberapa tugas. Membiarkan hal-hal yang tidak jelas berakhir dengan model mengambil arah yang berbeda dari yang saya harapkan. Ketika saya lebih spesifik, saya terkejut dengan betapa pintarnya model itu." Frustrasi pengguna adalah Hukum Hyrum dalam tindakan: > Dengan jumlah pengguna API yang cukup, tidak masalah apa yang Anda janjikan dalam kontrak: semua perilaku sistem Anda yang dapat diamati akan bergantung pada seseorang. Ini pada dasarnya berarti bahwa OpenAI cukup besar sehingga sekarang, tidak peduli perubahan apa yang mereka lakukan, atau seberapa baik modelnya, orang akan selalu mengeluh karena mereka telah membangun sistem mereka untuk bergantung pada perilaku model pada saat itu. Tim OpenAI telah mengatakannya sendiri: GPT-5 sangat mudah dikendalikan. Ini adalah fitur dan bug: * Itu akan melakukan apa yang Anda perintahkan * Tetapi Anda harus tahu apa yang Anda inginkan untuk dilakukan atau setidaknya mengartikulasikan niat Anda dengan lebih baik Di HYBRD, saya telah menggunakan GPT-5 dan menemukan itu bekerja cukup baik dengan permintaan yang tepat, dan cukup buruk tanpanya. Jika Anda mengirim di GPT-5: 1. Perlakukan petunjuk seperti kode: versi, uji, dan tinjau. -- INI YANG PALING PENTING! 2. Baca panduan prompting dan pahami bagaimana model ini sebenarnya bekerja (tautan di komentar) 3. Jalankan prompt Anda melalui OpenAI Prompt Optimizer (tautan di komentar) 4. Mintalah untuk merencanakan pendekatannya sebelum menyentuh kode apa pun.
104,36K