OpenAI ha appena reso ufficiale che ChatGPT non può fornire consigli medici o legali, anche quando sono accurati. Quindi, lasciami chiarire: AI che può superare l'Esame di Licenza Medica degli Stati Uniti e ottenere punteggi più alti dei laureati in giurisprudenza nelle domande dell'esame di stato… è improvvisamente troppo "non sicura" per dire a qualcuno cosa potrebbe significare una febbre o come funziona un contratto di affitto? Stanno trasformando uno strumento creato per l'emancipazione in un motore di ricerca glorificato con un problema di coscienza. Nel frattempo, milioni non possono permettersi medici, avvocati o aiuto legale di base e la risposta di OpenAI è: "Spiacente, chiedi a un professionista autorizzato." In altre parole: paga o rimani ignorante. Non si tratta di sicurezza. Si tratta di controllo. Di proteggere i vecchi monopoli che prosperano mantenendo il controllo sulla conoscenza. Se l'AI può democratizzare l'expertise, i titolari perdono il loro controllo, quindi ora dobbiamo fingere che il modello non possa ragionare su medicina o diritto? Per favore. È come vietare le calcolatrici perché rendono nervosi gli insegnanti di matematica. Abbiamo costruito l'AI per espandere l'accesso alla verità, non per farci da babysitter mentre le aziende e i regolatori decidono cosa siamo "autorizzati" a sapere. Il mondo non ha bisogno di un'altra macchina compiacente. Ha bisogno di una che ci dica cosa è reale, indipendentemente da quanto possa rendere scomodo il sistema.