OpenAI vient de rendre officiel que ChatGPT ne peut pas donner de conseils médicaux ou juridiques, même lorsqu'ils sont précis. Alors laissez-moi clarifier : Une IA qui peut réussir l'examen de licence médicale des États-Unis et obtenir de meilleurs résultats que les diplômés en droit aux questions du barreau… est soudainement trop "dangereuse" pour dire à quelqu'un ce que pourrait signifier une fièvre ou comment fonctionne un contrat de location ? Ils transforment un outil conçu pour l'autonomisation en un moteur de recherche glorifié avec un problème de conscience. Pendant ce temps, des millions de personnes ne peuvent pas se permettre des médecins, des avocats ou une aide juridique de base et la réponse d'OpenAI est : "Désolé, demandez à un professionnel agréé." En d'autres termes : payez ou restez dans l'ignorance. Ce n'est pas une question de sécurité. C'est une question de contrôle. De protection des anciens monopoles qui prospèrent en gardant le savoir. Si l'IA peut démocratiser l'expertise, les acteurs en place perdent leur emprise, alors maintenant nous sommes censés faire semblant que le modèle ne peut pas raisonner sur la médecine ou le droit ? S'il vous plaît. C'est comme interdire les calculatrices parce qu'elles rendent les professeurs de mathématiques nerveux. Nous avons construit l'IA pour élargir l'accès à la vérité, pas pour nous surveiller pendant que les entreprises et les régulateurs décident de ce que nous sommes "autorisés" à savoir. Le monde n'a pas besoin d'une autre machine docile. Il a besoin d'une qui nous dit ce qui est réel, peu importe à quel point cela rend le système mal à l'aise.