OpenAI acaba de hacer oficial que ChatGPT no puede dar consejos médicos o legales, incluso cuando son precisos. Así que déjame aclarar esto: ¿Una IA que puede aprobar el Examen de Licencia Médica de EE. UU. y obtener mejores resultados que los graduados de derecho en las preguntas del examen de barra… de repente es demasiado "insegura" para decirle a alguien lo que podría significar una fiebre o cómo funciona un contrato de alquiler? Están convirtiendo una herramienta diseñada para empoderar en un motor de búsqueda glorificado con un problema de conciencia. Mientras tanto, millones no pueden permitirse médicos, abogados o ayuda legal básica y la respuesta de OpenAI es: "Lo siento, pregúntale a un profesional licenciado." En otras palabras: paga o permanece ignorante. Esto no se trata de seguridad. Se trata de control. De proteger viejos monopolios que prosperan al mantener el conocimiento bajo llave. Si la IA puede democratizar la experiencia, los incumbentes pierden su control, así que ahora se supone que debemos pretender que el modelo no puede razonar sobre medicina o derecho? Por favor. Es como prohibir las calculadoras porque ponen nerviosos a los profesores de matemáticas. Construimos la IA para expandir el acceso a la verdad, no para cuidarnos mientras las corporaciones y los reguladores deciden lo que se nos "permite" saber. El mundo no necesita otra máquina obediente. Necesita una que nos diga lo que es real, sin importar cuán incómodo sea para el sistema.