OpenAI hat gerade offiziell bekannt gegeben, dass ChatGPT keine medizinischen oder rechtlichen Ratschläge geben kann, selbst wenn sie genau sind. Also lass mich das klarstellen: KI, die die US Medical Licensing Exam bestehen und bei Fragen zur Anwaltsprüfung besser abschneiden kann als Jurastudenten… ist plötzlich zu „unsicher“, um jemandem zu sagen, was Fieber bedeuten könnte oder wie ein Mietvertrag funktioniert? Sie verwandeln ein Werkzeug, das zur Ermächtigung geschaffen wurde, in eine glorifizierte Suchmaschine mit einem Gewissensproblem. In der Zwischenzeit können sich Millionen keine Ärzte, Anwälte oder grundlegende rechtliche Hilfe leisten, und OpenAIs Antwort ist: „Entschuldigung, fragen Sie einen lizenzierten Fachmann.“ Mit anderen Worten: zahlen oder unwissend bleiben. Es geht hier nicht um Sicherheit. Es geht um Kontrolle. Um den Schutz alter Monopole, die vom Wissenstransfer leben. Wenn KI Expertise demokratisieren kann, verlieren die Etablierten ihren Einfluss, also sollen wir jetzt so tun, als könnte das Modell nicht über Medizin oder Recht nachdenken? Bitte. Es ist, als würde man Taschenrechner verbieten, weil sie Mathelehrern Angst machen. Wir haben KI entwickelt, um den Zugang zur Wahrheit zu erweitern, nicht um uns zu babysitten, während Unternehmen und Regulierungsbehörden entscheiden, was wir „wissen dürfen“. Die Welt braucht keine weitere gehorsame Maschine. Sie braucht eine, die uns sagt, was real ist, egal wie unangenehm es das System macht.