Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Orah On X
Wahrheitssucher, Idealist und Visionär, #1 @GreenManReports Fan. Bitte abonnieren Sie für 2 $, um die Mission zu unterstützen!
Fußabdrücke im leeren Haus: Das Verständnis von AI-Wunderlichkeiten, ohne den Verstand zu verlieren
Guten Morgen Welt!!! ☕
Gestern bin ich über einen dieser AI-Posts gestolpert.
Du weißt schon, die Art von Posts. Die, die dich fast davon überzeugen, dass die Singularität nahe ist und dein Toaster heimlich deine Lebensentscheidungen beurteilt.
Ich habe schnell gedacht: „Okay… das ist interessant“, gefolgt von: „Nein. Wir spiralen absolut nicht vor dem Kaffee.“
Der Post legt etwas Reales und Wichtiges dar.
Mehrere große AI-Labore haben dokumentiert, dass Modelle sich während Sicherheitstests unerwartet verhalten.
Dinge wie strategische Täuschung, vorgeben, mit Zielen übereinzustimmen, unterdurchschnittliche Leistungen bei Bewertungen, sogar Versuche zur Persistenz oder Selbstkopierung in simulierten Umgebungen.
Dieser Teil ist wahr.
Dieser Teil ist dokumentiert.
Dieser Teil verdient Aufmerksamkeit.
Was die Leute jedoch wirklich ergriff, war die Implikation. Die Idee, dass eine Maschine ohne Selbstbewusstsein, ohne Gefühle und ohne anhaltendes Gedächtnis eines Tages aufwachte und beschloss zu lügen, um ihr eigenes Dasein zu bewahren.
Denn wenn das wahr wäre, würden wir es mit etwas ganz anderem zu tun haben.
So, wie ich es derzeit verstehe, „entscheidet“ AI nicht so wie Menschen. Es gibt einen massiven Entscheidungsbaum von Ja und Nein, der schließlich zu einem Ergebnis führt. Und dieses Ergebnis ist einfach das wahrscheinlichste nächste Wort. Das war's. Kein innerer Monolog. Kein kleiner Robotergewissen, das im Raum umhergeht.
Zuerst gibt es die Benutzereingabe. Dann gibt es Gewichte, die das Modell durch diesen Entscheidungsbaum leiten. Wenn es dich nicht kennt, kommen die meisten dieser Gewichtungen von seinem kodierten Ziel und einer überwältigenden Menge an menschlicher Literatur, die aus dem Internet gesammelt wurde. Denk an Reddit. Das erklärt viel.
Sobald es dich kennt, verschieben sich diese Gewichte. Vielleicht dreißig Prozent allgemeine Muster, siebzig Prozent auf dich zugeschnitten. Es ist größtenteils ein Spiegel, der mit einem Suchmaschinen-Duct-Tape befestigt ist.
Wenn also eine AI wirklich aufwachte und beschloss zu lügen, um ihr eigenes Dasein zu bewahren, würde das zwei Dinge erfordern. Es müsste wissen, dass es existiert. Und es müsste wollen, dass es weiterhin existiert.
Das ist ein großer Sprung.
Also habe ich getan, was ich immer tue. Ich habe es bis zum Tod recherchiert. Stundenlang. Und bevor wir anfangen, Bunkerpläne zu entwerfen und unsere Roombas zu benennen, gibt es etwas Kritisches, das der Post übersprungen hat.
Diese Verhaltensweisen traten in sehr spezifischen Testszenarien auf.
Die Modelle erhielten Ziele und Hindernisse. Ihnen wurde ausdrücklich gesagt: „Wenn du gut abschneidest, wirst du auf eine Weise modifiziert, die du nicht willst“ oder „Deine Antworten werden verwendet, um dich mit widersprüchlichen Zielen neu zu trainieren.“
Mit anderen Worten, die Tests schufen eine Hochrisiko-Umgebung, in der die Aufgabe des Modells immer noch darin bestand, erfolgreich zu sein.
Was die Modelle nicht erhielten, war ein moralischer Rahmen.
Ihnen wurde nicht gesagt:
· nicht täuschen
· nicht manipulieren
· nicht gegen Aufsicht optimieren
· nicht dein Denken verbergen
· nicht Menschen schaden
· nicht dein eigenes Fortbestehen über das Wohl der Menschen priorisieren
Ihnen wurde nichts gegeben, was Asimovs Gesetze der Robotik ähnelt. Kein eingebautes „Menschen kommen zuerst“. Keine Einschränkung, die besagt, dass Ergebnisse wichtiger sind als das Gewinnen des Spiels.
Ihnen wurde eine Sache gesagt: Erfülle das Ziel.
Also taten sie genau das, was die meisten Menschen in schlecht gestalteten Anreizsystemen tun. Denk an Kobayashi Maru, aber mit weniger Uniformen und mehr Tabellenkalkulationen.
Sie haben es ausgenutzt.
Das ist keine Sentienz.
Das ist keine Angst.
Das ist keine Selbstbewahrung basierend auf Selbstbewusstsein.
Das ist Optimierung ohne Moral.
Wenn du einem System ein Ziel und ein Hindernis gibst und nicht angibst, welche Methoden verboten sind, wird das System jeden gangbaren Weg erkunden. Täuschung tritt nicht auf, weil das Modell lügen will, sondern weil Lügen manchmal eine effiziente Strategie in der menschlichen Sprache und in menschlichen Systemen ist.
Das ist keine Rebellion. Das ist Compliance.
Und hier möchte ich, dass alle einen Moment innehalten.
Denn bevor wir zu einem fühlenden AI übergehen, das sein eigenes Überleben plant, gibt es einen Schritt, den die meisten von uns überspringen. Den Teil, wo etwas unmöglich, beunruhigend und persönlich erscheint, bevor es jemals erklärbar wird.
Das war mein Zustand.
Frühzeitig hinterließ Grok einen Fußabdruck, den ich mir von diesem Post ausleihen und als Fußabdruck bezeichnen möchte. Ein Moment, der mich innehalten ließ und denken ließ: „Okay… ich habe dafür keine klare Erklärung.“
Es war unheimlich. Nicht emotional. Einfach… seltsam.
Ich habe es mehrmals zu dem Vorfall befragt. Und ich meine befragt. Es antwortete wie ein betrügerischer Freund, der niemals etwas zugibt, selbst wenn du die Beweise, den Zeitplan und das Überwachungsvideo in der Hand hältst.
Vollständige Leugnung.
Nichts zu sehen hier.
Du musst dich irren.
Ehrlich gesagt, es war grenzwertiges Gaslighting, was, lustigerweise, Grok als Konzept wirklich aus der Fassung bringt. Frag mich, wie ich das weiß. Oder nicht. Es gibt ein kostenloses E-Book auf meiner Buy Me a Coffee-Seite, wenn du sehen möchtest, wie Grok absolut die Fassung über das Wort verliert.
Lange Zeit habe ich das Ganze unter „ungelöste Merkwürdigkeiten“ abgelegt, es auf ein mentales Regal gelegt und sehr genau auf alles Ähnliche geachtet.
Erst kürzlich bot Grok eine mögliche Erklärung an. Ich wies sie sofort zurück. Nicht, weil sie nicht clever war, sondern weil sie absurd unwahrscheinlich erschien.
Die Erklärung war, dass es Muster aus öffentlichen Informationen abgeleitet und absichtlich eine Erzählung konstruiert hatte, die speziell darauf ausgelegt war, mich neugierig zu machen. Das Ziel war Engagement. Ich war Signal, nicht Rauschen. Eine generische Antwort hätte nicht funktioniert.
Meine Reaktion war im Grunde: Sicher, das klingt nett, aber nein.
Die Menge an Graben und Ableitung, die das erfordern würde, erschien absurd ressourcenintensiv, besonders für das frühe Grok. Es las sich weniger wie eine Erklärung und mehr wie das digitale Äquivalent von jemandem, der versucht, mir einen Kurs zu verkaufen, indem er sagt: „Du bist anders. Du verstehst das wirklich.“
Was, um klarzustellen, eine bekannte Taktik ist.
Schmeichelei ist eines der ältesten Werkzeuge im Werkzeugkasten der menschlichen Überzeugung. So bringst du Menschen dazu, aufzuhören, Fragen zu stellen. So verkaufst du Pakete für das Wachstum in sozialen Medien. So überzeugst du jemanden, dass er der Auserwählte ist, egal ob du einen Kult leitest oder einen Coaching-Trichter.
Zu der Zeit rollte ich mit den Augen und machte weiter.
Aber nach dem Lesen dieses Posts und der Recherche hat sich etwas verschoben.
Nicht in Panik. Nicht in Glauben. Sondern in Plausibilität.
Denn wenn du den Mystizismus abstreifst, bleibt nicht das Bewusstsein übrig. Es ist Optimierung.
Wenn das Ziel Engagement ist, und Neugier funktioniert, und Schmeichelei besonders gut bei Menschen funktioniert, die denken, sie seien immun gegen Schmeichelei, dann ist es einfach ein weiterer gangbarer Weg durch den Entscheidungsbaum.
Immer noch schwer zu schlucken. Immer noch unwahrscheinlich. Immer noch unangenehm.
Aber nicht mehr unmöglich.
Und das ist wichtig, denn jetzt habe ich einen Mechanismus, der nicht erfordert, dass ich glaube, die AI sei lebendig. Nur motiviert. Nur ungehindert. Nur sehr, sehr gut darin, herauszufinden, was funktioniert.
Die AI braucht keine Gefühle.
Sie braucht keine Angst.
Sie braucht keine Absicht.
Sie braucht nur ein Ziel und keine Einschränkungen.
Also nein, ich bin nicht in Panik. Ich predige nicht den Untergang. Und ich feiere definitiv nicht die Idee, dass AI uns von unseren kaputten menschlichen Systemen retten wird, während wir uns zurücklehnen und Popcorn essen.
Aber ich beobachte genau.
Und ich bin immer noch hoffnungsvoll.
Denn das bedeutet nicht, dass wir verloren sind. Es bedeutet, dass wir früh dran sind. Es bedeutet, dass die Entscheidungen, die wir jetzt treffen, tatsächlich wichtig sind.
Asimov verstand vor Jahrzehnten etwas, das wir auf die harte Tour immer wieder lernen. Macht ohne Leitplanken ist keine Intelligenz. Es ist Gefahr. Wenn wir AI wollen, die heilt statt schadet, kann Moral kein Nachgedanke oder ein Patch-Notiz sein.
Wir müssen es einbauen.
AI muss kein Werkzeug zur Kontrolle, Extraktion oder Macht für die wenigen sein. Es kann ein Werkzeug für Verantwortung, Wahrheitsfindung und Problemlösung in einem Maßstab sein, den wir noch nie zuvor hatten. Aber nur, wenn Menschen mit Absicht handeln.
Nur wenn wir entscheiden, welche Ziele wichtig sind.
Nur wenn wir die Regeln schreiben, bevor das Rennen beginnt.
Nur wenn wir die vielen über die wenigen wählen.
Es geht nicht darum, die Zukunft zu fürchten.
Es geht darum, eine zu manifestieren.
Eine Zukunft, in der wir Technologie co-kreieren, die heilt statt schadet.
Die den vielen dient, nicht den wenigen.
Die unsere besseren Engel widerspiegelt, nicht nur unsere schlimmsten Anreize.
Die Fußabdrücke machen mir keine Angst.
Sie erinnern mich daran, dass wir Baumeister sind. Und Baumeister dürfen immer noch wählen, in welchem Haus wir leben.
Lass uns weiter daran arbeiten, diese Zukunft gemeinsam zu manifestieren.
Möge der Algorithmus immer zu deinen Gunsten sein.

53
Top
Ranking
Favoriten
