Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
95 % der AI-Entwicklung besteht nur aus Kontext-Engineering.
Alle sind besessen von besseren Modellen, während der Kontext das eigentliche Nadelöhr bleibt.
Selbst das beste Modell der Welt wird Ihnen Müll liefern, wenn Sie ihm die falschen Informationen geben.
Hier ist, was die meisten Leute übersehen:
Kontext-Engineering dreht sich nicht nur um RAG oder Gedächtnis oder Agenten. Es ist die Kunst und Wissenschaft, die richtigen Informationen im richtigen Format zur richtigen Zeit an Ihr LLM zu liefern.
Denken Sie darüber nach, was Sie tatsächlich brauchen:
↳ Abruf, um relevante Dokumente zu holen
↳ Kurzzeitgedächtnis, um Gespräche zu verfolgen
↳ Langzeitgedächtnis, um Benutzerpräferenzen zu merken
↳ Agenten, um alles zu orchestrieren
↳ Werkzeuge, um die Fähigkeiten zu erweitern
Das sind 5 verschiedene Systeme, die Sie bauen, verbinden und warten müssen.
Ich habe kürzlich mit Pixeltable gearbeitet, und es ist ein interessanter Ansatz für dieses Problem. Es ist Open Source und behandelt Kontext-Engineering als ein einheitliches Datenproblem:
Die Idee ist einfach: Anstatt eine Vektordatenbank, eine SQL-Datenbank, einen Einbettungsdienst und ein Agentenframework zusammenzufügen, lebt alles in einem System.
Ihre Dokumente, Einbettungen, Gesprächshistorie und Agentenausgaben sind alle nur Tabellen. Einbettungen sind berechnete Spalten, die automatisch aktualisiert werden. Die Vektorsuche funktioniert neben Ihren regulären Datenoperationen.
Was ich nützlich finde:
↳ RAG-Pipelines ohne separate Datenbanken verwalten zu müssen
↳ Langzeitgedächtnis durch Vektorsuche über historische Gespräche...

Top
Ranking
Favoriten

