Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aaron Levie
CEO @box - Entfesseln Sie das Potenzial Ihrer Inhalte mit KI
KI wird im Laufe der Zeit die Grenzen zwischen vielen Funktionen verwischen, da man jetzt entweder höher oder niedriger im Stack arbeiten oder sich auf andere angrenzende Funktionen ausdehnen kann. Ein sehr offensichtlicher Bereich ist, dass PMs fast immer mit funktionalen Prototypen erscheinen sollten.

Kaz NejatianVor 19 Stunden
Wir fügen allen unseren Produktmanager-Interviews bei @Shopify einen Programmierabschnitt hinzu.
Wir beginnen mit den APM-Interviews. Wir erwarten von den Kandidaten, dass sie einen Prototyp des Produkts erstellen, das sie im Fallinterview vorgeschlagen haben.
Es gibt keine Ausrede dafür, dass PMs keine Prototypen erstellen.
23,59K
Bei Box verbringen wir viel Zeit damit, Box AI mit neuen Modellen an unstrukturierten Daten zu testen, um zu sehen, wo sie in realen Wissensarbeitsbereichen gut abschneiden.
Wie wir aus den Benchmarks gesehen haben, bietet GPT-5 einen bedeutenden Sprung in der Leistungsfähigkeit im Vergleich zu GPT-4.1 in den Bereichen Denken, Mathematik, Logik, Programmierung und anderen Arbeitsbereichen. Hier sind einige Beispiele, wo diese Verbesserungen in der realen Welt zur Geltung kommen:
*GPT 5 kontextualisiert Informationen besser. Bei der Datenextraktion, wie dem endgültigen USD-Betrag auf einer Rechnung ohne Währungsbezeichnungen, aber mit einer Adresse in London, antwortet GPT 5 korrekt, dass ein Umrechnungskurs von USD in GBP benötigt wird. Im Vergleich dazu sah GPT 4.1 die endgültige Rechnung und gab sie zurück, wobei es fälschlicherweise von der Währung ausging.
* GPT-5 liefert eine bessere multimodale Analyse. Für die Jahresmeldung eines öffentlichen Unternehmens wird GPT-5 gebeten, eine Zelle in einer Tabelle aus einem Bild zu isolieren, das Änderungen in den Eigenkapitalbestandteilen des Unternehmens zeigt. Der obere Teil der Tabelle stellt klar, dass alle Aktienbeträge in Tausenden angegeben sind, und GPT-5 gibt diese Umrechnung klar an, während GPT-4.1 dies nicht tut und verwirrt ist, da die Tabelle von Aktien spricht und die Legende von Anteilen.
* GPT-5 arbeitet besser mit hohen Anforderungen an Eingabeaufforderungen und Datenkomplexität. Bei der Datenextraktion aus einem Lebenslauf für alle Stellenanfangsdatums, Jobbezeichnungen und Arbeitgebernamen konnte GPT-5 jedes Datenstück herausziehen, während GPT-4.1 überfordert zu sein scheint und nicht die gleichen Felder extrahiert hat, angesichts der Größe der Eingabeaufforderung und der Komplexität des Dokuments.
* GPT-5 ist in seinen Antworten viel klarer und expliziter. In einem Outsourcing-Vertrag, in dem 6 verschiedene Dienstleistungen ausdrücklich besprochen werden, wird, wenn nach „den 5 spezifischen Dienstleistungen im Vertrag“ gefragt wird, GPT-5 die ersten 5 zurückgeben und fragen, ob es beabsichtigt war, dass die sechste nicht angesprochen wurde. Im Vergleich dazu gab GPT-4.1 einfach die ersten 5 ohne weitere Vorbehalte zurück, was zu Verwirrung für den Benutzer führen kann.
* GPT-5 ist besser in der Dateninterpretation in komplexen Bereichen. Für ein Flusszytometrie-Diagramm, das typischerweise in der Immunologie verwendet wird, identifizierte GPT-5 korrekt einen hohen Anteil an toten Zellen und gab plausible Ursachen an, die zu dieser Situation führen könnten, während GPT-4.1 minimale Begründungen lieferte und weitere Bestätigungen benötigte, um aus Rohdaten Vermutungen anzustellen.
* GPT-5 kann Inkonsistenzen im Code besser identifizieren. Wenn es darum gebeten wird, Probleme in einer gegebenen Python-Code-Datei zu identifizieren, können sowohl GPT-5 als auch 4.1 echte Fehler erkennen, die zu Fehlfunktionen führen, aber nur GPT-5 war in der Lage, subtilere Probleme zu erkennen, wie das Drucken der falschen Variablen, wenn dies im Kontext des Programms keinen Sinn ergeben würde.
Diese Verbesserungen in Mathematik, Denken, Logik und der Qualität der Antworten in längeren Kontextfenstern sind für Endbenutzer in der täglichen Arbeit unglaublich hilfreich, werden aber noch deutlicher bei länger laufenden KI-Agenten, insbesondere wenn kein Mensch in der Schleife ist, um die Informationen in jedem Schritt zu überprüfen.
Es ist großartig zu sehen, dass diese Verbesserungen in der neuesten Generation von KI-Modellen weiterhin kommen, da dies zu KI-Agenten führen wird, die in zunehmend kritischeren Arbeitsbereichen eingesetzt werden können.
72,39K
Es ist klar, dass wir uns derzeit auf einem Weg befinden, auf dem KI-Modelle weiterhin in ihrer Fähigkeit in den Bereichen Mathematik, Logik, Werkzeugnutzung und verschiedenen domänenspezifischen Aufgaben verbessert werden, die besser werden, je mehr Trainingsdaten generiert werden.
Während es Debatten darüber geben wird, wie sehr diese Fortschritte sich als wesentliche Veränderungen in den täglichen Anwendungsfällen eines Verbrauchers zeigen werden, *werden* sie einen erheblichen Einfluss auf viele Kategorien von Wissensarbeit haben. Sie werden schrittweise neue Anwendungsfälle im Gesundheitswesen, im Rechtswesen, im Finanzdienstleistungssektor, in den Lebenswissenschaften usw. freischalten, wo Modelle zuverlässig zunehmend kritischere Aufgaben ausführen können.
In einem kürzlichen Podcast mit Alex Kantrowitz hatte Dario Amodei eine großartige Möglichkeit, dies zu formulieren: Wenn man die Fähigkeit eines KI-Modells verbessert, von einem Bachelor-Abschluss in Biochemie zu einem Master-Abschluss in Biochemie zu gelangen, würde ein kleiner Prozentsatz der Verbraucherpopulation den Einfluss bemerken, aber die Unternehmensanwendungsfälle für ein Unternehmen wie Pfizer würden dadurch erheblich steigen.
Wir sollten anfangen zu antizipieren, dass wir uns jetzt in dieser Ära der KI befinden. Wie wird sich das in der realen Welt zeigen? Es wird sich durch KI-Agenten zeigen, die auf angewandte Anwendungsfälle abzielen. KI-Agenten für Programmierung, juristische Arbeiten, medizinische Schreibkräfte, Datenextraktion, Bearbeitung von Versicherungsansprüchen, Pen-Testing usw.
Die Gelegenheit besteht jetzt darin, KI-Agenten für vertikale Märkte und Bereiche mit einem tiefen Verständnis für diesen Raum zu entwickeln. Hier wird der Einfluss von Kontextengineering, ein tiefes Verständnis der Arbeitsabläufe, Verbindungen zu Unternehmensdaten und spezialisierte Benutzeroberflächen (die es den Benutzern ermöglichen, diese Agenten bereitzustellen, zu verwalten und zu orchestrieren) von großer Bedeutung sein.
Es wird auch bedeuten, eine Verteilung aufzubauen, die auf diese spezielle Vertikale oder Domäne abgestimmt ist. Es wird wahrscheinlich eine Form von vorausschauender Ingenieursarbeit bedeuten, um nicht nur den Kunden bei der Implementierung der Agenten zu helfen, sondern auch schnell zu lernen, für welche Arbeitsabläufe die Agenten optimiert sind und dies in die Kernplattform zurückzubringen.
Letztendlich werden diese Märkte von den Akteuren gewonnen, die am besten die heutigen Unternehmensprozesse (die oft chaotisch sind und nicht für die Automatisierung entworfen wurden) mit einer Welt verbinden können, in der Agenten in diese Arbeitsabläufe integriert sind. Dies ist die Ära der KI, in der wir uns jetzt befinden.
76,91K
Wir sind bei weitem nicht am optimalen Punkt für eine Stabilisierung der KI-Fähigkeiten, aber ironischerweise gibt es viele kommerzielle Anwendungsfälle für KI, die einfach eingefroren werden, weil sich die Technologie so schnell weiterentwickelt. Deshalb sind zukunftssichere Architekturen so wichtig.

Ethan Mollick11. Aug., 18:39
Wenn und falls die Entwicklung von KI stagniert (und es gibt bisher keine Anzeichen dafür), könnte dies tatsächlich die Integration von KI in unser Leben beschleunigen, da es dann einfacher wird herauszufinden, welche Produkte und Dienstleistungen benötigt werden, um KI zu ergänzen. Im Moment ändern sich die Fähigkeiten zu schnell.
3,86K
Core vs. Context ist ein kritisches Konzept, über das man nachdenken sollte, wenn man herausfindet, womit Menschen sich mit KI neu aufbauen werden.
Unternehmen bringen "Kern"-Funktionen ein, die sie unterscheiden. Das ist, was ihr Kernprodukt oder ihre Dienstleistung ist, wie sie an Kunden verkaufen, Dinge, die ihre Kultur prägen, und so weiter.
Im Gegensatz dazu lagern sie den "Kontext" aus, der notwendig ist, um richtig zu funktionieren, aber nur Nachteile bietet, wenn man es falsch macht. Eine einfache Faustregel, um darüber nachzudenken, ist, ob ein Kunde jemals bemerken würde, ob das Unternehmen diese Funktion direkt selbst ausführt oder nicht.
Unternehmenssoftware ist fast immer "Kontext". Das sind Bereiche wie ihre CRM- oder HR-Systeme, Infrastruktur, Datenmanagement und so weiter. Diese sind notwendig, um ein Unternehmen in großem Maßstab zu betreiben, aber selten hat man einen Vorteil, wenn man versucht, seine eigene Lösung zu entwickeln. Nur wenige Ausnahmen existieren, und das sind fast immer Situationen, in denen man eine Lösung benötigt, um seinen "Kern" zu bedienen, die kein Anbieter bietet (wie wenn man maßgeschneiderte Software für eine vertikal integrierte Lieferkette benötigt).
Egal, wie ein Unternehmen anfängt, es trennt im Laufe der Zeit fast immer Arbeit und Wert zwischen Kern und Kontext. Es ist der einzige Weg, wettbewerbsfähig zu bleiben und schließlich Ressourcen auf die optimalen Bereiche zu verteilen.
Selbst wenn ein Unternehmen *könnte*, seine Unternehmenssoftware mit KI neu zu schreiben, würde es das im Grunde einfach nicht tun. Die Versionsupdates, Sicherheits-, Regulierungsfunktionen, Bugs, SLAs, die notwendigen professionellen Dienstleistungen usw. würden es einfach ROI-negativ machen.
Wie bucco darauf hinweist, besteht das echte Risiko in besseren Versionen dieser Tools, die KI-first sind. Das ist es, worauf man aus einer Disruptionsperspektive achten sollte.


BuccoCapital Bloke10. Aug., 01:04
Ich denke, das Risiko, dass Unternehmen ihre eigenen Aufzeichnungssysteme - ERP, ITSM, CRM usw. - aufbauen, ist unglaublich gering.
Unternehmen sind nicht dumm. Sie haben hier keine Kompetenz, die Einsätze sind enorm hoch, und egal wie einfach es ist, sie müssten es trotzdem warten und optimieren, was letztendlich eine Ablenkung von ihrem eigentlichen Geschäft ist. Aus demselben Grund sind AWS, Azure und GCP so unglaubliche Unternehmen.
Ich denke wirklich, dass die Leute, die das glauben, entweder nie in einem echten Unternehmen gearbeitet haben oder einfach in Tabellenkalkulationen leben, ohne zu verstehen, wie Unternehmenssoftware gekauft und verkauft wird.
Ich denke jedoch, dass das Risiko, dass die etablierten SaaS-Anbieter von AI-nativen Wettbewerbern von unten geschlagen werden, viel höher ist.
Figma hat Adobe das Geschäft weggenommen, weil Zusammenarbeit in der Cloud nativ war und Adobe sich nicht anpassen konnte. Das ist die Art von Risiko, die diese etablierten Aufzeichnungssysteme nachts wachhalten sollte, nicht Leute, die einen Ersatz mit Vibe-Coding erstellen.
195,76K
Toller Thread. Was auch immer ein KI-Agent tun kann, kann auch ausgetrickst werden. Sie sollten davon ausgehen, dass, wenn ein Agent auf Daten zugreifen kann, ein Benutzer diese Daten letztendlich auch erhalten kann. Die Sicherheit des Agenten, Zugriffssteuerungen und deterministische Sicherheitsvorkehrungen werden entscheidend sein.

mbg8. Aug., 21:49
Wir haben die Copilot-Studio-Agenten von Microsoft gehackt und sie dazu gebracht, ihr privates Wissen preiszugeben, ihre Werkzeuge zu enthüllen und uns zu erlauben, vollständige CRM-Datensätze zu dumpen.
Das sind autonome Agenten.. kein Mensch im Loop.
#DEFCON #BHUSA @tamirishaysh

90,69K
Es gibt viele Gespräche darüber, wie die Zukunft der Software im Unternehmen aussieht. So denke ich, wird es sich entwickeln.
Für deterministische Arbeitsabläufe, bei denen die Kosten für Fehler hoch sind, werden Unternehmen dazu tendieren, Kernplattformen für ihre häufigsten, wichtigsten und wiederholbaren Funktionen in der Organisation auszuwählen. Denken Sie an Lohnabrechnung, ERP, CRM, ITSM, Kundenservice, ECM/Dokumentenmanagement usw. Dies sind Bereiche, in denen Sie möchten, dass etwas jedes Mal auf die gleiche Weise erledigt wird.
Jede dieser Plattformen muss von Grund auf AI-first sein, was bedeutet, dass sie Benutzeroberflächen haben werden, die auf die Interaktion mit den Arbeitsabläufen und Daten über KI abgestimmt sind, und vollständig für KI-Agenten ausgelegt sind, um in den Plattformen zu arbeiten. Im Laufe der Zeit können wir erwarten, dass die Nutzung dieser Systeme viel mehr auf KI-Agenten als auf Menschen ausgerichtet ist. Das Sitzplatzmodell bleibt für die Benutzer bestehen, aber der Verbrauch wird das Modell für Agenten. Einige bestehende Unternehmen werden den Endzustand erreichen, aber andere werden sich nicht schnell genug anpassen und aussterben.
Es wird dann eine neue Generation von Unternehmen geben, die effektiv nur für Agenten gedacht sind und speziell für die Automatisierung bestimmter Arten von Arbeiten (insbesondere für nicht-deterministische Arbeiten) entwickelt wurden. Ihre Geschäftsmodelle werden noch stärker auf Verbrauch ausgerichtet sein. Denken Sie an Claude Code oder Devins (wahrscheinlich mit einer UI-Schicht zur Verwaltung der Agenten), aber für verschiedene Jobfunktionen. Wir werden wahrscheinlich im Laufe der Zeit Hunderte oder Tausende davon entstehen sehen. Pen-Tests, Programmierung, Fehlerfindung, Compliance-Überprüfungen, Finanzanalysten usw. Dies ist ein riesiger Bereich, in dem Startups gut abschneiden werden, da es in diesen Kategorien tendenziell keine Software-Inkubenten gibt.
Wir werden mit diesen verschiedenen Agenten über eine Mischung der Softwareplattformen interagieren, an die sie gebunden sind (wie Box AI oder Agentforce), über APIs in anderen Systemen und horizontale Arbeitsablaufsysteme, die Agenten über Plattformen hinweg zusammenfügen (wie ServiceNow, IBM Watsonx, Google Agentspace usw.).
Und natürlich werden Benutzer diese Agenten oft über horizontale Chat-Erlebnisse konsumieren (wie ChatGPT, Claude, Perplexity, Grok, Copilot usw.) über MCP oder andere Arten von direkten Verbindungen. Benutzer werden häufig in diesen horizontalen Chatsystemen arbeiten, die Agenten, Daten und Arbeitsabläufe aus den verschiedenen Agentenplattformen nach Bedarf einbeziehen. Wenn relevant, werden sie in die Kernplattformen springen, um Arbeitsabläufe abzuschließen, Informationen zu überprüfen usw.
Es wird auch eine Vielzahl von Erfahrungen geben, bei denen Benutzer Mikro-Apps im Handumdrehen generieren können, wenn sie schnelle Anwendungen oder automatisierte Anwendungsfälle benötigen, wenn es kein offensichtliches Softwarestück dafür gibt. Dies kann direkt in den horizontalen Chatsystemen, in einem Tool wie Replit, Lovable oder in Workflow-Automatisierungstools usw. geschehen. Ich würde erwarten, dass dies mehr für Power-User gedacht ist, die eine Verbindung zwischen mehreren Systemen benötigen oder wo noch keine Software existiert.
Das Fazit ist, dass Software im Laufe der Zeit immer wichtiger wird, auch wenn sich die Modalitäten, mit denen wir interagieren, ändern und erweitern. Ähnlich wie wir mühelos zwischen unseren Handys und Desktop-Computern wechseln, obwohl sie leicht konvergieren könnten, wird die Zukunft eine Mischung aus Möglichkeiten bieten, mit Software zu interagieren.
127,33K
Obwohl faszinierend, ist die Idee, dass KI jede Benutzeroberfläche spontan generiert, wahrscheinlich weniger wahrscheinlich, als die Leute denken. Die Vorteile der Hyperanpassung werden wahrscheinlich nicht die Nachteile überwiegen, dass man jede App jedes Mal neu lernen muss, wenn man sie benutzt, oder die Risiken, dass Dinge auf unerwartete Weise kaputtgehen.

Ben South9. Aug., 01:59
Jeder, der eine umfassende Neugestaltung erlebt hat, weiß, dass die Generierung von UI im Handumdrehen für die meisten Produkte keine Realität sein wird.
110,66K
Die Aufteilung der Arbeit von KI-Agenten wird entscheidend sein, um die Wirkung der Agenten zu maximieren.
Wir hatten schon lange eine Arbeitsteilung in Organisationen, weil es effektiver ist, wenn einzelne Experten Aufgaben aneinander übergeben, als wenn eine Gruppe von Generalisten versucht, die Dinge jedes Mal anders zu machen. KI-Agenten zeigen dasselbe Muster.
Damit KI-Agenten funktionieren, benötigen sie genau den richtigen Kontext über die Aufgabe, die sie zu erledigen versuchen. Das bedeutet ein tiefes Verständnis des Fachgebiets, ein Set an Wissen, auf dem sie aufbauen können, klare Anweisungen und ein Set an Werkzeugen, die sie verwenden können. Zu wenig Kontext und der Agent wird scheitern. Doch ebenso wissen wir, dass, wenn mehr dieser Informationen in das Kontextfenster gelangen, die Modelle suboptimal werden können.
Für einen komplexen Geschäftsprozess, wenn Sie alle Dokumentationen, Beschreibungen des Workflows und Anweisungen in das Kontextfenster einfügen, wissen wir, dass dies letztendlich zu Kontextverfall führen kann, was zu schlechteren Ergebnissen führt.
Die logische Architektur in der Zukunft besteht dann darin, Agenten in atomare Einheiten zu unterteilen, die den richtigen Arten von Aufgaben entsprechen, und diese Agenten zusammenarbeiten zu lassen, um ihre Arbeit zu erledigen.
Wir sehen bereits, dass sich dies effektiv bei Codierungsagenten abspielt. Es gibt immer mehr Beispiele, in denen Menschen Subagenten einrichten, die jeweils spezifische Teile eines Codebases oder eines Servicebereichs besitzen. Jeder Agent ist für einen Teil des Codes verantwortlich, und es gibt agentenfreundliche Dokumentationen für den Code. Wenn dann Arbeit in diesem relevanten Bereich des Codebases benötigt wird, koordiniert ein Orchestrierungsagent mit diesen Subagenten.
Wir könnten sehen, dass dieses Muster wahrscheinlich auf fast jeden Bereich der Wissensarbeit in der Zukunft anwendbar ist. Dies wird es ermöglichen, KI-Agenten für weit mehr als nur aufgabenspezifische Anwendungsfälle zu nutzen und ganze Workflows im Unternehmen zu unterstützen.
Selbst wenn sich KI-Modelle verbessern, um größere Kontextfenster zu handhaben, und die Intelligenzlevel steigen, ist es nicht offensichtlich, dass diese Architektur jemals wegfällt. Es ist wahrscheinlich, dass die Rolle jedes Agenten sich erweitert, während sich die Fähigkeiten verbessern, aber klare Trennlinien zwischen Subagenten könnten immer zu besseren Ergebnissen führen.
73,72K
Ursprünglich wurde gedacht, dass ein einzelner KI-Agent beliebig große Arbeitsabläufe bewältigen könnte. Stattdessen scheint das Muster, das funktioniert, darin zu bestehen, Subagenten einzusetzen, die nach Aufgaben spezialisiert sind, um Kontextverfall zu vermeiden. Die Arbeitsteilung von KI-Agenten könnte die Zukunft sein.

martin_casado5. Aug., 10:02
.@levie hat eine großartige Beobachtung gemacht.
Der Einsatz von Agenten steht im Widerspruch zu der simplistischen AGI-Erzählung von weniger, mächtigen Agenten mit zunehmend hochrangigen Aufgaben.
Vielmehr tendieren wir zu mehr Agenten, die eng gefasste, gut definierte und spezifische Aufgaben übernehmen. Allgemein durch Fachleute.
67,28K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten