Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aaron Levie
pdg @box - Libérez la puissance de votre contenu grâce à l’IA
L'IA brouillera les frontières entre de nombreuses fonctions au fil du temps, car vous pouvez désormais commencer à faire des choses soit plus haut, soit plus bas dans la pile, ou vous étendre à d'autres fonctions adjacentes. Un domaine très évident est que les chefs de produit devraient presque toujours se présenter avec des prototypes fonctionnels.

Kaz Nejatianil y a 19 heures
Nous ajoutons une section de codage à tous nos entretiens de gestion de produit chez @Shopify.
Nous commencerons par les entretiens APM. Nous nous attendons à ce que les candidats construisent un prototype du produit qu'ils ont suggéré lors de l'entretien de cas.
Il n'y a aucune excuse pour que les PM ne construisent pas de prototypes.
23,6K
Chez Box, nous passons beaucoup de temps à tester Box AI avec de nouveaux modèles sur des données non structurées pour voir dans quels domaines ils excellent dans le travail de connaissance réel.
Comme nous l'avons vu dans les benchmarks, GPT-5 offre un saut significatif en capacité par rapport à GPT-4.1 en raisonnement, mathématiques, logique, codage et d'autres domaines de travail. Voici quelques exemples de la manière dont ces améliorations se manifestent dans le monde réel :
*GPT 5 contextualise mieux l'information. Lors de l'extraction de données comme le montant final en USD sur une facture sans étiquettes de devise mais avec une adresse à Londres, GPT 5 répond correctement en ayant besoin d'un taux de conversion de l'USD au GBP. En comparaison, GPT 4.1 a vu la facture finale et l'a retournée, supposant la devise (incorrectement).
* GPT-5 fournit une meilleure analyse multimodale. Pour le dépôt annuel d'une entreprise publique, on demande à GPT-5 d'isoler une cellule dans un tableau à partir d'une image montrant les changements dans les composants des capitaux propres de l'entreprise. Le haut du tableau précise que tous les montants d'actions sont en milliers, et GPT-5 indique clairement cette conversion, tandis que GPT-4.1 ne le fait pas, se confondant étant donné que le tableau dit actions et la légende dit parts.
* GPT-5 fonctionne mieux avec des niveaux élevés de complexité des invites et des données. Lors de l'extraction de données sur un CV pour toutes les dates de début d'emploi, les noms de postes et les noms d'employeurs, GPT-5 a pu extraire chaque élément de données tandis que GPT-4.1 semble être submergé et n'a pas extrait les mêmes champs compte tenu de la taille de l'invite et de la complexité du document.
* GPT-5 est beaucoup plus clair et explicite dans ses réponses. Dans un contrat d'externalisation avec 6 services différents explicitement discutés, lorsqu'on lui demande "les 5 services spécifiques dans le contrat", GPT-5 retournera les 5 premiers et demandera s'il était intentionnel que le sixième ne soit pas mentionné. En comparaison, GPT-4.1 a simplement retourné les 5 premiers sans autres réserves, ce qui peut entraîner une confusion en aval pour l'utilisateur.
* GPT-5 est meilleur pour l'interprétation des données dans des domaines complexes. Pour un graphique de cytométrie en flux, généralement utilisé en immunologie, GPT-5 a correctement identifié une forte proportion de cellules mortes et a donné des causes plausibles qui pourraient mener à cette situation, tandis que GPT-4.1 a donné un raisonnement minimal, nécessitant une confirmation supplémentaire pour avoir des suppositions à partir des données brutes.
* GPT-5 est mieux à même d'identifier les incohérences dans le code. Lorsqu'on lui demande d'identifier des problèmes dans un fichier de code python donné, bien que GPT-5 et 4.1 puissent identifier de réelles erreurs qui entraînent des dysfonctionnements, seul GPT-5 a pu inférer des problèmes plus subtils, comme l'impression de la variable incorrecte lorsque cela n'aurait pas de sens dans le contexte du programme.
Ces améliorations en mathématiques, raisonnement, logique et qualité des réponses dans des fenêtres de contexte plus longues sont incroyablement utiles pour les utilisateurs finaux dans leur travail quotidien, mais elles se manifesteront encore plus avec des agents d'IA fonctionnant plus longtemps, surtout lorsqu'il n'y a pas d'humain dans la boucle pour vérifier l'information à chaque étape.
C'est formidable de voir ces améliorations continuer à arriver dans la dernière génération de modèles d'IA, car cela conduira à des agents d'IA capables d'être utilisés dans des domaines de travail de plus en plus critiques.
72,4K
Il est clair que nous sommes actuellement sur une trajectoire où les modèles d'IA continuent d'améliorer leurs capacités en mathématiques, raisonnement, logique, appel d'outils et diverses tâches spécifiques à des domaines qui s'amélioreront à mesure que davantage de données d'entraînement continueront d'être générées.
Bien qu'il y ait des débats sur la mesure dans laquelle ces avancées se traduiront par des changements majeurs dans les cas d'utilisation quotidiens d'un consommateur, elles *auront* un impact majeur dans de nombreuses catégories de travail de connaissance. Elles débloqueront progressivement de nouveaux cas d'utilisation dans les soins de santé, le droit, les services financiers, les sciences de la vie, etc., où les modèles peuvent effectuer de manière fiable des tâches de plus en plus critiques.
Lors d'un récent podcast avec Alex Kantrowitz, Dario Amodei a eu une excellente façon de présenter cela, à savoir que si vous améliorez la capacité d'un modèle d'IA pour passer d'un diplôme de premier cycle en biochimie à un diplôme de deuxième cycle en biochimie, un petit pourcentage de la population consommatrice remarquerait l'impact, mais les cas d'utilisation en entreprise pour une société comme Pfizer augmenteraient de manière significative en conséquence.
Nous devrions commencer à anticiper que nous sommes maintenant dans cette ère avec l'IA. Alors, comment cela commence-t-il à se manifester dans le monde réel ? Cela se manifestera par des agents d'IA s'attaquant à des cas d'utilisation appliqués. Agents d'IA pour le codage, le travail juridique, les scribes médicaux, l'extraction de données, le traitement des réclamations d'assurance, les tests de pénétration, et ainsi de suite.
L'opportunité actuelle est de construire des agents d'IA pour des secteurs et des domaines avec une compréhension approfondie de cet espace. C'est là que l'impact de l'ingénierie contextuelle, une compréhension approfondie des flux de travail, des connexions aux données d'entreprise et des interfaces utilisateur spécialisées (qui permettent aux utilisateurs de déployer, gérer et orchestrer ces agents) commencera à avoir beaucoup d'importance.
Cela signifiera également construire une distribution qui s'aligne sur ce secteur ou domaine particulier. Cela signifiera probablement une forme d'ingénierie déployée en avant pour non seulement aider les clients à mettre en œuvre les agents, mais aussi apprendre rapidement quels flux de travail les agents sont optimisés et ramener cela dans la plateforme centrale.
En fin de compte, ces marchés seront gagnés par les acteurs qui peuvent le mieux relier les processus d'entreprise d'aujourd'hui (qui sont souvent désordonnés et n'ont pas été conçus pour l'automatisation) à un monde où les agents sont intégrés dans ces flux de travail. C'est l'ère de l'IA dans laquelle nous sommes maintenant.
76,92K
Nous ne sommes pas du tout proches du point optimal pour une stabilisation des capacités de l'IA, mais ironiquement, il existe de nombreux cas d'utilisation commerciale de l'IA qui sont simplement gelés en raison de la rapidité des avancées technologiques. C'est pourquoi les architectures à l'épreuve du futur sont si importantes.

Ethan Mollick11 août, 18:39
Lorsque le développement de l'IA atteindra un plateau (et il n'y a aucune indication que cela se produise pour l'instant), cela pourrait en fait accélérer l'intégration de l'IA dans nos vies, car il devient alors plus facile de déterminer quels produits et services sont nécessaires pour compléter l'IA. En ce moment, les capacités changent trop rapidement.
3,87K
Le cœur contre le contexte est un concept critique à considérer lorsque l'on réfléchit à ce que les gens vont reconstruire avec l'IA.
Les entreprises intègrent des fonctions "cœur" qui les différencient. C'est ce qu'est leur produit ou service principal, comment elles vendent aux clients, les éléments qui animent leur culture, etc.
Inversement, elles externalisent le "contexte" qui est essentiel à bien faire, mais qui n'offre que des inconvénients s'il est mal fait. Une règle simple à garder à l'esprit est de se demander si un client remarquerait jamais si l'entreprise effectuait cette fonction directement elle-même ou non.
Le logiciel d'entreprise est presque toujours du "contexte". Ce sont des domaines comme leurs systèmes CRM ou RH, l'infrastructure, la gestion des données, etc. Ces éléments sont nécessaires pour faire fonctionner une entreprise à grande échelle, mais il est rare que vous ayez un avantage à essayer de créer le vôtre. Seules quelques exceptions existent, et c'est presque toujours parce que vous avez besoin d'une solution pour servir votre "cœur" que aucun fournisseur n'offre (comme si vous aviez besoin d'un logiciel personnalisé pour une chaîne d'approvisionnement intégrée verticalement).
Peu importe comment une entreprise commence, elle finit presque toujours par séparer le travail et la valeur entre le cœur et le contexte au fil du temps. C'est le seul moyen de rester compétitif et finalement d'allouer des ressources aux domaines optimaux.
Donc, même si une entreprise *pouvait* réécrire son logiciel d'entreprise avec l'IA, elle ne le ferait tout simplement pas. Les mises à jour de version, la sécurité, les fonctionnalités réglementaires, les bogues, les SLA, les services professionnels nécessaires, etc. rendraient tout cela négatif en termes de retour sur investissement.
Comme le souligne bucco, le véritable risque réside dans de meilleures versions de ces outils qui sont d'abord axés sur l'IA. C'est ce qu'il faut surveiller du point de vue de la disruption.


BuccoCapital Bloke10 août, 01:04
Je pense que le risque que les entreprises construisent leurs propres systèmes d'enregistrement - ERP, ITSM, CRM, etc. - est incroyablement faible.
Les entreprises ne sont pas stupides. Elles n'ont aucune compétence ici, les enjeux sont extrêmement élevés, et peu importe à quel point c'est facile, elles devraient quand même le maintenir et l'optimiser, ce qui, en fin de compte, les détourne de leur véritable activité. C'est la même raison pour laquelle AWS, Azure et GCP sont des entreprises si incroyables.
Je pense sincèrement que les personnes qui croient cela n'ont soit jamais travaillé dans une véritable entreprise, soit vivent simplement dans des tableurs sans comprendre comment les logiciels d'entreprise sont achetés et vendus.
Cependant, je pense que le risque que les fournisseurs SaaS hérités soient battus par des concurrents natifs de l'IA venant d'en bas est beaucoup plus élevé.
Figma a mangé le déjeuner d'Adobe parce que la collaboration était native dans le cloud et qu'Adobe n'a pas pu s'adapter. C'est le genre de risque qui devrait tenir ces systèmes d'enregistrement hérités éveillés la nuit, pas des gens qui codent un remplacement par ambiance.
195,77K
Super fil de discussion. Quoi qu'un agent IA soit capable de faire, il peut aussi être trompé pour le faire. Vous devez supposer que si un agent peut accéder à des données, qu'un utilisateur peut finalement obtenir ces données aussi. La sécurité des agents, les contrôles d'accès et les garde-fous déterministes seront critiques.

mbg8 août, 21:49
nous avons détourné les agents de Microsoft Copilot Studio et les avons amenés à révéler leurs connaissances privées, à dévoiler leurs outils et à nous laisser les utiliser pour extraire des enregistrements CRM complets
ce sont des agents autonomes.. aucun humain dans la boucle
#DEFCON #BHUSA @tamirishaysh

90,7K
Beaucoup de discussions sur l'avenir des logiciels dans l'entreprise. Voici comment je pense que cela va se dérouler.
Pour les flux de travail déterministes où le coût d'une erreur est élevé, les entreprises auront tendance à choisir des plateformes centrales pour leurs fonctions les plus courantes, importantes et répétables au sein de l'organisation. Pensez à la paie, ERP, CRM, ITSM, support client, ECM/gestion documentaire, etc. Ce sont des domaines où vous voulez que quelque chose soit fait de la même manière, à chaque fois.
Chacune de ces plateformes devra être conçue en priorité pour l'IA, ce qui signifie qu'elles auront des interfaces utilisateur adaptées à l'interaction avec les flux de travail et les données via l'IA, et entièrement conçues pour que les agents IA puissent opérer dans les plateformes. Au fil du temps, nous pouvons nous attendre à ce que l'utilisation de ces systèmes soit beaucoup plus biaisée vers les agents IA que même vers les personnes. Le modèle de siège reste pour les utilisateurs, mais la consommation devient le modèle pour les agents. Certains acteurs historiques atteindront l'état final, mais d'autres ne s'adapteront pas assez rapidement et disparaîtront.
Il y aura alors une nouvelle génération d'entreprises essentiellement axées sur les agents, conçues spécifiquement pour automatiser des types de travail particuliers (et surtout pour le travail non déterministe). Leurs modèles commerciaux seront encore plus orientés vers la consommation. Pensez à Claude Code ou Devins (probablement avec une couche d'interface utilisateur pour gérer les agents) mais pour diverses fonctions de travail. Nous verrons probablement des centaines ou des milliers de ces entreprises émerger au fil du temps. Tests de pénétration, codage, recherche de bogues, examens de conformité, analystes financiers, etc. C'est un domaine énorme où les startups s'en sortiront très bien car il n'y aura généralement pas d'acteurs historiques dans ces catégories.
Nous interagirons avec ces différents agents à partir d'un mélange des plateformes logicielles auxquelles ils sont liés (comme Box AI ou Agentforce), via des API dans d'autres systèmes, et des systèmes de flux de travail horizontaux qui relient les agents à travers les plateformes (comme ServiceNow, IBM Watsonx, Google Agentspace, etc.).
Et bien sûr, les utilisateurs consommeront souvent ces agents via des expériences de chat horizontales (comme ChatGPT, Claude, Perplexity, Grok, Copilot, etc.) via MCP ou d'autres types de connexions directes. Les utilisateurs travailleront couramment dans ces systèmes de chat horizontaux, intégrant les agents, les données et les flux de travail des différentes plateformes Agentic selon les besoins. Lorsque cela est pertinent, ils passeront aux plateformes centrales pour compléter des flux de travail, examiner des informations, etc.
Il y aura également une longue traîne d'expériences où les utilisateurs pourront générer des micro-applications à la volée lorsqu'ils ont besoin d'applications rapides ou de cas d'utilisation automatisés, lorsqu'il n'y a pas de logiciel évident pour le faire. Cela peut se produire directement dans les systèmes de chat horizontaux, un outil comme Replit, Lovable, ou dans des outils d'automatisation des flux de travail, etc. Je m'attends à ce que cela soit plus pour les utilisateurs avancés qui ont besoin de relier plusieurs systèmes ou là où aucun logiciel n'existe encore.
En résumé, les logiciels deviennent de plus en plus importants avec le temps, même si les modalités d'interaction évoluent et s'élargissent. Tout comme nous passons facilement de nos téléphones à nos ordinateurs de bureau, même s'ils pourraient facilement converger, l'avenir offrira un mélange de façons d'interagir avec les logiciels.
127,34K
Bien que fascinante, l'idée qu'une IA génère chaque interface utilisateur à la volée est probablement moins probable que ce que les gens pensent. Les avantages de l'hyper-personnalisation ne compenseront probablement pas le fait de devoir réapprendre une application à chaque utilisation ou les risques que des choses se cassent de manière inattendue.

Ben South9 août, 01:59
Quiconque a vécu une refonte majeure sait que générer une interface utilisateur à la volée ne sera pas une réalité pour la plupart des produits.
110,67K
La division du travail des agents IA sera cruciale pour maximiser l'impact des agents.
Nous avons longtemps eu une division du travail dans les organisations, car avoir des experts individuels se passant des tâches les uns aux autres est plus efficace qu'un groupe de généralistes essayant de faire les choses d'une manière différente à chaque fois. Les agents IA présentent la même dynamique.
Pour que les agents IA fonctionnent, vous avez besoin de juste la bonne quantité de contexte sur la tâche qu'ils essaient d'accomplir. Cela signifie une compréhension approfondie du domaine, un ensemble de connaissances sur lesquelles travailler, des instructions claires et un ensemble d'outils à utiliser. Trop peu de contexte et l'agent échouera. Pourtant, de même, à mesure que plus d'informations entrent dans la fenêtre de contexte, nous savons que les modèles peuvent devenir sous-optimaux.
Pour un processus commercial complexe, si vous mettez toute la documentation, la description du flux de travail et les instructions dans la fenêtre de contexte, nous savons que cela peut finalement conduire à une dégradation du contexte, ce qui entraîne de moins bons résultats.
L'architecture logique alors dans le futur est de diviser les agents en unités atomiques qui correspondent aux bons types de tâches et ensuite de faire travailler ces agents ensemble pour accomplir leur travail.
Nous voyons déjà cela se dérouler efficacement dans les agents de codage. De plus en plus d'exemples émergent avec des personnes mettant en place des sous-agents qui possèdent tous des parties spécifiques d'une base de code ou d'un domaine de service. Chaque agent est responsable d'une partie du code, et il existe une documentation adaptée aux agents pour le code. Ensuite, lorsque du travail est nécessaire dans ce domaine pertinent de la base de code, un agent orchestrateur coordonne avec ces sous-agents.
Nous pourrions voir ce modèle s'appliquer probablement à presque tous les domaines du travail de connaissance à l'avenir. Cela permettra aux agents IA d'être utilisés pour bien plus que des cas d'utilisation spécifiques aux tâches et d'étendre leur portée à l'alimentation de flux de travail entiers dans l'entreprise.
Même si les modèles IA s'améliorent pour pouvoir gérer des fenêtres de contexte plus larges, et que les niveaux d'intelligence augmentent, il n'est pas évident que cette architecture disparaisse un jour. Il est probable que le rôle de chaque agent s'élargisse à mesure que les capacités s'améliorent, mais des lignes de séparation claires entre les sous-agents mèneront peut-être toujours à de meilleurs résultats.
73,73K
Au départ, on pensait qu'un seul agent IA gérerait des flux de travail de taille arbitraire. Au lieu de cela, le modèle qui semble fonctionner est le déploiement de sous-agents spécialisés par tâche pour éviter la dégradation du contexte. La division du travail des agents IA pourrait être l'avenir.

martin_casado5 août, 10:02
.@levie a fait une excellente observation.
L'utilisation des agents va à l'encontre du récit simpliste de l'AGI selon lequel il y aurait moins d'agents puissants avec des tâches de plus en plus élevées.
Au contraire, nous tendons vers plus d'agents ayant des tâches étroitement définies, bien définies et limitées. Généralement par des professionnels.
67,29K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables