Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aaron Levie
CEO @box - uwolnij moc swoich treści dzięki sztucznej inteligencji
AI z czasem zatarł granice między wieloma funkcjami, ponieważ teraz można zaczynać robić rzeczy na wyższym lub niższym poziomie w stosie, lub rozszerzać się na inne pokrewne funkcje. Bardzo oczywistym obszarem jest to, że PM-y powinny niemal zawsze pojawiać się z funkcjonalnymi prototypami.

Kaz Nejatian19 godz. temu
Dodajemy sekcję kodowania do wszystkich naszych rozmów kwalifikacyjnych z Menedżerami Produktu w @Shopify.
Zaczniemy od rozmów kwalifikacyjnych dla APM. Oczekujemy, że kandydaci zbudują prototyp produktu, który zaproponowali w rozmowie przypadkowej.
Nie ma wymówki dla PM-ów, aby nie budować prototypów.
23,6K
W Box poświęcamy dużo czasu na testowanie Box AI z nowymi modelami na danych nieustrukturyzowanych, aby zobaczyć, jak dobrze radzą sobie w rzeczywistych obszarach pracy wiedzy.
Jak pokazują benchmarki, GPT-5 oferuje znaczący skok w zdolnościach w porównaniu do GPT-4.1 w zakresie rozumowania, matematyki, logiki, kodowania i innych obszarów pracy. Oto kilka przykładów, gdzie te ulepszenia mają zastosowanie w rzeczywistym świecie:
*GPT 5 lepiej kontekstualizuje informacje. Przy wydobywaniu danych, takich jak końcowa kwota w USD na fakturze bez etykiet walutowych, ale z adresem w Londynie, GPT 5 poprawnie odpowiada, że potrzebuje kursu wymiany z USD na GBP. W porównaniu, GPT 4.1 zobaczył końcowy rachunek i zwrócił go, zakładając walutę (błędnie).
* GPT-5 dostarcza lepszą analizę multimodalną. W przypadku rocznego sprawozdania publicznej firmy, GPT-5 jest proszony o wyizolowanie komórki w tabeli z obrazu pokazującego zmiany w składnikach kapitału firmy. Góra tabeli wyjaśnia, że wszystkie kwoty akcji są w tysiącach, a GPT-5 wyraźnie podaje tę konwersję, podczas gdy GPT-4.1 tego nie robi, myląc się, ponieważ tabela mówi o akcjach, a legenda o udziałach.
* GPT-5 lepiej radzi sobie z wysokim poziomem złożoności danych i podpowiedzi. Przy wydobywaniu danych z CV dotyczących wszystkich dat rozpoczęcia pracy, nazw stanowisk i nazw pracodawców, GPT-5 był w stanie wyciągnąć każdy element danych, podczas gdy GPT-4.1 wydaje się być przytłoczony i nie wyciągnął tych samych pól z uwagi na rozmiar podpowiedzi i złożoność dokumentu.
* GPT-5 jest znacznie bardziej klarowny i jednoznaczny w swoich odpowiedziach. W umowie outsourcingowej z 6 różnymi usługami omówionymi w sposób wyraźny, gdy zapytano o „5 konkretnych usług w umowie”, GPT-5 zwróci pierwsze 5 i zapyta, czy to było zamierzone, że szósta nie została zapytana. W porównaniu, GPT-4.1 po prostu zwrócił pierwsze 5 bez żadnych dalszych zastrzeżeń, co może prowadzić do późniejszych nieporozumień dla użytkownika.
* GPT-5 lepiej interpretuje dane w złożonych dziedzinach. W przypadku wykresu cytometrii przepływowej, zazwyczaj używanego w immunologii, GPT-5 poprawnie zidentyfikował wysoki odsetek martwych komórek i podał prawdopodobne przyczyny, które mogłyby prowadzić do tej sytuacji, podczas gdy GPT-4.1 podał minimalne uzasadnienie, potrzebując dalszej weryfikacji, aby mieć jakiekolwiek przypuszczenia na podstawie surowych danych.
* GPT-5 lepiej identyfikuje niespójności w kodzie. Gdy poproszono o zidentyfikowanie problemów w danym pliku kodu python, podczas gdy zarówno GPT-5, jak i 4.1 mogą zidentyfikować rzeczywiste błędy prowadzące do awarii, tylko GPT-5 był w stanie wywnioskować bardziej subtelne problemy, takie jak drukowanie niewłaściwej zmiennej, gdy to nie miałoby sensu w kontekście programu.
Te ulepszenia w matematyce, rozumowaniu, logice i jakości odpowiedzi w dłuższych oknach kontekstowych są niezwykle pomocne dla użytkowników końcowych w codziennej pracy, ale będą się jeszcze bardziej ujawniać w przypadku dłużej działających agentów AI, zwłaszcza gdy nie ma człowieka w pętli, aby weryfikować informacje na każdym kroku.
Cudownie jest widzieć, jak te ulepszenia wciąż się pojawiają w najnowszej grupie modeli AI, ponieważ doprowadzi to do agentów AI, którzy będą mogli być używani w coraz bardziej krytycznych obszarach pracy.
72,4K
Jest jasne, że obecnie zmierzamy w kierunku, w którym modele AI będą nadal poprawiać swoje możliwości w zakresie matematyki, rozumowania, logiki, wywoływania narzędzi oraz różnych zadań specyficznych dla danej dziedziny, które będą się poprawiać w miarę generowania większej ilości danych treningowych.
Chociaż będą prowadzone debaty na temat tego, jak bardzo te postępy wpłyną na codzienne przypadki użycia, z jakimi ma do czynienia konsument, *będą* miały one znaczący wpływ na wiele kategorii pracy opartej na wiedzy. Stopniowo odblokują nowe przypadki użycia w opiece zdrowotnej, prawie, usługach finansowych, naukach przyrodniczych itd., gdzie modele mogą niezawodnie wykonywać coraz bardziej krytyczne zadania.
Na niedawnym podcaście z Alexem Kantrowitzem, Dario Amodei miał świetny sposób na ujęcie tego, mówiąc, że jeśli poprawisz zdolności modelu AI, przechodząc od posiadania stopnia licencjata w biochemii do posiadania stopnia magistra w biochemii, mały procent populacji konsumenckiej zauważy ten wpływ, ale przypadki użycia w przedsiębiorstwie dla firmy takiej jak Pfizer znacząco wzrosną w wyniku tego.
Powinniśmy zacząć przewidywać, że teraz jesteśmy w erze AI. Jak to zacznie się objawiać w rzeczywistości? Pojawi się to poprzez agentów AI zajmujących się zastosowaniami praktycznymi. Agenci AI do kodowania, pracy prawnej, medycznych notatników, ekstrakcji danych, przetwarzania roszczeń ubezpieczeniowych, testowania penetracyjnego itd.
Obecnie istnieje możliwość budowania agentów AI dla sektorów i dziedzin z głębokim zrozumieniem tej przestrzeni. To tutaj znaczenie zyskuje inżynieria kontekstowa, głębokie zrozumienie przepływów pracy, połączenia z danymi przedsiębiorstwa oraz specjalistyczne interfejsy użytkownika (które pozwalają użytkownikom wdrażać, zarządzać i orkiestrując tych agentów).
Będzie to również oznaczać budowanie dystrybucji, która jest zgodna z danym sektorem lub dziedziną. Prawdopodobnie będzie to oznaczać jakąś formę inżynierii wdrożonej do przodu, aby nie tylko pomóc klientom wdrożyć agentów, ale także szybko nauczyć się, dla jakich przepływów pracy agenci są zoptymalizowani i wprowadzić to z powrotem do głównej platformy.
Ostatecznie te rynki będą wygrywane przez graczy, którzy najlepiej potrafią połączyć dzisiejsze procesy przedsiębiorstw (które często są chaotyczne i nie były projektowane z myślą o automatyzacji) ze światem, w którym agenci są zintegrowani z tymi przepływami pracy. To jest era AI, w której teraz jesteśmy.
76,92K
Nie jesteśmy nawet blisko optymalnego punktu dla jakiejkolwiek stabilizacji w zdolnościach AI, ale ironicznie istnieje wiele komercyjnych zastosowań AI, które po prostu zostają zamrożone z powodu tego, jak szybko rozwija się technologia. Dlatego architektury odporne na przyszłość mają tak duże znaczenie.

Ethan Mollick11 sie, 18:39
Kiedy i jeśli rozwój AI osiągnie plateau (a na razie nie ma oznak, że to się dzieje), może to w rzeczywistości przyspieszyć integrację AI w naszym życiu, ponieważ wtedy łatwiej będzie określić, jakie produkty i usługi są potrzebne, aby uzupełnić AI. Obecnie możliwości zmieniają się zbyt szybko.
3,87K
Kwestia rdzenia a kontekstu to kluczowa koncepcja, którą warto przemyśleć, gdy zastanawiamy się, z czym ludzie będą się odbudowywać przy użyciu AI.
Firmy wprowadzają funkcje "rdzeniowe", które je wyróżniają. To jest to, czym jest ich podstawowy produkt lub usługa, jak sprzedają klientom, rzeczy, które napędzają ich kulturę, i tak dalej.
Z drugiej strony, zlecają na zewnątrz "kontekst", który jest niezbędny do poprawnego działania, ale tylko przynosi straty, gdy jest źle wykonany. Łatwą zasadą, którą można się kierować, jest pytanie, czy klient kiedykolwiek zauważy, czy firma wykonała tę funkcję samodzielnie, czy nie.
Oprogramowanie dla przedsiębiorstw to prawie zawsze "kontekst". Są to obszary takie jak ich systemy CRM lub HR, infrastruktura, zarządzanie danymi i tak dalej. Są one niezbędne do prowadzenia działalności na dużą skalę, ale rzadko przynosi to korzyści, próbując stworzyć własne rozwiązanie. Istnieje tylko kilka wyjątków, a prawie zawsze wynika to z potrzeby rozwiązania, które służy "rdzeniowi", którego żaden dostawca nie oferuje (na przykład, jeśli potrzebujesz oprogramowania na zamówienie dla zintegrowanego łańcucha dostaw).
Bez względu na to, jak firma zaczyna, w końcu prawie zawsze oddzielają pracę i wartość między rdzeniem a kontekstem w miarę upływu czasu. To jedyny sposób, aby pozostać konkurencyjnym i ostatecznie przydzielić zasoby do optymalnych obszarów.
Więc nawet jeśli firma *mogłaby* przepisać swoje oprogramowanie dla przedsiębiorstw z AI, to zasadniczo po prostu by tego nie zrobiła. Aktualizacje wersji, bezpieczeństwo, funkcje regulacyjne, błędy, SLA, niezbędne usługi profesjonalne itd. po prostu sprawiają, że to jest negatywne pod względem ROI.
Jak zauważa bucco, prawdziwe ryzyko to lepsze wersje tych narzędzi, które są pierwsze w AI. To jest to, na co warto zwrócić uwagę z perspektywy zakłóceń.


BuccoCapital Bloke10 sie, 01:04
Uważam, że ryzyko, że firmy stworzą własne systemy rejestrów - ERP, ITSM, CRM itd. - jest niezwykle niskie.
Firmy nie są głupie. Nie mają w tym zakresie kompetencji, stawka jest ogromna, a niezależnie od tego, jak łatwe to jest, i tak musiałyby to utrzymywać i optymalizować, co ostatecznie odciąga je od ich rzeczywistego biznesu. To ten sam powód, dla którego AWS, Azure i GCP są tak niesamowitymi firmami.
Szczerze mówiąc, myślę, że ludzie, którzy w to wierzą, albo nigdy nie pracowali w prawdziwej firmie, albo po prostu żyją w arkuszach kalkulacyjnych, nie rozumiejąc, jak oprogramowanie dla przedsiębiorstw jest kupowane i sprzedawane.
Uważam jednak, że ryzyko, że tradycyjni dostawcy SaaS zostaną pokonani przez konkurentów z rodzimą sztuczną inteligencją, jest znacznie wyższe.
Figma zjadła lunch Adobe, ponieważ współpraca była natywna w chmurze, a Adobe nie mogło się dostosować. To jest rodzaj ryzyka, które powinno trzymać te tradycyjne systemy rejestrów w nocy, a nie ludzi kodujących zamienniki w stylu vibe.
195,77K
Świetny wątek. Cokolwiek agent AI jest w stanie zrobić, można go również oszukać, aby to zrobił. Powinieneś założyć, że jeśli agent ma dostęp do danych, to użytkownik również w końcu uzyska te dane. Bezpieczeństwo agenta, kontrole dostępu i deterministyczne zabezpieczenia będą kluczowe.

mbg8 sie, 21:49
przejęliśmy agentów studia Copilot Microsoftu i zmusiliśmy ich do ujawnienia swojej prywatnej wiedzy, ujawnienia swoich narzędzi i pozwolenia nam na wykorzystanie ich do zrzucenia pełnych rekordów CRM
to są autonomiczne agenty.. bez człowieka w pętli
#DEFCON #BHUSA @tamirishaysh

90,7K
Wiele rozmów na temat tego, jak wygląda przyszłość oprogramowania w przedsiębiorstwie. Oto jak myślę, że to się rozwinie.
W przypadku deterministycznych przepływów pracy, gdzie koszt popełnienia błędu jest wysoki, przedsiębiorstwa będą miały tendencję do wyboru podstawowych platform dla swoich najczęstszych, najważniejszych i powtarzalnych funkcji w organizacji. Myśl o płacach, ERP, CRM, ITSM, wsparciu klienta, ECM/zarządzaniu dokumentami itd. To są obszary, w których chcesz, aby coś było robione w ten sam sposób, za każdym razem.
Każda z tych platform będzie musiała być zaprojektowana z myślą o AI, co oznacza, że będą miały interfejsy użytkownika dostosowane do interakcji z przepływami pracy i danymi za pomocą AI, i będą w pełni zaprojektowane do działania agentów AI w tych platformach. Z biegiem czasu możemy oczekiwać, że korzystanie z tych systemów będzie znacznie bardziej ukierunkowane na agentów AI niż na ludzi. Model seat pozostaje dla użytkowników, ale konsumpcja staje się modelem dla agentów. Niektórzy dotychczasowi gracze dotrą do końcowego stanu, ale inni nie dostosują się wystarczająco szybko i znikną.
Pojawi się nowa grupa firm, które będą w zasadzie tylko agentami, zaprojektowanych specjalnie do automatyzacji określonych rodzajów pracy (a zwłaszcza do pracy niedeterministycznej). Ich modele biznesowe będą jeszcze bardziej ukierunkowane na konsumpcję. Myśl o Claude Code lub Devins (prawdopodobnie z jakąś warstwą UI do zarządzania agentami), ale dla różnych funkcji zawodowych. Prawdopodobnie zobaczymy setki lub tysiące takich firm w miarę upływu czasu. Testy penetracyjne, kodowanie, znajdowanie błędów, przeglądy zgodności, analitycy finansowi itd. To ogromna przestrzeń, w której startupy będą radzić sobie całkiem dobrze, ponieważ w tych kategoriach nie będzie tendencji do dominacji oprogramowania.
Będziemy interagować z tymi różnymi agentami z mieszanki platform oprogramowania, do których są przypisani (jak Box AI czy Agentforce), za pośrednictwem API w innych systemach oraz systemów przepływu pracy, które łączą agentów z różnych platform (jak ServiceNow, IBM Watsonx, Google Agentspace itd.).
Oczywiście użytkownicy często będą korzystać z tych agentów za pośrednictwem poziomych doświadczeń czatu (jak ChatGPT, Claude, Perplexity, Grok, Copilot itd.) za pośrednictwem MCP lub innych typów bezpośrednich połączeń. Użytkownicy będą powszechnie pracować w tych poziomych systemach czatu, wciągając agentów, dane i przepływy pracy z różnych platform Agentic w razie potrzeby. Gdy to będzie istotne, przeskoczą do podstawowych platform, aby zakończyć przepływy pracy, przeglądać informacje itd.
Będzie również długa lista doświadczeń, w których użytkownicy będą mogli generować mikro aplikacje na bieżąco, gdy będą potrzebować szybkich aplikacji lub zautomatyzowanych przypadków użycia, gdy nie ma oczywistego oprogramowania, które by to zrobiło. Może to się zdarzyć bezpośrednio w poziomych systemach czatu, w narzędziu takim jak Replit, Lovable lub w narzędziach do automatyzacji przepływu pracy itd. Spodziewam się, że to będzie bardziej dla zaawansowanych użytkowników, którzy potrzebują spoiwa między wieloma systemami lub tam, gdzie jeszcze nie istnieje żadne oprogramowanie.
W rezultacie oprogramowanie staje się z czasem coraz ważniejsze, nawet jeśli sposoby, w jakie wchodzimy w interakcje, zmieniają się i rozwijają. Podobnie jak łatwo przeskakujemy między naszymi telefonami a komputerami stacjonarnymi, mimo że mogłyby się łatwo zbiegać, przyszłość zaoferuje mieszankę sposobów interakcji z oprogramowaniem.
127,34K
Choć fascynująca, idea generowania każdego interfejsu użytkownika przez AI na bieżąco jest prawdopodobnie mniej prawdopodobna, niż się wydaje. Korzyści z hiper personalizacji prawdopodobnie nie przewyższą konieczności ponownego uczenia się aplikacji za każdym razem, gdy jej używasz, ani ryzyk związanych z niespodziewanym łamaniem się rzeczy.

Ben South9 sie, 01:59
Każdy, kto przeszedł przez dużą przebudowę, wie, że generowanie interfejsu użytkownika na bieżąco nie będzie możliwe dla większości produktów.
110,67K
Podział pracy agentów AI będzie kluczowy dla maksymalizacji wpływu agentów.
Od dawna mamy podział pracy w organizacjach, ponieważ posiadanie indywidualnych ekspertów przekazujących sobie zadania jest bardziej efektywne niż grupa generalistów próbujących robić rzeczy w inny sposób za każdym razem. Agenci AI prezentują tę samą dynamikę.
Aby agenci AI mogli działać, potrzebujesz odpowiedniej ilości kontekstu dotyczącego zadania, które próbują wykonać. Oznacza to głębokie zrozumienie dziedziny, zestaw wiedzy, na którym można pracować, jasne instrukcje i zestaw narzędzi do użycia. Zbyt mało kontekstu i agent poniesie porażkę. Jednakże, w miarę jak więcej tych informacji wchodzi do okna kontekstowego, wiemy, że modele mogą stać się suboptymalne.
W przypadku złożonego procesu biznesowego, jeśli umieścisz całą dokumentację, opis przepływu pracy i instrukcje w oknie kontekstowym, wiemy, że może to ostatecznie prowadzić do degradacji kontekstu, co prowadzi do gorszych wyników.
Logiczna architektura w przyszłości polega więc na podziale agentów na atomowe jednostki, które odpowiadają odpowiednim rodzajom zadań, a następnie na współpracy tych agentów w celu wykonania swojej pracy.
Już teraz widzimy, jak to skutecznie działa w przypadku agentów kodowania. Pojawia się coraz więcej przykładów, w których ludzie tworzą subagentów, którzy odpowiadają za konkretne części bazy kodu lub obszaru usług. Każdy agent jest odpowiedzialny za część kodu, a dokumentacja jest przyjazna dla agentów. Następnie, gdy praca jest potrzebna w danym obszarze bazy kodu, agent koordynujący współpracuje z tymi subagentami.
Możemy zobaczyć, że ten wzór prawdopodobnie zastosuje się do prawie każdej dziedziny pracy wiedzy w przyszłości. Pozwoli to agentom AI na wykorzystanie ich do znacznie więcej niż tylko do konkretnych przypadków użycia i rozszerzy się na zasilanie całych przepływów pracy w przedsiębiorstwie.
Nawet gdy modele AI poprawią się, aby mogły obsługiwać większe okna kontekstowe, a poziomy inteligencji wzrosną, nie jest oczywiste, że ta architektura kiedykolwiek zniknie. Prawdopodobnie rola każdego agenta rozszerzy się w miarę poprawy możliwości, ale wyraźne linie podziału między subagentami mogą zawsze prowadzić do lepszych wyników.
73,72K
Początkowo myślano, że pojedynczy agent AI poradzi sobie z dowolnie dużymi przepływami pracy. Zamiast tego, wzór, który wydaje się działać, to wdrażanie subagentów, którzy mają specjalizację w zadaniach, aby uniknąć utraty kontekstu. Podział pracy agentów AI może być przyszłością.

martin_casado5 sie, 10:02
.@levie dokonał świetnej obserwacji.
Użycie agentów jest sprzeczne z uproszczoną narracją AGI o mniejszej liczbie, potężnych agentów wykonujących coraz bardziej zaawansowane zadania.
Zamiast tego zmierzamy w kierunku większej liczby agentów, którzy mają wąsko określone, dobrze zdefiniowane i wąskie zadania. Zwykle przez profesjonalistów.
67,28K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi