Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

宝玉
Prompt Engineer, zajmujący się uczeniem się i rozpowszechnianiem wiedzy na temat sztucznej inteligencji, inżynierii oprogramowania i zarządzania inżynierskiego.
W odniesieniu do ostatnich skarg użytkowników na Claude, który rzekomo "obniża inteligencję": czasami odpowiedzi na pytania są zupełnie niezrozumiałe, a czasami pojawiają się dziwne znaki, na przykład w angielskim zdaniu nagle pojawia się tajski znak "สวัสดี".
Anthropic właśnie wydał szczegółowe wyjaśnienie, potwierdzając, że przyczyną problemów z Claude są trzy błędy w infrastrukturze, a nie celowe obniżenie modelu ani zbyt duży ruch.
Jakie są te trzy błędy?
Błąd 1: Żądania wysyłane w niewłaściwe miejsce
Na początku sierpnia część krótkich żądań kontekstowych została błędnie wysłana do serwera obsługującego długie konteksty. Na początku tylko 0,8% żądań było dotkniętych, ale do końca sierpnia, po dostosowaniu obciążenia, wskaźnik błędów wzrósł do 16%. Ponadto, ponieważ serwery mają funkcję pamięci, prawdopodobieństwo, że ten sam użytkownik wielokrotnie napotka problem, jest bardzo wysokie.
Błąd 2: Niespodziewane pojawienie się dziwnych znaków
25 sierpnia, jedna z optymalizacji spowodowała zamieszanie w wynikach modelu. Niektórzy użytkownicy zauważyli, że Claude odpowiadając na pytania w języku angielskim, nagle wtrącał "สวัสดี" (tajski) lub znaki chińskie. Ten błąd pojawił się nagle i problem trwał około tygodnia.
Błąd 3: Głęboko ukryty problem z kompilatorem TPU
Również pod koniec sierpnia, jedna z optymalizacji aktywowała ukryty błąd w podstawowym kompilatorze XLA chipów TPU Google. Ten błąd powodował, że Claude czasami tracił najbardziej prawdopodobne słowo, co prowadziło do niestabilnej jakości odpowiedzi.
Z powodu nakładających się trzech problemów, każdy z nich objawiał się inaczej, co znacznie utrudniało diagnozowanie i naprawę. Anthropic dopiero na początku września stopniowo zakończył naprawy.
Przyszłe środki poprawcze
Anthropic stwierdził, że ta awaria ujawniła pewne problemy z niedostatecznym testowaniem. W przyszłości zwiększą czułość monitorowania i będą na bieżąco zbierać opinie użytkowników, aby szybciej wykrywać i rozwiązywać problemy.
Zachęcają również użytkowników, aby w przypadku zauważenia nieprawidłowego działania Claude, mogli w każdej chwili zgłaszać to w interfejsie Claude.
Anthropic zapewnia, że jakość usług Claude zawsze jest ich najwyższym priorytetem.


Claude5 godz. temu
Opublikowaliśmy szczegółowy raport po incydencie na temat trzech błędów infrastrukturalnych, które wpłynęły na Claude'a między sierpniem a początkiem września.
W poście wyjaśniamy, co się stało, dlaczego naprawa zajęła czas i co zmieniamy:
153
Tego rodzaju wnioski pochodzą od osób, które nie rozumieją inteligentnych agentów — wierzyć to znaczy mieć moc, nie wierzyć to znaczy nie mieć mocy, a brak mocy to brak pobożności:
1. Zdolność inteligentnych agentów do rozwiązywania problemów nie jest nieskończona, jest ograniczona przez możliwości modelu i narzędzi.
2. Problemy, które możesz rozwiązać samodzielnie, niekoniecznie mogą być rozwiązane przez agenta, na przykład mogę samodzielnie stworzyć skomplikowaną aplikację, a agent nie potrafi.
3. Problemy, których nie możesz rozwiązać samodzielnie, agent może pomóc rozwiązać, na przykład nie potrafię samodzielnie rozwiązać jakiegoś zadania z leetcode lub zadania matematycznego, agent może mi w tym łatwo pomóc; na przykład nie znam japońskiego, AI może mi pomóc w tłumaczeniu japońskiego.
Górna granica problemów, które agent może rozwiązać, w największym stopniu zależy od tego, czy problem można zweryfikować, czy AI może to zweryfikować samodzielnie, czy potrzebna jest weryfikacja przez człowieka.
Na przykład w programowaniu AI, matematyce, tak długo jak AI może samodzielnie weryfikować, agent AI może działać nieprzerwanie, aż do rozwiązania.
Na przykład agent AI piszący teksty może samodzielnie wyszukiwać materiały i pisać wiele wersji tekstów w różnych stylach, ale nie wie, czy to, co napisał, jest dobre, czy złe, czy spełnia twoje wymagania, potrzebna jest weryfikacja przez człowieka, a wyniki weryfikacji mogą się różnić w zależności od poziomu umiejętności weryfikującego.
Jeśli mój poziom umiejętności jest niski i nie potrafię ocenić jakości, nie mogę dać agentowi informacji zwrotnej, co uniemożliwia mu poprawę. Ale w tym przypadku dolna granica wyników niekoniecznie będzie niska, ponieważ jeśli nie potrafię ocenić jakości, oznacza to, że jego prace są na wyższym poziomie niż moje.
Jeśli mój poziom umiejętności jest wysoki, mogę od razu dostrzec problemy w artykule, wskazać je i pozwolić mu na dalsze poprawki, po kilku poprawkach może to być naprawdę dobre. Nie gorsze niż mój własny poziom. Ale to nie może być całkowicie zautomatyzowane, wymaga interwencji człowieka.
Ostatecznie, inteligentny agent to nie mistycyzm, to nauka.

小年21 godz. temu
Czy inteligentne systemy naprawdę mogą pomóc Ci w rozwiązaniu
pisania skryptów do krótkich filmów, pisania skryptów do transmisji na żywo, pisania postów na media społecznościowe, prowadzenia działań w prywatnych kanałach, optymalizacji biznesu itd.
Odpowiedź brzmi
jeśli potrafisz samodzielnie rozwiązać wszystkie powyższe problemy, inteligentny system może Ci w tym pomóc
Jeśli nie potrafisz samodzielnie rozwiązać, a Twoja wiedza na temat powyższych działań jest ograniczona, to nie mów o inteligentnych systemach, nawet jeśli dasz Ci eksperta do rozwiązania problemów, który przyjdzie osobiście, nadal nie rozwiąże żadnego problemu
Możliwości inteligentnych systemów w rozwiązywaniu problemów są nieograniczone
Ale ludzka percepcja jest ograniczona
wewnętrzne blokady są jednak nieograniczone
250
AI po raz pierwszy zdobywa tytuł mistrza! System wnioskowania OpenAI zdobywa mistrzostwo świata ICPC
We wrześniu 2025 roku narodził się wyjątkowy mistrz świata.
Tym razem na podium nie stanęła drużyna najlepszej uczelni, lecz system wnioskowania sztucznej inteligencji z laboratorium OpenAI.
Co więcej, zdumiewające jest to, że nie tylko wygrał zawody, ale także zdobył maksymalną liczbę punktów – odpowiedział poprawnie na wszystkie 12 pytań.

Mostafa Rohaninejad8 godz. temu
1/n
Jestem naprawdę podekscytowany, że nasz system rozumowania @OpenAI uzyskał doskonały wynik 12/12 podczas Finałów Światowych ICPC 2025, prestiżowych zawodów programistycznych dla uczelni, w których najlepsze zespoły uniwersyteckie z całego świata rozwiązują złożone problemy algorytmiczne. To umieściłoby go na pierwszym miejscu wśród wszystkich uczestników ludzkich. 🥇🥇

38
Najlepsze
Ranking
Ulubione