Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
não tenhais medo da grandeza
Sholto Douglas (Anthropic):
"Ao longo do último ano, o RL finalmente nos permitiu pegar um ciclo de feedback e transformá-lo em um modelo que é pelo menos tão bom quanto os melhores humanos em uma determinada coisa em um domínio restrito. E você está vendo isso com matemática e código de competição, que são os dois domínios mais adequados para isso - onde rapidamente os modelos estão se tornando matemáticos de competição e codificadores de competição incrivelmente competentes.
Não há nada intrinsecamente diferente entre código de competição e matemática. É apenas que eles são realmente [mais] adequados para RL do que qualquer outro domínio. Mas, o mais importante, eles demonstram que não há teto intelectual nos modelos. Eles são capazes de fazer raciocínios realmente difíceis, dado o ciclo de feedback certo. Portanto, pensamos que essa mesma abordagem se generaliza basicamente para todos os outros domínios do esforço intelectual humano onde, dado o ciclo de feedback certo, esses modelos se tornarão pelo menos tão bons quanto os melhores humanos em uma determinada coisa. E então, uma vez que você tenha algo que é pelo menos tão bom quanto os melhores humanos em uma coisa, você pode simplesmente executar 1.000 deles em paralelo ou 100x mais rápido e você tem algo que, mesmo apenas com essa condição, é substancialmente mais inteligente do que qualquer humano dado. E isso está completamente ignorando se é possível ou não fazer algo que seja mais inteligente do que um humano.
As implicações disso são bastante impressionantes, certo? Nos próximos 2 ou 3 anos, dado os ciclos de feedback certos, dado o poder computacional certo, etc., pensamos que nós, como indústria de IA como um todo, estamos a caminho de criar algo que é pelo menos tão capaz quanto a maioria dos humanos na maioria das tarefas voltadas para computador, possivelmente tão bom quanto muitos dos nossos melhores cientistas em seus campos. Será afiado e irregular, haverá exemplos de coisas que ele não pode [fazer]. Mas o mundo vai mudar.
... Eu acho que isso vale a pena gritar dos telhados um pouco - pessoal, qualquer coisa que possamos medir parece estar melhorando muito rapidamente. Onde isso nos leva em 2 ou 3 anos? Não posso dizer com certeza. Mas eu acho que vale a pena construir em visões de mundo que há uma chance bastante séria de que consigamos AGI."
7,99K
Provavelmente, o desenvolvimento mais surpreendente em IA para mim nos últimos 6 meses é que o GPT-5 Pro e até mesmo o GPT-5 Thinking podem fazer descobertas científicas novas muito pequenas.
Como lembrete, estes são modelos que pensam por <40 minutos e não são de forma alguma tão avançados quanto os modelos multi-agentes não lançados da OpenAI (que sabemos que podem trabalhar autonomamente por horas).
É bastante fácil ver por que a OpenAI decidiu lançar a iniciativa "OpenAI for Science" agora, presumivelmente apenas algumas semanas antes do modelo que ganhou ouro na IMO, IOI e ICPC se tornar disponível ao público. Tempos emocionantes!

Sam Altman1/10, 10:41
realmente parece que isto está a começar a acontecer (de pequenas maneiras)
136,52K
Top
Classificação
Favoritos