Gostaria de parabenizar a a16z por perceber que a política de IA deve abordar riscos catastróficos. Pelo que sei, esta é a primeira vez que eles reconhecem o risco de a IA "escapar do controle humano" – isso é realmente um passo na direção certa. DITO ISSO, as propostas de política deles são totalmente, ridiculamente inadequadas. A proposta de transparência deles, por exemplo, não ajudaria nem um pouco com esse tipo de risco (também rsrs que eles destacam "Quais linguagens ele suporta?" como um dos 5 requisitos de transparência para modelos a considerar – você poderia resolver isso em 15 segundos apenas interagindo com o modelo!). Deixe-me ser perfeitamente claro – a proposta deles não é um "arcabouço federal de IA" como sugerem, mas sim uma abdicação federal de responsabilidade. Fico feliz que a a16z tenha se afastado de ser maximalista em sua retórica, mas eles ainda são maximalistas em suas demandas políticas. Se tentarem impor a preempção das leis estaduais de IA com base nesse "arcabouço federal", a mesma coalizão que já derrotou a preempção duas vezes vai ressurgir para lutar com unhas e dentes para evitar uma troca tão incrivelmente desequilibrada.