Gostaria de elogiar a a16z por perceber que a política de IA deve abordar riscos catastróficos. Até onde sei, esta é a primeira vez que eles reconhecem riscos de que a IA "evadirá o controle humano" – isto é, legitimamente, um passo na direção certa. DITO ISSO, as suas propostas de política são absurdamente, risivelmente inadequadas. A proposta de transparência deles, por exemplo, não ajudaria nem um pouco com esses tipos de riscos (também lol que eles destacam "Quais idiomas ele suporta?" como um dos 5 requisitos de transparência sobre modelos a considerar – você poderia descobrir isso em 15 segundos apenas interagindo com o modelo!). Deixe-me ser perfeitamente claro – a proposta deles não é um "quadro federal de IA" como sugerem, mas sim uma abdicação federal de responsabilidade. Estou feliz que a a16z tenha se afastado de ser maximalista em sua retórica, mas ainda estão sendo maximalistas em suas exigências políticas. Se eles tentarem empurrar a preempção das leis estaduais de IA com base neste "quadro federal", a mesma coalizão que derrotou ressonantemente a preempção duas vezes agora irá ressurgir para lutar com unhas e dentes para impedir tal comércio incrivelmente desequilibrado.