Vorrei elogiare a16z per aver realizzato che la politica sull'AI dovrebbe affrontare i rischi catastrofici. A quanto ne so, questa è la prima volta che riconoscono i rischi che l'AI potrebbe "eludere il controllo umano" – questo è legittimamente un passo nella giusta direzione. Detto ciò, le loro proposte politiche sono incredibilmente, ridicolmente inadeguate. La loro proposta di trasparenza, ad esempio, non aiuterebbe minimamente con questi tipi di rischi (anche lol che evidenziano "Quali lingue supporta?" come uno dei 5 requisiti di trasparenza sui modelli da considerare – potresti scoprirlo in 15 secondi semplicemente interagendo con il modello!). Lasciatemi essere perfettamente chiaro – la loro proposta non è un "quadro federale per l'AI" come suggeriscono, ma piuttosto un'abdicazione federale di responsabilità. Sono contento che a16z si sia allontanata dall'essere massimalista nella loro retorica, ma continuano a essere massimalisti nelle loro richieste politiche. Se tenteranno di forzare l'anticipo delle leggi statali sull'AI basandosi su questo "quadro federale", la stessa coalizione che ha sconfitto sonoramente l'anticipo due volte ora riemergerà per combattere con tutte le forze per prevenire un commercio così incredibilmente sbilanciato.