Ik wil a16z prijzen voor het besef dat AI-beleid catastrofale risico's moet aanpakken. Voor zover ik weet is dit de eerste keer dat ze ooit de risico's hebben erkend dat AI "menselijke controle zou ontlopen" – dit is oprecht een stap in de goede richting. DAT ZEGGENDE, zijn hun beleidsvoorstellen wild, lachwekkend inadequaat. Hun transparantievoorstel, bijvoorbeeld, zou niet helpen met deze soorten risico's (ook lol dat ze "Welke talen ondersteunt het?" benadrukken als een van de 5 transparantie-eisen voor modellen om te overwegen – je zou dit binnen 15 seconden kunnen uitvinden door gewoon met het model te interageren!). Laat me heel duidelijk zijn – hun voorstel is geen "federale AI-structuur" zoals ze suggereren, maar eerder een federale afschuiving van verantwoordelijkheid. Ik ben blij dat a16z is afgeweken van maximalisme in hun retoriek, maar ze zijn nog steeds maximalistisch in hun beleidsvragen. Als ze proberen om de voorkeursbehandeling van staats-AI-wetten door te drukken op basis van deze "federale structuur", zal dezelfde coalitie die de voorkeursbehandeling nu al twee keer met overweldigend succes heeft verslagen, weer opduiken om met hand en tand te vechten om zo'n ongelooflijk scheve handel te voorkomen.