A16z'yi yapay zeka politikasının felaket riskleri ele alması gerektiğini fark ettiği için takdir etmek isterim. Bildiğim kadarıyla bu, yapay zekanın "insan kontrolünden kaçacağı" riskini ilk kez kabul ettikleri durum – bu gerçekten doğru yönde bir adım. Bununla birlikte, politika önerileri son derece ve gülünç derecede yetersiz. Örneğin, şeffaflık önerileri bu tür risklerle ilgili hiç yardımcı olmazdı (ayrıca "Hangi dilleri destekliyor?" sorusunu modellerde dikkate alınması gereken 5 şeffaflık gereksiniminden biri olarak vurgulamaları da haha– bunu sadece modelle etkileşime girerek 15 saniye içinde çözebilirsiniz!). Açıkça söyleyeyim – onların önerisi, onların önerdiği gibi "federal yapay zeka çerçevesi" değil, bunun yerine federal bir sorumluluktan vazgeçmedir. A16z'nin söylemlerinde maksimalist olmaktan uzaklaşmasına sevindim, ama politika taleplerinde hâlâ maksimalist davranıyorlar. Eğer bu "federal çerçeve" temelinde eyalet yapay zeka yasalarının önlenmesini zorla geçirmeye çalışırlarsa, artık iki kez önlemi büyük ölçüde yenmiş olan aynı koalisyon, böyle inanılmaz derecede tarafsız bir ticareti önlemek için diş-tirnak mücadele etmek üzere yeniden ortaya çıkacak.