我想赞扬a16z意识到AI政策应该应对灾难性风险。据我所知,这是他们第一次承认AI会“逃避人类控制”的风险——这确实是朝着正确方向迈出的一步。 话虽如此,他们的政策提案极其、可笑地不够充分。例如,他们的透明度提案根本无法帮助应对这些风险(还有,哈哈,他们将“支持哪些语言?”作为考虑模型的五项透明度要求之一——你只需与模型互动15秒就能搞清楚这一点!)。 让我明确一点——他们的提案并不是他们所说的“联邦AI框架”,而是联邦对责任的放弃。我很高兴a16z在言辞上不再极端,但他们在政策要求上仍然是极端的。如果他们试图通过这个“联邦框架”强行推进对州AI法律的优先权,那么那个已经两次彻底击败优先权的联盟将会重新出现,竭尽全力阻止如此不公平的交易。