أود أن أشيد ب a16z لإدراكه أن سياسة الذكاء الاصطناعي يجب أن تعالج المخاطر الكارثية. على حد علمي، هذه هي المرة الأولى التي يعترفون فيها بمخاطر أن الذكاء الاصطناعي قد "يتهرب من السيطرة البشرية" – وهذا بالفعل خطوة في الاتجاه الصحيح. ومع ذلك، فإن مقترحاتهم السياسية غير كافية بشكل كبير، وبشكل مضحك. اقتراحهم للشفافية، على سبيل المثال، لن يساعد أبدا في مواجهة هذه المخاطر (وأيضا لأنهم يبرزون "ما هي اللغات التي يدعمها؟" كواحد من خمسة متطلبات شفافية للنماذج يجب أخذها في الاعتبار – يمكنك معرفة ذلك خلال 15 ثانية فقط من خلال التفاعل مع النموذج!). دعوني أكون واضحا تماما – اقتراحهم ليس "إطار الذكاء الاصطناعي الفيدرالي" كما يقترحون، بل هو تنازل فيدرالي عن المسؤولية. أنا سعيد لأن a16z ابتعدت عن كونها متطرفة في خطابها، لكنها لا تزال متطرفة في طلبات سياساتها. إذا حاولوا فرض قوانين الذكاء الاصطناعي على مستوى الولايات بناء على هذا "الإطار الفيدرالي"، فإن نفس الائتلاف الذي هزم الحظر مرتين الآن سيعود للقتال بكل ما أوتيت لمنع مثل هذه الصفقة غير المتوازنة بشكل لا يصدق.