Od jakiegoś czasu myślę, że jeśli ktokolwiek chce stworzyć kolejne "nowe laboratorium AI, ponieważ istniejące nie są dobre dla ludzkości", powinien mieć wyraźny statut zobowiązujący do skupienia się na narzędziach wspomagających ludzi i nie budować niczego z autonomią większą niż 1 minuta. *Nawet jeśli* wszystkie argumenty dotyczące bezpieczeństwa okażą się błędne, firmy ASI dążące do Maksymalnej Autonomii Teraz są na porządku dziennym, a nisza wspomagania ludzi ("nie buduj skynetu, buduj egzoszkielety dla umysłu") jest niedostatecznie obsłużona. Proszę również, aby to było jak najbardziej otwarte źródło.