もし誰かが「既存のAIラボは人類に良くないから」新たなAIラボを作りたいなら、人間拡張ツールに集中し、1分の時間軸の自律性を持つものを作るのは避け>明確な拘束力のある憲章を持つべきだと考えてきました *たとえ*安全性に関する議論がすべて間違っていたとしても、今の最大自律を追求するASI企業は多いです。人間の増強分野(「スカイネットを作るのではなく、心のためのメカスーツを作る」)は十分に活かされていません。 また、できるだけオープンソースにしてください。