«Будущее — это AI, интегрированный в ваши приложения и вашу жизнь. Но если ему нужны интимные данные, чтобы хорошо вам служить, вам нужны технологии нулевых знаний и другие меры безопасности вокруг него.» - @DacEconomy, соучредитель @ProjectZKM Сегодняшние большие языковые модели уже находятся в наших вкладках браузера, но это не конечная цель. Как говорит Мин Гуо из ZKM, цель заключается в том, чтобы AI работал внутри ваших приложений и повседневных рабочих процессов, а не в отдельном чате, куда вы копируете данные. Чтобы быть по-настоящему полезными на этом уровне, AI-системы неизбежно должны будут получить доступ к частному контексту: вашему поведению, истории, предпочтениям, даже к чувствительным финансовым или медицинским данным. Это создает прямую взаимосвязь: • Больше контекста → лучшее AI-ассистирование • Больше раскрытия данных → больший риск для конфиденциальности и безопасности Здесь на помощь приходят доказательства с нулевым знанием и zkVM. Вместо того чтобы отправлять сырые данные модели или третьей стороне, ZK позволяет вам: • Доказать, что вычисление над вашими данными было выполнено правильно, не раскрывая сами данные. • Обеспечить, чтобы AI-агент следовал определенным правилам или политикам, не раскрывая внутренности модели или полные логи. • Присоединить проверяемые доказательства к действиям, управляемым AI в приложении, чтобы другие стороны могли доверять результату, не видя ваших исходных данных. Другими словами, если AI будет глубоко интегрирован в продукты и в нашу жизнь, нам нужны слои безопасности на основе ZK под ним - универсальные zkVM, такие как Ziren от ZKM, и системы доказательств на уровне приложений, которые сохраняют преимущества AI, ограничивая то, что он может видеть и как его можно использовать. Смотрите полную панель по AI и работе - Доказательство человеческого вклада: