本日、トラストレス環境での LLM 推論を検証するための新しい方法である LOGIC: A new method for verify LLM inference をリリースしました。 - モデル置換、量子化、デコード時間攻撃を検出 - @vllm_project、@sgl_project、@OpenRouterAIなどですぐに動作します(logpropsのみが必要) - GPUタイプやハードウェア構成全体で堅牢性 - 低い計算オーバーヘッド (総コストの ~1%) ブログ: コード: