掃碼下載
BTC $74,774.81 -0.41%
ETH $2,324.23 -1.47%
BNB $628.30 +0.41%
XRP $1.43 +1.34%
SOL $87.64 +2.55%
TRX $0.3259 +0.10%
DOGE $0.0968 +0.16%
ADA $0.2526 +0.92%
BCH $448.40 +1.21%
LINK $9.36 +0.59%
HYPE $43.50 -4.29%
AAVE $112.02 +5.27%
SUI $0.9784 +0.41%
XLM $0.1645 +2.56%
ZEC $330.77 -3.12%
BTC $74,774.81 -0.41%
ETH $2,324.23 -1.47%
BNB $628.30 +0.41%
XRP $1.43 +1.34%
SOL $87.64 +2.55%
TRX $0.3259 +0.10%
DOGE $0.0968 +0.16%
ADA $0.2526 +0.92%
BCH $448.40 +1.21%
LINK $9.36 +0.59%
HYPE $43.50 -4.29%
AAVE $112.02 +5.27%
SUI $0.9784 +0.41%
XLM $0.1645 +2.56%
ZEC $330.77 -3.12%

Vitalik 分享本地私有 LLM 方案,強調隱私與安全優先

2026-04-02 14:53:42
收藏

ChainCatcher 消息,Vitalik Buterin 發文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目標是將隱私、安全與自主可控作為前提,儘量減少遠程模型及外部服務接觸個人數據的機會,並透過本地推理、文件本地存儲及沙箱隔離等方式降低數據洩露、模型越獄及惡意內容利用風險。

在硬體方面,其測試了搭載 NVIDIA 5090 GPU 的筆記本、AMD Ryzen AI Max Pro 128 GB 統一記憶體設備及 DGX Spark 等方案,並使用 Qwen3.5 35B 與 122B 模型進行本地推理。

其中,5090 筆記本在 35B 模型下可達約 90 tokens/s,AMD 方案約 51 tokens/s,DGX Spark 約 60 tokens/s。Vitalik 表示,其更傾向於基於高性能筆記本構建本地 AI 環境,同時使用 llama-server、llama-swap 及 NixOS 等工具搭建整體工作流。

app_icon
ChainCatcher 與創新者共建Web3世界