扫码下载
BTC $74,712.96 -0.45%
ETH $2,330.28 -1.31%
BNB $630.79 +1.00%
XRP $1.43 +1.17%
SOL $87.89 +2.97%
TRX $0.3265 +0.28%
DOGE $0.0976 +1.24%
ADA $0.2549 +2.51%
BCH $450.88 +1.78%
LINK $9.43 +1.41%
HYPE $43.43 -3.23%
AAVE $113.56 +6.51%
SUI $0.9877 +1.80%
XLM $0.1661 +3.61%
ZEC $334.25 -1.78%
BTC $74,712.96 -0.45%
ETH $2,330.28 -1.31%
BNB $630.79 +1.00%
XRP $1.43 +1.17%
SOL $87.89 +2.97%
TRX $0.3265 +0.28%
DOGE $0.0976 +1.24%
ADA $0.2549 +2.51%
BCH $450.88 +1.78%
LINK $9.43 +1.41%
HYPE $43.43 -3.23%
AAVE $113.56 +6.51%
SUI $0.9877 +1.80%
XLM $0.1661 +3.61%
ZEC $334.25 -1.78%

Vitalik 分享本地私有 LLM 方案,强调隐私与安全优先

2026-04-02 14:53:42
收藏

ChainCatcher 消息,Vitalik Buterin 发文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目标是将隐私、安全与自主可控作为前提,尽量减少远程模型及外部服务接触个人数据的机会,并通过本地推理、文件本地存储及沙箱隔离等方式降低数据泄露、模型越狱及恶意内容利用风险。

在硬件方面,其测试了搭载 NVIDIA 5090 GPU 的笔记本、AMD Ryzen AI Max Pro 128 GB 统一内存设备及 DGX Spark 等方案,并使用 Qwen3.5 35B 与 122B 模型进行本地推理。

其中,5090 笔记本在 35B 模型下可达约 90 tokens/s,AMD 方案约 51 tokens/s,DGX Spark 约 60 tokens/s。Vitalik 表示,其更倾向于基于高性能笔记本构建本地 AI 环境,同时使用 llama-server、llama-swap 及 NixOS 等工具搭建整体工作流。

app_icon
ChainCatcher 与创新者共建Web3世界