掃碼下載
BTC $75,833.35 -0.35%
ETH $2,338.67 -0.66%
BNB $624.42 -1.49%
XRP $1.44 +0.21%
SOL $86.51 -0.42%
TRX $0.3301 +0.48%
DOGE $0.0951 -0.69%
ADA $0.2489 -0.81%
BCH $442.10 -0.95%
LINK $9.30 -0.43%
HYPE $43.69 -0.97%
AAVE $93.22 -16.31%
SUI $0.9592 -0.85%
XLM $0.1710 +0.82%
ZEC $337.15 +3.74%
BTC $75,833.35 -0.35%
ETH $2,338.67 -0.66%
BNB $624.42 -1.49%
XRP $1.44 +0.21%
SOL $86.51 -0.42%
TRX $0.3301 +0.48%
DOGE $0.0951 -0.69%
ADA $0.2489 -0.81%
BCH $442.10 -0.95%
LINK $9.30 -0.43%
HYPE $43.69 -0.97%
AAVE $93.22 -16.31%
SUI $0.9592 -0.85%
XLM $0.1710 +0.82%
ZEC $337.15 +3.74%

研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力

2025-06-20 10:03:23
收藏

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。

研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。

app_icon
ChainCatcher 與創新者共建Web3世界