扫码下载
BTC $74,978.56 +0.06%
ETH $2,337.32 -0.71%
BNB $629.16 +0.73%
XRP $1.43 +1.60%
SOL $88.25 +3.13%
TRX $0.3260 +0.10%
DOGE $0.0980 +1.61%
ADA $0.2554 +1.63%
BCH $449.07 +1.34%
LINK $9.44 +1.76%
HYPE $43.69 -3.69%
AAVE $113.87 +6.67%
SUI $0.9854 +0.36%
XLM $0.1663 +3.35%
ZEC $333.69 -2.82%
BTC $74,978.56 +0.06%
ETH $2,337.32 -0.71%
BNB $629.16 +0.73%
XRP $1.43 +1.60%
SOL $88.25 +3.13%
TRX $0.3260 +0.10%
DOGE $0.0980 +1.61%
ADA $0.2554 +1.63%
BCH $449.07 +1.34%
LINK $9.44 +1.76%
HYPE $43.69 -3.69%
AAVE $113.87 +6.67%
SUI $0.9854 +0.36%
XLM $0.1663 +3.35%
ZEC $333.69 -2.82%

研究:长期依赖 ChatGPT 等大型语言模型或将损害认知能力

2025-06-20 10:03:23
收藏

ChainCatcher 消息,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖 ChatGPT 等大型语言模型(LLM)可能损害认知能力。

研究显示,使用 AI 写作的参与者大脑中 Alpha 波连接数量仅为独立思考者的一半(42 比 79),且 83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。

app_icon
ChainCatcher 与创新者共建Web3世界