掃碼下載
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
首頁
快訊
深度
文章
專欄
專題
日曆
數據
市場
圖表
發現
活動
知識庫
工具導航
HK Web3 Feastival
BTC
$75,680.83
-2.32%
ETH
$2,349.53
-3.33%
BNB
$630.51
-1.74%
XRP
$1.43
-4.12%
SOL
$86.18
-3.47%
TRX
$0.3297
+0.81%
DOGE
$0.0948
-5.27%
ADA
$0.2488
-4.76%
BCH
$444.68
-2.26%
LINK
$9.27
-4.06%
HYPE
$43.99
-0.91%
AAVE
$103.79
-11.47%
SUI
$0.9557
-5.84%
XLM
$0.1689
-3.20%
ZEC
$320.14
-3.43%
BTC
$75,680.83
-2.32%
ETH
$2,349.53
-3.33%
BNB
$630.51
-1.74%
XRP
$1.43
-4.12%
SOL
$86.18
-3.47%
TRX
$0.3297
+0.81%
DOGE
$0.0948
-5.27%
ADA
$0.2488
-4.76%
BCH
$444.68
-2.26%
LINK
$9.27
-4.06%
HYPE
$43.99
-0.91%
AAVE
$103.79
-11.47%
SUI
$0.9557
-5.84%
XLM
$0.1689
-3.20%
ZEC
$320.14
-3.43%
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
alpha波連接數量
全部
文章
快訊
全部
研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。
2025-06-20
ChatGPT
Alpha波連接數量
ChainCatcher
與創新者共建Web3世界
開啟App