掃碼下載
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
首頁
快訊
深度
文章
專欄
專題
日曆
數據
市場
圖表
發現
活動
知識庫
工具導航
HK Web3 Feastival
BTC
$75,821.28
-2.14%
ETH
$2,354.10
-3.15%
BNB
$631.85
-1.65%
XRP
$1.44
-2.98%
SOL
$86.24
-3.27%
TRX
$0.3294
+0.68%
DOGE
$0.0952
-5.04%
ADA
$0.2501
-3.98%
BCH
$444.35
-2.37%
LINK
$9.32
-3.35%
HYPE
$44.15
-1.02%
AAVE
$106.54
-8.23%
SUI
$0.9604
-5.11%
XLM
$0.1704
-2.12%
ZEC
$322.32
-1.72%
BTC
$75,821.28
-2.14%
ETH
$2,354.10
-3.15%
BNB
$631.85
-1.65%
XRP
$1.44
-2.98%
SOL
$86.24
-3.27%
TRX
$0.3294
+0.68%
DOGE
$0.0952
-5.04%
ADA
$0.2501
-3.98%
BCH
$444.35
-2.37%
LINK
$9.32
-3.35%
HYPE
$44.15
-1.02%
AAVE
$106.54
-8.23%
SUI
$0.9604
-5.11%
XLM
$0.1704
-2.12%
ZEC
$322.32
-1.72%
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
alpha波連接數量
全部
文章
快訊
全部
研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。
2025-06-20
ChatGPT
Alpha波連接數量
ChainCatcher
與創新者共建Web3世界
開啟App