發(fā)布時(shí)間:2025-11-30 15:20:26 來(lái)源:四海皆兄弟網(wǎng) 作者:熱點(diǎn)
●彭茜
近日,AI依賴(lài)美國斯坦福大學(xué)研究人員策劃了全球首個(gè)以人工智能(AI)為核心作者與論文評審的警惕線(xiàn)上開(kāi)放會(huì )議。主辦方稱(chēng),人機此次會(huì )議旨在創(chuàng )建一個(gè)“相對安全的共生試驗場(chǎng)”,探索AI是時(shí)代否及如何能獨立產(chǎn)生新穎的科學(xué)見(jiàn)解、假設與方法論等。何保
如今,持獨AI已成為人們工作生活的立思好幫手,但它同時(shí)也在提供一種“認知捷徑”,AI依賴(lài)讓人們不用費力思考便能得到想要的警惕答案。一開(kāi)始只是人機查詢(xún)信息、翻譯文字,共生慢慢開(kāi)始利用AI輔助寫(xiě)郵件、時(shí)代工作總結、何保研究論文,持獨甚至進(jìn)行重要決策……過(guò)度依賴(lài)AI,利用其進(jìn)行“思維外包”,有可能讓人們日漸喪失思維的主導權。
人機共生時(shí)代,人類(lèi)如何保持獨立思考呢?
AI“思維外包”藏隱憂(yōu)
正如上述會(huì )議所探討的,大模型、智能體等AI應用已在包括科研在內的多領(lǐng)域廣泛賦能人類(lèi)生產(chǎn)生活,促進(jìn)學(xué)術(shù)研究和生產(chǎn)生活提質(zhì)增效,但其帶來(lái)的技術(shù)紅利之下也暗藏隱憂(yōu)。一些新研究顯示,過(guò)度依賴(lài)AI模型或可引發(fā)“AI腦霧”,削弱工作動(dòng)力。
美國麻省理工學(xué)院研究顯示,長(cháng)期使用AI會(huì )導致認知能力下降。研究人員對受試者展開(kāi)腦電圖掃描后發(fā)現,與沒(méi)有使用AI工具的人相比,長(cháng)期使用AI大語(yǔ)言模型的人大腦神經(jīng)連接數降低,影響語(yǔ)言和行為等層面。微軟和卡內基—梅隆大學(xué)的研究也有類(lèi)似發(fā)現,生成式AI會(huì )削弱批判性思維能力,導致過(guò)度依賴(lài),可能削弱人們獨立解決問(wèn)題的能力。
研究人員認為,開(kāi)發(fā)者在設計生成式AI工具時(shí),應有支持用戶(hù)增強批判性思維的意識,如提示需驗證的場(chǎng)景。特別是在設計法律文書(shū)、醫療建議等高風(fēng)險任務(wù)時(shí),應強制彈出驗證提醒(如“請核對AI引用的法規條款”)等,標注潛在風(fēng)險,打破用戶(hù)對AI“全知全能”的認知偏差。
浙江大學(xué)管理學(xué)院吳蘇青團隊今年在英國《科學(xué)報告》雜志發(fā)表的研究還顯示,AI的應用帶來(lái)認知需求的“空心化”。當AI完成工作的“燒腦”部分,人類(lèi)僅剩機械性執行,工作淪為“被動(dòng)填空”,就可能會(huì )導致心理疏離,喪失工作動(dòng)力。這就要求企業(yè)、政府部門(mén)等部署AI時(shí)要“慢下腳步”,可先小范圍試點(diǎn)、可控推進(jìn),邊用邊觀(guān)察對員工積極性和創(chuàng )造力的影響。
人們?yōu)楹巍拜p信”AI
人們之所以愈加依賴(lài)AI,源于近年來(lái)AI專(zhuān)業(yè)化能力和交互便捷性的飛躍:其生成內容的專(zhuān)業(yè)化程度,讓不少人把它奉為專(zhuān)家,而對話(huà)式的交互方式讓它好似一位學(xué)識淵博又無(wú)話(huà)不談的“好友”,更易讓人形成心理依賴(lài)和信任。
如今,AI大模型“開(kāi)箱即用”的便捷性,進(jìn)一步降低了使用門(mén)檻。由于缺乏基本的AI素養教育,使用者對AI本身的技術(shù)缺陷認知不足,更容易“輕信”。英國高等法院今年6月就要求律師采取緊急行動(dòng),防止AI被濫用,原因是數份可能由AI生成的虛假案例引用被提交至法庭。而今年由美國衛生與公眾服務(wù)部牽頭,“讓美國再次健康”委員會(huì )發(fā)布的兒童慢性病報告也因使用了生成式AI內容而出現重大引用錯誤。
荷蘭阿姆斯特丹大學(xué)研究人員詹姆斯·皮爾遜說(shuō),AI顯著(zhù)推動(dòng)了科研進(jìn)程,如可用于繪制蛋白質(zhì)結構、研發(fā)新型抗生素,還能加快文獻綜述等環(huán)節的進(jìn)度等。但當AI產(chǎn)生的“幻覺(jué)”出現在論文評審或研究中時(shí)十分令人擔憂(yōu),AI還可能帶有其訓練數據中蘊含的偏見(jiàn),進(jìn)而加劇種族、性別等不平等問(wèn)題。
“我們在使用AI的同時(shí),把判斷力也一起外包了,不再去驗證AI給出的答案,不再去反思使用AI的過(guò)程。無(wú)條件接受AI給的任何信息,就會(huì )導致人的主觀(guān)能動(dòng)性下降,深度的閱讀思考和表達能力也會(huì )隨之退化?!笨苹米骷?、中國作協(xié)科幻文學(xué)委員會(huì )副主任陳楸帆接受新華社記者采訪(fǎng)時(shí)說(shuō)。
建立思維的“AI緩沖帶”
未來(lái),AI一定會(huì )更加深度嵌入人們的工作生活。在這個(gè)人機共生的新時(shí)代,與AI共處需要更智慧。美國AI教育公司Section 4首席執行官格雷格·肖夫預測,未來(lái)10年,使用AI的知識型勞動(dòng)者將分化為兩類(lèi)群體:“AI乘客”與“AI駕馭者”。
“AI乘客”欣然將自身認知工作全權交由AI打理,短期內或因工作效率提升而獲得認可。但隨著(zhù)AI能力的迭代,這些人終將被AI取代。而“AI駕馭者”則堅持主導AI的運作,把AI生成的內容當作初稿,對結果嚴格核查,有時(shí)還會(huì )關(guān)閉AI獨立思考。
“我們需要在不同的學(xué)習和工作場(chǎng)景里,學(xué)會(huì )分辨哪些場(chǎng)景適合用AI,哪些場(chǎng)景需要人來(lái)進(jìn)行有利輔助,判斷和辨別AI給出的結果?!标愰狈滞瑯佑^(guān)點(diǎn)。在他看來(lái),人們應對自己的心智、認知掌握主動(dòng)權,有意識地建立一個(gè)“AI緩沖帶”,即面對新問(wèn)題,先從自己的角度給出答案,再尋求AI的深化和擴充。
“我們甚至還可進(jìn)行‘對抗性生成’,即當AI給出跟自己觀(guān)點(diǎn)十分契合的答案時(shí),應有批判性思維去質(zhì)疑,到底是我被AI所影響,還是AI在我的不斷訓練下,變得越來(lái)越趨同?我們是否能跳出思維慣性做出不一樣的選擇,給出AI沒(méi)想到的答案?!彼f(shuō)。
據新華社
相關(guān)文章
隨便看看