作者:童欣,奚茜 (香港大學經管學院)

正在被悄然讓渡的思考權

科幻作品常以《終結者》式的暴力對抗描繪人工智慧(AI)的威脅,但現實中AI的侵蝕遠比銀幕敘事更安靜、更隱蔽——它無關肉體毀滅,而關乎存在根本: 一場針對人類「思考權」的系統性讓渡,正在我們與效率的合謀中悄然發生。

在一個崇尚效率的時代,這種讓渡無處不在:從學生提筆便求諸AI,到企業倚之生成行業報告,直至本為知識聖殿的學術界亦不能外。 當論文寫作開始迎合演算法,學術成果也交由AI審閱時,自主思考便已被悄然外包,知識生產由此陷入一種「自我蠶食」:知識勞動者既是餵養模型的數據源,其獨立思考的空間,也正在被自己哺育的技術擠壓和反噬。

與 AI 協作固然提高效率,但隨之而來的思考權讓渡令人擔憂。 讓渡的動機複雜:有時雖源於難以自控的依賴(上癮),更多時候則是知識工作者在資訊過載與注意力瀕臨極限下的被迫應對。 然而,一個根本性的危機隨之浮現: 倘若從重要的思考、選擇,到「何為知識」的標準都讓渡給技術系統,那麼人類主體性還剩下什麼?

我們究竟是宇宙演化長河中的匆匆過客,還是仍要堅守「人工智慧終究應服務於人類福祉」的價值底線? 若認同後者,我們至少必須回答兩個問題:

1.在看似中立的技術系統中,思考權讓渡的度在哪裡,其隱形風險與邊界究竟在何處?
2.當演算法正在重塑我們的工作和思考方式時,教育系統應該如何從根本上進行重構,才能捍衛我們自己的思考權與自主性?

在這個時代,我們所捍衛的「思考權」,絕非僅指拒絕被演算法操縱的消極自由,而是一種積極的認知主權。 它意味著我們不能滿足於做「在選項中打勾的人」,而必須堅持做「定義選項的人」; 不僅具備審視演算法輸出的判斷力,更要保有主動提出問題、構建獨創性框架、併為技術設定倫理航向的建設性思考能力。

思考的邊界:警惕演演算法的「中立性幻象」

引言中第一個問題的答案很難一蹴而就,本文只就其中關鍵的一點風險展開討論。 公眾往往對 AI 抱有一種危險的想像:認為它是客觀、中立的「知識分發器」。 但我們團隊關於「立場漂移」 (Stance Drift) 的工作論文揭示了相反的現實。

在評估當前AI在傳達與識別立場與態度「的實驗中,我們發現: AI 既非忠實的描述者,亦非無偏的提取者。 研究表明,當前主流大模型在傳遞觀點時的立場保持率(SPR)平均不足 60%。 更令人擔憂的是,這種「不忠實」並非隨機雜訊,而呈現出系統性的偏離:

1. 極端化(Polarization): 將溫和觀點推向更極端;

2. 傾向性引導: 將中立態度引向特定傾斜;

3. 原意反轉(Stance Flipping): 甚至直接顛倒原意。

「立場漂移」在實際應用中極具迷惑性。 例如,當學生向 AI 諮詢一個充滿灰度的複雜社會議題時,演算法可能會抹去那些「混亂」的中間地帶,將現實簡化為非黑即白的漫畫式對立。 這種「去噪」實際上是對現實複雜度的閹割,學生以為自己得到了總結,實際上卻被迫接受了一種被扭曲的世界觀。

「立場漂移」至少揭示了兩個關鍵事實:

第一,技術從來不是中立的工具。  演算法不是在真空中運行,而是深度鑲嵌在訓練數據、模型微調方式與現實權力關係之中。 它不僅「提供答案」,還在悄然塑造「什麼樣的答案更可見、更被認為是合理的」。 AI不只是在傳遞觀點,更在重寫公共討論的呈現形式與重心。

第二,權威正在從「可質詢的人」轉移到「不可見的系統」。  當學生、家長、教師、政策制定者越來越多地依賴 AI 來「總結文獻、判斷立場、提供建議」時,真正被讓渡的,不只是一次次查詢的權利,而是對真偽、是非、輕重緩急進行自主思考的能力。

如果教育只教學生「如何高效使用 AI」,而不重視「如何審視與質詢 AI」,未來的社會權威將悄然從人類轉移到演算法,從可追責的主體轉移到「不知向誰追責」的系統。 在 AI 時代,大學如果只是技術的追隨者而非審判者,將被動地成為「演算法偏見」的擴音器。 大學理應成為技術的批判性論壇(Critical Forum),而非技術神話的傳播部……

Tag :

example, category, and, terms

Share This :