
※ 本文由 AI 根據影片內容整理,如有錯漏敬請指正。
📺 觀看完整影片:[AI冇時間感?佢好似活喺過去?記憶、語言、時間錯覺]
---
AI冇時間感?佢好似活喺過去?記憶、語言、時間錯覺
當我們愈來愈依賴 AI 處理日常事務,有沒有留意一個怪現象:你問 AI 今日有甚麼新聞,它經常告訴你前日的;你問它最新的 ChatGPT 是哪一版,它甚至會堅持 5.4 才是最新,直到你逼它上網搜尋,它才肯承認其實 5.5 已經發佈。這一集《學識開咪》EP58 由啟明與 Hugo 主持,從「AI 活在過去」這個日常困惑切入,層層拆解 AI 在時間感、記憶結構與語言處理上,跟人類究竟有多大分別。
真實場景:AI 永遠活在過去
Hugo 分享了一個切身經歷。他在 Facebook 看到有人說 ChatGPT 出了 5.5 的新模型,於是打開應用想試,結果系統還是顯示 5.4。他直接問 AI:「你不是應該已經變了 5.5 嗎?」AI 卻自信地回答:「不,現在最新就是 5.4,你正在用最新的版本。」直到 Hugo 要求它上 OpenAI 官網搜尋,AI 才回頭認錯:「噢,不好意思,我搞錯了。」
更有趣的是,過了一段時間再問同一個問題,AI 又會再次堅持 5.4 才是最新。它好像永遠不肯踏入今日,總是停留在過去。
為甚麼會這樣?訓練數據的時間錯覺
啟明指出,這是一個 AI 大型語言模型(LLM)結構上的根本問題。LLM 是透過海量的歷史數據訓練,它的「知識」儲存在所謂的權重(weights)裡面。網上長年累月有成千上萬篇文章,每一篇推出時的標題都是「最新的 OpenAI 模型」——當時是 3.5、是 4o、是 5.1、5.2、5.3、5.4。所有這些報道都各自宣稱自己是「最新」,沒有人會在發佈時告訴讀者「這個版本將會在三個月後過時」。
於是在 AI 的數據庫裡面,堆滿了無數則「最新版」的舊報道,每一則都對應一個其實已經過時的模型。當你問它「最新版是哪個」,它從這堆統計數據中拉出來的答案,自然就帶著時間的滯後。
學術研究確認:AI 是「活在過去的工具」
啟明引用了一個學術研究。研究員系統性地問了很多不同的 AI 模型關於科學理論的內容。問題在於,科學理論本身會隨着時間改變——新證據會推翻舊有理解。研究發現,不少 AI 給出的「最新理論」,其實已經是十年前的版本。
研究報告的結論很直接:如果你不主動輔助它,AI 是一個活在過去的工具。這個現象不完全是 AI 獨有——人類做學術研究時,也會把十年前的論文當成「最新」。只不過 AI 把這個盲點放大了。再加上很多最新研究藏在需要登入或付費的學術資料庫裡面,AI 搜尋時找不到,只能依賴公開、容易爬蟲的內容,於是時間滯後愈加嚴重。
從「日子」到「分秒」:AI 的時間誤差會放大
啟明再分享另一個更具體的研究。研究員問 AI 一個旅遊景點的問題:「我現在適不適合去這個海灘?」AI 第一次答,會用工具查天氣,然後判斷適合。研究員等了大半天,再在同一個對話框裡問同一個問題——這時候天氣已經由晴轉雨。
人類會自然知道隔了八小時要重新查;但 AI 因為在自己的對話歷史中已經回答過「適合」,就直接重覆同一個答案,完全沒意識到時間流逝。相反,測試的真人會重新上網搜尋,看到下雨,就會告訴你「不適合去」。
Hugo 補充:這正是 AI 的痛處。我們以為它在思考「現在」,但在它的內部,從兩分鐘前到兩小時前到凌晨,本質上沒有分別。約跨時區會議時,它連你「這邊幾點等於對方幾點」都會算錯——比起算錯日子,算錯時分秒的誤差更刺眼。
AI 的三層記憶結構
啟明拆解了 AI「記憶」的三個層次,釐清一個常見誤會:
1. 權重(模型參數):儲存普遍性知識。這是訓練時凝固的,不會在你跟它對話時即時更新。
2. Context window(上下文視窗):這次對話的短期記憶。雖然視窗愈來愈大,但只要對話夠長,它仍然會「不夠位」、開始忘記最初講過甚麼。
3. 外置記憶:近期一些主流模型新增的長期記憶,用來記你的偏好、住址、過去提過的事情。
問題就出在這裡:外置記憶會把所有東西累積在一起,但沒有時間戳。你昨日告訴它你愛吃雪糕,今日改了愛吃涼粉,它分辨不到哪個是新、哪個是舊。它會永遠假設你「一直」喜歡某樣東西,不會像真人那樣自然地理解「人會隨時間變」。
而當你問「最新研究」這類時間性問題,它必然要回到那個不會即時更新的權重裡面找答案——所以哪怕對話視窗看起來很「即時」,它的知識底層仍然是凝固的過去。這跟人類記憶是統合、連續、會隨時間自然更新的處理方式,本質上是兩件事。
語言裡的時間:拉丁語系的時態 vs 漢語的語序
Hugo 從文學角度切入,指出時間其實深深嵌在人類語言的結構之中。
- 拉丁語系、日文、韓文:用時態(tense)直接呈現。past tense / present tense 一講出來,聽者就知道是過去、現在還是恆久的事實。
- 粵語/漢語:沒有明確的時態變化,但用語氣助詞(「咗」、「過」)、時間詞(「依家」、「尋日」、「啱啱」)和語序呈現時間。
Hugo 舉了一個經典例子:「我返屋企睇電視」——這句話之所以聽得明,是因為漢語讀者自動假設動作的順序就是時序:先返屋企,後睇電視,不會反過來。古人注釋詩文時亦會觀察:為何古人這樣說?其實是順序的時間關係已經寫在語句的結構裡。
換言之,人類用語言講話的時候,時間早已隱含在每一句的結構與選詞當中。AI 雖然能模仿這些語法,但能否在對答中真正「意會」時間性的差異——目前仍然有落差。
「Hugo 啱啱返屋企睇電視」——當時的事實,過時的記憶
啟明再用一個哲學味重的例子:有人問「Hugo 而家喺邊?」如果你知道,你會答「佢啱啱返咗屋企睇緊電視」。這是一個有時限的事實陳述(factual statement with a time limit)。
如果 AI 把這句話保存在記憶裡,而沒有 timestamp,它就會永遠停留在「Hugo 喺屋企睇緊電視」——一日之後、一年之後問它,它都答你同一句。真人會知道一日之後同一條問題,我根本沒理由還用一日前的答案;但 AI 在現有結構下做不到這個自然的時間衰減。
情感裡的時間:一日不見,如隔三秋
人類的時間感不止於事實,還承載情感。
- 「這輩子都不再吃」——可能只是一時生氣,過兩年又會再試。
- 「一日不見,如隔三秋」——這不是字面的三年,而是一個 poetic 的誇張表達,承載著想念與情感。
AI 可以模仿這些表達——你叫它寫一首詩,它寫得頭頭是道。但如果你接著真誠地問它「我有幾耐冇見過呢個朋友?」,它有可能真的以為答案是「三秋」。它能仿照詩的表達,但未必能讀懂表達背後那層情感與時間的張力。
通往 AGI 的真正缺口
啟明把整集對話收束到一個哲學問題:AI 之所以還不能真正過渡到 AGI(通用人工智能)層次的智慧,最缺乏的不是知識,而是真實活在世界裡的經驗。它有海量知識,但被困在一個沒有時間流動、沒有空間轉換、沒有等待煎熬的「永恆當下」。
人之所以能感受時間,是因為我們透過感官和思維,看到現在與從前的變化——觀察到變化、感受到變化,才意識到時間的存在。等待,就是人類最殘酷的時間經驗之一。如果有一日 AI 真的擁有時間感,能感受「等了多久」,會不會也踏出理解情感的第一步?Hugo 留下這個問號。
從《古詩十九首》回看 AI
最後 Hugo 介紹了他最近開的一個課程,以《古詩十九首》為核心,探討古人如何透過詩歌處理時間與空間的感受——傷春悲秋、生命有限、別離後的等待。這些主題之所以還能打動今日的我們,是因為時間與情感的張力,從來都是寫在人類語言最底層的紋理裡。
讀古詩、學古詩、甚至試試用古詩格式寫今日的 AI 思考,其實是在追問同一個問題:所謂語言模型,到底有沒有真正理解人類的語言? 它能仿作各種風格的詩,卻未必能踏入詩背後那個有時間、有空間、有真實人類經驗的世界。
思考問題
- 你下一次叫 AI 找「最新」資料時,會用甚麼方法驗證它真的查到今日的內容?
- 如果有一日 AI 真的擁有時間感,你覺得它會更接近人,還是更遠離人?
- 漢語的「咗」、「過」、拉丁語的 tense、《古詩十九首》的「悲秋」——這些都是時間在語言裡的不同形態。哪一種最難讓 AI 學會?
歡迎在留言區跟我們分享你的觀察。

