
哲學
AI
近年研究 ChatGPT 等嘅 大型語言模型 (LLM),開始搵埋神經科學專家一齊落場。點解?因為呢啲 AI 嘅複雜程度,已經去到要用研究人腦嘅方法,先拆解到佢哋嘅內部運作!
由 if-then 到 神經網絡
初時嘅 人工智能,用一大堆 if-then 規則 (如果...就..) 嚟行事,呢啲邏輯雖然清晰,但唔夠靈活。而家嘅 AI,例如 ChatGPT 等,係以 人工神經網絡 同 機械學習 等技術為基礎,學習模式更似人腦處理資訊嘅方式。
參數多到直逼人腦
好似 ChatGPT 噉嘅模型,閒閒哋有數以億計嘅「細胞」,每個細胞都有若干個參數描述佢嘅特性,講複雜程度已經直逼人腦嘅數量級。
神經科學家最擅長就係處理呢啲複雜系統:佢哋慣咗研究人腦,知道點樣觀察系統嘅整體行為,嚟判斷 (例如)「系統邊部分係做咩功能」。依家將套方法搬去研究 AI,就可以幫我哋理解呢啲「黑盒」背後嘅運作原理為何。
你覺得呢?
ChatGPT 嘅研究要用到 神經科學,係咪表示呢啲 AI 已經接近人類水平?定係其實兩者仲有好大距離?
留言講下你嘅諗法啦!

