未知的未知 2022年11月29日 占飛
2022年11月29日
未知的未知
今時今日,AI(人工智能)的發展,只在初級階段。最大弊病,正如基辛格等著的《AI時代和人類未來》(The Age of AI and Our Human Future)一書中所言:AI不知道自身不知道什麼,即前美國國防部長拉姆斯菲爾德(Donald Rumsfeld)所說「未知的未知」(unknown unknowns)。
電腦科學家艾力拿臣(Erik Larson)做過實驗。OpenAI的GPT-3是目前最先進的「生成式AI」(Generative AI),能閱讀互聯網上的文稿。給它幾個關鍵詞,它很快就可以寫好一篇文法無誤的文章,並通過「圖靈測試」,以為是人寫的。艾力拿臣輸入自己的姓名和幾個關鍵詞,不到一分鐘,GPT-3就寫出一篇關於他的文章。可惜,通篇充滿錯誤和虛假的事實。也許,網上連篇累牘的假新聞、偽消息都是GPT-3一類AI大量製造出來的。
溯因推理
為什麼AI無法認識自身犯了錯誤呢?艾力拿臣舉例:望出窗外,看得見的部分街道全濕了,問:街道為什麼會濕?理由很多,例如:曾經下雨;或洗街車洗濕;或附近街道曾爆水管弄濕,甚至可能是運瓶裝水的車發生意外,瓶裝水傾倒在街上……
若有更多資訊例如:發生在雨季,整條街道都是濕的,那下雨的可能性最高。若其餘街道並沒濕,那洗街車洗濕的可能性便比下雨為高。若沒有更多資訊,AI便只能從眾多可能性中,選擇可能性最高的理由。結果,AI選擇了下雨。不能說AI錯,AI只是排除了,這個世界有黑天鵝,最不可能發生的事都會發生。
艾力拿臣認為,AI會犯錯,因為AI沒有常識。常識是十九世紀美國數學家和邏輯學家皮爾士(Charles Sanders Peirce, 1839–1914)所說的「溯因推理」(abductive inference),亦是演繹、歸納以外,第三種推理。事件發生了,要找出發生的原因,就憑溯因推理,從眾多可能性中,選擇可能性最高的,靠的是常識。AI卻只能從過去發生的事件中統計出可能性最高的,便會錯過了黑天鵝。
撰文 : 占飛
Comments
Post a Comment