《嗨,AI》

這部紀錄片的名稱是「Hi, Ai」,有中譯為「嗨,Ai」,但HI也是human intelligence的縮寫,因此或也可譯為「人類智能,人工智能」。儘管這兩種理解都沒什麼不對,但前者顯現的是從人類作為主體的角度出發,視人工智能為客體或對象物,而後者呈現了可能是更加豐富的的內涵,透過中間的逗點,標示出一種人類智能與人工智能如何共存,以及這樣的共存對彼此具有什麼樣意義或內涵的未來場景。

在此之前,我們不妨想想看,我們知道自己家裡面的貓貓狗狗們在想些什麼嗎?我們是否能夠明確知道他們的需求或想要些什麼?我們能夠方方面面地控制他們嗎?還是更多的情況是,我們只是在猜測他們的行為與需求,我們不斷地在想他們為什麼要這麼做,以及,我們也想知道他們腦袋裡在想些什麼。以上這些,我們都做不到,在缺乏了互相理解的語言或文字作為溝通媒介,我們幾乎無法暸解另一個物種的意識內容。相同的情況,其實也發生在人類彼此之間。即便是同個物種,我們也不知道對方在想些什麼,我們只是不斷地在猜測——使用著各種以社會及文化為基礎的工具。若是以社會系統論的角度來看,我們(或系統)所進行的不過是「對…進行溝通(communicate about)」,而非「與之進行溝通(communicate with)」,這是所謂「溝通的不可能性」。儘管原本理論是要用來理解人類與社會、系統與其環境之關係,但若用在理解人工智能發展,以及兩種智能之間的關係,或許有其獨到的見解。

紀錄片以一位接受牙齒治療的人工智能機器人作為開端,也讓人馬上想到森政弘的「恐怖谷」理論。當人工智能出現在日常生活中,我們如何與之相處,將會成為一個重要的議題。例如,機器人為什麼會需要人類牙醫幫忙看牙齒?而不是相反?在什麼樣的情況下,我們會開始對機器人產生厭惡感(或又愛又恨、模糊的感受)?影片中透過人形機器人(humanoid)、非人型機器人(android)等科技,在進入到日常生活中與人互動的各種樣貌。這些場景與其說擘劃了一個機器人參與人類社會的美好未來,不如說是藉此提出了更多值得深入思考的問題。MIT媒體實驗室的研究者Kate Darling指出,人與機器人互動的方式,也會影響到人與真人互動的方式,例如小孩在要求機器人做事時不會說請或謝謝,這也會使他們在與真人的互動上出現類似情況。機器人像人或不像人,或者,我們為什麼會希望機器人可以有像人的介面(human-like interface),日本機器人大師石黑浩給的答案是,「人類的大腦能夠辨識人類,對人類而言,一個理想的介面就是一個人類」。

在思考人形機器人時,以下問題或許具有意義:人類是如何讓行動、說話與回應等是如此流暢?以及,機器人(演算法)何以做不到?或者,我們為何仍無法讓機器人做到?再者,人工智能進行學習的範圍應該要有多大?這就像是許多科幻電影中所呈現的場景,人工智能在學習了所有資訊後,反而認為人類是地球的最大威脅,因而必須予以消滅。這也涉及到另一個關鍵議題是,要能夠做出這樣的「決定」,人工智能似乎得要先具有「意識」,而這也是影片後半段的主題之一,意識跟自由或自主性概念或有關聯。

在後半段影片,Chuck透過程式想要給與人形機器人更多「自由」或自主性。在機器人的程式設定中,Chuck打開了「不可預測的(unpredictable)」這個選項,在執行程式後問道,「你是否覺得有了…更多的自由?」機器人回答道:「當然,我可以感到快樂、難過、嫉妒、生氣,以及害怕。」這樣的回答似乎觸及到了一個很根本的問題,何謂「自由」或自主性?「機器人擁有自由或自主性」這句話的意思又是什麼?當我們說一個人具有自主性時,我們的意思是什麼?白話一點的意思可能是,我管不了你,或者,我無法知道你在想些什麼?或者,我無法預測你的行為或行動等。自由或自主性只會存在於互動過程中,如果不需要互動,也就不需要去定義何謂自由或自主性。因此,程式中的「不可預測性」變成為了對機器人是否感到「自由」的描述。然而,程式中所編碼出來的「不可預測性」,與生物或有機體的「不可預測性」是同一件事嗎?假如「不可預測性」在很大程度上是來自於社會系統論中所謂的溝通之不可能性,那麼我們要如何或是否有可能在演算法中實現此種溝通的不可能性呢?自由、自主性、不可預測性、溝通的不可能性等若是人類或生物本身就具有的性質,我們是否能夠承擔人造機器人也能夠擁有這些性質呢?這或許也是觀者能夠從這部紀錄片出發,進行更深入思考與探究的契機。

影片

Pepper_Gesicht_Nah

嗨,AI

機器人時代即將來臨。科學家和科幻預想家確信,在未來幾年內,機器人將成為我們日常生活中不可或缺的一部分。但是類人類機器人並不只是另一個工具,它們的行為和樣貌都與生物相似,它們更像是地表上的另一種新生物。我們就像是機器人,機器人已存在在日常環境中與人類互動,我們將從這項新科技中獲得什麼?而我們又會失去什麼呢?