showLargeImage.jpg

超智慧:出現途徑、可能危機,與我們的因應對策(Superintelligence: Paths, Dangers, Strategies,Nick Bostrom)

     在前面超級預測那本裡,我們點出風險報酬的不對稱可能造成大膽預測傷害民眾的可能,之後沒幾天就有了颱風放半天假的的真實案例.那麼有沒有那種同屬大膽預測,它的風險報酬是對大眾有利或至少無害的事呢?也許這一本超智慧就能列入這個領域,這是一本對於未來可能出現的技術預見,對於預言技術的可能影響作出推論.既然是建立在預測上,就可能有準確的部分,與偏差可能,但個人認為,即使這本書裡的預見全錯,它仍是一本值得去翻閱的書籍,讀者至少可以看一下國外的人對一個未知議題的思考路徑與方法,何況作者Nick Bostrom對於超智慧出現的影響是有他深刻憂慮的一面,值得受到人們重視.至於預見的對錯也許在我們死前都尚未有得出驗證的跡象或機會,如果要說這書有甚麼問題,就是內容"乾"了點,比較像以前讀國外期刊的感覺,相比之下可能以電影"機器戰警"來描述超智慧的影響比較容易吸引一般人,只不過看完電影可能會反對發展超智慧,但閱讀完這本書對超智慧發展的想法可能又不一樣了.

    超智慧,以作者的定義就是超出人類水準的常態智慧.當然這種類學術名詞解釋有點難以了解,他更進一步說超智慧就是在任何一種關注領域上,都實質且大幅超越人類認知表現的智慧.將它轉換成當前實際的對比直接想法可能就是人工智慧,本書裡所指的人工智慧遠勝當前人工智慧.不過在Bostrom的想像裡能夠在未來有望發展成超智慧個體的路徑有三條,從軟體工程看是人工智慧,從硬體工程看則是全腦仿真(whole brain emulator),從生物路徑看則是DNA遺傳工程生物認知,並且他更大膽的想像裡認為這三種路徑也能彼此融合相互補益,比如腦機介面.不論它以上列何種型態出現,超智慧最後都將發展出遠遠超出人類水準的智慧.當然如果只是如此就沒有必要寫一本書來介紹,事實上本書的重點其實必須結合它的副標題,超智慧發展的路徑,風險,策略.簡單說就是如果出現一種智慧遠遠超出人類的個體,它會不會對人類生存產生威脅,如果可以預見會對人類生存有高度威脅性,那麼處在當下這個時刻該以何種策略與態度來發展超智慧技術,並且該用那些方法路徑來防範這種風險的產生.

    本書共十五章,個人以為Bestrom從第八章起到結尾的內容全部只在談一件事情,那就是"控制"."控制"超智慧的發展,不使其發展出影響人類生存風險的可能,簡單書就是超智慧個體可能反過來控制人類的生活與生存,甚至消滅人類.從這樣的比例布局可以猜測作者對於超智慧發展出現的可能是抱持相對樂觀的,也正因為如此,作者預見這種"新個體"確實可能對人類生存產生威脅.這種融合樂觀與悲觀小心的心態與霍金頗為類似,霍金曾警告外星人出現可能會威脅人類,所以人類應避免與外星人見面,但他另一方面又與祖克伯斥資尋找外星人,為的是探尋可能適合人居的外星球,即Proxima b.同理,超智慧的發展確實可能威脅到人類生存,但是另一方面如果有遠超當前人類智慧的個體出現,也可能有機會解決人類目前所面臨的困境,比如氣候暖化威脅人類生活環境的問題也可能由超智慧新個體找出解決的方法.水能載舟亦能覆舟,顯然作者的理想是讓超智慧不至於脫離人類的掌控,只是這可能不能如他所想,確實是個有趣也值得懷疑的問題.

    早期的人工智慧大都未致力於學習,不確定與資訊概念上,這也是它當時技術發展不全的因素,Bostrom以生物演化的觀點重述了圖靈的想法,與其製造一個模擬成人心智的程式,何不製造一個模仿孩子心智的程式,但給它一個適當的教育課程,這程式將可獲得成人的大腦.何況生戶的演化是無方向的都能產生人類水準的常態智慧,那若是預先有方向的演化,也就是由有智慧的人類程式設計者設計指揮的遺傳程式,應該能以遠高於自然演化的效率,達成類似的成果.相較之下,全腦仿真以掃描與模仿生物腦的計算結構來產生智慧軟體.這種做法首先需對人腦做足夠詳細的掃描,然後再將掃描數據送至電腦做自動影像處理,接著將生成的圖像將與不同類型的神經元運算檔案庫合併,藉此模仿出腦部基本運算的功能性.與人工智慧相比,全腦仿真雖不需要太深的理論洞見,但卻很仰賴技術能力.而攸關的技術如腦組織掃瞄所需的解析度與偵測能力充足的高通顯微鏡,或是將原始掃描數據轉化為3D神經元運算模型並且將之模擬的硬體,以當前的水準還遠遠答達不到標準,至於想透過加強收物腦的功能運作一途.至需要得是人擇繁殖,面臨政治與道德困境的挑戰遠比技術困難,繁衍所需時間更長也是挑戰.而腦機介面可能會出現醫療風險比如植入物感染,電擊位移,出血,認知下降等問題,相比之下,以人工智慧為主力的超智慧發展必然會是主軸.

    若以區分不同能力類別來看超智慧可以分成三種,一個能完全做到人類智慧所做的事,但數速上快很多的系統,定義成數度超智慧.而由大量的較小型置會構成的系統,它整體表現在各領域裡大幅超越現有的制之系統則是群體超智慧.第三種形式則是一種至少跟人類心智一樣快的系統,但品質上聰明太多,屬於品質超智慧.不過隨著時間的過去,不論是以哪一種形式出發,最後都能發展出其他兩種的超智慧技術,重點是只要其中的一種形式獲得突破,超智慧就可以自己之外快速的發展出另外兩種.所ˇ對於超智慧的發展,作者在本書中所偏重的不是它的形式,而是它發展成功的速度與時間.作者定義了一個起飛點,這個起飛點是指機器智慧約略接近人類智慧的底線,只有過了起飛點,超智慧才能稱為真正的發展起飛,起飛之後會經歷一個黃金交叉點,黃金交叉點的意思是此點之前超智慧的發展是由人力主導,黃金交叉點之後超智慧的發展將由超智慧系統或個體主導自身的發展,用通俗的說法就是黃金交叉後它有自己的生命力,與心智,能夠替自己作主了.所以一旦過了黃金交叉,超智慧發展爬升角度會陡升,於是乎就有了這本書一半以上的內容,如果過了黃金交叉,超智慧會不會是人類生活風險的來源之一.

    從現在到起飛點是一段時間,從起飛點到黃金交叉又是另一段時間,個人看法是Bostrom為這兩段時間各自提出了一個可能的人類社會問題作探索,第一個問題是單極化(singlton)與多極化(multipolar)的問題.用最簡單的例子就像是1945年美國擁有原子彈的情況,形成一個單極化,其他國家在當時對製造技術上遠遠落後,因此美國是有可能在其他國家成功之前先將技術封鎖獨佔或是毀滅.單極化就是起飛點時只有一個團隊或國家成功捯到起飛點,多極化就是同時有數個團隊或國家在約略同時再起飛點附近.至於會形成單極化或多極化,那就要看從現在開始到起飛點的技術發展,國際合作,或是國際情勢,各國需求.畢竟即便現在最先進的人工智慧系統,不管從常態智慧面向或角度來看,都還遠低於人類底線.雖然說多極能夠造成穩定,但以作者的想法這種穩定恐怕也不是永久的,它還是可能進行二次轉型的可能,是以雖然作者沒有明言,超智慧體出現的情況可是最後仍是單極化掌控著全球政治經濟.

   關於起飛後的第二個問題就是黃金交叉之後,這種超智慧體有不會有一天終於將反過來取代人類,或至少危及人類生存.作者也沒有明言,但後半部主要內容大談兩個關鍵命題,一個是能力控制,另一個是動機選擇.可以看出Bostrom對於超智慧發展謹慎的一面,能力控制與動機選擇都是概略的兩個大範圍議題,能力控制簡言之就是藉由限制超智慧能做甚麼,來防止不想要的結果,系統被限制只能透過一些受阻且運先允許的管道旯影響外在世界,或是系痛被安置在一個提供適當誘因的環境中,或是強加限制於系統的認知中,或是在影響關鍵內在流程的能力上加強限制,並於系統上進行診斷測試,當偵測到它有危險的活動時可以關閉它.動機選擇則是企圖藉由型塑超智慧想做的事來預防不想要的結果,比如設計一套直接特利化的動機系統,來限縮代理人的超智慧的行為,或是限縮它的企圖心與活動視野.或是從一個本質上已經具備人類動機或善良動機的系統開始,強化它的認知能力.除此種種技術面的控制外,最後關於建置超智慧的策略發展,動機選擇,價值擷取等最後三章也是大範圍的在談如何讓超智慧擁有一個有利於人類生存發展的心智,基本上都略偏泛道德選擇,雖是不得不然,但不能不說這也是人類要發展超智慧的最基本理由.雖說有些隱憂與悲觀,總不可能發展一個超智慧個體最後竟是要消滅人類吧.

   近來關於人工智慧的書籍出了不少,但大都集於眼前所見,無人工廠,自動駕駛,或是家用機器人這一本超智慧應該是其中比較不一樣的,談得更遠,更荒誕,也許更真實,因此個人認為即便這書裡所寫的狀態在我們一生未必能見到,也可能書中預見是全錯的,但作者有那麼多想像與探索的努力,也許看這本書還不算浪費時間.以上

創作者介紹
創作者 speculatortw 的頭像
speculatortw

打醬油的汗牛馬

speculatortw 發表在 痞客邦 留言(0) 人氣()