李世昌院士:如果行動裝置網路更快, 網格技術會取代雲端技術。

作者/林宮玄,任職於中研院物理所,《科學月刊》兼任副總編輯、陳其暐,《科學月刊》主編

1952年出生的李世昌博士,任職於中央研究院物理研究所,2010年獲選為中研院院士。中研院院士屬榮譽頭銜,表彰學者學術成就,不一定要在中研院服務。李院士是臺灣粒子物理領域的重要人物,主持大型計劃與世界各國合作研究。實驗中必需研發新技術,李院士所主持的網格計劃,正是由高能物理實驗的需求而提出的。這些先進技術未來有可能也應用到我們的生活。



林宮玄(以下簡稱問):WWW(World Wide Web,全球資訊網)是因為高能物理實驗,而衍生出來的技術,現在已經改變了這個世界。可稍微介紹WWW歷史及現在的網格計劃嗎?

李世昌(以下簡稱答):CERN(歐洲核子研究組織)是在1990年代開始發展全球資訊網的技術。高能實驗的儀器都是國際合作,當時發展全球資訊網是為了方便交換資訊,而 E-mail不是那麼方便。檔案比較大的資料,譬如設計圖很難交換,所以全球資訊網就開始發展。傳統的粒子物理,幾十奈秒(nanosecond,10-9秒)粒子就會對撞一次;假如一微秒內對撞就產生百萬位元組(Megabyte, MB)的資料量,數據是大量的產生。以前我在費米實驗室(Fermilab)有加速器,我也要建很大的計算中心來分析數據讓大家處理。數據要經過前置處理才能分析,把0跟1的數據轉換成這個粒子是達到什麼位置等資訊。我們的儀器很大,可能有幾層樓高,但是可能只有幾千個粒子資訊。儀器在取數據時,科學家不希望數據還要處理一年,才能分析數據。我們希望數據產生馬上就處理好,所以計算量很大,必需在加速器所在的地方提供這個計算服務。2000年時,CERN覺得下一代的的儀器,數據量更龐大。如果CERN要做一個電腦中心即時處理這些數據,瑞士日內瓦全部的電都還不夠,但很多國家不願意出錢資助其他國家的資料中心,那為什麼不讓各國有自己的資料中心,串成一個超級大電腦?只要有很快的網路,譬如10 Gb/s的網路串連這些電腦,跟資料中心自己內部的傳輸速度差不多,我只要發展一套軟體,等於是作業系統,就能把世界各地研究機構的資料中心互相分享。這不是全球資訊網的資訊分享而已,是資源共享,所有硬碟儲存的系統跟CPU都可以分享。在世界各地平行的處理數據,就沒有某一個地方電量負荷太高的問題,每個國家較願意參與。所以,從全球資訊網的「資訊共享」進到「資源共享」的分散式計算,就是網格(GRID)的概念,也就是CERN要發展的World Wide GRID。

資訊科學家很早就有網格技術概念,但時機對才會真正發展。譬如,當時全球資訊網也是因為網路,然後大家都有個人電腦,所以就很快發展起來。如果電腦沒有普及,全球資訊網也不會馬上被應用。當時因為有全球資訊網的經驗,所以CERN決定發展網格技術後,所有大公司IBM、HP等都願意合作,他們認為網格發展起來,可能跟全球資訊網一樣很重要。所以2000年時,我們就先開始一個Pilot Project(試點專案或試驗計畫),歐美等國一些工程師集中到 CERN 發展這個軟體,日本、臺灣也都參加了。日本參加的方法是出錢買試點專案或試驗計畫需要的機器放在CERN,但日本科學家在CERN要能優先使用。我們臺灣是出人不是出錢,每次派兩個人去CERN,六個月以後再換兩個人回來,這樣我們就慢慢有一批人懂這個軟體。2005年,CERN覺得技術成熟了,我們就要真正開始發展。我們實驗是2010年開始的,CERN自己是Tier Zero(頂級)數據中心,Tier Zero就是所有資源都要出25%,CERN規劃有差不多十個Tier One(一級),條件是跟CERN之間要有10 Gb/s 頻寬,經過CERN去交換數據。Tier Two(二級)到Tier One要有2.5 Gb/s頻寬,而每個參加實驗的研究機構都必須是二級或一級。臺灣當時想做一級,但是亞洲沒有這麼多粒子物理實驗學家,只需要一個一級中心,CERN 希望日本能有一級(Tier One)數據中心,但日本婉拒。日本人希望發展自己的一套網格技術軟體,可以跟 CERN相容就好。歐洲剛開始做網格技術時,美國認為網格技術是美國發展出來的概念,為什麼給歐洲做?所以美國自己發展一套叫Open Source GRID(OSG,開放原始碼網格),能跟你們的軟體相容就好。日本也是這種想法,所以後來CERN 找我們當時的中研院院長李遠哲簽約,當時我們臺灣是第一個簽約成為第一級中心。

2005年正式開始不久,Amazon、Google等公司都開始講雲端技術,不再講網格技術。本來2000年到2005年,網格計算是最紅的,所有的資訊科學家都在做。到2005年以後突然沒了,大家都講雲端技術。雲端技術跟網格技術不一樣,是建很大的數據中心,可以很快的服務多人同時進來用,跟分散式計算的概念相反,網格技術是把分散各地的雲端中心再串起來。網格並沒有當初想像的發展那麼快,因為基礎硬體設施(infrastructure)並沒有真正的成熟,不像個人電腦到處都有。現在大家覺得雲端中心就可以用了,為什麼要分散式計算?像Amazon或Google,他們在美國可能只有幾個大的雲端中心,不像我們CERN的網格串聯了全世界300個研究機構,很多機構距離很近。但是Amazon或Google這些大的雲端中心之間距離很遠,可能幾千平方公里才一個,臺灣就沒有Amazon的雲端中心,要到日本、新加坡或上海。所以Amazon的各地的雲端中心是大的,在不同地方只做資料的鏡像儲存(mirror imaging storage)而已,跟網格分散式的概念不完全一樣。

為什麼現在Google或Amazon的雲端沒看到問題?因為資料傳輸目前瓶頸在行動裝置。現在大家用的行動裝置,不管是Pad或是Notebook,資料等待傳輸時間(latency)在毫秒以上。但是數據中心之間的資料,傳輸1000公里可能也是毫秒左右,所以看不出數據中心之間的距離影響。但是到下一代的第五代的通訊裝置,資料等待傳輸時間要降到一毫秒以下,也就是數據中心間距離300公里以內的傳輸時間。距離要是有1000公里,等待時間的瓶頸在雲端中心之間的距離,而不是行動裝置。所以我估計到第五代以後,雲端之間距離1000公里太遠,需要更密集的數據中心,最好是在7-11便利商店就能接上這個網路,這時候分散式的概念才會開始。所以我判斷行動裝置的資料傳輸時間變短時,也許是第五代、第六代行動裝置以後,網格計算才會發展起來。行動裝置的無線基地台都是分散的,我們認為應該把數據中心跟基地台結合,用小基地台放在便利商店。現在一個rack(機架)已經可以有1000個CPU,達到1 PB(1000 TB)很容易,所以小東西已經是以前的超級電腦。如果我再結合小基地台放在便利商店跟銀行,把資源全部串起來,就是一個大的超級電腦。使用者要用資料中心的資料,譬如看電影,從最近的便利商店或數據中心抓,如果沒有相關資料才到鄰近的數據中心抓,這就是網格計算的概念。

我們認為目前基礎建設還未完善。這些提供無線通訊基地台的電信商也常常是 ISP(Internet Service Provider,網際網路連線服務公司),他們應該把這兩個結合提供更好的服務。不過現在行動裝置連線速度慢,目前用雲端就好。除了粒子物理實驗,其實沒有人在做網格計算,我們希望發展的軟體有人用,才知道好不好用,才有辦法測試出bug(軟體或程式的錯誤)。為什麼Google、Amazon他們強的就越強?因為他們有很多使用者馬上可以測試軟體及使用的經驗,軟體愈好又吸引更多使用者的良性循環,這就是大數據。數據多、統計資料多,就可以看到問題,這是現在發展的一個方向。臺灣為什麼很難進去這個領域?因為我們沒有一個公司真的有大數據,沒有那麼多的使用者測試我們的軟體,怎麼到國際上跟人家競爭?Google等公司經常有幾千萬甚至上億的人使用,所以很容易進步很快。中國不一樣,他們有足夠多的使用者,可以關門不給外國企業進來,先發展自己軟體,等發展好再跟你打。所以他們有阿里巴巴,現在可以到美國去跟Amazon打。臺灣沒有大量使用者,沒辦法關起來發表。我們要在軟體上做一番事,嘴巴講得很容易,其實是很困難的。要發展任何可用的軟體,我認為機會就是透過國際合作。在別人還沒有做以前,試者冒險去做,這就是我們正在做的。

關於基礎科學實驗的投資,譬如發現希格斯粒子在科學上很重要,但其實為了要做這個尖端的科學,必需發展尖端的技術,而這些技術是有可能商品化變成商業。也就是說,科學計畫也要有工程師願意發展技術。譬如主持科學計畫的丁肇中先生(1976年諾貝爾物理獎得主)只想做科學,雖然我們的AMS(Alpha Magnetic Spectrometer,阿爾法磁譜儀)科學計劃有很多好的技術,他不在乎。現在賣最好的太空電腦都是用AMS發展出來的CPU。為什麼我們能做到?因為我們的數據量大。我們第一次把30萬個頻道(channel)的偵測器放在太空,所以數據量很大。但是從太空要把數據送到地面的頻寬有限,必須在太空很快的處理數據。我有7 Gb/s數據產生,卻只有1 Mb/s可以傳到地面,怎麼辦?所以必須壓縮,先丟掉不要的資料等,需要快速的處理。如果太空規格的元件太慢,根本沒辦法處理數據。當時我們能拿到的太空規格元件,比市面上最快的商用規格元件,可能慢了好幾代,所以我們當時決定拿市面上的元件到加速器量抗輻射的特性,篩選符合需求的元件來用,就可以做太空用的電腦。1994、1995年,我們找了當時一般商業規格中最快的CPU-IBM的PowerPC750做抗輻射測試,發現可抗輻射,進而發展出AMS擷取數據的太空用電腦。現今銷售最好的太空電腦,就是用PowerPC750的CPU,頻率為400 MHz。當初如果在臺灣做出來,就可以賣這套太空用電腦,當然還要有行銷團隊來拓展市場。所以做尖端的基礎研究,不只是科學上重要,為了達到科學要求而發展沒人做到的技術也很重要。那些技術有機會變成商品,不是每一個都會,但是有機會。

我現在做兩個計劃,一個是AMS,希望證明AMS計劃的技術是可以商品化的、希望做出一兩個例子說服資金贊助者,我雖然做基礎科學研究,但是如果願意去發展衍生出來的技術,也是有商機的。另一個計畫網格計算也是這樣,這個東西要做到完成,可能還要一段時間。我是在佈局,我們網格中心目前在中研院資訊科技創新研究中心底下,現在只有20個人,我想要把這個技術變成產品。軟體現在的趨勢是open source(開放原始碼軟體),不是靠code(程式碼)賺錢,就像Linux(一種開放式作業系統),所有原始碼都是公開的。但是就算公開,一般人不會用,也沒辦法安裝,一定要靠培養一群會用軟體的人,靠服務賺錢。譬如每個醫院分院的電腦就可以串起來,銀行也一樣,串起來就可以變成一個大的電腦,這些其實對他們是最有用的。所以,我這個軟體你拿去,你不會用,一定要我幫你服務。用戶越多的服務公司,會越多人用你的軟體,門檻就是這樣建立起來的,這個產業是先切入先贏。

問:您提到美、日想發展自己的軟體,是想要發展自己的協定先掌握商機嗎?

答:任何這種事有很多政治力,我也不知道原因。雖然粒子物理有發展這個軟體的需求,但是資訊科學家認為是他們提出的想法,應該由他們做這件事。如果是資訊的人在主導這個計劃,而不是粒子物理的人在主導,最後就會出問題。CERN是由粒子物理的人主導,完全是使用者主導,但是我聘工程師進來,他們可以是資訊背景的,目的是做我的事情。數學很厲害,很多地方可以用到,但一開始若發展太抽象的東西,不一定會成功。發展很多東西,必須針對一個具體的使用者需求,再去推廣到其他的使用者需求,才做的出來。如果像資訊的人要發展一個軟體,一開始就要讓每一個領域的科學都可以用,是不切實際的,也會變成什麼都不能用,而且很複雜。我們是針對粒子物理需求來做,但也許有很多缺點。譬如我要發展給生命科學領域用的軟體,生命科學家很多研究習慣跟粒子物理的人不一樣,用的語言也不一樣。我的方法當然有它的困難,但是比較容易做出來,先有一個東西。

問:您目前執行的計劃中,網格計劃是不是花你許多時間?

答:現在我每天早上9點開會,然後每個禮拜開一次會。網格計劃,我們現在比較專注在各種運作效率,在分散式環境下怎麼樣能夠有效率。這是一個系統的問題,不是說CPU變得很快就好,因為瓶頸不見得在CPU。CPU可以跑得很快,但是瓶頸可能變成儲存。儲存可以很快,瓶頸可能就在網路。我們必須看整個數據中心或分散式的環境,到底瓶頸在什麼地方?要發展什麼東西?

我們目前特別發展兩個方向:一個是粒子物理,其實已經發展的差不多。另一方面,我們現在跟芝加哥大學合作在做生物資訊(bioinformatics)。大家認為生命科學發展趨勢往大數據的方向,譬如很多生物影像、DNA、RNA數據要分析,個人化醫療等。雖然大家是這樣看,但還沒有人證明大數據在生命科學真的很有用,這個是先有雞先有蛋的問題,你不能證明就不見得拿到錢讓你做大數據的數據中心網格計算,所以我們現在透過國際合作研究如何將網格計算技術運用在生物資訊。另外一個是比較集中在怎樣讓網路更有效率,我覺得網路的效率在分散式計算中非常重要。這些東西Google都很強,在一個大的數據中心裡面的效率,他們是很厲害,有很多的經驗。很多東西因為他的量大,他的CPU、儲存裝置甚至路由器(router),很多他都可以自己設計。他們不需要買現成的東西,我們完全沒辦法跟他競爭,如果真的他要做跟我們同一領域,臺灣再多的人投進去、再多錢也沒辦法跟他們競爭,所以要在他們還沒有開始做以前,我們就要已經發展好一些應用。

*感謝受訪者李世昌校稿,確認本文正確性。特別感謝中研院物理所蘇達賢博士、張耀文先生協助潤稿。本次專訪,侃侃而談的李世昌院士,還介紹「在臺灣核電廠實驗的『微中子計劃』及對核能發電的看法」,發表在《科學月刊》566期(2017年2月);「關於中研院執行目前計劃的緣起」,發表在《物理雙月刊》39卷2期(2017年4月);「與丁肇中院士合作的『AMS計劃』,在太空中架設儀器,尋找反物質與暗物質」,即將發表在《科學月刊》。

沒有留言:

張貼留言