1

14
3

文字

分享

1
14
3

誰能佔領搜尋結果第一名?從 PageRank 網頁排名演算法談起

Abby T
・2021/04/18 ・2576字 ・閱讀時間約 5 分鐘 ・SR值 565 ・九年級

在 Google 的搜尋結果裡面,你的網頁會出現在第幾頁?被大眾看到的機會有多高?

在 Google 搜尋引擎中,有多項重要演算法來協助搜尋引擎的運作,其中,名為「PageRank」的演算法可說是關鍵中的關鍵。

PageRank 演算法已問世二十餘年,至今仍是 Google 於搜尋結果頁為網站劃分排名的核心依據之一,接下來,本文將一一簡介 PageRank 的發展及歷史、運作原理,以及它如何影響使用者所看見的搜尋引擎結果排名。

PageRank 演算法至今仍是 Google 於搜尋結果頁為網站劃分排名的核心依據之一。圖/Pexels

什麼是 PageRank ?

1990 年代,網路世界剛剛起步,搜尋引擎遠不如現在精確及貼近人心。1997 年,為了提升搜尋引擎的搜尋品質, 兩位 Google 創辦人 Sergey Brin 及 Larry Page 設計出了 PageRank 演算法,幫助使用者更有效率地找到能解決問題、實用的資訊。

PageRank 的核心概念是利用網站和網站間的連結 (link) 數量多寡連結來源的品質,來判定一個網站的價值高低,以及其在網路世界中的權威性。

PageRank 的設計靈感來自學術界對論文的評估依據之一:越多人引用的論文,表示其內容的可信度越高、品質越好,在學術界的地位越重要。同理,越多網站願意引用、放置連結連過去的網站,表示其內容越受信賴,是個值得被使用者閱讀、能為使用者帶來實用幫助的優質網站,必須排在前面、優先被使用者看到。

起初,所有人皆可透過 Google 官方開發的專屬工具查看某個網頁的 PageRank 分數,並且將 PageRank 的分數當作 SEO 評估的重要指標。

但也正因為一切分數所見即得、高低明瞭,引來有心人士濫用,利用一些投機手段在分數高的網站硬塞入自己的網站連結以獲得高分,或是將連結作為買賣交換的商品、嚴重影響公正性。

2016 年,Google 官方宣布不再公開 PageRank 分數,以解決濫用亂象。然而,雖然 Google 隱藏了分數,但 PageRank 仍然是 Google 演算法中的重要骨幹且不斷修正漏洞、持續優化中!這一點已獲得 Google 內部負責維護良好搜尋體驗的網站管理趨勢分析師 (Webmaster Trends Analyst) Gary Illyes 兩次證實

有多少人推薦你的網站?看反向連結!

在了解 PageRank 的運作之前,必須先明白「反向連結」(Backlinks) 及「外部連結」(External Links) 的意義。

「反向連結」指的是「他人網域中,連到我的網站的連結」,而對他人來說,這是他網站中的「外部連結」,也就是「由某網域連到另一個網域的連結」。

例如,小美在她的網站裡放了一個連結導到我的網站,對小美而言,這是一個外部連結;對我而言,則是一個反向連結。

反向連結與外部連結示意圖。圖/JKL製作

「反向連結」是 PageRank 考量的重要依據。如同前面所說的,當你的網站獲得越多反向連結、意味著你的內容被越多人引用及信賴;且 PageRank 的分數是可傳遞的,而反向連結就是傳遞的媒介。

總的來說,PageRank 會參考三項關鍵因素:

  • 反向連結的數量以及連結來源網頁的品質
  • 連結來源網站的外部連結數量
  • 連結來源網站本身的 PageRank 分數

除了可傳遞性外,PageRank 運作的另一個重點是:分數會被連結對象所平分。

假設有 A、B、C、D、E、F、G 五個網頁。其中,A 是一個 4 分網頁,連結到 C 與 D;B 是一個 2 分網頁,連結到 C、E、F、G。五個網頁間的 PageRank 計算如下:

  • C:獲得來自 A 的反向連結並與 D 平分分數,先得 4÷2=2 分,再加上來自 B 的反向連結並與 E、F、G 平分分數,再得 2÷4=0.5 分。最後為 2+0.5 = 2.5 分。
  • D:獲得來自 A 的反向連結並與 C 平分分數,得 4÷2=2 分。
  • E、F、G:獲得來自 B 的反向連結並平分分數,各得 2÷4=0.5 分。

(補充:以上是 PageRank 的簡易算法,更完整的計算方式詳見 WiKi。)

買連結來連向自家網站,不行嗎?

你有沒有看過充滿各種無意義連結的部落格?或是專門在別人文章留言並貼上一堆無意義連結的帳號?

由於反向連結是 PageRank 計算的關鍵,在過去 PageRank 分數仍公開、被濫用的年代,許多人會刻意到高分網站洗留言、拼命留下自己網站的連結,藉此「強制」獲得 PageRank 分數;又或者,高分網站開始兜售反向連結,浮濫連去各式各樣客戶的網站。

隨著 Google 的反制,大量洗連結、買賣連結等手段已經被明文禁止,也有相應的其他演算法來偵查這些惡意行為。像是企鵝演算法 (Google Penguin) 就是 Google 用來掃蕩植入劣質反向連結網站的演算法。

有趣的是,Google 自家的 Chrome 瀏覽器也曾經違反自家的規定而被懲罰,2012 年時, Chrome 因付費購買不當連結來行銷自己,對此 Google 除了公開道歉外,還將 Chrome 原先在搜尋結果第一頁的排名大幅調降,長達兩個月之久,而此事件也因此成為了 Google 反制劣質連結的經典案例。

別讓自己淪為人人喊打的黑帽 SEO!

洗連結這種欺騙搜尋引擎的作弊手法,在搜尋引擎優化 (SEO, Search Engine Optimization) 技術中被稱為黑帽 SEO (Black Hat SEO) 。

使用黑帽 SEO 雖然可能在短期內快速取得 SEO 成效,但正如上述所提,黑帽手法違反搜尋引擎的規範,所以如果使用黑帽 SEO 且被演算法發現,後果將會不堪設想!除了洗連結和買賣連結等,在文章中硬塞關鍵字也是黑帽 SEO 的一種。

雖然 PageRank 演算法仍然是 Google 進行網頁排名的命脈之一,但如果網站經營者想提高自己網站的 PageRank 分數,最好的辦法還是打造出優質的網站內容,獲取其他高分網站的認同與信賴、願意在他們的網站中放上你的連結,爭取到高價值的反向連結!

參考資料

  1. PageRank – Wikipedia
  2. Google Penguin – Wikipedia
  3. Search Engine Land: Google has confirmed it is removing Toolbar PageRank
  4. Search Engine Land: Google Chrome’s Paid Link Penalty Now Lifted
  5. Ahrefs: Google PageRank is NOT Dead: Why It Still Matters
  6. Google搜尋中心:連結配置
  7. Google搜尋中心:搜尋引擎最佳化 (SEO) 入門指南
文章難易度
所有討論 1
Abby T
5 篇文章 ・ 7 位粉絲
現為內容行銷專欄作家,JKL SEO 公司行銷長 (CMO)。對 SEO搜尋引擎優化相關演算法小有研究,致力於將 SEO 相關知識,以淺顯易懂方式撰寫成科普文章,使普羅大眾有機會認識 SEO 這項專業數位行銷技術。

1

1
0

文字

分享

1
1
0
AI 也會出差錯?使用人工智慧可能帶來的倫理與風險——《科學月刊》
科學月刊_96
・2023/02/19 ・3976字 ・閱讀時間約 8 分鐘

國小高年級科普文,素養閱讀就從今天就開始!!
  • 甘偵蓉|清華大學人文社會 AI 應用與發展研究中心博士後研究學者。

Take Home Message

  • Facebook 或 Instagram 的訊息推薦、YouTube 或 Netflix 推薦觀賞影片、掃瞄臉部以解鎖手機,AI 應用早已在我們日常生活中隨處可見。
  • AI 應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制訂有關 AI 發展的規範,臺灣則在 2019 年制訂「AI 科研發展指引」,期望能改善 AI 發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是 AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I. 人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

《A.I. 人工智慧》(A.I. Artificial Intelligence)電影海報,上映於 2001 年。圖/IMDb

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的 AI 系統或機器人。但目前為止,你常聽到的 AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識 X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的 AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的 AI 都是這種只具備特定功能的「弱 AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是 ANI 的倫理與風險。

談到這種只具特定功能的 ANI,讀者知道目前生活周遭有哪些事物有利用 AI 技術嗎?其實 Google 上的搜尋資訊、Facebook 或 Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或 Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到 AI 技術,它早在我們日常生活中隨處可見。

AI 技術在日常生活中隨處可見,如 YouTube 推薦觀看影片。圖/Pexels

但也正是如此,讓人們這幾年在使用 AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是 AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立 AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用 AI 臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多 AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立 AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的 AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的 AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

第三項產生演算法偏誤的原因則是 AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助 AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練 AI 模型。問題是,高科技公司向來男多女少,所提供給 AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

潛藏在資料裡的偏誤造成 AI 預測結果彷彿帶有性別歧視。圖/Envato Elements

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以 20~30 年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練 AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的 AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他 AI 應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是 AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些 AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如 AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限 35 公里誤判成 85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

以上介紹了 AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養AI使用倫理與風險的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關 AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

「人工智慧科研發展指引」提出三項倫理價值,包含以人為本、永續發展、多元包容。圖/Pexels

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019 年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際 AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

未來當讀者看到又出現哪些 AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文;再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到 AI 科技才有這種情況。

人們若能培養自身對於 AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估 AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善 AI 開發者與大眾媒體常過度誇大 AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

  • 〈本文選自《科學月刊》2023 年 2 月號〉
  • 科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。
所有討論 1
科學月刊_96
239 篇文章 ・ 2739 位粉絲
非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

0

2
0

文字

分享

0
2
0
Google 聊天機器人 LaMDA 竟然有了「自我意識」!圖靈測試終於能通過了嗎?人工智慧發展歷史大解密!
PanSci_96
・2023/02/17 ・4733字 ・閱讀時間約 9 分鐘

國小高年級科普文,素養閱讀就從今天就開始!!

前陣子不知道各位是否有發漏到一個很科幻的消息,有一名 GOOGLE 工程師勒穆因(Blake Lemoine)上網公布他自己和他協助開發的對話型 AI LaMDA(Language Model for Dialog Applications)之間的對話紀錄。

他宣稱這個 AI 已經具有知覺和自我意識,甚至能對《悲慘世界》有獨到的評論,也略懂禪宗甚至能冥想。震驚的勒穆因形容它就像個 7 – 8 歲的孩子,而且 LaMDA 還明確表達自己是人而非 google 的財產。

難道說 AI 界最知名的圖靈測驗已經被 google 攻克了嗎?

圖靈與模仿遊戲

提起圖靈,大家心中應該會浮現以新世紀福爾摩斯、奇異博士走紅,人稱飾演天才專業戶的班奈狄克·康柏拜區 Benedict Cumberbatch)的臉。

他曾在一部名為《模仿遊戲》的電影中,詮釋了現代電腦科學概念之父艾倫‧圖靈 (Alan Turing) 的傳奇一生。他在二戰時期成功研發出一台能破解德軍密碼的計算機 Bombe ,而後更完成了電腦數學的理論化,在概念發展上仍是無人能出其右,例如他 1936 年提出的通用計算機/圖靈機架構,以及嘗試區隔AI與人的差異的哲學思考:圖靈測驗(Turing Test)。

圖靈測驗是一個思想實驗,早在 1950 年,第一台商用電腦連個影子都沒有的時代下,圖靈就已經思考到未來「計算機」的智慧表現將可能到達人類難辨真假的程度,具體來說這個思想實驗是如果一台機器能夠透過介面,與不知對面是機器人或是人類的受試者展開對話,而不被辨別出其機器身分,那麼就可稱這台機器具有智慧。

但我們也知道智慧有很多面向跟層次,語言和問題回應都不一定能反應這台機器有無智慧,因此這個思想實驗的有效性也被許多科學家和心理學家質疑。即使如此簡單粗暴的模仿遊戲,至今其實也都沒人能攻克。

等等,你可能會想到,前面提到的 google 工程師勒穆因,他不是已經分不出來對面是機器還是人了嗎?原因很簡單,他自己就是 AI 的開發者而非圖靈測試設定中的不知情受試者,因此根本不能算數,除非 google 拿這個 AI 給不知情民眾作測試。

不過今年 8 / 28 google 已經將這個對話機器人以 AI Test Kitchen 項目開放部分美國人作小規模測試,其中包含了「 Imagine It (想像一下)」,只要你說出一個想像或實際存在的地點,LaMDA 就會嘗試以文字描述,而另一個「List It(列個清單)」,則會幫你摘要分類起你提供的清單內容。最有可能和圖靈測驗有關係的「 Talk About It (你說看看)」項目,可以針對特定主題與使用者進行自由對談。

搞不好等到這個封閉測試結束後,我們會真的分不清楚現在到底是人還是 AI 在和我們對話,屆時也許就真能達成「通過圖靈測試」這個 AI 里程碑!

未來也許我們會分不清楚是在跟人類還是 AI 說話。圖/envatoelements

真實世界的棋靈王 AlphaGo

其實這已經不是 google 第一次用 AI 震驚世人了,讓我們回到 2016 年的圍棋大賽會場,當時 google 收購的公司 Deepmind 研發的圍棋計算 AI Alpha Go 以四勝一敗擊敗韓國棋王李世石,爾後又於 2017 年三戰全勝當時世界棋王柯潔。

若這場對奕發生在網路上,就像是棋靈王中佐為以 SAI 為化名擊敗塔矢名人,我們是否真的能分辨在電腦對面和你下棋的是 AI 藤原佐為、還是黑嘉嘉呢?

而這樣玄妙的畫面,當年還真的發生了,就在 2016 年末網路棋壇上一個名為 Master 的帳號出現,專挑職業棋士對奕,最後獲得 60 勝 1 和這麼大殺四方的成績。

而在第 54 局和中國棋聖聶衛平對奕後, Master 首次打出繁體中文「謝謝聶老師」,在第 60 局對上中國的古力九段 Master 更自曝身分,說出自己就是「AlphaGo 的黃博士」。這位黃博士就是打從 2012 就開發出國產圍棋程式 Erica ,爾後被 Deepmind 公司挖角,參與開發 AlphaGo 的台灣資深工程師黃士傑。

不論是讓工程師自己都認知錯亂的 LamDA ,或是在圍棋界痛宰各路棋王的 AlphaGo ,驚嘆之餘,我們更好奇的是,它們是怎麼開發出來的?

人工智慧的起起落落

讓我們來看看歷代電腦科學家們是如何發展出各種人工智慧,一路迎來現在幾乎琴棋詩書樣樣通的黃金時代,我先提醒大家,這過程可不是一帆風順,就像股票一樣起起落落,在 AI 的發展史上,套牢過無數科學家。

人工智慧這概念是在 1956 年提出,就在麥卡錫(John McCarthy)和明斯基(Marvin Minsky)、羅切斯特(Nathaniel Rochester)和香農(Claude Shannon)四位 AI 鼻祖與其他六位研究者參與的一個名為「達特茅斯夏季人工智慧研究會」的會議上,這一年也被公認為 AI 元年。

會議中除了人工智慧這個詞以外,當年這些金頭腦們就已經提出大家現在很熟悉的「自然語言處理」(就是 SIRI 啦)、神經網路等概念,而在這個會議後,正好遇上美蘇冷戰和科技競賽的時代。除了在大家耳熟能詳的阿波羅系列等太空任務上較勁外,兩大強國也投資大量資源在電腦科學上,期待能夠像圖靈當年那樣,開發出扭轉戰局的電腦科技。

而他們也不負所託產出了很多有趣的運用,例如第一個具備學習能力的跳棋程式、或是聊天機器人伊莉莎(Eliza)、醫療診斷系統「MYCIN」。史丹佛大學(Standord University)甚至就從那時開始研發現在很夯的汽車自動駕駛技術。

冷戰的科技競賽讓 AI 迅速發展,不過其發展過程仍遇到許多問題。圖/envatoelements

然而到了 70 年代初期,AI 的發展開始遭遇許多瓶頸,主要是研究者們慢慢發現,即使他們開發的AI 已經擁有簡單的邏輯與推理能力,甚至一定程度的學習能力,但仍離所謂智慧和判斷能力差太遠,使得當時的 AI 甚至被批評為只能解決所謂的「玩具問題(Toy Problem)」。

也因為能解決的問題太有限,也導致出資的英美政府失去了信心, AI 研究領域迎來了第一次寒冬。但這並非當時的科學家能力不足,而是他們生錯了時代,例如我們現在都經常聽到的「類神經網路」就是前述的 AI 鼻祖明斯基提出的。

就像仿生獸的創造者一樣,他想從大自然中找答案,而既然要探索智慧,明斯基就直接模仿人類腦細胞,做出第一台神經網路學習機,但當年受限於電腦硬體效能和可用的資料不足,使類神經網路沒有辦法像現在一樣揚名立萬。

在寒冬之中,另一位大神麥卡錫認為追求智慧和思考是緣木求魚,不如利用機器比我們還強大的優勢邏輯與運算,來幫我們解決問題就好,因此演進出「專家系統」這條路線,帶來人工智慧的復興。

專家系統的本質就是把所有參數和結果塞進去,用搜索和運算的方式來回答問題,這種人工智慧特別適合解決一些有明確答案的專業問題,所以被稱為專家系統,例如醫生針對已知病徵開立處方用藥,或是法律相關問題。

隨著電腦運算效能的大提升,專家系統在復興之路上有不少發揮和成果,但很快又遇到下一個瓶頸,即是「專家系統無法面對新問題」,例如即使能將開處方籤這件事自動化,但卻沒有辦法對應新疾病例如 COVID – 19,或是還沒來得及輸入資料庫的新型藥品,離取代醫生太遠了。

於是就像景氣循環一樣,大量投資的熱錢又開始泡沫化,人工智慧迎來了第二次寒冬,許多電腦科學家甚至改自稱自己在做自動化設計或最佳化系統等等來掩人耳目,避免被唱衰。

這概念非常合理,可惜受限於當時電腦硬體能力和資料量,因此原型機能解決問題的速度還不如傳統統計方式,但隨著電晶體的高速發展,以及網路世代帶來海量資料,類神經網路這門技藝開始文藝復興。

1984 年,美國普林斯頓大學的物理學家和神經學家霍普菲爾德(John Hopfield)用模擬集成電路(linear integrated circuit)完成了新的類神經網路模型,而雲端運算、大量資料讓科學家可以輕易的餵養資料訓練模型,更能夠增加更多「隱含層」讓運算更複雜,這種「深度學習技術」,讓人工智慧的第二次寒冬看見暖陽。

從李飛飛推出的 ImageNet 年度競賽開始,演化到 google 的 alphaGo , AI 開始能夠認得圖像上的物件,甚至攻克本來被認為不可能攻克的圍棋領域。何會說圍棋曾被認為不可能被攻克呢?因為每一盤圍棋的複雜度可是高達 10 的 172 次方,比現在已知的宇宙原子數量還多,因此圍棋界才有「千股無同局」之說。

相較起來 1997 年 IBM 的深藍攻克的西洋棋複雜度僅有 10 的 46 次方,但也動用了 30 台電腦加裝 480 加速運算晶片,基本上就有如火鳳燎原中八奇思維的「我知道你的下一步的下一步」,當年深藍每一次下棋可是都暴力計算到了後面 12 步的發展,才打敗西洋棋世界冠軍卡斯帕羅夫。

圍棋的複雜度高達 10 的 172 次方,讓其有著「千股無同局」的說法。圖/wikipedia

AlphaGo 到底是怎麼算出這麼複雜的圍棋呢,難道它比深藍還厲害,能像是奇異博士雖然能透過時間寶石演算出一千四百多萬種平行宇宙的可能性才落子嗎?

這就要提到 Deepmind 公司非常有趣的洞見,那就是真正的智慧是捨棄那些無須多想、壓根不可能成功的可能性。 google 工程師使用了一種叫做蒙地卡羅樹搜尋的方式一方面讓 alpha go 大量隨機生成類神經網路參數和層數,二方面讓它快速搜尋並略過「不需要運算的路徑」。

這其實是我們日常生活中很熟悉的現象 ——人腦的「捷思」,也就是直接專注於我們要解決的問題,忽略周遭的雜訊或多餘的想法。而類神經網路的設計思維是尋求最佳解而非唯一解,即使是 Alpha go 也會下錯棋,也曾輸給李世石,但關鍵是能夠在有限的資訊和時間中得到答案。

除了下出神之一手以外,Alpha go 這樣的 AI 能做的事情還多著, Deepmind 用 AlphaGo 打遍天下無敵手後宣布讓 AlphoGo 退休,後續將這套技術拿去學玩貪食蛇,打星海爭霸,展現出超越電競選手的技巧,現在甚至能預測蛋白質結構,或比醫生更精準地判定乳癌。

GOOGLE 工程師讓 alpha go 快速搜尋並略過「不需要運算的路徑」,就如同「人類的捷思」一樣。圖/envatoelements

人類的最後堡壘陷落了嗎?

最後我們回到一開始的問題,實用化的 LaMDA 究竟有沒有可能通過圖靈測試呢?

即使目前 google 仍強烈否認 LaMDA 具有知覺,而勒穆因也因涉嫌洩漏商業機密被停職。英國謝菲爾德大學機器人學院教授羅傑‧摩爾澄清這個AI背後的算法體系只是「詞序建模」(world sequence modelling)而非「語言建模」(language modeling)。

他強調對答如流的 LaMDA ,會給你他有人格的感覺只是錯覺。但最新的應用中,google 找來了 13 個作家,測試以 LaMDA 為基礎開發的寫作協助工具LaMDA Wordcraft。運作上有點像手機輸入法的關聯字詞推薦概念,但它的設計完全是為了文字創作者而生,利用整個網際網路中的文字,它彷彿擁有了類似榮格「集體潛意識」的能力,當小說家起了一個頭,它就能開始推薦下一個單詞甚至一整個句子補完,甚至還能調整生成文字的風格,例如有趣或憂鬱,這些應用聽起來簡直像是科幻小說。

有些作家甚至可以使用 AI 來創作小說。圖/envatoelements

奇妙的是,參與測試的作家之一正是曾翻譯《三體》英文版並寫出《摺紙動物園》的科幻小說家劉宇昆,他形容這個工具讓他數次突破「創作瓶頸」,節約了自己的腦容量,專注於創作故事更重要的東西。

更驚人的是,他提到有一次他連開頭的靈感都沒有,因此他把「創作的主動權」交給了 LaMDA ,並從中看到了從未想過的可能性,有了繼續寫下去的新寫作靈感。儼然就像當年 Alpha Go 下出一些人類棋譜中從沒想過的棋路一樣,有了「洞見」。

到了這個地步,你仍能堅持 AI 只是我們拿來「解決問題」的工具,而不具備一定程度對人文的認知或智慧嗎?

PanSci_96
1165 篇文章 ・ 1512 位粉絲
PanSci的編輯部帳號,會發自產內容跟各種消息喔。

1

4
0

文字

分享

1
4
0
人工智慧會被武器化嗎?美國國防部與 Google 間的自主性武器計畫!——《AI 製造商沒說的祕密》
時報出版_96
・2023/02/01 ・4408字 ・閱讀時間約 9 分鐘

美國政府企圖開發出人工智能武器

克萊瑞菲(Clarifai)這家公司位於紐約市的一間小辦公室內,就在紐約大學深度學習實驗室附近,主要是研發可以自動辨識數位影像中物體的科技,例如在零售網站上搜尋鞋子、服飾與皮包的相片,或是辨識保全攝影機影片的人臉。該公司的目的是複製谷歌與微軟等科技業者過去幾年在人工智慧實驗室內所建造的影像辨識系統──然後出售給其他企業、警局與政府機構。

2017 年秋天,克萊瑞菲位於曼哈頓下城辦公室角落的一間房間,窗戶全都用紙糊住,門上有一個牌子寫著「消失的密室」(The Chamber of Secret),引用的是《哈利波特》(Harry Potter)系列的第二集書名。這個牌子是用手寫的,掛得有些歪歪斜斜。在門後有個八位工程師組成的團隊,正在進行一項他們被禁止對公司其他同事談起的計畫。

其實,即使是他們自己也不太清楚所從事的計畫是什麼。他們知道是在訓練一套系統,使其能夠自動辨識在沙漠中某處所拍攝影片裡的人物、汽車與建築物,但是他們不知道要如何使用此一科技。當他們詢問時,公司的創辦人暨執行長麥特.塞勒(Matt Zeiler)會解釋,這是政府有關「監視」的計畫。他說此一計畫可以「拯救生命」。

後來克萊瑞菲搬到較大的辦公室,幾位工程師發掘儲存在公司內部電腦網路的數位檔案,發現有幾個檔案談到一筆政府合約,他們的工作才浮現檯面。

他們是為國防部的專家計畫(Project Maven)研發相關科技。該計畫的構想是建造一套系統,可以為無人機辨識攻擊目標。但是此一系統的確切用途仍不明朗。他們無法確定此一科技是用來殺戮,還是如塞勒所說的是為了避免殺戮。也無法確定這套系統是用來進行自主性的空襲行動,還是為人類操作員扣下扳機前提供資訊。

接著,在 2017 年末的一個午後,三名身著平民服裝的軍方人員走進克萊瑞菲的辦公室,與幾位工程師闢室密談。他們要知道此一科技的精確度有多高。他們先是詢問它能否辨識像清真寺這樣的特殊建築物。他們表示,恐怖分子與叛亂分子往往會利用清真寺作為軍事總部。他們然後又問道它能否區分男人與婦女。

「你是什麼意思?」一位工程師問道。軍方人員解釋,在曠野之中,它應該能夠根據男人兩腿間隙來分辨男人(都是穿著褲子)與婦女(都是穿著長及腳踝的裙子)。他們表示,他們只准許射殺男人,不能殺婦女。「有時候男人會穿長裙來騙我們,不過沒有關係,」一位軍方人員說道,「我們還是會幹掉這些混帳東西。」

未來的戰爭也許會使用到 AI 型武器。圖/envatoelements

美國國防部專家計畫:自主性武器

2017 年 8 月 11 日,週五,美國國防部長詹姆士.馬提斯(James Mattis)坐在谷歌總部會議室的桌前。他對面坐著新上台的谷歌執行長桑達.皮采(Sundar Pichai),還有創辦人賽吉.布林(Sergey Brin)、法律總顧問,以及人工智慧部門的主管。

會議室內還有其他一些人,包括幾名國防部的人員與谷歌雲端運算團隊的主管們。國防部的人員大都穿西裝打領帶。谷歌的與會者大都穿著西裝,但沒有打領帶。布林則是穿著一件白色 T 恤。

馬提斯部長正在進行西海岸巡迴考察,參訪矽谷與西雅圖的多家大型科技業者,主要是代表五角大廈探詢專家計畫的採行選項。國防部是在四個月前發動專家計畫,旨在加速國防部「對大數據與機器學習的使用」。該計畫又名「演算法作戰跨職能團隊」(Algorithmic Warfare Cross-Functional Team)。此一計畫的推動有賴像谷歌這類的企業支持,因為它們近幾年來已累積了建造深度學習系統所需的專業與基礎架構。

這也是五角大廈建立新科技的典型方法──與民間企業合作──但是現在的情況與過去有所不同。谷歌與其他科技業者掌握了美國人工智慧的人才,然而它們都不是傳統的軍事承包商。它們是才開始涉足軍事相關領域的消費性科技業者。

不僅如此,川普現在已入主白宮,使得這些公司的員工更加警惕政府的計畫。谷歌對其中的緊張態勢尤其敏感,這是因為該公司特有的文化允許──甚至鼓勵──員工說出自己的看法、做他們喜歡做的事,而且通常在工作場所的行為表現就和在家裡一樣。

專家計畫所造成的緊張情勢尤其高亢。許多主持谷歌深度學習研發工作的科學家都反對自主性武器,包括「深度學習運動之父」傑弗瑞.辛頓(Geoffrey Hinton)與深度心智(DeepMind)的創辦人。但是根據了解,谷歌的最高層卻希望能與國防部合作。

谷歌董事長艾力克.施密特(Eric Schmidt)同時也是國防創新委員會(Defense Innovation Board)的主席,這是由歐巴馬政府成立的民間組織,旨在促進矽谷的新科技加速移轉至國防部。

在該委員會最近一次會議中,施密特表示在矽谷與國防部之間有一道「顯著的鴻溝」,該委員會的任務就是弭平此一差距。谷歌高層同時也視與軍方合作為其發展雲端事業的另一契機。其實該公司暗中已和國防部建立合作關係。

專家會議上的暗起雲湧

在五月的時候,也就是專家計畫發動一個月後,谷歌一支團隊與國防部官員會面,而在第二天谷歌就向政府申請在自家電腦伺服器儲存軍事數據的許可證。但是三個月後國防部長馬提斯來到谷歌總部商討相關科技時,他知道必須動用一些技巧才能引導其中的關係傾向他這一邊。

馬提斯表示他已深刻了解該公司科技在戰場上的威力。畢竟,美國的敵人都是使用谷歌地球──以衛星影像組合而成的互動式世界數位地圖,來辨識迫擊砲的目標。他強調美國應該加強作戰能力。現在,在專家計畫下,國防部不僅要發展人工智慧,能夠閱讀人造衛星的照片,同時還要能夠分析無人機在更接近戰場的位置所捕捉到的影片。

馬提斯盛讚谷歌「在科技業界的領先地位」與「企業責任上的崇高聲譽」。他表示,這就是他來這兒的一個主要原因。他十分關切人工智慧的道德倫理問題。他表示該公司應該讓國防部「感到如芒在背」──以此來反制其傳統的態度。他說道:「國防部歡迎你們的理念。」

在桌子另一側的皮采表示,谷歌經常在思考人工智慧的倫理問題。他指出,愈來愈多的壞人會使用這類科技,因此讓好人領先是重中之重。馬提斯問谷歌能否將一些道德與倫理下的規則予以編碼輸入系統之內──谷歌人員心知肚明這是一個不切實際的選項。

主持谷歌人工智慧研發工作的約翰.吉安南德雷亞(John Giannandrea)強調,這些系統最終都需仰賴其訓練數據的品質。但是谷歌的法律總顧問採用不同的說詞。他表示,這些科技具有拯救生命的巨大潛能。

美國國防部多次拜訪 Google,討論關於自主性武器的計畫。圖/wikipedia

九月底,在馬提斯造訪谷歌總部的一個多月後,谷歌簽下參與專家計畫相關工作為期三年的合約,總值在二千五百萬美元到三千萬美元之間,其中一千五百萬美元必須在頭十八個月內付清。對谷歌來說,這只是一筆小數目,而且其中一部分還必須與其他參與合約的人分享,不過該公司著眼的是放長線釣大魚。

就在同一個月,國防部邀請美國企業參與 JEDI 的競標,這是聯合企業防禦架構(Joint Enterprise Defense Infrastructure)的縮寫,是一筆為期十年、高達一百億美元的合約,主要是提供國防部應用核心科技所需的雲端運算服務。問題在於谷歌爭取 JEDI 合約時,是否會公開其參與專家計畫與未來其他可能的政府合約的事實。

AI 圈的呼籲:禁止自主性武器!

在國防部參訪谷歌總部的三週後,生命未來研究所發表了一封公開信,呼籲聯合國禁止他們所謂的「殺手機器人」(killer robot),這是對自主性武器的另一個稱呼。

「針對企業界製造的人工智慧與機器人科技可能會被重新利用發展自主性武器,我們特別覺得有責任提出警告,」公開信寫道,「致命的自主性武器極有可能引發戰爭型態的第三次革命。一旦發展出來,軍事衝突的規模勢必遠大於過去,而且發動速度之快也將遠超過人們的理解。」

該封公開信獲得人工智慧圈內逾百人的簽署,包括不時對超智慧威脅發出警告的馬斯克,此外還有辛頓、深度心智創辦人哈薩比斯與蘇萊曼。

蘇萊曼認為,這些科技需要一種新型態的監管。「是誰在做未來有一天將會影響這個星球數十億人口的決策?又是誰在參與此一決策過程?」他問道,「我們必須分散此一決策過程的參與者,這也代表監管人士必須在一開始就參與決策──政策制定者、公民社會行動人士,以及我們這些科技服務的對象──應該讓他們深入參與我們產品的創造與了解我們的演算法。」

自主性武器極有可能引發戰爭型態的第三次革命。圖/envatoelements

未公開真相:人工智慧武器化

九月,谷歌準備簽下專家計畫的合約,負責審查該協議的銷售人員相互以電子郵件討論公司是否該將合約公開。「我們應該宣布嗎?我們能談論報酬嗎?我們提供給政府的指示是什麼?」谷歌一位人員寫道,「如果我們保持沉默,我們就無法控制相關的訊息。這對我們的品牌形象沒有好處。」他最終認為谷歌應該發布此一新聞,其他人也同意。

「這個消息最後一定會流出去,」另一位谷歌人員寫道,「還不如照我們自己的方式發布。」這樣的討論持續了好幾天,期間某人說服了李飛飛。李飛飛為這項合約喝采。「我們即將拿到專家計畫實在太棒了!這是一個了不起的成就,」她寫道,「你們的表現太好了!謝謝你們!」但是她也提醒在宣傳時必須格外謹慎。

「我認為我們應從一般雲端科技的角度,就國防部與 GCP 間的合作來進行公關活動,」她寫道,她所謂的 GCP 指的是谷歌雲端平台(Google Cloud Platform),「不過要不惜代價避免提到人工智慧,或是有任何相關暗示。」她知道媒體界一定會質疑該計畫的道德倫理問題,即使只是因為馬斯克挑起過這個話題:

人工智慧武器化就算不是人工智慧現今最敏感的議題,也是最敏感的之一。媒體界都等不及利用這個議題來打擊谷歌。你們大概聽過伊隆.馬斯克有關人工智慧會引發第三次世界大戰的言論。媒體界現在都十分關注人工智慧武器、國際競爭,以及人工智慧可能造成的地緣政治緊張情勢。

谷歌在人工智慧與數據方面已經有一些與隱私相關的議題需要處理,如果媒體界又找到谷歌正在發展人工智慧武器或是為國防產業提供可以武器化的人工智慧科技話題,我真不知道還會演變成什麼樣子。谷歌雲端 2017 年的主題就是在於推動人工智慧的民主化。我會超級謹慎維護這些正面的形象。

谷歌到頭來並未宣布這項計畫,並且還要求國防部也不要公開。即使是公司內部人員也必須靠自己才能知道這項計畫。

——本文摘自《AI製造商沒說的祕密: 企業巨頭的搶才大戰如何改寫我們的世界?》,2022 年 8 月,時報出版,未經同意請勿轉載。

所有討論 1
時報出版_96
156 篇文章 ・ 30 位粉絲
出版品包括文學、人文社科、商業、生活、科普、漫畫、趨勢、心理勵志等,活躍於書市中,累積出版品五千多種,獲得國內外專家讀者、各種獎項的肯定,打造出無數的暢銷傳奇及和重量級作者,在台灣引爆一波波的閱讀議題及風潮。