0

1
1

文字

分享

0
1
1

程式碼就是法律:智慧財產權法 或 機器人三大法則?

洪朝貴
・2013/03/25 ・8023字 ・閱讀時間約 16 分鐘 ・SR值 536 ・七年級

-----廣告,請繼續往下閱讀-----

[這是一篇發表於 臺灣STS學會 2013 年年會 的學術論文。 自覺夠有趣, 所以稍稍加油添醋之後, 貼在泛科學及部落格上。 有點長。 算是 2010 年英文文章〈DRM and Other Forces Overriding the Three Laws of Robotics〉的更新版。 [English / française / español ] 也請見 簡報版; 請以方向鍵、 t、 f 等鍵播放; 完整操作方式請見 「貴哥的 sozi 簡報/心智圖」]

摘要

當主人的指令與保護智財的原則互相衝突時, 機器人會怎麼做呢?
當主人的指令與保護智財的原則互相衝突時, 機器人會怎麼做呢?

艾西摩夫在他的基地系列與機器人系列小說當中, 不斷地探討機器人面對三大法則時所做的 「心理掙扎」。 保護人類、 服從命令、 保護自己, 是小說中所有正電子頭腦所必須遵守的 「法律」。 在那個想像的未來世界當中, 就是因為在這樣的保證與前提之下, 人類才敢接受機器人控制他的家電、 照顧他的小孩、 接管他的太空船與維生設備。 艾西摩夫唯一沒料到的是後來的發展: 真實世界的機器人, 最後並不是由正電子腦, 而是由程式碼在操控。

關心資訊科技議題的法學教授 Lessig 說: 「程式碼就是法律。」 程式碼所製定的法律, 不僅比警察執行得更徹底, 也比政府更令一般人不敢質疑: 哪些網站算是不良網站? 哪些內容應該被封鎖? 你的哪些個人資料必須被定期自動上傳到雲端? 程式碼說了算; 不同公司的程式碼在用戶身上強加了不同的法律, 但都一樣令用戶全然無力抗拒。 不僅如此, 當你想知道這些法律的詳細規定時… 抱歉, 為保護程式碼智慧財產, 恕難奉告。

於是, 我們已經被 「保護智慧財產權」 的程式碼 (也就是法律) 所包圍。 於是我們看見 『Windows 7 盜版警察』 演進到 『Windows 8 開機鑰匙不在你家』; 我們看見 ISP 的 「盜版自動六振出局」 機制以及 Youtube 的 ContentID 機制。 這些程式碼都是為了保護著作權而施加在消費者身上的法律。

-----廣告,請繼續往下閱讀-----

悄悄地, 智財保護法令被寫入逐漸正在成形的機器人的各個器官當中 — 當機器人不具機器人外型, 只有發聲或是心律調整單一功能的時候, 人類就忘記他正在跟機器人的器官的雛型打交道。 如果有一天你突然發現你口袋裡這個聲音甜美、 對天文地理以及你的隱私無所不知的秘書, 其實已經演化成一個替你打點所有生活瑣事的機器人, 但她所恪遵的法律卻不是三大法則而是智慧財產權, 或是雲端那頭的程式設計師的長官所決定的任何 「法律」 的時候, 那會發生什麼事? Siri, 你可以告訴我答案嗎?

一、 機器人三大法則

電影 〈機械公敵〉 (I, Robot)、〈變人〉(Bicentennial Man) 的原著小說作者, 也是廿世紀科幻小說泰斗艾西摩夫 (Issac Asimov) 在他的機器人系列科幻小說當中, 探討人類與機器人共存的世界。 如果機器人的智能與體力將遠遠超越它的創造者, 那麼它的創造者怎敢將自己的身家性命一切交到機器人的手中? 在艾西摩夫的小說裡, 所有的機器人都必須遵守三大法則 (Three Laws of Robotics) [1]:

  1. 機器人不得傷害人類,或袖手旁觀坐視人類受到傷害;
  2. 在不違背第一法則的前提下,機器人必須服從人類的命令;
  3. 在不違背第一及第二法則的前提下,機器人必須保護自己。

在小說裡, 這三個法則內建於機器人的正電子腦當中, 當機器人的其他任務與這三條法則衝突, 或是機器人面臨其中兩條法則互相衝突的情境時, 它必須依序選擇不傷害人類、 服從命令、 保護自己的行動, 要不然它的正電子腦就會燒壞 (例如一個人命令它說謊而遭致另一個人受傷害時)。

艾西摩夫的小說並不只是炫耀科幻場景。 這三大法則之於一個大量使用機器人的社會, 就像保險絲之於電路、 安全座椅之於雲霄飛車一樣, 是一個必備的保護措施。 它保護的是整個社會的安全 — 避免電影〈鼠膽妙算〉裡面的家電大軍或是駭客任務裡面的機器叛變之類的場景。 但它顧慮的問題卻不像後二者那麼具體, 所以雲霄飛車座椅的安全設施如果出了問題, 一般人會立即有反應; 但在一個大量使用機器人卻欠缺這三大法則的社會裡, 一般人卻不太會注意到問題的嚴重性。

-----廣告,請繼續往下閱讀-----

時至今日, 艾西摩夫的遠見還是令人驚嘆。 他沒有料想到的一個重要小細節是: 後來機器人的大腦, 並不是在機器人研究室裡面開發出來的 — 如果是那樣的話, 也許會有更多人記得他的提醒, 試著把三大法則燒進機器人的正電子腦裡面去。 在真實的世界裡, 機器人的大腦, 出自程式設計師的鍵盤; 而多數的程式設計師在設計程式碼 (coding) 時, 甚至可能不知道有一天他的作品會進入機器人的大腦當中, 更不會去思考三大法則。

二、 程式碼就是法律

關心資訊科技議題的法學教授 Lessig 說: 「程式碼就是法律。」 (”Code is law.”) [2] 程式碼所製定的法律, 不僅比檢警司法系統執行得更徹底、 更沒有轉寰空間, 也比政府更令一般人不敢質疑: 誰規定表格填錯一欄就一定要整頁重填? 誰規定公務員必須使用微軟的 IE 瀏覽器處理公文? 誰規定民眾想用自然人憑證跟政府打交道就一定得用微軟的 ActiveX? 因為這些法令是程式碼而不是立法院或行政院所制定的, 所以絕少人質疑。 當你懷疑自己是程式誤判的受害者, 甚至就算很多專家已經明白指出這是技術上不符合國際規範、 法律上具有圖利廠商嫌疑的小動作, 也經常沒有申訴的管道, 或是申訴之後還是沒有下文。

更進一步, 很多時候你甚至不知道這些 「程式碼所規定的法律」 的明確管制範圍。 中國政府封鎖特定關鍵詞及網站, 這是眾所周知的事; 但是到底有哪些詞彙是禁忌呢? Google 從 2012 年中開始, 協助用戶檢查搜尋關鍵詞, 如果發現可能列在敏感封鎖詞彙當中, 至少可以提醒用戶 google 對某些搜尋查詢愛莫能助。 [3] 後來 google 默默取消這項功能, 據推測可能是因為中國政府改變防火長城的程式碼, 讓找麻煩的 google 變得更難用, 所以 google 因而讓步, 停止協助網民對抗政府網路控管; 而中國網民再度回到 「到底是哪個關鍵詞觸犯了法律, 害我被斷線幾分鐘」 的卡夫卡世界。 [4]

政府透過法律掌控公民的生活, 在許多集權國家都在發生, 大眾也比較看得見; 但軟體用戶的生活受到私人企業程式碼的監控, 就比較少人注意了。 奇虎公司的兩大產品, 在中國受到高度歡迎 — 360 安全瀏覽器的市佔率有 8%; 360 安全衛士在手機資安市場上的市佔率更高達三成。 然而網友 「獨立調查員」 發現: 360 安全瀏覽器以隱匿行蹤的方式 (包含 「將執行檔偽裝成設定檔), 每五分鐘向特定網站請求下載最新指令, 事後並銷毀證據。 [5] 後來互聯網情報威懾防禦實驗室根據獨立調查員所公開的技術資訊更進一步測試, 發現它所下載的最新指令可能包含 「應用程序行為攔截/隱藏、 創建線程、 刪除文件、 進程及進程模塊檢索、 操作註冊表及創建鉤子」 等等功能。 [6] 簡言之, 安裝了 360 安全瀏覽器, 就像是邀請奇虎公司派員進駐你的電腦一樣, 監控你在電腦上的某些活動, 例如禁止使用競爭對手的產品。

-----廣告,請繼續往下閱讀-----

有人或許會認為: 這是中國的特殊現象; 在西方民主國家, 這類入侵用戶電腦的行為, 正是保護人民的法律應該禁止的, 怎麼可以把它歸類為 「公司制定來規範用戶行為的法律」 呢? 事實上, 市佔率比 360 安全瀏覽器更高、 涵蓋國家比奇虎更多的微軟產品, 做的事情非常類似, 但卻從來不見任何國家 — 不論是集權或民主國家 — 針對其侵犯用戶自主權一事對微軟進行法律追究。 從秘密回報的 「WGA phone home」 事件、 秘密強迫升級的 「Windows stealth update」 事件、 「Vista content protection cost」 分析、 到 「Windows 7 盜版警察」 事件, 微軟視窗作業系統秘密下載的軟體量或許不及奇虎 360 安全瀏覽器, 但其歷史之長與影響範圍之大, 卻遠遠超過 360 安全瀏覽器。 (以上參考資料眾多, 請以關鍵詞搜尋。) 2011 年起, 獲得微軟 「Windows 8 認證」 的「安全開機」平板電腦禁止用戶以其他未經認證的作業系統開機, 則更說明了一件事: 微軟的程式碼所制定的法律, 不僅即將管制約束絕大多數人, 而且拒絕接受管制者, 甚至可能將面臨買不到新電腦的窘境。 [7] (有趣的是: 奇虎 360 產品跟微軟 Windows 8 認證, 都以 「安全」 之名, 行 「限制與監視」 之實。 [8])

為了安全因素, 法律禁止未滿十八歲的青少年開車; 不過如果父母帶著未成年子女在沒有人的地方練車… 第一, 可能沒有人知道, 第二, 就算警察鄰居知道了, 也未必會舉發。 為了保障微軟的壟斷, 獲得微軟 Windows 8 認證的平板電腦禁止其他作業系統開機 — 即使用戶明明知道自己所採用的作業系統完全安全無虞也不行。 沒有如果, 沒有例外, 沒有未必。 程式碼顯然是比法律更嚴格徹底執行的電腦法律。

三、 智慧財產權

或許有人會說: 「你可以不需要服從微軟的法律呀! 自己開工廠生產不經微軟 Windows 8 認證的電腦就好了啊, 畢竟這是資本主義自由競爭的社會嘛!」 事實上這個問題正好曝露了資本主義無限上綱者的另一個盲點: 如果資本主義終將造成有能力壟斷市場的跨國軟體公司透過軟體連線隨時操縱人類的生活, 終將造成機器人統治世界, 那麼我們還是堅持這世界上沒有比資本主義更重要的東西 — 例如機器人三大定律 — 嗎?

不過本文要從另一個角度回答上述的問題。 「有道者不察所召, 而察其召之者。」 在微軟一系列入侵用戶電腦動作的底下, 所燃燒的其實是智慧財產保衛聖戰的火源。 微軟所謂的 「安全開機」 — 如果暫時 (諷刺地) 放下資本主義的基本假設、 暫時排除微軟其他自私目的的可能性的話 — 其實是指: 用戶不得任意執行自行開發或網路下載的應用軟體, 這樣著作權人的智慧財產權才能夠透過數位權利管理 (Digital Rights Management) 機制得到保障。

-----廣告,請繼續往下閱讀-----

「保衛智慧財產權」 甚至將它擴大解釋到凌駕於實體財產權之上, 是近年來美國政府全力推動、 多面向具有深遠影響的重要政策。 [9] [10] 其中的禁止線上盜版法案 (Stop Online Piracy Act) 更因侵犯人權與蔑視技術現實而引發全球網友及各大網站抗議。 SOPA 推動者亟欲賦予 「封鎖網站」 正當性, 而它所採取的 「沒收網域」 (domain seizure) 方式, 在技術上卻遠不及中國金盾工程成熟有效, 只是單純地阻止 DNS 翻譯文字網址。 也就是說, 只要你知道一個被封鎖網站的數字網址, 其實這招是完全無效的。 Blockaid 以及 Dot-P2P 都是破解之道。

MPAA 與 RIAA 等等利益團體於是跨過美國政府, 直接施壓 Internet Service Provider (ISP), 迫使他們在今年二月底開始落實 Copyright Alert System (CAS), 從協助用戶上網的廠商角色, 轉變為監督用戶的盜版警察角色。 [11] ISP 透過程式碼偵測用戶用 P2P 所下載的檔案是否侵權。 若然, 便以各種方式提出警告。 五次或六次之後, 將降低用戶連線速度或封鎖某些網站作為懲處。 [12] 先前美國的 MegaUpload 抄臺事件 [13] 以及臺灣的 Now.in 抄臺事件 [14] 都因為檢警逾越法律權限、 未審先定罪、 第三方入罪等等因素而引發高度爭議; 相較之下, 省略文字版的法律, 改以程式碼版的法律來偵測、 直接懲罰盜版者, 看來變成了保護著作權最便利, 又不太引起大眾質疑的方式。

四、 程式碼被賦予法律效力的趨勢與問題

「程式碼就是法律」 已經是日常生活的現實; 但它是否具有傳統的法律效力呢?

  1. 在歐洲, 有判例顯示市售軟體的 End-user License Agreement (EULA) 並不具法律效力。 [15] 但在美國, 類似的案件卻被判定 EULA 確實具有法律效力。 [16] 各地法院判決莫衷一是; [17] 但可以確定的是: 網路上詢問 EULA 法律效力者眾, 但沒有人能給明確的答案, 而這也強化了 EULA 的實質效力。
  2. 合法採購的軟硬體商品, 將之拆解研究, 進行逆向工程 (reverse engineering) 是否合法? 爭議不斷的美國數位千禧年著作權法案 (Digital Millennium Copyright Act) — 特別是其中的反規避條款 (anti-circumvention provisions) — 以及 SOPA/ACTA/TPP 等等秘約條文外洩顯示: 智慧財產權已凌駕於實體財產權之上, 逐漸讓拆解自己財產的逆向工程研究成為非法行為。 [18] [10]
  3. 日前美國國會圖書館依據 DMCA 認定用戶依法不得解鎖手機 — 例如自行將手機所搭配的原電信業者更換掉。 這引起群眾抗議, 齊至白宮網站聯署。 白宮的回應認同聯署內容, 而國會圖書館也將重新檢視這個具有協助壟斷疑慮的規定。 [19]

這些趨勢顯示: 如果沒有輿論的反抗, 程式碼對用戶的約束力將越來越強, 甚至取得文字版法律所賦予的絕對正當性。

-----廣告,請繼續往下閱讀-----

在此同時, 執行智慧財產保護的程式碼就像其他任何程式碼一樣, 從輸入資料到程式邏輯, 每個環節都還是有可能出錯。 如果它所犯的錯誤明顯可見 — 例如 NASA 火星探測船好奇號的影片被當成是盜版影片而遭 Youtube ContentID 機制封鎖 — 那麼至少大眾還有機會反應、 要求更正。 [20]。 但如果是不明顯或甚至完全無警示的資訊封鎖, 那就只能靠細心的觀察者或靠運氣才能偶爾會發現一些奇特的誤判了 — 例如微軟將自由軟體基金會的捐款網頁判定成賭博網站、 將 BBC、 CNN、 華盛頓郵報、 維基百科、 … 等等網站判定成盜版 Windows 8 的網站、 將某些 (提及特定不知名、 合法網站的) Hotmail 郵件默默刪除等等。 [21] [22] [23]

五、 機器人就在你身邊 — 或在你身體裡面

如果機器人從一開始就具有人形, 或許大眾的警覺會高一些; 但在真實的科技發展過程當中, 機器人的各個組成部位, 以不同的形式在我們身邊 — 或在我們身體裡面 — 逐步發展, 以致絕少人察覺它已經與我們的生活 — 或是我們的身體 — 漸漸融合。

無法發聲講話的三歲小女孩 Maya 靠著 iPad 上的一個小 app 「Speak for Yourself」 跟父母及外界溝通。 但是溝通輔具大廠 Semantic Compaction Systems 跟 Prentke Romich Company 指控 SfY 侵犯專利, 要求蘋果電腦將之下架。 在沒有法院判決的情況下, 蘋果電腦照辦。 還好蘋果電腦做得並不徹底 — 至少沒有遠端遙控將已安裝的 SfY 刪除掉。 [24]

Gnome Foundation 執行長 Karen Sandler 同時具有律師及心臟病患兩個角色。 她身體裡面安裝著一顆心律調整器 (pacemaker)。 這個心律調整器會以 wifi 與外界溝通, 病患在走進看診室的同時, 不必接任何儀器, 她的心跳等等資料就可以直接顯示在醫師的電腦上。 但這個功能並非只有在看診時才打開。 她的個人隱私資訊隨時在對外界播放; 而外界也可透過 wifi 對心律調整器下指令, 電擊她的心臟。 因為智慧財產權的關係, 她無法取得程式碼, 更不可能按照自己的需求改變心律調整器的運作方式。 [25]

-----廣告,請繼續往下閱讀-----

如果我們面對的機器人是肌肉結實、 表情猙獰的魔鬼終結者, 那麼也許會有更多人理解艾西摩夫機器人三大法則的重要性。 如果我們面對的是具象、 非自身所擁有的無人小飛機 (drone), 那麼至少我們會警覺思考是否要用一般法律規範它。 但如果我們面對的是自己家中的 Kinect 遊戲機, 我們便對它失去戒心 — 即使當我們知道它服務的對象是數位內容版權擁有者 (根據收看人數提高收費標準), 有很多人也很能夠接受智慧財產權重於消費者權益與隱私的說辭。 [26] 至於跟我們形影不離的手機呢? 這已經不是接不接受的問題。 Siri 是解決我們一切疑問的秘書, 即使明明知道我們跟她的一切對話都將傳回蘋果電腦的雲端分析/儲存/加值利用, 我們還是不能沒有她 — 除非你在 IBM 工作, 公司規定不准用。 [27]

皇后娘娘評曰: 「(機器)人心難測, 越是親近溫馴就越容易不留神呐!」
皇后娘娘評曰: 「(機器)人心難測, 越是親近溫馴就越容易不留神呐!」

(甄嬛傳裡的) 皇后娘娘評曰: 「(機器)人心難測, 越是親近溫馴就越容易不留神呐!」

六、 結語

隨著 google glass、 仿生義肢、 腦機介面、 … 等等技術的開發, 到最後我們跟機器人的最親密接觸, 可能不僅僅是它在身邊照護我們的生活起居, 而是它就住在我們的身體裡面。 唯一的問題是: 在肉體上, 它與我們的親密更勝過肌膚之親; 但在精神上, 數位內容版權擁有者的指令與需求才是它服從的最後依歸。 試想幾年後, 如果:

  1. 手機像心律調整器一樣已經植入人體 — 反正人類離不開它;
  2. 手機隨時與 ISP 連線 — 因為隨時需要連上臉書、 需要詢問 siri 的意見;
  3. ISP 成為智慧財產保護警察 — 因為主流智財教育只轉播利益團體的聲音;
  4. 就像 hotmail 默默地過濾「不當」網站一樣, 這些警察也默默地根據不為外人知曉的法律 (看不見的程式碼) 在替電腦公司執法…

或者, 想像八十年後衰老的你靠著植入體內的維生系統 — 其實就是一個小小機器人 — 過著正常的生活; 但經過一次軟體升級之後, 你開始感到不舒服。 原廠 X 堅持一切正常沒問題。 於是你請另一家 Y 公司的工程師來檢查這個住在你體內、 原始碼不給看的機器人。 當 Y 公司的工程師試圖要解讀機器人的新運作規則時, 它為了保護自身的智慧財產權免遭競爭對手偷窺, 於是自我毀滅 — 同時違背第一、 第二、 第三法則。

是的, 程式碼一直都是法律 — 是真實世界的機器人, 或未來機器人的某個器官時時刻刻所服膺謹從的法律。 但當我們的世界被智慧財產權法律所包圍的時候, 要讓大眾理解智慧財產權必然危害人權都是一件高度困難的事 [28], 更難想像能有多少消費大眾會體認: 這些不具威脅外表的熱門作業系統、 熱門文書軟體、 精美手機、 嵌入體內的生物電子儀器 (bioelectronics)、 … 在不久的將來, 其實終將演變/匯流/組合, 成為遠端的超級機器人用以 「半接管」 我們神經系統的遙控內嵌觸手。 到那個時候, 機器人所有行動的最高指導原則會不會是 (如果沒有被拿來做更糟的應用的話…) 智財保護相關法律呢? 又還有多少人類會記得艾西摩夫當初為了保護未來人類所設計的機器人三大法則呢?

-----廣告,請繼續往下閱讀-----

The saddest aspect of life right now is that science gathers knowledge faster than society gathers wisdom. — Issac Asimov
(現在最遺憾的是: 科學知識進步的速度遠遠超過社會智慧提升的速度。)

參考資料

  1. 維基百科。 機器人學三大法則
  2. Lessig, Lawrence (2005). Code V2. Retrieved from http://codev2.cc/
  3. Fallow, James (2012). The Words That Scare America— and China. Retrieved from http://www.theatlantic.com/international/archive/2012/06/the-words-that-scare-america-and-china/258017/
  4. Lomas, Natasha (2013). Google Quietly Removes Censorship Warning Feature For Search Users In China. Retrieved from http://techcrunch.com/2013/01/04/google-quietly-removes-censorship-warning-feature-for-search-users-in-china/
  5. 独立调查员 (2012)。 公开举报奇虎360公司——致工信部、公安部公开信。 取自 http://i.sohu.com/p/=v2=bcdsBXalk3VpmZc3ZXZlLmNvbQ==/blog/view/243590884.htm
  6. IDF实验室 (2012)。 IDF报告全文:360安全浏览器暗藏后门。 取自 http://www.sinabz.com/html/news/xfwq/2012/1127/51871.html
  7. 洪朝貴 (2011)。 平板電腦支援 Windows 8, 作業系統開機鑰匙不在你家 (以及 「信任運算」 的真諦)
  8. 洪朝貴 (2012)。 微軟更新中英文詞語的意義: 「棄權」 就是 「安全」。 取自 http://ckhung0.blogspot.tw/2012/04/microsoft-security.html
  9. 洪朝貴 (2009)。 否定實體財產權的 DMCA: 反規避/反仿冒/反競爭條款將從 DRM 走向 PRM
  10. 洪朝貴 (2012)。 TPP 侵權更甚於 SOPA 與 ACTA; 臺灣高層卻不看條文就愛上它?
  11. Ernesto (2013). “Six Strikes” Anti-Piracy Scheme Starts, With Mystery Punishments.
  12. Masnick, Mike (2013). System Used By New Six Strikes CAS, Falsely Identifies Game Mods As NBC TV Shows. Retrieved from http://www.techdirt.com/articles/20130224/22341022086/system-used-new-six-strikes-cas-falsely-identifies-game-mods-as-nbc-tv-shows.shtml
  13. (Various). Megaupload Stories at Techdirt. Retrieved from http://www.techdirt.com/blog/?company=megaupload
  14. 洪朝貴 (2012)。 Now.in 遭檢抄臺, 為了保護強權智財。 濫傷無辜? 你活該!。 取自 http://ckhung0.blogspot.tw/2012/03/nowin.html
  15. Sterling, Jim (2012). EU court rejects EULAs, says digital games can be resold. Retrieved from http://www.destructoid.com/eu-court-rejects-eulas-says-digital-games-can-be-resold-230641.phtml
  16. Anderson, Nate (2010). No, you don’t own it: Court upholds EULAs, threatens digital resale. Retrieved from http://arstechnica.com/tech-policy/2010/09/the-end-of-used-major-ruling-upholds-tough-software-licenses/
  17. Wikipedia. End-user license agreement. Retrieved from https://en.wikipedia.org/wiki/End-user_license_agreement#Enforceability_of_EULAs_in_the_United_States
  18. Electronic Frontier Foundation. Coders’ Rights Project Reverse Engineering FAQ. Retrieved from https://www.eff.org/issues/coders/reverse-engineering-faq
  19. 洪朝貴 (2013)。 美國消費者的手機解鎖權保衛戰。 取自 http://ckhung0.blogspot.tw/2013/03/phone-unlocking.html
  20. Lee, Timothy B. (2012). As Curiosity touches down on Mars, video is taken down from YouTube. Retrieved from http://arstechnica.com/tech-policy/2012/08/as-curiosity-touches-down-on-mars-video-is-taken-down-from-youtube/
  21. Sullivan, John. (2012). Dear Microsoft: fsf.org is not a “gambling site”. Retrieved from https://www.fsf.org/blogs/community/dear-microsoft-fsf.org-is-not-a-gambling-site
  22. Ernesto (2012). Microsoft DMCA Notice ‘Mistakenly’ Targets BBC, Techcrunch, Wikipedia and U.S. Govt. Retrieved from https://torrentfreak.com/microsofts-bogus-dmca-notices-censor-bbc-cnn-wikipedia-spotify-and-more-121007/
  23. 洪朝貴 (2012)。 Hotmail 與 Yahoo! Mail 收不到信件, 這跟美國政府濫權沒收網域名稱有沒有關係?
  24. Nieder, Dana (2012). The Silencing of Maya. Retrieved from http://niederfamily.blogspot.tw/2012/06/silencing-of-maya.html
  25. Gonyer, Emily (2012). Karen Sandler’s Keynote address to Linux Australia conference. Retrieved from https://todoentiempo.wordpress.com/2012/01/26/karen-sandlers-keynote-address-to-linux-australia-conference/
  26. Hruska, Joel (2012). Microsoft’s new Kinect patent goes Big Brother, will spy on you for the MPAA. Retrieved from http://www.extremetech.com/gaming/139706-microsofts-new-kinect-patent-goes-big-brother-will-spy-on-you-for-the-mpaa
  27. McMillan, Robert (2012). IBM Outlaws Siri, Worried She Has Loose Lips. Retrieved from http://www.wired.com/wiredenterprise/2012/05/ibm-bans-siri/
  28. 洪朝貴 (2012)。 網路時代, 「著作權」 跟 「人權」 只能二選一。 取自 http://ckhung0.blogspot.com/2012/03/ip-vs-human-right.html

(本文轉載自 資訊人權貴ㄓ疑)

-----廣告,請繼續往下閱讀-----
文章難易度
洪朝貴
47 篇文章 ・ 1 位粉絲

0

1
0

文字

分享

0
1
0
解密機器人如何學會思考、觸摸與變形
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/09 ・6820字 ・閱讀時間約 14 分鐘

本文與 Perplexity 合作,泛科學企劃執行

「Hello. I am… a robot.」

在我們的記憶裡,機器人的聲音就該是冰冷、單調,不帶一絲情感 。它們的動作僵硬,肢體不協調,像一個沒有靈魂的傀儡,甚至啟發我們創造了機械舞來模仿那獨特的笨拙可愛。但是,現今的機器人發展不再只會跳舞或模仿人聲,而是已經能獨立完成一場膽囊切除手術。

就在2025年,美國一間實驗室發表了一項成果:一台名為「SRT-H」的機器人(階層式手術機器人Transformer),在沒有人類醫師介入的情況下,成功自主完成了一場完整的豬膽囊切除手術。SRT-H 正是靠著從錯誤中學習的能力,最終在八個不同的離體膽囊上,達成了 100% 的自主手術成功率。

-----廣告,請繼續往下閱讀-----

這項成就的意義重大,因為過去機器人手術的自動化,大多集中在像是縫合這樣的單一「任務」上。然而,這一場完整的手術,是一個包含數十個步驟、需要連貫策略與動態調整的複雜「程序」。這是機器人首次在包含 17 個步驟的完整膽囊切除術中,實現了「步驟層次的自主性」。

這就引出了一個讓我們既興奮又不安的核心問題:我們究竟錯過了什麼?機器人是如何在我們看不見的角落,悄悄完成了從「機械傀儡」到「外科醫生」的驚人演化?

這趟思想探險,將為你解密 SRT-H 以及其他五款同樣具備革命性突破的機器人。你將看到,它們正以前所未有的方式,發展出生物般的觸覺、理解複雜指令、學會團隊合作,甚至開始自我修復與演化,成為一種真正的「準生命體」 。

所以,你準備好迎接這個機器人的新紀元了嗎?

-----廣告,請繼續往下閱讀-----

只靠模仿還不夠?手術機器人還需要學會「犯錯」與「糾正」

那麼,SRT-H 這位機器人的外科大腦,究竟藏著什麼秘密?答案就在它創新的「階層式框架」設計裡 。

你可以想像,SRT-H 的腦中,住著一個分工明確的兩人團隊,就像是漫畫界的傳奇師徒—黑傑克與皮諾可 。

  • 第一位,是動口不動手的總指揮「黑傑克」: 它不下達具體的動作指令,而是在更高維度的「語言空間」中進行策略規劃 。它發出的命令,是像「抓住膽管」或「放置止血夾」這樣的高層次任務指令 。
  • 第二位,是靈巧的助手「皮諾可」: 它負責接收黑傑克的語言指令,並將這些抽象的命令,轉化為機器手臂毫釐不差的精準運動軌跡 。

但最厲害的還不是這個分工,而是它們的學習方式。SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。但這還只是開始,研究人員在訓練過程中,會刻意讓它犯錯,並向它示範如何從抓取失敗、角度不佳等糟糕的狀態中恢復過來 。這種獨特的訓練方法,被稱為「糾正性示範」 。

SRT-H 研究團隊收集了 17 個小時、共 16,000 條由人類專家操作示範的軌跡數據來訓練它 。 / 圖片來源:shutterstock

這項訓練,讓 SRT-H 學會了一項外科手術中最關鍵的技能:當它發現執行搞砸了,它能即時識別偏差,並發出如「重試抓取」或「向左調整」等「糾正性指令」 。這套內建的錯誤恢復機制至關重要。當研究人員拿掉這個糾正能力後,機器人在遇到困難時,要不是完全失敗,就是陷入無效的重複行為中 。

-----廣告,請繼續往下閱讀-----

正是靠著這種從錯誤中學習、自我修正的能力,SRT-H 最終在八次不同的手術中,達成了 100% 的自主手術成功率 。

SRT-H 證明了機器人開始學會「思考」與「糾錯」。但一個聰明的大腦,足以應付更混亂、更無法預測的真實世界嗎?例如在亞馬遜的倉庫裡,機器人不只需要思考,更需要實際「會做事」。

要能精準地與環境互動,光靠視覺或聽覺是不夠的。為了讓機器人能直接接觸並處理日常生活中各式各樣的物體,它就必須擁有生物般的「觸覺」能力。

解密 Vulcan 如何學會「觸摸」

讓我們把場景切換到亞馬遜的物流中心。過去,這裡的倉儲機器人(如 Kiva 系統)就像放大版的掃地機器人,核心行動邏輯是極力「避免」與周遭環境發生任何物理接觸,只負責搬運整個貨架,再由人類員工挑出包裹。

-----廣告,請繼續往下閱讀-----

但 2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan。在亞馬遜的物流中心裡,商品被存放在由彈性帶固定的織物儲物格中,而 Vulcan 的任務是必須主動接觸、甚至「撥開」彈性織網,再從堆放雜亂的儲物格中,精準取出單一包裹,且不能造成任何損壞。

2025 年5月,亞馬遜展示了他們最新的觸覺機器人 Vulcan / 圖片引用:https://www.aboutamazon.com/news

Vulcan 的核心突破,就在於它在「拿取」這個動作上,學會了生物般的「觸覺」。它靈活的機械手臂末端工具(EOAT, End-Of-Arm Tool),不僅配備了攝影機,還搭載了能測量六個自由度的力與力矩感測器。六個自由度包含上下、左右、前後的推力,和三個維度的旋轉力矩。這就像你的手指,裡頭分布著非常多的受器,不只能感測壓力、還能感受物體橫向拉扯、運動等感觸。

EOAT 也擁有相同精確的「觸覺」,能夠在用力過大之前即時調整力道。這讓 Vulcan 能感知推動一個枕頭和一個硬紙盒所需的力量不同,從而動態調整行為,避免損壞貨物。

其實,這更接近我們人類與世界互動的真實方式。當你想拿起桌上的一枚硬幣時,你的大腦並不會先計算出精準的空間座標。實際上,你會先把手伸到大概的位置,讓指尖輕觸桌面,再沿著桌面滑動,直到「感覺」到硬幣的邊緣,最後才根據觸覺決定何時彎曲手指、要用多大的力量抓起這枚硬幣。Vulcan 正是在學習這種「視覺+觸覺」的混合策略,先用攝影機判斷大致的空間,再用觸覺回饋完成最後精細的操作。

-----廣告,請繼續往下閱讀-----

靠著這項能力,Vulcan 已經能處理亞馬遜倉庫中約 75% 的品項,並被優先部署來處理最高和最低層的貨架——這些位置是最容易導致人類員工職業傷害的位置。這也讓自動化的意義,從單純的「替代人力」,轉向了更具建設性的「增強人力」。

SRT-H 在手術室中展現了「專家級的腦」,Vulcan 在倉庫中演化出「專家級的手」。但你發現了嗎?它們都還是「專家」,一個只會開刀,一個只會揀貨。雖然這種「專家型」設計能有效規模化、解決痛點並降低成本,但機器人的終極目標,是像人類一樣成為「通才」,讓單一機器人,能在人類環境中執行多種不同任務。

如何教一台機器人「舉一反三」?

你問,機器人能成為像我們一樣的「通才」嗎?過去不行,但現在,這個目標可能很快就會實現了。這正是 NVIDIA 的 GR00T 和 Google DeepMind 的 RT-X 等專案的核心目標。

過去,我們教機器人只會一個指令、一個動作。但現在,科學家們換了一種全新的教學思路:停止教機器人完整的「任務」,而是開始教它們基礎的「技能基元」(skill primitives),這就像是動作的模組。

-----廣告,請繼續往下閱讀-----

例如,有負責走路的「移動」(Locomotion) 基元,和負責抓取的「操作」(Manipulation) 基元。AI 模型會透過強化學習 (Reinforcement Learning) 等方法,學習如何組合這些「技能基元」來達成新目標。

舉個例子,當 AI 接收到「從冰箱拿一罐汽水給我」這個新任務時,它會自動將其拆解為一系列已知技能的組合:首先「移動」到冰箱前、接著「操作」抓住把手、拉開門、掃描罐子、抓住罐子、取出罐子。AI T 正在學會如何將這些單一的技能「融合」在一起。有了這樣的基礎後,就可以開始來大量訓練。

當多重宇宙的機器人合體練功:通用 AI 的誕生

好,既然要學,那就要練習。但這些機器人要去哪裡獲得足夠的練習機會?總不能直接去你家廚房實習吧。答案是:它們在數位世界裡練習

NVIDIA 的 Isaac Sim 等平台,能創造出照片級真實感、物理上精確的模擬環境,讓 AI 可以在一天之內,進行相當於數千小時的練習,獨自刷副本升級。這種從「模擬到現實」(sim-to-real)的訓練管線,正是讓訓練這些複雜的通用模型變得可行的關鍵。

-----廣告,請繼續往下閱讀-----

DeepMind 的 RT-X 計畫還發現了一個驚人的現象:用來自多種「不同類型」機器人的數據,去訓練一個單一的 AI 模型,會讓這個模型在「所有」機器人上表現得更好。這被稱為「正向轉移」(positive transfer)。當 RT-1-X 模型用混合數據訓練後,它在任何單一機器人上的成功率,比只用該機器人自身數據訓練的模型平均提高了 50%。

這就像是多重宇宙的自己各自練功後,經驗值合併,讓本體瞬間變強了。這意味著 AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。

AI 正在學習關於物理、物體特性和任務結構的抽象概念,這些概念獨立於它所控制的特定身體。/ 圖片來源:shutterstock

不再是工程師,而是「父母」: AI 的新學習模式

這也導向了一個科幻的未來:或許未來可能存在一個中央「機器人大腦」,它可以下載到各種不同的身體裡,並即時適應新硬體。

這種學習方式,也從根本上改變了我們與機器人的互動模式。我們不再是逐行編寫程式碼的工程師,而是更像透過「示範」與「糾正」來教導孩子的父母。

NVIDIA 的 GR00T 模型,正是透過一個「數據金字塔」來進行訓練的:

  • 金字塔底層: 是大量的人類影片。
  • 金字塔中層: 是海量的模擬數據(即我們提過的「數位世界」練習)。
  • 金字塔頂層: 才是最珍貴、真實的機器人操作數據。

這種模式,大大降低了「教導」機器人新技能的門檻,讓機器人技術變得更容易規模化與客製化。

當機器人不再是「一個」物體,而是「任何」物體?

我們一路看到了機器人如何學會思考、觸摸,甚至舉一反三。但這一切,都建立在一個前提上:它們的物理形態是固定的。

但,如果連這個前提都可以被打破呢?這代表機器人的定義不再是固定的形態,而是可變的功能:它能改變身體來適應任何挑戰,不再是一台單一的機器,而是一個能根據任務隨選變化的物理有機體。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院特別具有代表性,該學院的仿生機器人實驗室(Bioinspired Robotics Group, BIRG)2007 年就打造模組化自重構機器人 Roombots。

有不少團隊在爭奪這個機器人領域的聖杯,其中瑞士洛桑聯邦理工學院(EPFL)特別具有代表性。該學院的仿生機器人實驗室(BIRG)在 2007 年就已打造出模組化自重構機器人 Roombots。而 2023 年,來自 EPFL 的另一個實驗室——可重組機器人工程實驗室(RRL),更進一步推出了 Mori3,這是一套把摺紙藝術和電腦圖學巧妙融合的模組化機器人系統。

2023 年來自 EPFL 的另一個實驗室—可重組機器人工程實驗室(RRL)推出了 Mori3 © 2023 Christoph Belke, EPFL RRL

Mori3 的核心,是一個個小小的三角形模組。別看它簡單,每個模組都是一個獨立的機器人,有自己的電源、馬達、感測器和處理器,能獨立行動,也能和其他模組合作。最厲害的是,它的三條邊可以自由伸縮,讓這個小模組本身就具備「變形」能力。

當許多 Mori3 模組連接在一起時,就能像一群活的拼圖一樣,從平面展開,組合成各種三維結構。研究團隊將這種設計稱為「物理多邊形網格化」。在電腦圖學裡,我們熟悉的 3D 模型,其實就是由許多多邊形(通常是三角形)拼湊成的網格。Mori3 的創新之處,就是把這種純粹的數位抽象,真正搬到了現實世界,讓模組們化身成能活動的「實體網格」。

這代表什麼?團隊已經展示了三種能力:

  • 移動:他們用十個模組能組合成一個四足結構,它能從平坦的二維狀態站立起來,並開始行走。這不只是結構變形,而是真正的協調運動。
  • 操縱: 五個模組組合成一條機械臂,撿起物體,甚至透過末端模組的伸縮來擴大工作範圍。
  • 互動: 模組們能形成一個可隨時變形的三維曲面,即時追蹤使用者的手勢,把手的動作轉換成實體表面的起伏,等於做出了一個會「活」的觸控介面。

這些展示,不只是實驗室裡的炫技,而是真實證明了「物理多邊形網格化」的潛力:它不僅能構建靜態的結構,還能創造具備複雜動作的動態系統。而且,同一批模組就能在不同情境下切換角色。

想像一個地震後的救援場景:救援隊帶來的不是一台笨重的挖土機,而是一群這樣的模組。它們首先組合成一條長長的「蛇」形機器人,鑽入瓦礫縫隙;一旦進入開闊地後,再重組成一隻多足的「蜘蛛」,以便在不平的地面上穩定行走;發現受困者時,一部分模組分離出來形成「支架」撐住搖搖欲墜的橫樑,另一部分則組合成「夾爪」遞送飲水。這就是以任務為導向的自我演化。

這項技術的終極願景,正是科幻中的概念:可程式化物質(Programmable Matter),或稱「黏土電子學」(Claytronics)。想像一桶「東西」,你可以命令它變成任何你需要的工具:一支扳手、一張椅子,或是一座臨時的橋樑。

未來,我們只需設計一個通用的、可重構的「系統」,它就能即時創造出任務所需的特定機器人。這將複雜性從實體硬體轉移到了規劃重構的軟體上,是一個從硬體定義的世界,走向軟體定義的物理世界的轉變。

更重要的是,因為模組可以隨意分開與聚集,損壞時也只要替換掉部分零件就好。足以展現出未來機器人的適應性、自我修復與集體行為。當一群模組協作時,它就像一個超個體,如同蟻群築橋。至此,「機器」與「有機體」的定義,也將開始動搖。

從「實體探索」到「數位代理」

我們一路見證了機器人如何從單一的傀儡,演化為學會思考的外科醫生 (SRT-H)、學會觸摸的倉儲專家 (Vulcan)、學會舉一反三的通才 (GR00T),甚至是能自我重構成任何形態的「可程式化物質」(Mori3)。

但隨著機器人技術的飛速發展,一個全新的挑戰也隨之而來:在一個 AI 也能生成影像的時代,我們如何分辨「真實的突破」與「虛假的奇觀」?

舉一個近期的案例:2025 年 2 月,一則影片在網路上流傳,顯示一台人形機器人與兩名人類選手進行羽毛球比賽,並且輕鬆擊敗了人類。我的第一反應是懷疑:這太誇張了,一定是 AI 合成的影片吧?但,該怎麼驗證呢?答案是:用魔法打敗魔法。

在眾多 AI 工具中,Perplexity 特別擅長資料驗證。例如這則羽球影片的內容貼給 Perplexity,它馬上就告訴我:該影片已被查證為數位合成或剪輯。但它並未就此打住,而是進一步提供了「真正」在羽球場上有所突破的機器人—來自瑞士 ETH Zurich 團隊的 ANYmal-D

接著,選擇「研究模式」,就能深入了解 ANYmal-D 的詳細原理。原來,真正的羽球機器人根本不是「人形」,而是一台具備三自由度關節的「四足」機器人。

如果你想更深入了解,Perplexity 的「實驗室」功能,還能直接生成一份包含圖表、照片與引用來源的完整圖文報告。它不只介紹了 ANYmal-D 在羽球上的應用,更詳細介紹了瑞士聯邦理工學院發展四足機器人的完整歷史:為何選擇四足?如何精進硬體與感測器結構?以及除了運動領域外,四足機器人如何在關鍵的工業領域中真正創造價值。

AI 代理人:數位世界的新物種

從開刀、揀貨、打球,到虛擬練功,這些都是機器人正在學習「幫我們做」的事。但接下來,機器人將獲得更強的「探索」能力,幫我們做那些我們自己做不到的事。

這就像是,傳統網路瀏覽器與 Perplexity 的 Comet 瀏覽器之間的差別。Comet 瀏覽器擁有自主探索跟決策能力,它就像是數位世界裡的機器人,能成為我們的「代理人」(Agent)

它的核心功能,就是拆解過去需要我們手動完成的多步驟工作流,提供「專業代工」,並直接交付成果。

例如,你可以直接對它說:「閱讀這封會議郵件,檢查我的行事曆跟代辦事項,然後草擬一封回信。」或是直接下達一個複雜的指令:「幫我訂 Blue Origin 的太空旅遊座位,記得要來回票。」

接著,你只要兩手一攤,Perplexity 就會接管你的瀏覽器,分析需求、執行步驟、最後給你結果。你再也不用自己一步步手動搜尋,或是在不同網站上重複操作。

AI 代理人正在幫我們探索險惡的數位網路,而實體機器人,則在幫我們前往真實的物理絕境。

立即點擊專屬連結 https://perplexity.sng.link/A6awk/k74… 試用 Perplexity吧! 現在申辦台灣大哥大月付 599(以上) 方案,還可以獲得 1 年免費 Perplexity Pro plan 喔!(價值 新台幣6,750)

◆Perplexity 使用實驗室功能對 ANYmal-D 與團隊的全面分析 https://drive.google.com/file/d/1NM97…

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

0

17
4

文字

分享

0
17
4
為機器人換上「物理大腦」:一場終結AI數位囚禁的革命
鳥苷三磷酸 (PanSci Promo)_96
・2025/09/03 ・5732字 ・閱讀時間約 11 分鐘

本文與 研華科技 合作,泛科學企劃執行

我們都看過那種影片,對吧?網路上從不缺乏讓人驚嘆的機器人表演:數十台人形機器人像軍隊一樣整齊劃一地耍雜技 ,或是波士頓動力的機器狗,用一種幾乎違反物理定律的姿態後空翻、玩跑酷 。每一次,社群媒體總會掀起一陣「未來已來」、「人類要被取代了」的驚呼 。

但當你關掉螢幕,看看四周,一個巨大的落差感就來了:說好的機器人呢?為什麼大街上沒有他們的身影,為什麼我家連一件衣服都還沒人幫我摺?

這份存在於數位螢幕與物理現實之間的巨大鴻溝,源於一個根本性的矛盾:當代AI在數位世界裡聰明絕頂,卻在物理世界中笨拙不堪。它可以寫詩、可以畫畫,但它沒辦法為你端一杯水。

-----廣告,請繼續往下閱讀-----

這個矛盾,在我們常見的兩種機器人展示中體現得淋漓盡致。第一種,是動作精準、甚至會跳舞的類型,這本質上是一場由工程師預先寫好劇本的「戲」,機器人對它所處的世界一無所知 。第二種,則是嘗試執行日常任務(如開冰箱、拿蘋果)的類型,但其動作緩慢不穩,彷彿正在復健的病人 。

這兩種極端的對比,恰恰點出了機器人技術的真正瓶頸:它們的「大腦」還不夠強大,無法即時處理與學習真實世界的突發狀況 。

這也引出了本文試圖探索的核心問題:新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦,真的能終結機器人的「復健時代」,開啟一個它們能真正理解、並與我們共同生活的全新紀元嗎?

新一代AI晶片NVIDIA® Jetson Thor™ ,這顆號稱能驅動「物理AI」的超級大腦 / 圖片來源:研華科技

為何我們看到的機器人,總像在演戲或復健?

那我們怎麼理解這個看似矛盾的現象?為什麼有些機器人靈活得像舞者,有些卻笨拙得像病人?答案,就藏在它們的「大腦」運作方式裡。

-----廣告,請繼續往下閱讀-----

那些動作極其精準、甚至會後空翻的機器人,秀的其實是卓越的硬體性能——關節、馬達、減速器的完美配合。但它的本質,是一場由工程師預先寫好劇本的舞台劇 。每一個角度、每一分力道,都是事先算好的,機器人本身並不知道自己為何要這麼做,它只是在「執行」指令,而不是在「理解」環境。

而另一種,那個開冰箱慢吞吞的機器人,雖然看起來笨,卻是在做一件革命性的事:它正在試圖由 AI 驅動,真正開始「理解」這個世界 。它在學習什麼是冰箱、什麼是蘋果、以及如何控制自己的力量才能順利拿起它。這個過程之所以緩慢,正是因為過去驅動它的「大腦」,也就是 AI 晶片的算力還不夠強,無法即時處理與學習現實世界中無窮的變數 。

這就像教一個小孩走路,你可以抱著他,幫他擺動雙腿,看起來走得又快又穩,但那不是他自己在走。真正的學習,是他自己搖搖晃晃、不斷跌倒、然後慢慢找到平衡的過程。過去的機器人,大多是前者;而我們真正期待的,是後者。

所以,問題的核心浮現了:我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好?

-----廣告,請繼續往下閱讀-----
我們需要為機器人裝上一個強大的大腦!但這個大腦,為什麼不能像ChatGPT一樣,放在遙遠的雲端伺服器上就好? / 圖片來源:shutterstock

機器人的大腦,為什麼不能放在雲端?

聽起來好像很合理,對吧?把所有複雜的運算都交給雲端最強大的伺服器,機器人本身只要負責接收指令就好了。但……真的嗎?

想像一下,如果你的大腦在雲端,你看到一個球朝你飛過來,視覺訊號要先上傳到雲端,雲端分析完,再把「快閃開」的指令傳回你的身體。這中間只要有零點幾秒的網路延遲,你大概就已經鼻青臉腫了。

現實世界的互動,需要的是「即時反應」。任何網路延遲,在物理世界中都可能造成無法彌補的失誤 。因此,運算必須在機器人本體上完成,這就是「邊緣 AI」(Edge AI)的核心概念 。而 NVIDIA  Jetson 平台,正是為了解決這種在裝置端進行高運算、又要兼顧低功耗的需求,而誕生的關鍵解決方案 。

NVIDIA Jetson 就像一個緊湊、節能卻效能強大的微型電腦,專為在各種裝置上運行 AI 任務設計 。回顧它的演進,早期的 Jetson 系統主要用於視覺辨識搭配AI推論,像是車牌辨識、工廠瑕疵檢測,或者在相機裡分辨貓狗,扮演著「眼睛」的角色,看得懂眼前的事物 。但隨著算力提升,NVIDIA Jetson 的角色也逐漸從單純的「眼睛」,演化為能夠控制手腳的「大腦」,開始驅動更複雜的自主機器,無論是地上跑的、天上飛的,都將NVIDIA Jetson 視為核心運算中樞 。

-----廣告,請繼續往下閱讀-----

但再強大的晶片,如果沒有能適應現場環境的「容器」,也無法真正落地。這正是研華(Advantech)的角色,我們將 NVIDIA Jetson 平台整合進各式工業級主機與邊緣運算設備,確保它能在高熱、灰塵、潮濕或震動的現場穩定運行,滿足從工廠到農場到礦場、從公車到貨車到貨輪等各種使用環境。換句話說,NVIDIA 提供「大腦」,而研華則是讓這顆大腦能在真實世界中呼吸的「生命支持系統」。

這個平台聽起來很工業、很遙遠,但它其實早就以一種你意想不到的方式,進入了我們的生活。

從Switch到雞蛋分揀員,NVIDIA Jetson如何悄悄改變世界?

如果我告訴你,第一代的任天堂Switch遊戲機與Jetson有相同血緣,你會不會很驚訝?它的核心處理器X1晶片,與Jetson TX1模組共享相同架構。這款遊戲機對高效能運算和低功耗的嚴苛要求,正好與 Jetson 的設計理念不謀而合 。

而在更專業的領域,研華透過 NVIDIA Jetson 更是解決了許多真實世界的難題 。例如

-----廣告,請繼續往下閱讀-----
  • 在北美,有客戶利用 AI 進行雞蛋品質檢測,研華的工業電腦搭載NVIDIA Jetson 模組與相機介面,能精準辨識並挑出髒污、雙黃蛋到血蛋 
  • 在日本,為避免鏟雪車在移動時發生意外,導入了環繞視覺系統,當 AI 偵測到周圍有人時便會立刻停止 ;
  • 在水資源珍貴的以色列,研華的邊緣運算平台搭載NVIDIA Jetson模組置入無人機內,24 小時在果園巡航,一旦發現成熟的果實就直接凌空採摘,實現了「無落果」的終極目標 。

這些應用,代表著 NVIDIA Jetson Orin™ 世代的成功,它讓「自動化」設備變得更聰明 。然而,隨著大型語言模型(LLM)的浪潮來襲,人們的期待也從「自動化」轉向了「自主化」 。我們希望機器人不僅能執行命令,更能理解、推理。

Orin世代的算力在執行人形機器人AI推論時的效能約為每秒5到10次的推論頻率,若要機器人更快速完成動作,需要更強大的算力。業界迫切需要一個更強大的大腦。這也引出了一個革命性的問題:AI到底該如何學會「動手」,而不只是「動口」?

革命性的一步:AI如何學會「動手」而不只是「動口」?

面對 Orin 世代的瓶頸,NVIDIA 給出的答案,不是溫和升級,而是一次徹底的世代跨越— NVIDIA Jetson Thor 。這款基於最新 Blackwell 架構的新模組,峰值性能是前代的 7.5 倍,記憶體也翻倍 。如此巨大的效能提升,目標只有一個:將過去只能在雲端資料中心運行的、以 Transformer 為基礎的大型 AI 模型,成功部署到終端的機器上 。

NVIDIA Jetson Thor 的誕生,將驅動機器人控制典範的根本轉變。這要從 AI 模型的演進說起:

-----廣告,請繼續往下閱讀-----
  1. 第一階段是 LLM(Large Language Model,大型語言模型):
    我們最熟悉的 ChatGPT 就屬此類,它接收文字、輸出文字,實現了流暢的人機對話 。
  2. 第二階段是 VLM(Vision-Language Model,視覺語言模型):
    AI 學會了看,可以上傳圖片,它能用文字描述所見之物,但輸出結果仍然是給人類看的自然語言 。
  3. 第三階段則是 VLA(Vision-Language-Action Model,視覺語言行動模型):
    這是革命性的一步。VLA 模型的輸出不再是文字,而是「行動指令(Action Token)」 。它能將視覺與語言的理解,直接轉化為控制機器人關節力矩、速度等物理行為的具體參數 。

這就是關鍵! 過去以NVIDIA Jetson Orin™作為大腦的機器人,僅能以有限的速度運行VLA模型。而由 VLA 模型驅動,讓 AI 能夠感知、理解並直接與物理世界互動的全新形態,正是「物理 AI」(Physical AI)的開端 。NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 。

NVIDIA Jetson Thor 的強大算力,就是為了滿足物理 AI 的嚴苛需求而生,要讓機器人擺脫「復健」,迎來真正自主、流暢的行動時代 / 圖片來源:研華科技

其中,物理 AI 強調的 vision to action,就需要研華設計對應的硬體來實現;譬如視覺可能來自於一般相機、深度相機、紅外線相機甚至光達,你的系統就要有對應的介面來整合視覺;你也會需要控制介面去控制馬達伸長手臂或控制夾具拿取物品;你也要有 WIFI、4G 或 5G 來傳輸資料或和別的 AI 溝通,這些都需要具體化到一個系統上,這個系統的集大成就是機器人。

好,我們有了史上最強的大腦。但一個再聰明的大腦,也需要一副強韌的身體。而這副身體,為什麼非得是「人形」?這不是一種很沒效率的執念嗎?

為什麼機器人非得是「人形」?這不是一種低效的執念嗎?

這是我一直在思考的問題。為什麼業界的主流目標,是充滿挑戰的「人形」機器人?為何不設計成效率更高的輪式,或是功能更多元的章魚型態?

-----廣告,請繼續往下閱讀-----

答案,簡單到令人無法反駁:因為我們所處的世界,是徹底為人形生物所打造的。

從樓梯的階高、門把的設計,到桌椅的高度,無一不是為了適應人類的雙足、雙手與身高而存在 。對 AI 而言,採用人形的軀體,意味著它能用與我們最相似的視角與方式去感知和學習這個世界,進而最快地理解並融入人類環境 。這背後的邏輯是,與其讓 AI 去適應千奇百怪的非人形設計,不如讓它直接採用這個已經被數千年人類文明「驗證」過的最優解 。

這也區分了「通用型 AI 人形機器人」與「專用型 AI 工業自動化設備」的本質不同 。後者像高度特化的工具,產線上的機械手臂能高效重複鎖螺絲,但它無法處理安裝柔軟水管這種預設外的任務 。而通用型人形機器人的目標,是成為一個「多面手」,它能在廣泛學習後,理解物理世界的運作規律 。理論上,今天它在產線上組裝伺服器,明天就能在廚房裡學會煮菜 。

人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態 / 圖片來源:shutterstock

但要讓一個「多面手」真正活起來,光有骨架還不夠。它必須同時擁有強大的大腦平台與遍布全身的感知神經,才能理解並回應外在環境。人形機器人的手、腳、眼睛、甚至背部,都需要大量感測器去理解環境就像神經末梢一樣,隨時傳回方位、力量與外界狀態。但這些訊號若沒有通過一個穩定的「大腦平台」,就無法匯聚成有意義的行動。

這正是研華的角色:我們不僅把 NVIDIA Jetson Thor 這顆核心晶片包載在工業級電腦中,讓它成為能真正思考與反應的「完整大腦」,同時也提供神經系統的骨幹,將感測器、I/O 介面與通訊模組可靠地連結起來,把訊號傳導進大腦。你或許看不見研華的存在,但它實際上遍布在機器人全身,像隱藏在皮膚之下的神經網絡,讓整個身體真正活過來。

但有了大腦、有了身體,接下來的挑戰是「教育」。你要怎麼教一個物理 AI?總不能讓它在現實世界裡一直摔跤,把一台幾百萬的機器人摔壞吧?

打造一個「精神時光屋」,AI的學習速度能有多快?

這個問題非常關鍵。大型語言模型可以閱讀網際網路上浩瀚的文本資料,但物理世界中用於訓練的互動資料卻極其稀缺,而且在現實中反覆試錯的成本與風險實在太高 。

答案,就在虛擬世界之中。

NVIDIA Isaac Sim™等模擬平台,為這個問題提供了完美的解決方案 。它能創造出一個物理規則高度擬真的數位孿生(Digital Twin)世界,讓 AI 在其中進行訓練 。

這就像是為機器人打造了一個「精神時光屋」 。它可以在一天之內,經歷相當於現實世界千百日的學習與演練,從而在絕對安全的環境中,窮盡各種可能性,深刻領悟物理世界的定律 。透過這種「模擬-訓練-推論」的 3 Computers 閉環,Physical AI (物理AI) 的學習曲線得以指數級加速 。

我原本以為模擬只是為了節省成本,但後來發現,它的意義遠不止於此。它是在為 AI 建立一種關於物理世界的「直覺」。這種直覺,是在現實世界中難以透過有限次的試錯來建立的。

所以你看,這趟從 Switch 到人形機器人的旅程,一幅清晰的未來藍圖已經浮現了。實現物理 AI 的三大支柱已然齊備:一個劃時代的「AI 大腦」(NVIDIA Jetson Thor)、讓核心延展為「完整大腦與神經系統」的工業級骨幹(由研華 Advantech 提供),以及一個不可或缺的「教育環境」(NVIDIA Isaac Sim 模擬平台) 。

結語

我們拆解了那些酷炫機器人影片背後的真相,看見了從「自動化」走向「自主化」的巨大技術鴻溝,也見證了「物理 AI」時代的三大支柱——大腦、身軀、與教育——如何逐一到位 。

專家預測,未來 3 到 5 年內,人形機器人領域將迎來一場顯著的革命 。過去我們只能在科幻電影中想像的場景,如今正以前所未有的速度成為現實 。

這不再只是一個關於效率和生產力的問題。當一台機器,能夠觀察我們的世界,理解我們的語言,並開始以物理實體的方式與我們互動,這將從根本上改變我們與科技的關係。

所以,最後我想留給你的思想實驗是:當一個「物理 AI」真的走進你的生活,它不只是個工具,而是一個能學習、能適應、能與你共同存在於同一個空間的「非人智慧體」,你最先感受到的,會是興奮、是便利,還是……一絲不安?

這個問題,不再是「我們能否做到」,而是「當它發生時,我們準備好了嗎?」

研華已經整裝待發,現在,我們與您一起推動下一代物理 AI 與智慧設備的誕生。
https://bit.ly/4n78dR4

-----廣告,請繼續往下閱讀-----

討論功能關閉中。

1

2
3

文字

分享

1
2
3
讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員
研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3904 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook