1

1
1

文字

分享

1
1
1

讓 AI 取代真人執法可行嗎?將判斷全交給 AI 可能隱藏什麼危險?——專訪中研院歐美研究所陳弘儒助研究員

研之有物│中央研究院_96
・2024/03/18 ・6292字 ・閱讀時間約 13 分鐘

-----廣告,請繼續往下閱讀-----

本文轉載自中央研究院「研之有物」,為「中研院廣告」

  • 採訪撰文|劉韋佐
  • 責任編輯|田偲妤
  • 美術設計|蔡宛潔

人工智慧將改變以人為主的法治領域?

由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?

交通尖峰時段,後方出現一台救護車,你願意闖紅燈讓道嗎?
圖|iStock

想像有一天你正在尖峰時段開車,車子停在十字路口等紅燈時,後方出現一輛急駛而來的救護車,你為了讓道必須開過停止線。這時你是否願意冒著違規被開罰的風險?還是承擔風險以換取他人盡速就醫?

在上述情境中,針對「要不要闖紅燈」我們經歷了一段價值判斷過程。如果剛好十字路口有真人警察,他的判斷可能是:這是情急之下不得不的行為,並非蓄意違規。

然而,如果負責執法的是「法律人工智慧系統」(Artificially legal intelligent,簡稱 ALI)情況可能截然不同。

-----廣告,請繼續往下閱讀-----

ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。

一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!

中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?

讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。

-----廣告,請繼續往下閱讀-----
中研院歐美研究所陳弘儒助研究員,從法哲學出發,探索 AI 與法治價值之間的緊張關係。
圖|之有物

問

怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?

會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。

後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。

AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?

事實上,AI 沒有在做推理,它做的是機率的演算,但法律是一種規範性的判斷,所有判斷必須奠基在法律條文的認識與解釋上,給予受審對象合理的判決理由。

這讓我好奇:如果未來廣泛應用 AI 執法,法律或受法律規範的民眾會怎麼轉變?

-----廣告,請繼續往下閱讀-----

至於真正開始研究「法律人工智慧系統」(ALI)是受到我父親的啟發。有一陣子我經常開車南北往返,有一天我跟父親聊到用區間測速執法的議題。交通部曾在萬里隧道使用區間測速,計算你在隧道裡的平均速率,如果超速就開罰。

父親就問我:「政府有什麼理由用區間測速罰我?如果要開罰就必須解釋是哪一個時間點超速。」依照一般的數學邏輯,你一定有在某個時間點超速,所以平均起來的速率才會超過速限,可是法律判斷涉及規範性,我們必須思考背後的正當性課題,不能只用邏輯解釋,這啟發我逐漸把問題勾勒出來,試圖分析執法背後的規範性意涵。

問

如果將執行法律任務的權限賦予 AI,可能暗藏什麼風險?

我們先來談人類和 AI 在做判斷時的差別。人類無時無刻都在做判斷,判斷的過程通常會先做「區分」,例如在你面前有 A 和 B 兩個選項,在做判斷前必須先把 A 和 B 區分開來,讓選項有「可區別性」。

在資料龐大的情況下,AI 的優勢在於能協助人類快速做好區分,可是做判斷還需經歷一段 AI 難以觸及的複雜過程。人類在成長過程中會發展出一套顧及社會與文化認知的世界觀,做判斷時通常會將要區分的選項放進這個世界觀中,最終做出符合社會或自身考量的抉擇。

-----廣告,請繼續往下閱讀-----

當我們將判斷程序交由 AI 執行,就會涉及「判斷權限移轉」的問題,這經常在日常生活中發生,你只要發現原本自己可以執行的事情,有另外一個對象做的比你好或差不多好,你就會漸漸把判斷的工作交給它,久而久之,你大概會覺得這是很好的做法,因為可以節省大量時間。

自駕車導航系統就是判斷權限移轉的例子,由於導航通常可以找出最佳行車路線,駕駛人幾乎會跟著走,但仍有可能誤入路況不佳或無法通行的地方。
圖|Vladimir Srajber, Pexels

我擔心這種判斷權限移轉會快速且廣泛的發生,因為 AI 的工作效率極高,可以大幅節省人力成本,但是哪一些權限可以放給 AI?哪一些權限人類一定要守住?我們經常沒有充足的討論,等到發生問題再亡羊補牢可能為時已晚。

以讓道給救護車而闖紅燈的情境為例,如果讓 AI 來做交管,可以節省警察人力,又可以快速精準地開罰,卻迫使民眾需額外花時間,證明闖紅燈有正當理由。如果是真人警察來判斷,警察通常會認為你的行為有正當理由而不開罰。這對於受法律規範的民眾來說,會產生兩種全然不同的規範作用。

AI 產生的規範作用會讓民眾擔心事後銷單的麻煩程序,如果無法順利解決,可能會訴諸民意代表或上爆料公社,並漸漸改變民眾對守法的態度。而真人警察產生的規範作用,將使民眾自主展現對法律的高度重視,雖然當下的行為牴觸法律,卻是行為人經過多方權衡後做的判斷,相信法律會支持自己出於同理心的行為。

-----廣告,請繼續往下閱讀-----

問

使用 AI 執法除了看上它的高效率,也是因為和真人相比 AI 不會受私情影響,比較可以做出公正的判斷。如果從法治觀念來看,為何決策權不能全權交由 AI 執行?

我認為法治的核心價值在臺灣並沒有很好的發展,我們常想的是怎麼用處罰促成民眾守法,長久下來可能會得到反效果。當人們養成凡事規避處罰的習慣,一旦哪天不再受法律約束,可能會失去守法的動機。

事實上,法治最根深柢固的價值為:

法律作為一種人類行為規範的展現,促使民眾守法的方式有很多種,關鍵在於尊重人的道德自主性,並向民眾陳述判決理由。

給理由非常重要,可以讓民眾不斷透過理由來跟自己和法律體系溝通。如此也可以形成一種互惠關係,使民眾相信,國家公權力能用適當的理由來制定法律,而制定出的法律是以尊重公民自主性為主。當民眾理解法律對我所處的社會有利,會比較願意自動產生守法的動機。

AI 執法看似比人類「公正無私」,但它的執法方式以處罰為主、缺乏理由陳述,也沒有對具體情境的「敏感性」。人跟人之間的互動經常需要敏感性,這樣才能理解他人到底在想什麼。這種敏感性是要鍛鍊的,真人警察可在執法過程中,透過拿捏不同情境的處理方式來累積經驗。

-----廣告,請繼續往下閱讀-----

例如在交通尖峰時段應該以維持交通順暢為原則,這時警察是否具備判斷的敏感性就很重要,例如看到輕微的違規不一定要大動作開罰,可以吹個警笛給駕駛警示一下就好。

我越來越覺得人類這種互動上的敏感性很重要,我們會在跟他人相處的過程中思考:跟我溝通的對象是什麼樣的人?我在他心中是什麼模樣?然後慢慢微調表現方式,這是人類和 AI 最根本的不同。

行動者受各種法律變項影響的因果圖。上圖是由真人警察執法,對於處罰之可能性有影響力,可依不同情境判斷是否開罰。下圖是由全自動法律人工智慧執法,由 AI 直接將處罰之可能性加諸在行動者身上,缺乏真人警察二次確認,很可能影響行動者對守法與否的衡量。
圖|之有物(資料來源|陳弘儒)

問

相較於法律人工智慧,ChatGPT 等生成式 AI 強大的語言功能似乎更接近理想中的 AI,其發展可能對我們產生哪些影響?

我認為會有更複雜的影響。ChatGPT 是基於大型語言模型的聊天機器人,使用大量自然語言文本進行深度學習,在文本生成、問答對話等任務上都有很好的表現。因此,在與 ChatGPT 互動的過程中,我們容易產生一種錯覺,覺得螢幕後好像有一名很有耐心的真人在跟你對話。

事實上,對於生成式 AI 來說,人類只是刺激它運作的外在環境,人機之間的互動並沒有想像中的對等。

仔細回想一下整個互動過程,每當外在環境(人類)給 ChatGPT 下指令,系統才會開始運作並生成內容,如果我們不滿意,可以再調整指令,系統又會生成更多成果,這跟平常的人際互動方式不太一樣。

-----廣告,請繼續往下閱讀-----
ChatGPT 能讓使用者分辨不出訊息來自 AI 或真人,但事實上 AI 只是接受外在環境(人類)刺激,依指令生成最佳內容,並以獲得正向回饋、提升準確率為目標。
圖|iStock

資工人員可能會用這個理由說明,生成式 AI 只是一種工具,透過學習大量資料的模式和結構,從而生成與原始資料有相似特徵的新資料。

上述想法可能會降低人們對「資料」(Data)的敏感性。由於在做 AI 訓練、測試與調整的過程中,都必須餵給 AI 大量資料,如果不知道資料的生產過程和內部結構,後續可能會產生爭議。

另一個關於資料的疑慮是,生成式 AI 的研發與使用涉及很多權力不對等問題。例如現在主流的人工智慧系統都是由私人公司推出,並往商業或使用者付費的方向發展,代表許多資料都掌握在這些私人公司手中。

資料有一種特性,它可以萃取出「資訊」(Information),誰有管道可以從一大群資料中分析出有價值的資訊,誰就有權力影響資源分配。換句話說,多數人透過輸入資料換取生成式 AI 的服務,可是從資料萃取出的資訊可能在我們不知情的狀況下對我們造成影響。

問

面對勢不可擋的生成式 AI 浪潮,人文社會學者可以做些什麼?

國外對於 AI 的運用開始提出很多法律規範,雖然國外關於價值課題的討論比臺灣多,但並不代表那些討論都很細緻深入,因為目前人類跟 AI 的相遇還沒有很久,大家還在探索哪些議題應該被提出,或賦予這些議題重新認識的架構。

這當中有一個重要課題值得思考:

我們需不需要訓練 AI 學會人類的價值判斷?

我認為訓練 AI 理解人類的價值判斷很可能是未來趨勢,因為 AI 的發展會朝人機互動模式邁進,唯有讓 AI 逐漸理解人類的價值為何,以及人類價值在 AI 運作中的局限,我們才有辦法呈現 AI 所涉及的價值課題。

當前的討論多數還停留在把 AI 當成一項技術,我認為這種觀點將來會出問題,強大的技術如果沒有明確的價值目標,是一件非常危險的事情。實際上,AI 的發展必定有很多價值課題涉入其中,或者在設計上有一些價值導向會隱而不顯,這將影響 AI 的運作與輸出成果。

思考怎麼讓 AI 理解人類價值判斷的同時,也等於在問我們人類:對我們來說哪一些價值是重要的?而這些重要價值的基本內容與歧異為何?

我目前的研究有幾個方向,一個是研究法律推理的計算機模型(Computational models of legal reasoning);另一個是從規範性的層面去探討,怎麼把價值理論、政治道德(Political morality)、政治哲學等想法跟科技界交流。未來也會透過新的視野省視公民不服從議題。

這將有助科技界得知,有很多價值課題需要事先想清楚,影響將擴及工程師怎麼設計人工智慧系統?設計過程面臨哪些局限?哪些局限不應該碰,或怎麼把某些局限展現出來?我覺得這些認識都非常重要!

鐵面無私的 ALI ?人類與人工智慧執法最大的分野是什麼?

陳弘儒的研究室有許多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美國首位猶太裔女性大法官,畢生為女權進步與性別平權奮鬥。
圖|之有物

陳弘儒是臺灣少數以法哲學理論研究法律人工智慧系統(ALI)的學者,他結合各種現實情境,與我們談論 ALI、生成式 AI 與當代法治價值的緊張關係。

由於 ALI 擅長的資料分類與演算,與人類判斷過程中涉及的世界觀與敏感性思辨,有著根本上的差異;以處罰為主、缺乏理由陳述的判斷方式,也容易影響民眾對公權力的信任。因此陳弘儒認為,目前 ALI 應該以「輔助人類執法」為發展目標,讓人類保有最終的判斷權限

至於現正快速發展的生成式 AI ,根據陳弘儒的觀察,目前仍有待各方專家探索其中的價值課題,包括資料提供與使用的權力不對等、哪些人類價值在訓練 AI 的過程中值得關注等。

在過去多是由人文社會學者提出警告,現在連 AI 領域的權威專家也簽署公開信並呼籲:AI 具有與人類競爭的智慧,這可能給社會和人類帶來巨大風險,應該以相應的關注和資源進行規劃和管理

在訪談過程中,有一件令人印象深刻的小插曲,陳弘儒希望我們不要稱呼他「老師」,因為他從小就畏懼老師、警察等有權威身分的人,希望以更平等的方式進行對話。

假如今天以 AI 進行採訪,整個談話過程或許能不受倫理輩分影響,但這也讓我們意識到,在 AI 的世界裡,許多人際互動特有的敏感性、同理反思都可能不復存在。

陳弘儒的研究讓我們體會,AI 在法治領域的應用不僅是法律問題,背後更包含深刻的哲學、道德與權力課題,也讓我們更了解法治的核心價值:

法律要做的不只是規範人們的行為,而是透過理由陳述與溝通展現對每個人道德自主性的尊重。

-----廣告,請繼續往下閱讀-----
文章難易度
所有討論 1
研之有物│中央研究院_96
296 篇文章 ・ 3629 位粉絲
研之有物,取諧音自「言之有物」,出處為《周易·家人》:「君子以言有物而行有恆」。探索具體研究案例、直擊研究員生活,成為串聯您與中研院的橋梁,通往博大精深的知識世界。 網頁:研之有物 臉書:研之有物@Facebook

0

1
0

文字

分享

0
1
0
環評大解密:「備審」到「面試」,開發案環評都在做什麼?從蘇花安帶你實際走一遭!
鳥苷三磷酸 (PanSci Promo)_96
・2024/12/19 ・3191字 ・閱讀時間約 6 分鐘

-----廣告,請繼續往下閱讀-----

本文由 環境部 委託,泛科學企劃執行。 

每當大雨來襲,往返臺北與花蓮的要道——蘇花公路——總是令人提心吊膽,2024 年的 0403 大地震也讓東部邊坡變得更加不穩定,使得「蘇花公路安全提升計畫」(以下稱蘇花安)能否順利進行備受關注。然而許多人也擔心,要在本就脆弱的地質上動工,會不會造成更多環境傷害?

面對這樣的開發案,我們需要一個既科學又客觀的評估機制,以把持開發需求與環境保護間的平衡點,也就是「環境影響評估」(以下稱「環評」)。但,為什麼在新聞裡,環評會議總是砲火隆隆?有人覺得太輕率,又有人覺得太拖延?環評到底是怎麼一回事?

環評成爭論之源,到底有什麼好吵?

根據《環境影響評估法》(以下稱「環評法」)第 1 條,環評的定義是「為預防及減輕開發行為對環境造成不良影響,藉以達成環境保護之目的」。所謂建設,多少會對環境動刀,既然如此,我們就須把傷害最小化,在開發前釐清可能對環境造成的影響,然後提出相應的保護對策。

-----廣告,請繼續往下閱讀-----

但反過來說,環評也攸關開發案能否順利成行。環評法第 14 條指出,「目的事業主管機關於環境影響說明書未經完成審查或評估書未經認可前,不得為開發行為之許可,其經許可者,無效」。換言之,環評只要沒有通過,開發案就只能停在紙上作業,這也是每當爭議性開發案出現時,環評審查何以成為焦點戰場的原因。

環評旨在預防及減輕開發對環境的影響,確保建設傷害最小化並制定保護對策。圖/envato

想知道環境評估的基礎,就得翻開厚度足以讓人躺平的《環境影響評估模式技術規範彙編》。然而深入瞭解後,你會發現,很多人以為各說各話、給過不給過,全憑長官大人一句話的評估流程,在設計上其實很科學。

以蘇花安為例,走進環評的實務面

在此之前要先釐清,蘇花安裡所指涉的開發標的並非要打造一條全新公路,而是對現有蘇花公路進行「升級改造」,而且也不是第一次。它的前身「蘇花改」包含蘇澳到東澳、南澳到和平、和中到大清水等路段,相比過去雖更安全便捷,但仍有改進空間。

以前不說,光是今(2024)年就災難頻傳。4 月 3 日花蓮發生規模 7.2 的大地震,讓大清水隧道口的下清水橋被落岩擊毀,只能先借用日治時期的舊橋通行,隨後更餘震不斷。6 月時,和中至崇德路段,則因大雨使得落石與土石流阻擋道路。地震加暴雨,前後效應加乘,讓東部交通受到嚴重打擊。

-----廣告,請繼續往下閱讀-----

蘇花安計畫的目標,便是延續蘇花改帶來的可靠與穩定,提高東澳至南澳、和平至和中、還有和仁到崇德三大路段的安全性。然而,要在這些穿越太魯閣國家公園的路段挖鑿隧道、加固邊坡,要考慮的可不只是「做不做得到」的問題⋯⋯

光是工程噪音的模擬、評估與對策,就有許多眉角

為了對噪音進行模擬並加以評估,環評中有時會選用德國聯邦數位及交通部在《道路噪音防護指南》中提到的 RLS-90 模型。

首先是分析車流量、大卡車比例、路段特性等各條件下產生的噪音。圖一為距離車道 25 公尺測得的噪音大小(噪音源為車輛底盤的位置,離地 50 公分處);橫軸為每小時經過的車輛數,縱軸為噪音分貝,七條線則為大卡車在車流中的占比。以這個例子來說,車流量每增加十倍,噪音就會提升約 10 分貝。

圖一

此外,RLS-90 也探究相應對策下的噪音表現。圖二為加設牆壁、土堤等設備後的隔音效果;橫軸代表相對於道路的高度,縱軸為音量衰減的分貝數(即屏蔽量),六條線則代表牆壁的六種高度。

-----廣告,請繼續往下閱讀-----
圖二

當然也還有許多細部參數,如車流的時速上限、汽車是否頻繁煞車與啟動(有的話噪音基準應提高 3 分貝)、白天或晚上、納入車流量至少會年增 1% 等考量。開發單位要做的,就是輸入各項參數以計算噪音大小,不符標準者則要提出相應防護措施。

以臺 9 線上的崇德國小為例,當環評發現噪音超出環境音量標準,開發單位便提出於施工期間在學校近臺 9 線一側加裝隔音牆,並在學校設置全天候固定式噪音監測點。這些都是環評過程中,在審查委員提出意見後,再經由開發單位回應改善的結果。

除了噪音,環評還需要考慮許多其他因素。以蘇花安來說,開鑿大量隧道後產生的土方該堆在哪裡?如要運送,揚塵是否會造成大量空氣污染?施工廢水要排去哪,能不能循環再利用?施工與營運期間,動物路殺的狀況如何、減輕對策、生態廊道的設立與生態補償等面向,都必須考慮周全,以確保從生物、個人到社會,影響都降到最低。

一階 VS 二階,資料與溝通準備大不同

在經過縝密流程後,蘇花安的環評案於 5 月 14 日正式通過初審,亦無須進入「二階環評」,只要補充易崩塌落石的防護措施與效益評估即可。二階環評常常是環評過程最容易卡關的地方,不免讓人好奇:一階與二階到底差在哪?為何有的案子要進入二階,有的不用呢?

-----廣告,請繼續往下閱讀-----

在一階環評裡,開發商提交的文件叫「環境影響說明書」,必須說明開發行為可能造成的環境影響、保護措施和替代方案,有點像考大學靠備審資料決定要不要讓你入學的概念。至於二階環評,則需要提交更詳細的「環境影響評估報告書」,還要在開發場所附近公告先前的「環境影響說明書」並舉行公開說明會,聽取當地居民意見。相比之下,就像入學前還得通過多次面試,才能決定最終分數。

一般來說,某些如高速公路、捷運等的重大開發行為,都得進行二階環評。蘇花安雖然只需要一階環評,但因為涉及原住民族土地,根據《原住民族基本法》還需要諮商並取得原住民族或部落同意或參與才行。雖然是拿面試當比喻方便區別,但這並不代表環評通過與否將由居民投票決定喔!二階的最大目的,還是廣泛蒐集受影響居民的意見,藉以提出合理的減輕與改善措施,再回到審查委員那裡綜合評估開發案的可行性。

二階環評重要的目的之一,是廣蒐受影響居民的意見,與合理的改善措施。圖/envato

拜環評之賜,我們得以在土地開發的過程裡,盡所能打造與自然環境的雙贏局面,然而為了審慎周全,環評「花時間」的印象也成很難撕下的標籤。然而動作慢的,其實通常不是環評本身,而是開發單位自己準備要花時間,而其他主管機關也有不同的把關機制跟考量。這就像研究生要畢業,口試跟論文審查其實很快,但寫論文以及找對主題做研究,就是自己得花的工夫。為此,環評法已經歷經多次修正,像是 2015 年即要求目的事業主管機關應「主動針對開發行為提出說明與建議」,而不是到了真正要評估時才來處理爭議環節。

打造永續共存的未來

瞭解環評過程就能發現,開發單位有沒有花費足夠的心力理解環境議題,並準備完整的資料與保護對策,是環評能否順利通過的關鍵。環評既非開發者的眼中釘,亦非護航者,過往歷史也在在說明,多方評估建設發展的安全性、維護自然環境仍有其必要。

-----廣告,請繼續往下閱讀-----

通過蘇花安的案例,我們可以看到環評如何在實際開發案中發揮作用。它不僅保護了環境,也為居民權益提供了保障,更幫助開發單位將方案最佳化,是打造永續共存的未來不可或缺的好工具!

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
221 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

1
0

文字

分享

0
1
0
解密離岸風電政策環評:從審查標準到執行成效,一次看懂
鳥苷三磷酸 (PanSci Promo)_96
・2024/12/21 ・3546字 ・閱讀時間約 7 分鐘

-----廣告,請繼續往下閱讀-----

本文由 環境部 委託,泛科學企劃執行。 

政策環評是什麼,跟一般環評差在哪?

隨著公共建設的規模越來越大,傳統的環境影響評估(EIA),難以應對當今層層疊疊的環境議題。當我們評估一項重大政策時,只看「單一開發案」已經不夠,就像評估一棵樹,卻忽略了整片森林。因此,政策環境影響評估(SEA)應運而生,它看樹,也看森林,從政策的角度進行更全面的考量與評估。

與只專注於「單一開發案」的個案環評不同,政策環評更像是一場全面性的檢視,強調兩個核心重點:「整合評估」與「儘早評估」。簡單來說,這不再是逐案評估的模式,而是要求政府在制定政策時,就先全面分析可能帶來的影響,從單一行為的侷限中跳脫,轉而聚焦在整體影響的視角。無論是環境的整體變化,還是多項行為累計起來的長期影響,政策環評的目的就是讓這些潛在問題能儘早浮現、儘早解決。

除此之外,政策環評還像是一個大型的協商平台,以永續發展為最高指導原則,公開整合來自不同利益團體、民眾與各機關的意見。這裡,決策單位不再只是單純的「評分者」,而是轉為「協調者」或「仲裁者」,協調各方的意見看法在這裡得到整合,讓過程更具包容性。

-----廣告,請繼續往下閱讀-----

政策環評並沒有所謂的「否決權」,而是側重意見的蒐集與整合,讓行政機關在政策推動時,能更全面地掌握各方意見。政策環評旨在建立系統化、彈性的決策評估程序(包含量化、特徵化等評估方式),也廣納社會面或民眾滿意度等影響因子,把正式與非正式的作法一併考量進去。再來,決策程序中能層層檢討、隨時修正,也建立了追蹤機制和成效評估標準(如環境殘餘效應、累積效應等),透過學習來強化決策品質與嚴謹度。就像一場球賽,隨時根據變化、調整策略。

這樣的制度設計,就非常適合離岸風電這類規模大、跨區域、影響層面廣泛的能源政策評估,讓我們可以在政策推動初期就想到整個工程對環境、產業發展與社會的諸多影響,也為後續政策執行奠定更穩固的基礎。

政策環評並沒有否決權,而是重在整合各方意見、量化影響以及建立追蹤與修正機制,這樣的制度設計便適用於離岸風電等大型政策評估。圖/envato

離岸風電為何需要的是政策環評?

離岸風電是能源轉型的重要策略之一,但這不是只在某塊空地上架幾個風車,而是要在廣闊的大海中進行大規模建設,牽涉的不僅是發電,還涉及海洋保育、航空交通、水下文化資產等議題,更與當地漁民的權益息息相關。

這樣的大型離岸風電工程,因海洋環境的風險和不確定性極高,很容易讓人擔心生態影響。如何在海洋生態保護和綠能發展之間找到平衡點?這就需要政策環評的把關,從多方檢視這些複雜的挑戰,確保政策推行既能穩妥,又能達成發電目標。

-----廣告,請繼續往下閱讀-----

2016 年 3 月,經濟部自願提出「離岸風電區塊開發政策評估說明書」,是臺灣首次針對再生能源政策所進行的政策環評。根據這份評估說明書,政府將採分期公告、逐年檢討的方式,每三年開放 0.5~1 百萬瓩(GW)的電量額度鼓勵業者投入開發。當時環保署(現為環境部)歷經九個月召開 2 次意見徵詢會議,蒐集環評委員、專家學者、相關機關、民眾等意見,最終於同年 12 月的環評委員會作出徵詢意見。這些協商和檢討的過程,讓政策「名正言順」,得以充分顧及各方利益與生態平衡。

共通性環境議題與因應對策

在「離岸風電區塊開發政策評估說明書」中,環評會議盤點了開發過程中共通的環境議題。

首先,對於海洋生態保育的重點,特別是對中華白海豚的保護。環評會要求風機基座必須距離白海豚棲地1公里以上,以減少對其生態的干擾。實際上,這項規範在後續的實務執行中更為嚴格,例如,福海二期示範風場已退縮到 2.5 公里外,臺電二期風場甚至退到 4.2 公里外,顯示政策環評確實發揮了實質作用。此外,針對施工期間的聲音干擾,要求施工需有 30 分鐘以上的打樁緩啟動時間,並限制聲量不得超過 180 分貝等。

針對鳥類保育,政策環評也訂立了具體規範。其中,包括風機之間必須留設 500 公尺以上的鳥類穿行廊道,並在施工期間避開每年 11 月至隔年 3 月的候鳥過境期。同時,為確保這些措施確實生效,工程方也被要求設置「鳥類活動監測系統」,持續追蹤、評估風場對鳥類的影響。

-----廣告,請繼續往下閱讀-----

此外,環評會也確立了「先遠後近」的開發原則,要求優先開發較單純的航道外側區塊,待累積足夠經驗及相關資料後,再進行近岸區域的開發。這項原則考量了近海生態系的複雜性,也顧到養殖漁業的漁民權益,展現出政策環評在平衡發展需求與環境保護上的價值。

新一代的審查機制:達成能源轉型及環境保護雙贏

為提升環評效率並確保審查品質,環境部參考過去離岸風電審查經驗,制定「風力發電離岸系統開發行為環境影響評估初審作業要點」,建立了全新的二階段審查機制。

環境部推動二階段審查機制,提升離岸風電環評效率與審查品質。圖/envato

這套新機制分為兩個階段。第一階段,就像「初步檢查」,由環境部依照檢核表進行初審,並由環評審查委員會執行秘書邀集 2-5 位環評委員進行初審,通過第一階段初審之業者,可取得經濟部遴選資格,其初審結果有效期為兩年,必要時可申請展延一年。接著進入「第二階段」,開發單位檢附目的事業主管機關核配的容量證明文件等資料,提供更詳細的環境影響說明書以進行實質審查。

檢核表明確規範了 15 大項審查事項、112 項檢核項目,涵蓋開發案的全生命週期。

-----廣告,請繼續往下閱讀-----

工程面,包含風機及海上變電站基礎設置、海域電纜路線規劃、陸域設施工程等硬體設施的規範。其中,風機基礎設置必須避開海岸保護區、河口、潮間帶等環境敏感區域,且須進行地震危害度分析。海域電纜部分,除特殊情形外,埋設深度至少須達 1.5 公尺,且不得跨越中華電信海底電纜 1 公里的範圍。

環境保護上,檢核表則對施工噪音管制訂立了明確標準。舉例來說,打樁期間警戒區 750 公尺範圍內的水下噪音不得超過 160 分貝,且必須全程採用最佳噪音防制工法。同時,每個開發案或聯席審查的風場,同一時間內只能進行一支基樁施作,而日落前一小時到日出前也不得啟動新的打樁作業。

環境監測計畫更是檢核表中的重點,分為「施工前、施工期間、營運期間」三階段,每個階段都規定了詳細的監測要求(包括海域底質監測、水下噪音監測、鯨豚目視監測等)。以鯨豚監測為例,每年需執行20趟次,四季中每季至少執行 2 趟次。此外,所有監測數據都必須上傳至環境部「環保專案成果倉儲系統」(https://epaw.moenv.gov.tw/)供各界查閱。

這套標準化的審查機制不僅解決了「同一風場可能有多家廠商重複調查或審查」的資源浪費,也透過明確的檢核項目,讓開發單位在規劃階段就能掌握更具體的環境保護要求。不僅如此,該機制亦確保了環境保護標準前後一致,避免不同案件之間標準不一。

-----廣告,請繼續往下閱讀-----

結語

透過新的審查機制,環境部正積極推動再生能源開發案的環評審查作業,在提升行政效率之餘,也確保環境影響評估的品質,支持臺灣的離岸風電開發及國家能源轉型政策,也做好把關。藉由標準化檢核表和二階段審查制度,期待能在推動能源轉型的同時落實環境保護。

為確保制度能持續精進,環境部每半年至一年會進行制度檢討,並持續公開所有環評書件於「環評書件查詢系統」(https://eiadoc.moenv.gov.tw/eiaweb/)。此外,環評會議召開前一週,也必須在指定網站公布開會訊息,讓民眾能申請列席旁聽或發表意見。透明化措施一方面展現了政府推動永續發展的決心,另一方面也確保全民能共同參與監督離岸風電的發展過程。未來,這套制度將在各界的檢視與建議中持續完善,為臺灣的永續發展貢獻心力,發揮環評作業的最大效益。

-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

鳥苷三磷酸 (PanSci Promo)_96
221 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia

0

0
0

文字

分享

0
0
0
數智驅動未來:從信任到執行,AI 為企業創新賦能
鳥苷三磷酸 (PanSci Promo)_96
・2025/01/13 ・4938字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

本文由 鼎新數智 與 泛科學 共同規劃與製作

你有沒有想過,當 AI 根據病歷與 X 光片就能幫你診斷病症,或者決定是否批准貸款,甚至從無人機發射飛彈時,它的每一步「決策」是怎麼來的?如果我們不能知道 AI 的每一個想法步驟,對於那些 AI 輔助的診斷和判斷,要我們如何放心呢?

馬斯克與 OpenAI 的奧特曼鬧翻後,創立了新 AI 公司 xAI,並推出名為 Grok 的產品。他宣稱目標是以開源和可解釋性 AI 挑戰其他模型,而 xAI 另一個意思是 Explainable AI 也就是「可解釋性 AI」。

如今,AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?

-----廣告,請繼續往下閱讀-----
AI 已滲透生活各處,而我們對待它的方式卻像求神問卜,缺乏科學精神。如何讓 AI 具備可解釋性,成為當前關鍵問題?圖/pexels

黑盒子模型背後的隱藏秘密

無法解釋的 AI 究竟會帶來多少問題?試想,現在許多銀行和貸款機構已經使用 AI 評估借貸申請者的信用風險,但這些模型往往如同黑箱操作。有人貸款被拒,卻完全不知原因,感覺就像被分手卻不告訴理由。更嚴重的是,AI 可能擅自根據你的住所位置或社會經濟背景給出負面評價,這些與信用風險真的相關嗎?這種不透明性只會讓弱勢群體更難融入金融體系,加劇貧富差距。這種不透明性,會讓原本就已經很難融入金融體系的弱勢群體,更加難以取得貸款,讓貧富差距越來越大,雪上加霜。

AI 不僅影響貸款,還可能影響司法公正性。美國部分法院自 2016 年起使用「替代性制裁犯罪矯正管理剖析軟體」 COMPAS 這款 AI 工具來協助量刑,試圖預測嫌犯再犯風險。然而,這些工具被發現對有色人種特別不友好,往往給出偏高的再犯風險評估,導致更重的刑罰和更嚴苛的保釋條件。更令人擔憂的是,這些決策缺乏透明度,AI 做出的決策根本沒法解釋,這讓嫌犯和律師無法查明問題根源,結果司法公正性就這麼被悄悄削弱了。

此外,AI 在醫療、社交媒體、自駕車等領域的應用,也充滿類似挑戰。例如,AI 協助診斷疾病,但若原因報告無法被解釋,醫生和患者又怎能放心?同樣地,社群媒體或是 YouTube 已經大量使用 AI 自動審查,以及智慧家居或工廠中的黑盒子問題,都像是一場越來越複雜的魔術秀——我們只看到結果,卻無法理解過程。這樣的情況下,對 AI 的信任感就成為了一個巨大的挑戰。

為什麼人類設計的 AI 工具,自己卻無法理解?

原因有二。首先,深度學習模型結構複雜,擁有數百萬參數,人類要追蹤每個輸入特徵如何影響最終決策結果,難度極高。例如,ChatGPT 中的 Transformer 模型,利用注意力機制(Attention Mechanism)根據不同詞之間的重要性進行特徵加權計算,因為機制本身涉及大量的矩陣運算和加權計算,這些數學操作使得整個模型更加抽象、不好理解。

-----廣告,請繼續往下閱讀-----

其次,深度學習模型會會從資料中學習某些「特徵」,你可以當作 AI 是用畫重點的方式在學習,人類劃重點目的是幫助我們加速理解。AI 的特徵雖然也能幫助 AI 學習,但這些特徵往往對人類來說過於抽象。例如在影像辨識中,人類習慣用眼睛、嘴巴的相對位置,或是手指數量等特徵來解讀一張圖。深度學習模型卻可能會學習到一些抽象的形狀或紋理特徵,而這些特徵難以用人類語言描述。

深度學習模型通常採用分佈式表示(Distributed Representation)來編碼特徵,意思是將一個特徵表示為一個高維向量,每個維度代表特徵的不同方面。假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。對 AI 而言,這是理解世界的方式,但對人類來說,卻如同墨跡測驗般難以解讀。

假設你有一個特徵是「顏色」,在傳統的方式下,你可能用一個簡單的詞來表示這個特徵,例如「紅色」或「藍色」。但是在深度學習中,這個「顏色」特徵可能被表示為一個包含許多數字的高維向量,向量中的每個數字表示顏色的不同屬性,比如亮度、色調等多個數值。圖/unsplash

試想,AI 協助診斷疾病時,若理由是基於醫生都無法理解的邏輯,患者即使獲得正確診斷,也會感到不安。畢竟,人們更相信能被理解的東西。

打開黑盒子:可解釋 AI 如何運作?我們要如何教育 AI?

首先,可以利用熱圖(heatmap)或注意力圖這類可視化技術,讓 AI 的「思維」有跡可循。這就像行銷中分析消費者的視線停留在哪裡,來推測他們的興趣一樣。在卷積神經網絡和 Diffusion Models 中 ,當 AI 判斷這張照片裡是「貓」還是「狗」時,我需要它向我們展示在哪些地方「盯得最緊」,像是耳朵的形狀還是毛色的分布。

-----廣告,請繼續往下閱讀-----

其次是局部解釋,LIME 和 SHAP 是兩個用來發展可解釋 AI 的局部解釋技術。

SHAP 的概念來自博弈,它將每個特徵看作「玩家」,而模型的預測結果則像「收益」。SHAP 會計算每個玩家對「收益」的貢獻,讓我們可以了解各個特徵如何影響最終結果。並且,SHAP 不僅能透過「局部解釋」了解單一個結果是怎麼來的,還能透過「全局解釋」理解模型整體的運作中,哪些特徵最重要。

以實際的情景來說,SHAP 可以讓 AI 診斷出你有某種疾病風險時,指出年齡、體重等各個特徵的影響。

LIME 的運作方式則有些不同,會針對單一個案建立一個簡單的模型,來近似原始複雜模型的行為,目的是為了快速了解「局部」範圍內的操作。比如當 AI 拒絕你的貸款申請時,LIME 可以解釋是「收入不穩定」還是「信用紀錄有問題」導致拒絕。這種解釋在 Transformer 和 NLP 應用中廣泛使用,一大優勢是靈活且計算速度快,適合臨時分析不同情境下的 AI 判斷。比方說在醫療場景,LIME 可以幫助醫生理解 AI 為何推薦某種治療方案,並說明幾個主要原因,這樣醫生不僅能更快做出決策,也能增加患者的信任感。

-----廣告,請繼續往下閱讀-----

第三是反事實解釋:如果改變一點點,會怎麼樣?

如果 AI 告訴你:「這家銀行不會貸款給你」,這時你可能會想知道:是收入不夠,還是年齡因素?這時你就可以問 AI:「如果我年輕五歲,或者多一份工作,結果會怎樣?」反事實解釋會模擬這些變化對結果的影響,讓我們可以了解模型究竟是如何「權衡利弊」。

最後則是模型內部特徵的重要性排序。這種方法能顯示哪些輸入特徵對最終結果影響最大,就像揭示一道菜中,哪些調味料是味道的關鍵。例如在金融風險預測中,模型可能指出「收入」影響了 40%,「消費習慣」占了 30%,「年齡」占了 20%。不過如果要應用在像是 Transformer 模型等複雜結構時,還需要搭配前面提到的 SHAP 或 LIME 以及可視化技術,才能達到更完整的解釋效果。

講到這裡,你可能會問:我們距離能完全信任 AI 還有多遠?又或者,我們真的應該完全相信它嗎?

-----廣告,請繼續往下閱讀-----

我們終究是想解決人與 AI 的信任問題

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。因此,AI 既要「可解釋」,也要「能代理」。

當未來你和 AI 同事深度共事,你自然希望它的決策與行動能讓你認可,幫你省心省力。圖/unsplash

舉例來說,當一家公司要做一個看似「簡單」的決策時,背後的過程其實可能極為複雜。例如,快時尚品牌決定是否推出新一季服裝,不僅需要考慮過去的銷售數據,還得追蹤熱門設計趨勢、天氣預測,甚至觀察社群媒體上的流行話題。像是暖冬來臨,厚外套可能賣不動;或消費者是否因某位明星愛上一種顏色,這些細節都可能影響決策。

這些數據來自不同部門和來源,龐大的資料量與錯綜關聯使企業判斷變得困難。於是,企業常希望有個像經營大師的 AI 代理人,能吸收數據、快速分析,並在做決定時不僅給出答案,還能告訴你「為什麼要這麼做」。

傳統 AI 像個黑盒子,而可解釋 AI (XAI)則清楚解釋其判斷依據。例如,為什麼不建議推出厚外套?可能理由是:「根據天氣預測,今年暖冬概率 80%,過去三年數據顯示暖冬時厚外套銷量下降 20%。」這種透明解釋讓企業更信任 AI 的決策。

-----廣告,請繼續往下閱讀-----

但會解釋還不夠,AI 還需能真正執行。這時,就需要另一位「 AI 代理人」上場。想像這位 AI 代理人是一位「智慧產品經理」,大腦裝滿公司規則、條件與行動邏輯。當客戶要求變更產品設計時,這位產品經理不會手忙腳亂,而是按以下步驟行動:

  1. 檢查倉庫物料:庫存夠不夠?有沒有替代料可用?
  2. 評估交期影響:如果需要新物料,供應商多快能送到?
  3. 計算成本變化:用新料會不會超出成本預算?
  4. 做出最優判斷,並自動生成變更單、工單和採購單,通知各部門配合執行。

這位 AI 代理人不僅能自動處理每個環節,還會記錄每次決策結果,學習如何變得更高效。隨時間推移,這位「智慧產品經理」的判斷將更聰明、決策速度更快,幾乎不需人工干預。更重要的是,這些判斷是基於「以終為始」的原則,為企業成長目標(如 Q4 業績增長 10%)進行連續且動態地自我回饋,而非傳統系統僅月度檢核。

這兩位 AI 代理人的合作,讓企業決策流程不僅透明,還能自動執行。這正是數智驅動的核心,不僅依靠數據驅動決策,還要能解釋每一個選擇,並自動行動。這個過程可簡化為 SUPA,即「感知(Sensing)→ 理解(Understanding)→ 規劃(Planning)→ 行動(Acting)」的閉環流程,隨著數據的變化不斷進化。

偉勝乾燥工業為例,他們面臨高度客製化與訂單頻繁變更的挑戰。導入鼎新 METIS 平台後,偉勝成功將數智驅動融入業務與產品開發,專案準時率因此提升至 80%。他們更將烤箱技術與搬運機器人結合,開發出新形態智慧化設備,成功打入半導體產業,帶動業績大幅成長,創造下一個企業的增長曲線。

-----廣告,請繼續往下閱讀-----

值得一提的是,數智驅動不僅帶動業務增長,還讓員工擺脫繁瑣工作,讓工作更輕鬆高效。

數智驅動的成功不僅依賴技術,還要與企業的商業策略緊密結合。為了讓數智驅動真正發揮作用,企業首先要確保它服務於具體的業務需求,而不是為了技術而技術。

這種轉型需要有策略、文化和具體應用場景的支撐,才能讓數智驅動真正成為企業持續增長的動力。

還在猶豫數智驅動的威力?免費上手企業 AI 助理!👉 企業 AI 體驗
現在使用專屬邀請碼《 KP05 》註冊就享知:https://lihi.cc/EDUk4
訂閱泛科學獨家知識頻道,深入科技趨勢與議題內容。

👉立即免費加入

-----廣告,請繼續往下閱讀-----
鳥苷三磷酸 (PanSci Promo)_96
221 篇文章 ・ 313 位粉絲
充滿能量的泛科學品牌合作帳號!相關行銷合作請洽:contact@pansci.asia