A 編按:【科科齊打交】是我們希望可以與大家一起進行的對話形式。泛科學編輯部會盡力蒐集資料,提供可以協助討論的科學內容,非常期待能夠塑造一個開放與理性討論的空間。
在《看 A 片學性教育是否搞錯了什麼》中,引用各種研究,來指證 A 片橋段中的不合理之處,而我也開始懷疑,身為理性的人,為什麼會對不合理的 A 片產生感覺?甚至有人會有類似上癮的效果。而 A 片帶來的影響,也不僅僅是個人,甚至能對整個社會產生一些微妙的影響。
現在,我們想邀請你,在閱讀完相關內容後,在此文底下留言,與我們分享你的想法!
A片成癮是治療還是毒品?
在看A片會不性福,對真人沒性趣嗎?一文中,我們知道 A 片具有「刺激獎勵迴路」的效果,這種效果與「物質成癮」類似,對我們來說,看 A 片是真的會上癮,然而,這種「上癮」究竟是好是壞,研究者目前也還沒有共識。
在回顧 A 片成癮性的研究中,有的研究者悲觀認為 A 片的成癮性會強迫使用者自慰,進一步造成性功能障礙,甚至被當作性功能障礙的主因;也有另一批的研究者,樂觀運用 A 片的成癮性與認知行為療法,開發出 IBST (Internet‐Based Sex Therapy) 的治療方法,來幫助有心理性性功能障礙的人找回自信。
無論悲觀還是樂觀,兩種研究都還在持續進行中。
A片的刻板印象
比起 A 片成癮,A 片所造成的社會現象可能更貼近我們的生活,像是 2015 年的波多野結衣悠遊卡,引起大眾討論性產業工作者污名化的議題。不過,比起 AV 女優汙名化,A 片中各種職業或角色的刻板印象也是個問題,像是OL、護士、教師、人妻……等,這些 A 片中的刻板印象,會讓某些觀眾信以為真,或是在言詞中透露出令人不舒服的觀點,造成某些人不必要的困擾。
由人工智慧擔任警察,再也不是科幻電影的情節,交通管制常見的科技執法就是應用 AI 辨識闖紅燈、未依規定轉彎、車輛不停讓行人等違規行為。 AI 的客觀、高效率正在挑戰以人為審判主體的法治領域,這樣的轉變會對我們產生什麼影響呢?中央研究院「研之有物」專訪院內歐美研究所陳弘儒助研究員,他將帶我們思考:當 AI 取代人類執法時,將如何改變人們對守法的認知?
ALI 這個詞源自 Mireille Hildebrandt 的研究,在概念上可區分為兩類:採取傳統程式碼的 IFTTT(if this then that)、運用機器學習的資料驅動。前者是注重法律推理或論證的計算機模型,將法律規範轉為程式碼,藉由程式編寫來執行法律任務。後者則透過大量資料的學習,來預測行為範式,用於再犯率、判決結果預測上有較好的成果。
一般情況下,應用在交通管制的 ALI 會辨識車輛是否超速、闖紅燈等違規行為,不過交通情境千變萬化,ALI 能否做出包含「道德價值的判斷」將是一大挑戰!
中研院歐美研究所陳弘儒助研究員察覺,人工智慧(AI)正在左右人們對守法的價值判斷及背後的因果結構,進而反思當我們將原本由人來判斷的事項,全權交由 AI 來執行時,可能產生哪些潛移默化的影響?
讓我們與陳弘儒展開一場從法哲學出發的對話,探索 AI 與法治價值之間的緊張關係。
-----廣告,請繼續往下閱讀-----
怎麼會對「人工智慧」(AI)與「法律人工智慧系統」(ALI)產生研究興趣?
會對 AI 感興趣是因為我很早就對電腦有興趣,我原本大學想唸資訊工程,因為高中有些科目沒辦法唸,於是去唸文組,大學進入法律系就讀,研究所考入「基礎法學組」研讀法哲學。
後來我到美國讀書,當時 AlphaGo 的新聞造成很大的轟動,啟發我思考 AI 的應用應該有些法律課題值得探討,於是開始爬梳 AI 與法律的發展脈絡。
AI 這個詞大概在 1950 年代被提出,而 AI 與法律相關的討論則在 1970、80 年代就有學者開始思考:我們能否將法律推理過程電腦程式化,讓電腦做出跟法律人一樣的判斷?