Loading [MathJax]/extensions/tex2jax.js

0

0
0

文字

分享

0
0
0

巨量重現時代的知識生產

活躍星系核_96
・2014/02/07 ・2090字 ・閱讀時間約 4 分鐘 ・SR值 618 ・十年級

文 / 陳紹慶(慈濟大學人類發展學系專任助理教授)

現代科學知識的生產流程是專業研究者定義有意義的研究問題,再運用的研究方法搜集與分析資料,寫成論文投稿經過同行審查,才能在專業期刊或出版管道正式發表。科學社群發展這套流程的初衷是尊重每位科學研究者都有維持科學知識結構性誠篤(structural integrity)的自律意識,提出的研究結果都經得起再現研究的考驗。然而即使到今天,資料造假與抄襲等違反學術倫理的事件依然在許多科學領域不斷發生,而無法用具體倫理規範約束,卻會損害結構性誠篤的問題,是通過同行的專業審查才出版的研究成果,卻不能被其它研究者以相同或接近的方式重現(replication)。就以心理學來說,先前曾有台灣的學界大老對此問題挑起公開批判,只是後續輿論焦點都擺在由此衍生的計畫經費補助不公、專業人士翻譯錯誤等爭議,最初的批判起點反而沒有激起更深刻的了解與思考。在此介紹去年底由維吉尼亞大學的心理學教授Brian Nosek領導多位心理學實驗室主持人進行的跨國性開放式研究專案,以及一些對此專案成果的回應。

Figure1.Colored

這項專案的實驗刺激及程式、原始實驗資料、還有分析程序,以及最後的論文初稿,完全公開在開放科學平台網站,上圖是所有實驗結果總結,讀者可至專案網頁,瀏覽或下載公開的研究資料。Nosek教授與幾位主要主持人,挑選已發表於專業心理學期刊的10篇論文,其中13項實驗。加入此專案的所有實驗室主持人,以邀請受試者到實驗室,或透過網路徵求自願者登錄指定網站進行實驗。為了各實驗室執行的實驗內容一致,且能快速完成,這13項實驗被選擇的考量是因為能透過網路進行,執行時間不長(每項實驗進行長度不超過2分鐘),設計簡單(只有一組實驗組與一組控制組),以及實驗效應的多樣性。這些實驗的測量變項是受試者的答對率、量表分數或同組內回答人數等等,因此每個實驗室完成一項實驗結果的分析,就轉換成效果量(effect size),評估每項實驗的原始研究結果與重現結果的差異,上圖中的每一點代表原始研究結果與每次重現結果的效果量,依所有重現結果的平均效果量大小由上而下排列。

對心理學研究有相當認識的讀者應能發現,13項實驗都是來自決策的認知心理學或相關的社會認知研究,例如Tversky與Kahneman建立學術權威的錨點效應(anchoring)與框架效應(framing)。但Nosek教授與其它共同主持人是根據容易執行的考量選擇進行這些實驗,並非每個實驗背後心理學理論有何關聯。所以即使重現研究的結果證實錨點效應與框架效應確實經得起考驗,再現的結果並不能告訴我們在這些議題上有什麼更新的知識。真正要注意的是所有原始研究公佈的統計結果都有達到顯著水準,轉換為標準化的效果量也都有顯示原始研究報告的實驗組與控制組有起碼差異,然而重現結果顯示排序最末的三項實驗重現結果平均效果量幾乎等於0,代表原始論文報告的效應並不能運用論文作者公開的方法做到起碼的重現。這些實驗都是經過同行審查的知識生產流程發表,如果同一個學術領域內所有研究者對自已發表的結果都有相同的自律意識,所有實驗的原始結果與再現結果應是一致,這個領域產生的知識才具備結構性誠篤。上圖所列的實驗原始出處,讀者可以從專案網頁公開的報告中了解更多背景資訊。

-----廣告,請繼續往下閱讀-----

2013年11月下旬專案結果初次發表後,我注意到專業科普作家Ed Young與Zwaan教授隔天的回應。Ed Young在去年底之前撰寫了三篇與此專案有關的文章,分別發表在個人部落格《Nature》期刊、與《Discovery Magazine》探討方向和近年來他持續追蹤的心理科學研究造假案例,剛好也是社會認知的研究有關。他肯定Nosek教授等人的做法,並提倡推廣開放科學研究,做為強化科學研究成果出版後審查機制(post-publication review)的概念。Zwaan教授在我之前的文章曾介紹他對重現研究的看法,原則上他也肯定出版後審查機制的重要性,他的回應提出更進一步的願景,就是專業的科學研究者,在提出原創性研究成果的時候,就能檢驗實驗結果的可重現性,讓同行研究者不必耗費更多的人力物力,來驗證或推翻一個概念不週全,但是有統計顯著的結果支持的主張。

為何有統計顯著的結果還要檢驗能否重現?因為一次實驗結果只是呈現多次實驗的一種可能性,如果最初的研究剛好是最極端的結果,其它研究者必須進行更多次實驗,或者招募更多受試者收集資料,才能說服所有人接受這項研究無法帶來有意義的知識。然而從最初的研究到後續研究的重現檢驗,這類研究發現完全不能帶來任何新的知識,我認為這是心理學等行為與社會科學被批評並非硬科學的主因。不過還是有許多經得起考驗的研究結果,不僅在相同或接近的研究條件下可被重現,在符合目的的範圍內改變研究設計或測量方法後,依然顯現同樣的結果,例如Stroop效應遺忘曲線。一個成熟的科學領域需要經得起考驗的研究案例支持,才能建立整體的結構性誠篤,說服大眾相信一個科學社群生產的知識。而Nosek教授等研究者的作法,示範一種願意促進科學知識進步的專業與業餘人士,理解與檢驗公開的科學研究成果有沒有帶來真正有意義的知識。

-----廣告,請繼續往下閱讀-----
文章難易度
活躍星系核_96
778 篇文章 ・ 128 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

0

1
0

文字

分享

0
1
0
拆解邊緣AI熱潮:伺服器如何提供穩固的運算基石?
鳥苷三磷酸 (PanSci Promo)_96
・2025/05/21 ・5071字 ・閱讀時間約 10 分鐘

-----廣告,請繼續往下閱讀-----

本文與 研華科技 合作,泛科學企劃執行。

每次 NVIDIA 執行長黃仁勳公開發言,總能牽動整個 AI 產業的神經。然而,我們不妨設想一個更深層的問題——如今的 AI 幾乎都倚賴網路連線,那如果哪天「網路斷了」,會發生什麼事?

想像你正在自駕車打個盹,系統突然警示:「網路連線中斷」,車輛開始偏離路線,而前方竟是萬丈深谷。又或者家庭機器人被駭,開始暴走跳舞,甚至舉起刀具向你走來。

這會是黃仁勳期待的未來嗎?當然不是!也因為如此,「邊緣 AI」成為業界關注重點。不靠雲端,AI 就能在現場即時反應,不只更安全、低延遲,還能讓數據當場變現,不再淪為沉沒成本。

什麼是邊緣 AI ?

邊緣 AI,乍聽之下,好像是「孤單站在角落的人工智慧」,但事實上,它正是我們身邊最可靠、最即時的親密數位夥伴呀。

當前,像是企業、醫院、學校內部的伺服器,個人電腦,甚至手機等裝置,都可以成為「邊緣節點」。當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。簡單來說,就是將原本集中在遠端資料中心的運算能力,「搬家」到更靠近數據源頭的地方。

-----廣告,請繼續往下閱讀-----

那麼,為什麼需要這樣做?資料放在雲端,集中管理不是更方便嗎?對,就是不好。

當數據在這些邊緣節點進行運算,稱為邊緣運算;而在邊緣節點上運行 AI ,就被稱為邊緣 AI。/ 圖片來源:MotionArray

第一個不好是物理限制:「延遲」。
即使光速已經非常快,數據從你家旁邊的路口傳到幾千公里外的雲端機房,再把分析結果傳回來,中間還要經過各種網路節點轉來轉去…這樣一來一回,就算只是幾十毫秒的延遲,對於需要「即刻反應」的 AI 應用,比如說工廠裡要精密控制的機械手臂、或者自駕車要判斷路況時,每一毫秒都攸關安全與精度,這點延遲都是無法接受的!這是物理距離與網路架構先天上的限制,無法繞過去。

第二個挑戰,是資訊科學跟工程上的考量:「頻寬」與「成本」。
你可以想像網路頻寬就像水管的粗細。隨著高解析影像與感測器數據不斷來回傳送,湧入的資料數據量就像超級大的水流,一下子就把水管塞爆!要避免流量爆炸,你就要一直擴充水管,也就是擴增頻寬,然而這樣的基礎建設成本是很驚人的。如果能在邊緣就先處理,把重要資訊「濃縮」過後再傳回雲端,是不是就能減輕頻寬負擔,也能節省大量費用呢?

第三個挑戰:系統「可靠性」與「韌性」。
如果所有運算都仰賴遠端的雲端時,一旦網路不穩、甚至斷線,那怎麼辦?很多關鍵應用,像是公共安全監控或是重要設備的預警系統,可不能這樣「看天吃飯」啊!邊緣處理讓系統更獨立,就算暫時斷線,本地的 AI 還是能繼續運作與即時反應,這在工程上是非常重要的考量。

所以你看,邊緣運算不是科學家們沒事找事做,它是順應數據特性和實際應用需求,一個非常合理的科學與工程上的最佳化選擇,是我們想要抓住即時數據價值,非走不可的一條路!

邊緣 AI 的實戰魅力:從工廠到倉儲,再到你的工作桌

知道要把 AI 算力搬到邊緣了,接下來的問題就是─邊緣 AI 究竟強在哪裡呢?它強就強在能夠做到「深度感知(Deep Perception)」!

-----廣告,請繼續往下閱讀-----

所謂深度感知,並非僅僅是對數據進行簡單的加加減減,而是透過如深度神經網路這類複雜的 AI 模型,從原始數據裡面,去「理解」出更高層次、更具意義的資訊。

研華科技為例,旗下已有多項邊緣 AI 的實戰應用。以工業瑕疵檢測為例,利用物件偵測模型,快速將工業產品中的瑕疵挑出來,而且由於 AI 模型可以使用同一套參數去檢測,因此品管上能達到一致性,減少人為疏漏。尤其在高產能工廠中,檢測速度必須快、狠、準。研華這套 AI 系統每分鐘最高可處理 8,000 件產品,替工廠節省大量人力,同時確保品質穩定。這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。

這樣的效能來自於一台僅有膠囊咖啡機大小的邊緣設備—IPC-240。/ 圖片提供:研華科技

此外,在智慧倉儲場域,研華與威剛合作,研華與威剛聯手合作,在 MIC-732AO 伺服器上搭載輝達的 Nova Orin 開發平台,打造倉儲系統的 AMR(Autonomous Mobile Robot) 自走車。這跟過去在倉儲系統中使用的自動導引車 AGV 技術不一樣,AMR 不需要事先規劃好路線,靠著感測器偵測,就能輕鬆避開障礙物,識別路線,並且將貨物載到指定地點存放。

當然,還有語言模型的應用。例如結合檢索增強生成 ( RAG ) 跟上下文學習 ( in-context learning ),除了可以做備忘錄跟排程規劃以外,還能將實務上碰到的問題記錄下來,等到之後碰到類似的問題時,就能詢問 AI 並得到解答。

你或許會問,那為什麼不直接使用 ChatGPT 就好了?其實,對許多企業來說,內部資料往往具有高度機密性與商業價值,有些場域甚至連手機都禁止員工帶入,自然無法將資料上傳雲端。對於重視資安,又希望運用 AI 提升效率的企業與工廠而言,自行部署大型語言模型(self-hosted LLM)才是理想選擇。而這樣的應用,並不需要龐大的設備。研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。

但問題也接著浮現:要在這麼小的設備上跑大型 AI 模型,會不會太吃資源?這正是目前 AI 領域最前沿、最火熱的研究方向之一:如何幫 AI 模型進行「科學瘦身」,又不減智慧。接下來,我們就來看看科學家是怎麼幫 AI 減重的。

-----廣告,請繼續往下閱讀-----

語言模型瘦身術之一:量化(Quantization)—用更精簡的數位方式來表示知識

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。這其實跟圖片壓縮有點像:有些畫面細節我們肉眼根本看不出來,刪掉也不影響整體感覺,卻能大幅減少檔案大小。

模型量化的原理也是如此,只不過對象是模型裡面的參數。這些參數原先通常都是以「浮點數」表示,什麼是浮點數?其實就是你我都熟知的小數。舉例來說,圓周率是個無窮不循環小數,唸下去就會是3.141592653…但實際運算時,我們常常用 3.14 或甚至直接用 3,也能得到夠用的結果。降低模型參數中浮點數的精度就是這個意思! 

然而,量化並不是那麼容易的事情。而且實際上,降低精度多少還是會影響到模型表現的。因此在設計時,工程師會精密調整,確保效能在可接受範圍內,達成「瘦身不減智」的目標。

當硬體資源有限,大模型卻越來越龐大,「幫模型減肥」就成了邊緣 AI 的重要課題。/ 圖片來源:MotionArray

模型剪枝(Model Pruning)—基於重要性的結構精簡

建立一個 AI 模型,其實就是在搭建一整套類神經網路系統,並訓練類神經元中彼此關聯的參數。然而,在這麼多參數中,總會有一些參數明明佔了一個位置,卻對整體模型沒有貢獻。既然如此,不如果斷將這些「冗餘」移除。

這就像種植作物的時候,總會雜草叢生,但這些雜草並不是我們想要的作物,這時候我們就會動手清理雜草。在語言模型中也會有這樣的雜草存在,而動手去清理這些不需要的連結參數或神經元的技術,就稱為 AI 模型的模型剪枝(Model Pruning)。

-----廣告,請繼續往下閱讀-----

模型剪枝的效果,大概能把100變成70這樣的程度,說多也不是太多。雖然這樣的縮減對於提升效率已具幫助,但若我們要的是一個更小幾個數量級的模型,僅靠剪枝仍不足以應對。最後還是需要從源頭著手,採取更治本的方法:一開始就打造一個很小的模型,並讓它去學習大模型的知識。這項技術被稱為「知識蒸餾」,是目前 AI 模型壓縮領域中最具潛力的方法之一。

知識蒸餾(Knowledge Distillation)—讓小模型學習大師的「精髓」

想像一下,一位經驗豐富、見多識廣的老師傅,就是那個龐大而強悍的 AI 模型。現在,他要培養一位年輕學徒—小型 AI 模型。與其只是告訴小型模型正確答案,老師傅 (大模型) 會更直接傳授他做判斷時的「思考過程」跟「眉角」,例如「為什麼我會這樣想?」、「其他選項的可能性有多少?」。這樣一來,小小的學徒模型,用它有限的「腦容量」,也能學到老師傅的「智慧精髓」,表現就能大幅提升!這是一種很高級的訓練技巧,跟遷移學習有關。

舉個例子,當大型語言模型在收到「晚餐:鳳梨」這組輸入時,它下一個會接的詞語跟機率分別為「炒飯:50%,蝦球:30%,披薩:15%,汁:5%」。在知識蒸餾的過程中,它可以把這套機率表一起教給小語言模型,讓小語言模型不必透過自己訓練,也能輕鬆得到這個推理過程。如今,許多高效的小型語言模型正是透過這項技術訓練而成,讓我們得以在資源有限的邊緣設備上,也能部署愈來愈強大的小模型 AI。

但是!即使模型經過了這些科學方法的優化,變得比較「苗條」了,要真正在邊緣環境中處理如潮水般湧現的資料,並且高速、即時、穩定地運作,仍然需要一個夠強的「引擎」來驅動它們。也就是說,要把這些經過科學千錘百鍊、但依然需要大量計算的 AI 模型,真正放到邊緣的現場去發揮作用,就需要一個強大的「硬體平台」來承載。

-----廣告,請繼續往下閱讀-----

邊緣 AI 的強心臟:SKY-602E3 的三大關鍵

像研華的 SKY-602E3 塔式 GPU 伺服器,就是扮演「邊緣 AI 引擎」的關鍵角色!那麼,它到底厲害在哪?

一、核心算力
它最多可安裝 4 張雙寬度 GPU 顯示卡。為什麼 GPU 這麼重要?因為 GPU 的設計,天生就擅長做「平行計算」,這正好就是 AI 模型裡面那種海量數學運算最需要的!

你想想看,那麼多數據要同時處理,就像要請一大堆人同時算數學一樣,GPU 就是那個最有效率的工具人!而且,有多張 GPU,代表可以同時跑更多不同的 AI 任務,或者處理更大流量的數據。這是確保那些科學研究成果,在邊緣能真正「跑起來」、「跑得快」、而且「能同時做更多事」的物理基礎!

二、工程適應性——塔式設計。
邊緣環境通常不是那種恆溫恆濕的標準機房,有時是在工廠角落、辦公室一隅、或某個研究實驗室。這種塔式的機箱設計,體積相對緊湊,散熱空間也比較好(這對高功耗的 GPU 很重要!),部署起來比傳統機架式伺服器更有彈性。這就是把高性能計算,進行「工程化」,讓它能適應台灣多樣化的邊緣應用場景。

三、可靠性
SKY-602E3 用的是伺服器等級的主機板、ECC 糾錯記憶體、還有備援電源供應器等等。這些聽起來很硬的規格,背後代表的是嚴謹的工程可靠性設計。畢竟在邊緣現場,系統穩定壓倒一切!你總不希望 AI 分析跑到一半就掛掉吧?這些設計確保了部署在現場的 AI 系統,能夠長時間、穩定地運作,把實驗室裡的科學成果,可靠地轉化成實際的應用價值。

-----廣告,請繼續往下閱讀-----
研華的 SKY-602E3 塔式 GPU 伺服器,體積僅如後背包大小,卻能輕鬆支援語言模型的運作,實現高效又安全的 AI 解決方案。/ 圖片提供:研華科技

台灣製造 × 在地智慧:打造專屬的邊緣 AI 解決方案

研華科技攜手八維智能,能幫助企業或機構提供客製化的AI解決方案。他們的技術能力涵蓋了自然語言處理、電腦視覺、預測性大數據分析、全端軟體開發與部署,及AI軟硬體整合。

無論是大小型語言模型的微調、工業瑕疵檢測的模型訓練、大數據分析,還是其他 AI 相關的服務,都能交給研華與八維智能來協助完成。他們甚至提供 GPU 與伺服器的租借服務,讓企業在啟動 AI 專案前,大幅降低前期投入門檻,靈活又實用。

台灣有著獨特的產業結構,從精密製造、城市交通管理,到因應高齡化社會的智慧醫療與公共安全,都是邊緣 AI 的理想應用場域。更重要的是,這些情境中許多關鍵資訊都具有高度的「時效性」。像是產線上的一處異常、道路上的突發狀況、醫療設備的即刻警示,這些都需要分秒必爭的即時回應。

如果我們還需要將數據送上雲端分析、再等待回傳結果,往往已經錯失最佳反應時機。這也是為什麼邊緣 AI,不只是一項技術創新,更是一條把尖端 AI 科學落地、真正發揮產業生產力與社會價值的關鍵路徑。讓數據在生成的那一刻、在事件發生的現場,就能被有效的「理解」與「利用」,是將數據垃圾變成數據黃金的賢者之石!

👉 更多研華Edge AI解決方案
👉 立即申請Server租借

-----廣告,請繼續往下閱讀-----
-----廣告,請繼續往下閱讀-----
文章難易度

討論功能關閉中。

6

20
2

文字

分享

6
20
2
阿茲海默風暴:通訊作者的辯駁與責任
胡中行_96
・2022/07/28 ・3231字 ・閱讀時間約 6 分鐘

「關於《科學》…控訴我的前同事 Sylvain Lesné 博士可能篡改影像,我不予置評,畢竟後者正在接受明尼蘇達大學的正式調查。然而,文中的科學陳述我有意見,因為針對我的學理描述並不正確。」[1] 2022 年 7 月 21 日,知名期刊《科學》的新聞專題,指出影響深遠的 2006 年阿茲海默症論文造假,向全球醫療圈投下震撼彈。[2] 隔天當事人之一,明尼蘇達大學的 Karen Hsiao Ashe 教授親上火線,在阿茲海默症新聞論壇 Alzforum 上,發出嚴正聲明,同時引發學界熱烈討論。[1]

《自然》期刊 2022 年 7 月 14 日的(黃色底線)編按,提到正在調查遭質疑的圖像。
圖/參考資料 3(Screenshot used as fair dealing for news report.)

《科學》期刊報導,去年 8 月,二名希望 Cassava Sciences 製藥公司股票下跌,以從中獲利的投資人,[註] 透過律師聘雇時年 37 歲的范德比大學神經科學家 Matthew Schrag 。他們付了美金 1 萬 8 千元,要求調查該公司的阿茲海默症實驗藥物 Simufilam 。執行任務的過程中, Schrag 發現一篇 2006 年刊登於《自然》期刊的論文,十分可疑。[2] 該研究的第一作者是 Sylvain Lesné ,而 Karen Hsiao Ashe 則是通訊作者。[3]

明尼蘇達大學 Karen Hsiao Ashe 教授。圖/University of Minnesota(Image used as fair dealing for news report.)

Karen H. Ashe 教授是中國裔美國人,本姓蕭,但冠上第二任丈夫的姓氏 Ashe 。[4] 母親為生化學家袁昭穎(Joyce C.Y. Yuan),曾任諾貝爾得主 Alexander Todd 實驗室的訪問學者;[5] 父親則是明尼蘇達大學航太工程榮譽教授蕭之㑺(Chih Chun Hsiao),於兩次國共內戰之間移民美國,後來曾受邀赴共產中國教書,並致力於中美交流。[4, 6, 7] 不枉其家學淵源, Ashe 教授 3 歲立志當科學家, 17 歲跳級進入哈佛大學二年級就讀, 27 歲時不僅已經唸完哈佛大學醫學系,還取得麻省理工的博士學位。她曾追隨諾貝爾得主 Stanley Prusiner 教授進行腦部研究;後來在自己領導的團隊中,和法國科學家 Sylvain Lesné 合作阿茲海默症相關主題,[4] 還因此獲得重要獎項。[2] 2012 年明尼蘇達的世紀老報《明星論壇》,在專訪中更描述她多才多藝,且具有謙遜的中國傳統美德。[4]

明尼蘇達大學 Sylvain Lesné 副教授。
圖/University of Minnesota
(Image used as fair dealing for news report.)

在 2006 年《自然》期刊關鍵性的論文中, Lesné 和 Ashe 表示注射到腦袋裡的 Aβ*56 ,會令年輕小鼠失智,並認為此發現將有助未來的阿茲海默症研究。[2, 3] Aβ*56 唸作「 amyloid beta star 56 」,是一種 β 澱粉類蛋白(amyloid beta,縮寫成Aβ)。[2]如何減少 Aβ 的累積,至今仍是阿茲海默症研究的方向之一;[2, 8, 9] 而 Cassava Sciences 的 Simufilam ,則是以預防 Aβ 與特定受器結合,來達此效果[10, 11]

范德比大學神經科學家 Matthew Schrag 。
圖/Vanderbilt University Medical Center
(Image used as fair dealing for news report.)

這次新聞事件的吹哨者 Matthew Schrag ,此前就曾公開批評美國食品藥管理局,不該核准另一款抗 Aβ 藥物;而他自己的研究也與 Cassava Sciences 的主張相悖,認定 Simufilam 對受試者有弊無利。當 Schrag 開始懷疑 Lesné 不只是在 2006 年《自然》刊載的影像上動手腳,《科學》期刊請來 George Perry 和 John Forsayeth 等頂尖專家協助鑑定。他們均認同 Schrag 的看法,也就是對 Lesné 發表於超過 70 篇論文中的上百張影像存疑。[2]

-----廣告,請繼續往下閱讀-----

這把燒毀阿茲海默症重要研究根基的熊熊烈火,一發不可收拾,向四面八方蔓延開來。美國國家衛生研究院、《自然》、《神經科學期刊》、《PLOS ONE》,以及與《科學》同屬美國科學促進會的《科學信號》等單位,通通重新審視 Lesné 參與的論文,而且其中部份已遭撤回。 Schrag 批評這些錯誤資訊,不單浪費國家衛生研究院為數可觀的贊助經費,還被引用數千次,「因此誤導了整個學界。」另外,他也揪出 34 篇由其他作者撰寫,跟 Cassava Sciences 直接相關的問題論文,並上報國家衛生研究院。[2] 因此,那斯達克股票交易所警告投資人, Cassava Sciences (股票代號: SAVA )的情況岌岌可危。如果未來美國食品藥物管理局不批准 Simufilam ,其股價或許會慘跌至個位數字。[12]

儘管事件主要聚焦在 Lesné 上,就學術倫理來說,身為 2006 年那篇論文的通訊作者, Ashe 教授也得為研究品質負責。[13-15]面對「誤導整個學界」的指控,她在 Alzforum 上以自己過去發表的研究,說明 Aβ 分為第一型與第二型。當年害小鼠失智的 Aβ*56 ,屬於第一型;而第二型則是在類澱粉蛋白斑塊(amyloid plaques)中找到的。「後者是藥物研發者屢戰屢敗的目標。」Ashe 教授寫道:「從來就沒有臨床試驗針對第一型,但那才是我在研究中點出的失智關聯。」[1]

阿茲海默新聞論壇 Alzforum 上,Karen H. Ashe 教授和其他學者,對此事件公開表態。
圖/參考資料1(Screenshot used as fair dealing for news report.)

在 Ashe 教授的辯駁下方,有幾名學者留言強調學界不該以偏概全,為了一則新聞報導,抹滅相關研究的重要性。[1] 此外,目前仍在進行中的 Simufilam 臨床試驗,也與 Aβ*56 無關。他們當初挑選受試者的條件,包含某種蛋白質跟 Aβ42 的比例(CSF tau/Aβ42 ratio ≥ 0.28);[16] 所發表的論文,也是在分析是否能抑制 Aβ42 的負面影響。[10]

這是本文未提及,但也是針對 Aβ 的研究。由左至右: Aβ 逐漸累積成塊,右上為接受免疫療法的(灰色)神經元,右下則缺乏治療。
圖/Esang M and Gupta M. (2021) ’Aducanumab as a Novel Treatment for Alzheimer’s Disease: A Decade of Hope, Controversies, and the Future.’ Cureus, 13, 8, e17591. (CC BY 4.0)

然而,就因為阿茲海默症的藥物臨床試驗,都不是和 Aβ*56 直接相關,[11, 16] Ashe 教授便責無旁貸了嗎?美國軍醫學校的 David Brody 博士在 Alzforum 的討論串中提到,他的團隊以前試圖重複 Aβ *56 的研究,花了約一整年的時間,卻徒勞無功。[11] 《科學》也提及不少實驗室,遇到一樣的情形。[2] 這些想要以經典為基石向前邁進的人,都被謊言所羈絆,而使得醫學的進展停滯不前。失敗的研究當然不太有論文發表,[2] 更甭論人體臨床試驗。害大家耗費精力走冤枉路,難道不是對阿茲海默症研究的嚴重傷害?

「你可以靠作弊發表論文,獲取學位,贏得補助」, Schrag 對《科學》的記者說:「但你不能用欺騙來治癒疾病」。[2] 諷刺的是,十年前《明星論壇》也記錄了 Ashe 教授類似的談話。她當時鼓勵人們要勇於挑戰她,因為錯誤的理論「不會迎來解藥」。[4]

-----廣告,請繼續往下閱讀-----

  

備註

根據美國第一證券的解釋,「賣空」(short selling)的投資人會將非己有的股票售出,計劃未來以較低的股價買回。[17] (筆者完全沒聽懂為何這樣能獲利,還請會玩股票的讀者不吝指教,謝謝。)

  1. Sylvain Lesné, Who Found Aβ*56, Accused of Image Manipulation (Alzforum, 2022)
  2. Charles Piller. (2022) ‘Blots On A Field?’ Science, 377, 6604.
  3. Lesné, S., Koh, M., Kotilinek, L. et al. (2006) ‘A specific amyloid-β protein assembly in the brain impairs memory’. Nature, 440, pp. 352–357.
  4. Dr. Karen Ashe: Stalking Alzheimer’s (Star Tribune, 2012)
  5. MCFGS ADVISORS (明州中国友好花园协会,accessed on 26 JUL 2022)
  6. CC Hsiao Memorial (The University of Minnesota Digital Conservancy, 2009)
  7. Changsha Garden History (明州中国友好花园协会,accessed on 26 JUL 2022)
  8. Multiple Dose Study of Aducanumab (BIIB037) (Recombinant, Fully Human Anti-Aβ IgG1 mAb) in Participants With Prodromal or Mild Alzheimer’s Disease (PRIME) (ClinicalTrials.gov, 2020)
  9. An Extension Study of V203-AD Study to Evaluate the Safety, Tolerability, Immunogenicity, and Efficacy of UB-311 (ClinicalTrials.gov, 2021)
  10. Wang HY, Bakshi K, Frankfurt M, et al. (2012) ‘Reducing Amyloid-Related Alzheimer’s Disease Pathogenesis by a Small Molecule Targeting Filamin A’. Journal of Neuroscience, 32, 29, pp. 9773-9784.
  11. Simufilam (Alzforum, 2022)
  12. 7 Meme Stocks Trading at a Massive Discount Right Now (Nasdaq, 2022)
  13. 想一想:共同作者是誰(臺灣學術倫理教育資源中心,accessed on 26 JUL 2022)
  14. 科技部對研究人員學術倫理規範(科技部,2017)
  15. Corresponding author defined (Springer, 2020)
  16. Simufilam (PTI-125), 100 mg, for Mild-to-moderate Alzheimer’s Disease Patients (ClinicalTrials.gov, 2021)
  17. 投資辭彙(FirstTrade,accessed on 28 JUL 2022)
-----廣告,請繼續往下閱讀-----
所有討論 6
胡中行_96
169 篇文章 ・ 67 位粉絲
曾任澳洲臨床試驗研究護理師,以及臺、澳劇場工作者。 西澳大學護理碩士、國立台北藝術大學戲劇學士(主修編劇)。邀稿請洽臉書「荒誕遊牧」,謝謝。

0

0
0

文字

分享

0
0
0
巨量重現時代的知識生產
活躍星系核_96
・2014/02/07 ・2090字 ・閱讀時間約 4 分鐘 ・SR值 618 ・十年級

文 / 陳紹慶(慈濟大學人類發展學系專任助理教授)

現代科學知識的生產流程是專業研究者定義有意義的研究問題,再運用的研究方法搜集與分析資料,寫成論文投稿經過同行審查,才能在專業期刊或出版管道正式發表。科學社群發展這套流程的初衷是尊重每位科學研究者都有維持科學知識結構性誠篤(structural integrity)的自律意識,提出的研究結果都經得起再現研究的考驗。然而即使到今天,資料造假與抄襲等違反學術倫理的事件依然在許多科學領域不斷發生,而無法用具體倫理規範約束,卻會損害結構性誠篤的問題,是通過同行的專業審查才出版的研究成果,卻不能被其它研究者以相同或接近的方式重現(replication)。就以心理學來說,先前曾有台灣的學界大老對此問題挑起公開批判,只是後續輿論焦點都擺在由此衍生的計畫經費補助不公、專業人士翻譯錯誤等爭議,最初的批判起點反而沒有激起更深刻的了解與思考。在此介紹去年底由維吉尼亞大學的心理學教授Brian Nosek領導多位心理學實驗室主持人進行的跨國性開放式研究專案,以及一些對此專案成果的回應。

Figure1.Colored

這項專案的實驗刺激及程式、原始實驗資料、還有分析程序,以及最後的論文初稿,完全公開在開放科學平台網站,上圖是所有實驗結果總結,讀者可至專案網頁,瀏覽或下載公開的研究資料。Nosek教授與幾位主要主持人,挑選已發表於專業心理學期刊的10篇論文,其中13項實驗。加入此專案的所有實驗室主持人,以邀請受試者到實驗室,或透過網路徵求自願者登錄指定網站進行實驗。為了各實驗室執行的實驗內容一致,且能快速完成,這13項實驗被選擇的考量是因為能透過網路進行,執行時間不長(每項實驗進行長度不超過2分鐘),設計簡單(只有一組實驗組與一組控制組),以及實驗效應的多樣性。這些實驗的測量變項是受試者的答對率、量表分數或同組內回答人數等等,因此每個實驗室完成一項實驗結果的分析,就轉換成效果量(effect size),評估每項實驗的原始研究結果與重現結果的差異,上圖中的每一點代表原始研究結果與每次重現結果的效果量,依所有重現結果的平均效果量大小由上而下排列。

對心理學研究有相當認識的讀者應能發現,13項實驗都是來自決策的認知心理學或相關的社會認知研究,例如Tversky與Kahneman建立學術權威的錨點效應(anchoring)與框架效應(framing)。但Nosek教授與其它共同主持人是根據容易執行的考量選擇進行這些實驗,並非每個實驗背後心理學理論有何關聯。所以即使重現研究的結果證實錨點效應與框架效應確實經得起考驗,再現的結果並不能告訴我們在這些議題上有什麼更新的知識。真正要注意的是所有原始研究公佈的統計結果都有達到顯著水準,轉換為標準化的效果量也都有顯示原始研究報告的實驗組與控制組有起碼差異,然而重現結果顯示排序最末的三項實驗重現結果平均效果量幾乎等於0,代表原始論文報告的效應並不能運用論文作者公開的方法做到起碼的重現。這些實驗都是經過同行審查的知識生產流程發表,如果同一個學術領域內所有研究者對自已發表的結果都有相同的自律意識,所有實驗的原始結果與再現結果應是一致,這個領域產生的知識才具備結構性誠篤。上圖所列的實驗原始出處,讀者可以從專案網頁公開的報告中了解更多背景資訊。

-----廣告,請繼續往下閱讀-----

2013年11月下旬專案結果初次發表後,我注意到專業科普作家Ed Young與Zwaan教授隔天的回應。Ed Young在去年底之前撰寫了三篇與此專案有關的文章,分別發表在個人部落格《Nature》期刊、與《Discovery Magazine》探討方向和近年來他持續追蹤的心理科學研究造假案例,剛好也是社會認知的研究有關。他肯定Nosek教授等人的做法,並提倡推廣開放科學研究,做為強化科學研究成果出版後審查機制(post-publication review)的概念。Zwaan教授在我之前的文章曾介紹他對重現研究的看法,原則上他也肯定出版後審查機制的重要性,他的回應提出更進一步的願景,就是專業的科學研究者,在提出原創性研究成果的時候,就能檢驗實驗結果的可重現性,讓同行研究者不必耗費更多的人力物力,來驗證或推翻一個概念不週全,但是有統計顯著的結果支持的主張。

為何有統計顯著的結果還要檢驗能否重現?因為一次實驗結果只是呈現多次實驗的一種可能性,如果最初的研究剛好是最極端的結果,其它研究者必須進行更多次實驗,或者招募更多受試者收集資料,才能說服所有人接受這項研究無法帶來有意義的知識。然而從最初的研究到後續研究的重現檢驗,這類研究發現完全不能帶來任何新的知識,我認為這是心理學等行為與社會科學被批評並非硬科學的主因。不過還是有許多經得起考驗的研究結果,不僅在相同或接近的研究條件下可被重現,在符合目的的範圍內改變研究設計或測量方法後,依然顯現同樣的結果,例如Stroop效應遺忘曲線。一個成熟的科學領域需要經得起考驗的研究案例支持,才能建立整體的結構性誠篤,說服大眾相信一個科學社群生產的知識。而Nosek教授等研究者的作法,示範一種願意促進科學知識進步的專業與業餘人士,理解與檢驗公開的科學研究成果有沒有帶來真正有意義的知識。

-----廣告,請繼續往下閱讀-----
文章難易度
活躍星系核_96
778 篇文章 ・ 128 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia

1

3
2

文字

分享

1
3
2
超過 50% 的癌症研究實驗無法被重現?RPCB 耗時 8 年點出「再現性危機」
Yiting_96
・2022/01/14 ・2375字 ・閱讀時間約 4 分鐘

你聽過科學研究的「再現性」(reproducibility)嗎?如果一個科學研究結果具有再現性,代表它可以被另一個研究團隊,以同樣的控制條件、操作步驟進行重複測量,並獲得與前人相近的結果。這也代表著這項實驗是可以被驗證的,該研究的可信度也越高。

近年來,許多領域都開始重視科學研究的再現性問題,例如 2015 年由科學開放平台(Open Science Framework, OSF)發表在《科學》(Science)的一篇心理學實驗再現性的研究,就重複了三個重要的心理學期刊,包括 Psychological ScienceJournal of Personality and Social PsychologyJournal of Experimental Psychology: Learning, Memory, and Cognition 在 2008 年間發表的 100 個研究,結果顯示僅有 36%的研究具有統計顯著性[1]

而在 2016 年刊載於《自然》(Nature)的一篇報導中,團隊以線上問卷調查了 1576 位研究者,發現有超過 70% 的研究者,無法重現其他科學家曾經做過的研究結果;更有超過 50% 研究者無法重現「自己的」研究結果[2]

再現研究論文時,會遇到哪些困難?

同樣的科學研究再現性驗證也出現在生醫領域。一項由 RPCB(Reproducibility Project: Cancer Biology)團隊耗資 200 萬美元、歷時 8 年,嘗試複製各大具影響力的臨床前癌症研究,其結果於去年(2021)12 月發表於 eLife[3]

-----廣告,請繼續往下閱讀-----

在看這項研究結果之前,或許我們可以先了解 RPCB 究竟是何方神聖?RPCB 是一個由非營利組織「開放科學中心」(Center for Open Science)與學術平台「科學交流」(Science Exchange),在 2013 年開始合作執行的一項計畫。團隊期望能系統性地重現出 53 篇於 2010~2012 年間,刊登在知名期刊《自然》、《科學》、《細胞》(Cell)中的臨床前癌症相關研究。

cos_logo
非營利組織「開放科學中心」的標誌。圖/RPCB

即使一開始團隊預計重複 53 篇論文中共 193 項實驗,但最終能成功執行的僅有來自 23 篇論文裡的 50 個實驗,且仍使該計畫延宕了五年才完成。為什麼理想這麼豐滿,現實卻如此骨感?研究團隊在論文中提到了幾項實驗再現的困難與挑戰,例如:

  1. 許多原始論文缺少敘述統計(descriptive statistics)和推論統計(inferential statistics)的關鍵數據,像是效果量(effect size)、統計檢定力(power)等資訊,儘管團隊聯繫了原始論文的作者,仍有 68% 的數據無法取得。
  2. 在這 193 項實驗中,沒有一個具有足夠詳細的說明,令團隊能設計出重複的實驗步驟。這使得他們不得不轉向論文原始作者,以尋求更進一步的實驗建議,而在詢問的過程中,約 26% 作者給了極大的幫助,而有約 32% 作者對實驗完全沒幫助(或是無任何回應)。

癌症研究實驗的再現性僅 46%?

在缺乏合作、需要詳細檢查並調整實驗步驟的情況下,研究團隊平均需要花費 197 週的時間才能複製出一項實驗。此外,每複製一次實驗的成本高達 5 萬 3000 美元——大約是原先預估花費的兩倍,因此再現 193 項實驗的雄心壯志終究無法達成。

那麼這項耗時 8 年、斥資百萬的實驗再現性研究,給了我們什麼結果呢?

-----廣告,請繼續往下閱讀-----

根據團隊在 eLife 發布的第二篇論文顯示,這些臨床前癌症相關研究的實驗再現性僅有 46%,且平均的統計效果量也比原始論文低了 85%[4]

在這些被再現的實驗中,原始研究效果量大的往往更容易被複製,而動物實驗則是再現性最差的,這可能是因為在生物體內(in vivo)實驗的效果量,大多低於體外(in vitro)實驗。

白色實驗室禮服的女人
RPCB 團隊發現,再現一個實驗需要將近四年的時間,且成本是預想中的兩倍,無法完成 193 項實驗。圖/Pexels

只做一次的再現實驗,公信力足夠嗎?

發表在知名期刊上的臨床前癌症研究論文,其實驗再現性居然不到一半,這對於生物醫學相關領域的研究者來說,無疑是一項沉重的打擊。

不過僅憑一次的再現實驗,就評斷一項研究的公信力,對這些研究者來說公平嗎?其中一位研究無法被 RPCB 再現的學者就表示:「他無法確定這些一次性實驗有多少價值。」而那些被選中重現的實驗,當中也不乏已經開始進行第二期藥物臨床試驗的研究。同時也有研究者指出,RPCB 在複製實驗時使用了與原研究不同的細胞株(cell line),也並未在實驗中進行三重複確認最終結果[5]

有丝分裂, 减数分裂, 细胞, 细胞分裂, 人类, 癌症, 紧急情况, 血, 生物学, 科学, 药品, 健康
若能使用相同細胞株並進行三重複,應該能減少再現實驗的誤差。圖/Pixabay

針對這些指控,RPCB 說明這項計畫的目的,並非藉此斷言某些特定研究是無用,或需要被停止的,而是為了點出現今研究的再現性危機(reproducibility crisis),以期望找出相對應的解方。目前也有一些提升研究再現性的方法被提出,像是以盲性研究(blinding)進行體外實驗或動物實驗、採用更大的樣本量、更嚴謹的統計分析方法,以及研究計畫的預先註冊制度(preregistration)[註 1]

-----廣告,請繼續往下閱讀-----

雖然這項大型研究充滿著許多爭議,但也提醒了各領域的研究人員:對於自身研究的每個步驟、統計方法等,都應更加詳盡、仔細的記錄。除了能使後人有辦法針對已發表的內容,進行深入探討外,亦可以提升該實驗被再現的可能性,增加研究的公信力。

而看完文章的你,對於科學研究的再現性又有什麼看法呢?

註解

  • 註 1:研究計畫的預註冊是指研究者在進行科學研究之前,先對他提出的假設、方法、分析方式上傳到註冊機構,經由該單位的期刊編輯、同儕審查通過後,再進行研究的一種做法。
  1. Open Science Collaboration, Estimating the reproducibility of psychological science, Science, Vol 349, Issue 6251, 2015. https://www.science.org/doi/10.1126/science.aac4716
  2. Monya Baker, 1,500 scientists lift the lid on reproducibility, Nature, volume 533, pages452–454, 2016. https://www.nature.com/articles/533452a
  3. Timothy M Errington et al., Reproducibility in Cancer Biology: Challenges for assessing replicability in preclinical cancer biology, eLife, 2021. https://elifesciences.org/articles/67995
  4. Timothy M Errington et al.,Investigating the replicability of preclinical cancer biology, eLife, 2021. https://elifesciences.org/articles/71601
  5. Asher Mullard, Half of top cancer studies fail high-profile reproducibility effort, Nature, 09 December 2021. https://www.nature.com/articles/d41586-021-03691-0
-----廣告,請繼續往下閱讀-----
所有討論 1
Yiting_96
4 篇文章 ・ 1 位粉絲
在鳳梨田裡唸生科的人類,畢業後意外走上了科普路,目前還在緩慢前行中。喜歡有趣怪知識、諧音爛笑話,還有床。

0

0
0

文字

分享

0
0
0
巨量重現時代的知識生產
活躍星系核_96
・2014/02/07 ・2090字 ・閱讀時間約 4 分鐘 ・SR值 618 ・十年級

文 / 陳紹慶(慈濟大學人類發展學系專任助理教授)

現代科學知識的生產流程是專業研究者定義有意義的研究問題,再運用的研究方法搜集與分析資料,寫成論文投稿經過同行審查,才能在專業期刊或出版管道正式發表。科學社群發展這套流程的初衷是尊重每位科學研究者都有維持科學知識結構性誠篤(structural integrity)的自律意識,提出的研究結果都經得起再現研究的考驗。然而即使到今天,資料造假與抄襲等違反學術倫理的事件依然在許多科學領域不斷發生,而無法用具體倫理規範約束,卻會損害結構性誠篤的問題,是通過同行的專業審查才出版的研究成果,卻不能被其它研究者以相同或接近的方式重現(replication)。就以心理學來說,先前曾有台灣的學界大老對此問題挑起公開批判,只是後續輿論焦點都擺在由此衍生的計畫經費補助不公、專業人士翻譯錯誤等爭議,最初的批判起點反而沒有激起更深刻的了解與思考。在此介紹去年底由維吉尼亞大學的心理學教授Brian Nosek領導多位心理學實驗室主持人進行的跨國性開放式研究專案,以及一些對此專案成果的回應。

Figure1.Colored

這項專案的實驗刺激及程式、原始實驗資料、還有分析程序,以及最後的論文初稿,完全公開在開放科學平台網站,上圖是所有實驗結果總結,讀者可至專案網頁,瀏覽或下載公開的研究資料。Nosek教授與幾位主要主持人,挑選已發表於專業心理學期刊的10篇論文,其中13項實驗。加入此專案的所有實驗室主持人,以邀請受試者到實驗室,或透過網路徵求自願者登錄指定網站進行實驗。為了各實驗室執行的實驗內容一致,且能快速完成,這13項實驗被選擇的考量是因為能透過網路進行,執行時間不長(每項實驗進行長度不超過2分鐘),設計簡單(只有一組實驗組與一組控制組),以及實驗效應的多樣性。這些實驗的測量變項是受試者的答對率、量表分數或同組內回答人數等等,因此每個實驗室完成一項實驗結果的分析,就轉換成效果量(effect size),評估每項實驗的原始研究結果與重現結果的差異,上圖中的每一點代表原始研究結果與每次重現結果的效果量,依所有重現結果的平均效果量大小由上而下排列。

對心理學研究有相當認識的讀者應能發現,13項實驗都是來自決策的認知心理學或相關的社會認知研究,例如Tversky與Kahneman建立學術權威的錨點效應(anchoring)與框架效應(framing)。但Nosek教授與其它共同主持人是根據容易執行的考量選擇進行這些實驗,並非每個實驗背後心理學理論有何關聯。所以即使重現研究的結果證實錨點效應與框架效應確實經得起考驗,再現的結果並不能告訴我們在這些議題上有什麼更新的知識。真正要注意的是所有原始研究公佈的統計結果都有達到顯著水準,轉換為標準化的效果量也都有顯示原始研究報告的實驗組與控制組有起碼差異,然而重現結果顯示排序最末的三項實驗重現結果平均效果量幾乎等於0,代表原始論文報告的效應並不能運用論文作者公開的方法做到起碼的重現。這些實驗都是經過同行審查的知識生產流程發表,如果同一個學術領域內所有研究者對自已發表的結果都有相同的自律意識,所有實驗的原始結果與再現結果應是一致,這個領域產生的知識才具備結構性誠篤。上圖所列的實驗原始出處,讀者可以從專案網頁公開的報告中了解更多背景資訊。

-----廣告,請繼續往下閱讀-----

2013年11月下旬專案結果初次發表後,我注意到專業科普作家Ed Young與Zwaan教授隔天的回應。Ed Young在去年底之前撰寫了三篇與此專案有關的文章,分別發表在個人部落格《Nature》期刊、與《Discovery Magazine》探討方向和近年來他持續追蹤的心理科學研究造假案例,剛好也是社會認知的研究有關。他肯定Nosek教授等人的做法,並提倡推廣開放科學研究,做為強化科學研究成果出版後審查機制(post-publication review)的概念。Zwaan教授在我之前的文章曾介紹他對重現研究的看法,原則上他也肯定出版後審查機制的重要性,他的回應提出更進一步的願景,就是專業的科學研究者,在提出原創性研究成果的時候,就能檢驗實驗結果的可重現性,讓同行研究者不必耗費更多的人力物力,來驗證或推翻一個概念不週全,但是有統計顯著的結果支持的主張。

為何有統計顯著的結果還要檢驗能否重現?因為一次實驗結果只是呈現多次實驗的一種可能性,如果最初的研究剛好是最極端的結果,其它研究者必須進行更多次實驗,或者招募更多受試者收集資料,才能說服所有人接受這項研究無法帶來有意義的知識。然而從最初的研究到後續研究的重現檢驗,這類研究發現完全不能帶來任何新的知識,我認為這是心理學等行為與社會科學被批評並非硬科學的主因。不過還是有許多經得起考驗的研究結果,不僅在相同或接近的研究條件下可被重現,在符合目的的範圍內改變研究設計或測量方法後,依然顯現同樣的結果,例如Stroop效應遺忘曲線。一個成熟的科學領域需要經得起考驗的研究案例支持,才能建立整體的結構性誠篤,說服大眾相信一個科學社群生產的知識。而Nosek教授等研究者的作法,示範一種願意促進科學知識進步的專業與業餘人士,理解與檢驗公開的科學研究成果有沒有帶來真正有意義的知識。

-----廣告,請繼續往下閱讀-----
文章難易度
活躍星系核_96
778 篇文章 ・ 128 位粉絲
活躍星系核(active galactic nucleus, AGN)是一類中央核區活動性很強的河外星系。這些星系比普通星系活躍,在從無線電波到伽瑪射線的全波段裡都發出很強的電磁輻射。 本帳號發表來自各方的投稿。附有資料出處的科學好文,都歡迎你來投稿喔。 Email: contact@pansci.asia