0

0
0

文字

分享

0
0
0

按鈕要多大?費茲定律告訴你

Desiring Clicks
・2012/11/19 ・1308字 ・閱讀時間約 2 分鐘 ・SR值 501 ・六年級

-----廣告,請繼續往下閱讀-----

你知道為什麼 Microsoft Windows 的選單列放置在視窗上,而 Apple Mac OS X 的選單列放在螢幕的最上方嗎?你知道為什麼 Mozilla Firefox 瀏覽器左上角的「回到上一頁」和「到下一頁」兩個按鈕的大小不一樣嗎?其實費茲定律(Fitts’ Law)都已經在許多使用者介面裡面偷偷運作了!

費茲定律(Fitts’ Law)是心理學家 Paul Fitts 所提出的人機介面設計法則,主要定義了游標移動到目標之間的距離、目標物的大小和所花費的時間之間的關係。費茲定律目前廣泛應用在許多使用者介面設計上,以提高介面的使用性、操作度和效能。費茲定律長得就像下面這個公式:

其中 T 代表所花費的時間,a 是系統一定會花費的時間,b 是系統速率,D 代表啟始點到目標之間的距離,而 W 則是目標物平行於運動軌跡的長度。看起來一點都不討喜,對吧?我們可以用下圖來簡化一下費茲定律的意思:

用圖來解釋,就是當 D(啟始點到目標之間的距離)越長,使用者所花費的時間越多,而當 W(目標物平行於運動軌跡的長度)越長,則花費的時間越少,使用效能也比較好。

-----廣告,請繼續往下閱讀-----

這跟 Mozilla Firefox 的「回到上一頁」按鈕的大小有什麼關係呢?這要從「回到上一頁」和「到下一頁」兩個按鈕的行為有什麼不同來進行分析。

一般而言,我們在點選回到上一頁按鈕的時候,都是正在瀏覽網站而想要回到剛剛看過的頁面,這時滑鼠位置通常都在瀏覽器的頁面內容上,要把滑鼠從頁面上移動到「回到上一頁」的按鈕的距離很長,而且我們不能確定使用者會從哪個位置開始移動。因此 Firefox 將「回到上一頁」的按鈕加大並設計成圓形,以因應來自不同角度的滑鼠操作。而「到下一頁」的按鈕,通常都是因為點選了「回到上一頁」而感到反悔,希望可以回到上一個頁面,此時滑鼠是從左往右移動一個小段的距離,角度和距離都可以控制,所以 Firefox 就設計了比較寬的按鈕了!

至於 Windows 和 Mac OS X 的選單位置的差別呢?Windows 將選單位置放置在視窗標題的下方,如果滑鼠要從視窗內移動到選單上,這個選單的上下間距是非常狹窄,所以比較不容易點選到正確的按鈕。而 Mac OS X 則將選單放到螢幕的正上方,由於滑鼠移動到螢幕邊界的時候,會被螢幕邊界限制而停下,因此可以將選單的高度(也就是費茲法則中的 W)視為無限大,所以使用者所花費的時間減少,效率也就提昇了。

果然惡魔住在細節裡,對吧!

-----廣告,請繼續往下閱讀-----

 

Desiring Clicks 是一個專門介紹使用者介面、使用者經驗、視覺設計、資訊架構和網路行為的網誌。歡迎你一起參與介面設計,讓這個世界變得更美好。

延伸閱讀:

Image via webtreats, CC License.

文章難易度
Desiring Clicks
14 篇文章 ・ 1 位粉絲
Desiring Clicks(http://dclick.cc)是一個專門介紹使用者介面、使用者經驗、視覺設計、資訊架構和網路行為的網誌。我們相信任何設計、工程都必須由人的角度出發,更貼近人性與心靈,讓世界更美好!

0

3
3

文字

分享

0
3
3
圖形處理單元與人工智慧
賴昭正_96
・2024/06/24 ・6944字 ・閱讀時間約 14 分鐘

-----廣告,請繼續往下閱讀-----

  • 作者/賴昭正|前清大化學系教授、系主任、所長;合創科學月刊

我擔心人工智慧可能會完全取代人類。如果人們能設計電腦病毒,那麼就會有人設計出能夠自我改進和複製的人工智慧。 這將是一種超越人類的新生命形式。

——史蒂芬.霍金(Stephen Hawking) 英國理論物理學家

大約在八十年前,當第一台數位計算機出現時,一些電腦科學家便一直致力於讓機器具有像人類一樣的智慧;但七十年後,還是沒有機器能夠可靠地提供人類程度的語言或影像辨識功能。誰又想到「人工智慧」(Artificial Intelligent,簡稱 AI)的能力最近十年突然起飛,在許多(所有?)領域的測試中擊敗了人類,正在改變各個領域——包括假新聞的製造與散佈——的生態。

圖形處理單元(graphic process unit,簡稱 GPU)是這場「人工智慧」革命中的最大助手。它的興起使得九年前還是個小公司的 Nvidia(英偉達)股票從每股不到 $5,上升到今天(5 月 24 日)每股超過 $1000(註一)的全世界第三大公司,其創辦人(之一)兼首席執行官、出生於台南的黃仁勳(Jenson Huang)也一躍成為全世界排名 20 內的大富豪、台灣家喻戶曉的名人!可是多少人了解圖形處理單元是什麼嗎?到底是時勢造英雄,還是英雄造時勢?

黃仁勳出席2016年台北國際電腦展
Nvidia 的崛起究竟是時勢造英雄,還是英雄造時勢?圖/wikimedia

在回答這問題之前,筆者得先聲明筆者不是學電腦的,因此在這裡所能談的只是與電腦設計細節無關的基本原理。筆者認為將原理轉成實用工具是專家的事,不是我們外行人需要了解的;但作為一位現在的知識分子或公民,了解基本原理則是必備的條件:例如了解「能量不滅定律」就可以不用仔細分析,即可判斷永動機是騙人的;又如現在可攜帶型冷氣機充斥市面上,它們不用往室外排廢熱氣,就可以提供屋內冷氣,讀者買嗎?

CPU 與 GPU

不管是大型電腦或個人電腦都需具有「中央處理單元」(central process unit,簡稱 CPU)。CPU 是電腦的「腦」,其電子電路負責處理所有軟體正確運作所需的所有任務,如算術、邏輯、控制、輸入和輸出操作等等。雖然早期的設計即可以讓一個指令同時做兩、三件不同的工作;但為了簡單化,我們在這裡所談的工作將只是執行算術和邏輯運算的工作(arithmetic and logic unit,簡稱 ALU),如將兩個數加在一起。在這一簡化的定義下,CPU 在任何一個時刻均只能執行一件工作而已。

-----廣告,請繼續往下閱讀-----

在個人電腦剛出現只能用於一般事物的處理時,CPU 均能非常勝任地完成任務。但電腦圖形和動畫的出現帶來了第一批運算密集型工作負載後,CPU 開始顯示心有餘而力不足:例如電玩動畫需要應用程式處理數以萬計的像素(pixel),每個像素都有自己的顏色、光強度、和運動等, 使得 CPU 根本沒辦法在短時間內完成這些工作。於是出現了主機板上之「顯示插卡」來支援補助 CPU。

1999 年,英偉達將其一「具有集成變換、照明、三角形設定/裁剪、和透過應用程式從模型產生二維或三維影像的單晶片處理器」(註二)定位為「世界上第一款 GPU」,「GPU」這一名詞於焉誕生。不像 CPU,GPU 可以在同一個時刻執行許多算術和邏輯運算的工作,快速地完成圖形和動畫的變化。

依序計算和平行計算

一部電腦 CPU 如何計算 7×5+6/3 呢?因每一時刻只能做一件事,所以其步驟為:

  • 計算 7×5;
  • 計算 6/3;
  • 將結果相加。

總共需要 3 個運算時間。但如果我們有兩個 CPU 呢?很多工作便可以同時(平行)進行:

-----廣告,請繼續往下閱讀-----
  • 同時計算 7×5 及 6/3;
  • 將結果相加。

只需要 2 個運算時間,比單獨的 CPU 減少了一個。這看起來好像沒節省多少時間,但如果我們有 16 對 a×b 要相加呢?單獨的 CPU 需要 31 個運算的時間(16 個 × 的運算時間及 15 個 + 的運算時間),而有 16 個小 CPU 的 GPU 則只需要 5 個運算的時間(1 個 × 的運算時間及 4 個 + 的運算時間)!

現在就讓我們來看看為什麼稱 GPU 為「圖形」處理單元。圖一左圖《我愛科學》一書擺斜了,如何將它擺正成右圖呢? 一句話:「將整個圖逆時針方向旋轉 θ 即可」。但因為左圖是由上百萬個像素點(座標 x, y)組成的,所以這句簡單的話可讓 CPU 忙得不亦樂乎了:每一點的座標都必須做如下的轉換

x’ = x cosθ + y sinθ

y’ = -x sinθ+ y cosθ

-----廣告,請繼續往下閱讀-----

即每一點均需要做四個 × 及兩個 + 的運算!如果每一運算需要 10-6 秒,那麼讓《我愛科學》一書做個簡單的角度旋轉,便需要 6 秒,這豈是電動玩具畫面變化所能接受的?

圖形處理的例子

人類的許多發明都是基於需要的關係,因此電腦硬件設計家便開始思考:這些點轉換都是獨立的,為什麼我們不讓它們同時進行(平行運算,parallel processing)呢?於是專門用來處理「圖形」的處理單元出現了——就是我們現在所知的 GPU。如果一個 GPU 可以同時處理 106 運算,那上圖的轉換只需 10-6 秒鐘!

GPU 的興起

GPU 可分成兩種:

  • 整合式圖形「卡」(integrated graphics)是內建於 CPU 中的 GPU,所以不是插卡,它與 CPU 共享系統記憶體,沒有單獨的記憶體組來儲存圖形/視訊,主要用於大部分的個人電腦及筆記型電腦上;早期英特爾(Intel)因為不讓插卡 GPU 侵蝕主機的地盤,在這方面的研發佔領先的地位,約佔 68% 的市場。
  • 獨立顯示卡(discrete graphics)有不與 CPU 共享的自己專用內存;由於與處理器晶片分離,它會消耗更多電量並產生大量熱量;然而,也正是因為有自己的記憶體來源和電源,它可以比整合式顯示卡提供更高的效能。

2007 年,英偉達發布了可以在獨立 GPU 上進行平行處理的軟體層後,科學家發現獨立 GPU 不但能夠快速處理圖形變化,在需要大量計算才能實現特定結果的任務上也非常有效,因此開啟了為計算密集型的實用題目編寫 GPU 程式的領域。如今獨立 GPU 的應用範圍已遠遠超出當初圖形處理,不但擴大到醫學影像和地震成像等之複雜圖像和影片編輯及視覺化,也應用於駕駛、導航、天氣預報、大資料庫分析、機器學習、人工智慧、加密貨幣挖礦、及分子動力學模擬(註三)等其它領域。獨立 GPU 已成為人工智慧生態系統中不可或缺的一部分,正在改變我們的生活方式及許多行業的遊戲規則。英特爾在這方面發展較遲,遠遠落在英偉達(80%)及超微半導體公司(Advance Micro Devices Inc.,19%,註四)之後,大約只有 1% 的市場。

-----廣告,請繼續往下閱讀-----
典型的CPU與GPU架構

事實上現在的中央處理單元也不再是真正的「單元」,而是如圖二可含有多個可以同時處理運算的核心(core)單元。GPU 犧牲大量快取和控制單元以獲得更多的處理核心,因此其核心功能不如 CPU 核心強大,但它們能同時高速執行大量相同的指令,在平行運算中發揮強大作用。現在電腦通常具有 2 到 64 個核心;GPU 則具有上千、甚至上萬的核心。

結論

我們一看到《我愛科學》這本書,不需要一點一點地從左上到右下慢慢掃描,即可瞬間知道它上面有書名、出版社等,也知道它擺斜了。這種「平行運作」的能力不僅限於視覺,它也延伸到其它感官和認知功能。例如筆者在清華大學授課時常犯的一個毛病是:嘴巴在講,腦筋思考已經不知往前跑了多少公里,常常為了追趕而越講越快,將不少學生拋到腦後!這不表示筆者聰明,因為研究人員發現我們的大腦具有同時處理和解釋大量感官輸入的能力。

人工智慧是一種讓電腦或機器能夠模擬人類智慧和解決問題能力的科技,因此必須如人腦一樣能同時並行地處理許多資料。學過矩陣(matrix)的讀者應該知道,如果用矩陣和向量(vector)表達,上面所談到之座標轉換將是非常簡潔的(註五)。而矩陣和向量計算正是機器學習(machine learning)演算法的基礎!也正是獨立圖形處理單元最強大的功能所在!因此我們可以了解為什麼 GPU 會成為人工智慧開發的基石:它們的架構就是充分利用並行處理,來快速執行多個操作,進行訓練電腦或機器以人腦之思考與學習的方式處理資料——稱為「深度學習」(deep learning)。

黃仁勳在 5 月 22 日的發布業績新聞上謂:「下一次工業革命已經開始了:企業界和各國正與英偉達合作,將價值數萬億美元的傳統資料中心轉變為加速運算及新型資料中心——人工智慧工廠——以生產新商品『人工智慧』。人工智慧將為每個產業帶來顯著的生產力提升,幫助企業降低成本和提高能源效率,同時擴大收入機會。」

附錄

人工智慧的實用例子:下面一段是微軟的「copilot」代書、谷歌的「translate」代譯之「one paragraph summary of GPU and AI」。讀完後,讀者是不是認為筆者該退休了?

-----廣告,請繼續往下閱讀-----

GPU(圖形處理單元)和 AI(人工智慧)之間的協同作用徹底改變了高效能運算領域。GPU 具有平行處理能力,特別適合人工智慧和機器學習所需的複雜資料密集運算。這導致了影像和視訊處理等領域的重大進步,使自動駕駛和臉部辨識等技術變得更加高效和可靠。NVIDIA 開發的平行運算平台 CUDA 進一步提高了 GPU 的效率,使開發人員能夠透過將人工智慧問題分解為更小的、可管理的、可同時處理的任務來解決這些問題。這不僅加快了人工智慧研究的步伐,而且使其更具成本效益,因為 GPU 可以在很短的時間內執行與多個 CPU 相同的任務。隨著人工智慧的不斷發展,GPU 的角色可能會變得更加不可或缺,推動各產業的創新和新的可能性。大腦透過神經元網路實現這一目標,這些神經元網路可以獨立但有凝聚力地工作,使我們能夠執行複雜的任務,例如駕駛、導航、觀察交通信號、聽音樂並同時規劃我們的路線。此外,研究表明,與非人類動物相比,人類大腦具有更多平行通路,這表明我們的神經處理具有更高的複雜性。這個複雜的系統證明了我們認知功能的卓越適應性和效率。我們可以一邊和朋友聊天一邊走在街上,一邊聽音樂一邊做飯,或一邊聽講座一邊做筆記。人工智慧是模擬人類腦神經網路的科技,因此必須能同時並行地來處理許多資料。研究人員發現了人腦通訊網路具有一個在獼猴或小鼠中未觀察獨特特徵:透過多個並行路徑傳輸訊息,因此具有令人難以置信的多任務處理能力。

註解

(註一)當讀者看到此篇文章時,其股票已一股換十股,現在每一股約在 $100 左右。

(註二)組裝或升級過個人電腦的讀者或許還記得「英偉達精視 256」(GeForce 256)插卡吧?

(註三)筆者於 1984 年離開清華大學到 IBM 時,就是參加了被認為全世界使用電腦時間最多的量子化學家、IBM「院士(fellow)」Enrico Clementi 的團隊:因為當時英偉達還未有可以在 GPU 上進行平行處理的軟體層,我們只能自己寫軟體將 8 台中型電腦(非 IBM 品牌!)與一大型電腦連接來做平行運算,進行分子動力學模擬等的科學研究。如果晚生 30 年或許就不會那麼辛苦了?

-----廣告,請繼續往下閱讀-----

(註四)補助個人電腦用的 GPU 品牌到 2000 年時只剩下兩大主導廠商:英偉達及 ATI(Array Technology Inc.)。後者是出生於香港之四位中國人於 1985 年在加拿大安大略省成立,2006 年被超微半導體公司收購,品牌於 2010 年被淘汰。超微半導體公司於 2014 年 10 月提升台南出生之蘇姿豐(Lisa Tzwu-Fang Su)博士為執行長後,股票從每股 $4 左右,上升到今天每股超過 $160,其市值已經是英特爾的兩倍,完全擺脫了在後者陰影下求生存的小眾玩家角色,正在挑戰英偉達的 GPU 市場。順便一題:超微半導體公司現任總裁(兼 AI 策略負責人)為出生於台北的彭明博(Victor Peng);與黃仁勳及蘇姿豐一樣,也是小時候就隨父母親移居到美國。

(註五)

延伸閱讀

  • 熱力學與能源利用」,《科學月刊》,1982 年 3 月號;收集於《我愛科學》(華騰文化有限公司,2017 年 12 月出版),轉載於「嘉義市政府全球資訊網」。
  • 網路安全技術與比特幣」,《科學月刊》,2020 年 11 月號;轉載於「善科教育基金會」的《科技大補帖》專欄。
文章難易度

討論功能關閉中。

賴昭正_96
43 篇文章 ・ 56 位粉絲
成功大學化學工程系學士,芝加哥大學化學物理博士。在芝大時與一群留學生合創「科學月刊」。一直想回國貢獻所學,因此畢業後不久即回清大化學系任教。自認平易近人,但教學嚴謹,因此穫有「賴大刀」之惡名!於1982年時當選爲 清大化學系新一代的年青首任系主任兼所長;但壯志難酬,兩年後即辭職到美留浪。晚期曾回台蓋工廠及創業,均應「水土不服」而鎩羽而歸。正式退休後,除了開始又爲科學月刊寫文章外,全職帶小孫女(半歲起);現已成七歲之小孫女的BFF(2015)。首先接觸到泛科學是因爲科學月刊將我的一篇文章「愛因斯坦的最大的錯誤一宇宙論常數」推薦到泛科學重登。

0

1
0

文字

分享

0
1
0
講話太難語音助理聽不懂?利用互動設計讓人講「機器話」
人機共生你我它_96
・2020/07/27 ・2309字 ・閱讀時間約 4 分鐘 ・SR值 536 ・七年級

-----廣告,請繼續往下閱讀-----

「這段時間,我們一直納悶控制的方法在哪裡……」
「沒想到就是我們自己。」

——《人生複本》 Blake Crouch

有沒有注意自己的日常用語會跟自己經常接觸的朋友們越趨接近?像是辦公室有人開始講:「是在哈囉?」身旁會也越來越多人在不經意間說出:「是在哈囉?」我們跟某個朋友聊天時,如果對方原本都沒有在用貼圖,但是突然有一天他/她開始用了貼圖,我們也開始跟著用貼圖來回應對方。

用語上的一致性 (lexical alignment / lexical entrainment)能夠讓人跟人之間距離更靠近,增加彼此的信任感。不僅在語言上,行為上一致性(姿勢、動作等)也能在兩個溝通越來越順暢的人們身上觀察到,而且人們在沒有察覺的情況下,對於那些語言與行為跟自己一致的人也展現較多好感。

大家下次在外面吃飯時,不妨觀察隔壁桌的兩人是否會輪流用手托腮。圖/Unsplash

語言一致性的涵蓋範圍廣泛,包含用詞選擇、腔調、語速,甚至是修辭結構。

-----廣告,請繼續往下閱讀-----

舉例來說,當我們在跟朋友描述自己所在的位置時:「我在地下室一樓」此時,對方比較有可能回應「我在地下室二樓」,而不是「我在 B2」。

但人與人之間對話時的用語一致性跟語音助理設計有什麼關係呢?

無論與人或電腦對話,我們都會配合對方的用語

我們可以透過瞭解人跟電腦對話的時候,是否也會出現這樣的用語一致性。在這個實驗當中,研究者們會讓使用者分別跟三個不同的角色語音對話對話,分別是:

  • 真人
  • 較舊版本的電腦
  • 較新版本的電腦

而且使用者們會明確地被告知即將對話者的身分。如果是舊版電腦,就會看到一個螢幕開機畫面上寫著是 1987 年的作業系統版本;如果對話的是新版電腦,就會在螢幕上看到 2003 年的作業系統版本。

-----廣告,請繼續往下閱讀-----

圖/pickpik

接著,請使用者在實驗過程中分別跟三個不同的角色互相看著圖片描述一個物品,例如:看一張電燈的圖片。不過「電燈」的另一個稱呼也可以是「檯燈」,這時候研究者就讓他們輪流向對方說出照片裡的物品,進而讓研究者們分析使用者會不會因為對方用了某個詞彙,後續再看到同樣的圖片時也用同樣的詞彙。

結果發現,是的!使用者不但會配合另一個人的用詞方式,也會配合電腦的用詞。

即便使用者知道自己在跟電腦對話,當電腦一直用固定的詞彙描述圖中物品時,使用者的描述用詞也會配合電腦,就如同配合人一樣,用同樣的詞彙來描述物品。

但是這種用同樣詞彙的配合程度不同,當使用者知道自己在跟一個舊版本的電腦對話時,配合的程度就高於最新版本的電腦或是人類。也就是說,當我們知道電腦可能「比較笨」的時候,我們就更容易去配合它的用語。而這個效果透過很表面的知覺操弄就可以做到,就像實驗中讓使用者看到不同版本作業系統就會達到配合程度不同的效果。

-----廣告,請繼續往下閱讀-----

不只用詞,在句子結構上也會配合語音助理

除了看字彙選擇是不是會有一致性,研究者們也發現當請使用者分別跟另一個真人、另一個發出機器音的語音助理、另一個擬人聲的語音助理對話,無論和誰對話,使用者自己的句子結構都會有配合對方的傾向。

圖/Unsplash

研究者們邀請使用者向三個不同的角色互相描述圖片中的畫面,從中我們可以發現兩個不同的描述方式:

  • 左圖:「大明給小王一張卡片」=「大明把卡片給小王」;
  • 右圖:「一個藍色的圓圈」=「一個圓圈是藍色的」。

接著讓使用者分別跟三個角色輪流描述多長不同的圖片給對方聽。結果發現,如果對方一直用「A 把(物品)給 B」或是「形容詞 + 名詞」這種結構來描述圖片的話,自己後續描述圖片的方式也會趨向這個方式。

-----廣告,請繼續往下閱讀-----

所以,無論跟自己對話的是人,或是機器音的語音助理,還是擬人聲的語音助理都有同樣的效果。

利用人們「一致性」本能,互動設計讓語音助理更好用

從我們與語音助理的互動經驗中可以發現,只要語音助理無法辨識我們說出來的內容,就無法給出符合期待的回應,所以自然語言處理(Natural language processing, NLP)的專家們持續發展語音辨識的技術。然而在新技術尚未推出之前,我們其實可以從人機互動的角度來修正語音助理的設計。

以本次回顧的系列研究的結論來說,人會隨著溝通對象而改變語言使用習慣,包含用語、句構。尤其當人認為電腦越不聰明時,配合程度越強。因此,設計師們不妨根據現有技術,先讓語音助理講出一些簡單的句子結構來開啟對話,再引導使用者也使用相似的簡單結構來回覆,而不是一定要專注在設計出能夠進行複雜對話的語音助理。

例如:當我們透過 Hey, bot 喚醒語音助理後,先讓語音助理說出:「嗨,下指令」這個簡單的句子結構,進而引導使用者說出:「好,播音樂」。

從系統設計角度來看,這麼做能在一開始就讓使用者在不知不覺中說出系統比較容易辨識的指令。就像我們在跟小小孩對話的時候,當他對我們說:「我要車車~」的時候,自己也會很自然的回應:「車車給你~」。

-----廣告,請繼續往下閱讀-----

如此一來,使用者就不會因語音助理辨識錯誤而太失望了,不是嗎?

圖/unsplash

延伸閱讀

感謝沈奕超、張元嘉提供編輯建議

參考資料

  1. Cowan, B. R., Branigan, H. P., Obregón, M., Bugis, E., & Beale, R. (2015). Voice anthropomorphism, interlocutor modeling and alignment effects on syntactic choices in human-computer dialogue. International Journal of Human-Computer Studies, 83, 27-42.
  2. Branigan, H. P., Pickering, M. J., Pearson, J., McLean, J. F., & Brown, A. (2011). The role of beliefs in lexical alignment: Evidence from dialogs with humans and computers. Cognition, 121(1), 41-57.
人機共生你我它_96
12 篇文章 ・ 3 位粉絲
由致力於人機互動研究(HCI, Human-Computer Interaction)的研究者與實務工作者所創立,我們定期發表人機互動相關文章,與讀者一起思考科技對社會生活帶來的好處與限制。

0

0
0

文字

分享

0
0
0
大腦的偷懶小撇步:注意力瞬盲
Desiring Clicks
・2013/02/07 ・1427字 ・閱讀時間約 2 分鐘 ・SR值 470 ・五年級

-----廣告,請繼續往下閱讀-----

attention-blindness-with-user-interface
Image via zigazou76, CC License.

大家有從厚重的報名資料裡面找到一個報名者的經驗嗎?或是從厚厚一疊文件裡面找出一筆想要的資訊?是不是想要快速的找到資訊,但是看了兩三遍都找不到東西,結果放慢速度,最後卻在已經瀏覽了好幾遍的地方找到想找的東西呢?

大腦的偷懶小撇步:注意力瞬盲

其實這也是一種大腦的限制,我們的注意力其實十分有限,一次只能專注在一兩種我們覺得重要的事物上。還記得我們在不注意盲視:如同保護色般的視覺效應中所提到的大猩猩實驗與自己可以嘗試的尋找紅色實驗嗎?這些都是大腦注意力限制的好例子。但是這些都只能解釋我們的看不到我們沒有在注意的東西,為什麼我們不能從大量的文件與資料中找到我們「明明就很想要」的東西呢?

這是因為我們的注意力其實有非常短暫的注意力盲視效應。所謂的注意力盲視,就是當我們從許多的資料裡面看到一個我們認識的東西的時候,大腦會突然的消耗大量的資源處理這個我們所熟識的東西,然後在後面短暫的半秒間,注意力都被剛剛那個東西所吸引了。因此,雖然我們的眼睛好像依然在掃視畫面上的資料,但其實在這短暫的時間裡面,大腦根本還沒有機會處理他們。

我們的腦袋很愛偷懶,有好多「小撇步」來減輕他工作的負擔。但這個效應也很有趣,也許大家可以自己隨便找個有很多資料的文件試試看,先決定個目標,然後快速的掃視幾遍看看能不能找到自己想找的東西。如果找不到,那麼放慢速度再找看看,當你發現了想要找的目標的時候,看看目標的前後左右,是不是有你其實很熟悉的文字或圖形比目標先搶走了你的注意力呢?

-----廣告,請繼續往下閱讀-----

大海撈針

注意力瞬盲有許多研究被應用在文字、 閱讀與介面上。一般來說我們在放置導覽或其他資料的時候,如果資料量很大,就會很容易讓使用者找不到他們所真正要尋找的目標。舉例來說,在購物網站的導覽列上面,一次呈現大量的分類標籤,可能反而讓使用者要來回找更多次才能找到他想要找的東西:

因此這個問題最近也出現了許多解決方法,其中一種就是把希望使用者第一個看到的東西用不同的顏色或背景特顯出來,這種方法的交換條件就是雖然你希望使用者看到的東西他看到了,但是他可能更容易忽略這些東西旁邊的事物

或是也可以嘗試透過分類的方法把導覽選項「摺疊」起來,除了可以大量減少需要使用者尋找的項目以外,也可以透過介面分類來幫助使用者記憶他們所尋找過的東西。

小心的使用注意力瞬盲效應所產生的結果,千萬不要不小心把重要的東西反而隱藏在瞬盲的陷阱裡。既然我們的大腦這麼愛偷懶,那麼就得由我們來幫忙他做個體貼的設計啦!

-----廣告,請繼續往下閱讀-----

 

延伸閱讀:

Desiring Clicks 是一個專門介紹使用者介面、使用者經驗、視覺設計、資訊架構和網路行為的網誌。歡迎你一起參與介面設計,讓這個世界變得更美好。

Desiring Clicks
14 篇文章 ・ 1 位粉絲
Desiring Clicks(http://dclick.cc)是一個專門介紹使用者介面、使用者經驗、視覺設計、資訊架構和網路行為的網誌。我們相信任何設計、工程都必須由人的角度出發,更貼近人性與心靈,讓世界更美好!