Post

電影心得:Coded Bias 編碼偏見

在開始之前,我想問一個情境題:

你是一間科技公司的 CEO,現在要從上百份履歷中挑出一些好的,你希望能公平並有效的挑出適合的人選。
你會選擇:

  1. 本公司工程師們的結晶:酷酷 AI
  2. 聘請的專業人士:資深 HR

請把答案留在心裡,後面會提到我的看法。

電影介紹

這次要分享的是一部紀錄片:Coded Bias, 編碼偏見
我覺得他的翻譯更適合叫做「偏見編碼」,不過 code 不論翻成編碼還是編程我都覺得怪怪的就是了。

這是他的預告片(trailer 的中文是這個嗎?),可以打開 cc 字幕協助觀看:

簡單來說,一名正就讀 MIT 的黑人女性偶然發現她的 AI 無法識別她的臉,直到她戴上了一副白色面具,功能才正常運作。
她想,是不是燈光不對、角度不對抑或是眼睛沒看著鏡頭呢?
答案是:都不是,她所使用的 AI Model 本身就難以辨識黑人。

我過去的想法

不論是因為我從小就是一個對科技抱有憧憬的孩子,還是那些販賣、製作 AI 的企業的宣傳,我以前認為 AI 是絕對理性的。
也因此他可以說是公平、公正、不戴有色眼鏡看人的代名詞。

但,怎麼說呢,人類社會是一個很不公平的地方,為什麼從人類手中製造的「人工智慧」會是「公平、公正」的呢?
我不曾想過這個問題。

電影中的想法

AI 藉由機器學習來探索這個世界,人們在網路上的發言、人類過去的歷史本就不是完全公平的,加上製造 AI 的人會有意無意的控管 AI 的資訊來源,AI 就像是工程師的孩子一樣。
這些導致 AI 打從一開始就接收了帶有偏見的資訊,所以他們也用有偏見的演算法去評判一個人。

電影中的例子

無處不在的 AI 正主導著人的去向

在幾年前,美國的街上都有配置人臉辨識系統,此系統會評判路過的人是否是通緝犯。
有人不願被收集個人資料而拉起衣領蒙面,卻被警察攔下,因為他試圖掩蓋身分。
這套系統中,很多人被誤判成罪犯,其中不乏小孩子,這讓人開始懷疑 AI 的合理性。

還有一個例子是關於一名黑人女性,她曾入獄服刑,出獄後有了工作,並且獲得了幾次最佳市民獎,卻因為她是「黑人」、「女性」而被系統評判為高犯罪風險族群,因此她必須每周回去匯報生活情形。
她當然有跟相關單位反應過,然而那個單位回覆她,他們必須依照系統行事。

這就像是十年前的一個經典討論議題:AI 可以當法官嗎?
若答案是否,那我們怎能使用 AI 來評斷一個人是否需要被搜查或是犯罪的機率呢?

大公司的 AI Model 就出了問題

片中提到,Amazon 曾販賣對性別、種族不友善的 AI,即使主角向其提出了研究結果,他們仍不認為自己的產品有錯,反而來指責主角不夠專業。
Amazon 是販賣 AI 的源頭,這種出了問題的 AI 流入市面,就會造成上述的問題。

或許你的想法跟我一樣:他們可是 Amazon 欸!這麼大的公司怎麼可能不尊重他人呢?
Well, 他們是資本家,對他們來說「利益」才是第一優先,若產品出了問題,哪來的利潤呢?

不過其中也有好的例子,IBM 也被發現了有這類問題,當他們在判斷各人種時的準確度,竟是天差地遠。
當白人的準確度是95%以上時,黑人女性竟只有約60%。

令人讚賞的是, IBM 在接獲提醒後就馬上更改,讓所有人種、性別的準確度都來到了98%以上。

AI 反而造成了社會的退步

當使用了有偏見的 AI 來決定我們的下一步,人類可能朝向更加歧視與不平等的生活前進。
而透過耳熟能詳的演算法所推播的訊息也限制了我們的資訊攝取,你想,當你今天被推送了很多民進黨的壞話,你還會想投給他嗎?

我覺得很酷的一點是,科技在讓我們退步欸。

街上人臉辨識的取消

在影片的最後,美國各州相繼取消在街上設置人臉辨識系統。
雖然仍舊沒有制定演算法的相關法律,但這也算是一種進步吧。
不過科技與人權依舊在拉扯中。

我的看法

在看一半的時候,我和我朋友馬上打開了 IG 查看他們的隱私權政策。
IG 可以取用我們的照片與其它個人資訊來協助他們推送給我們更適合的功能與文章。
先不論隱私相關的東西,IG 可以不要再推給我一些瞎妹語錄和星座語錄了嗎!!

所以,不要讓 AI 控制了你的思想,也小心身邊可能會侵犯隱私的小細節。

最後,推薦各位去找個朋友一起看這部片,一起罵公司和政府。

This post is licensed under CC BY 4.0 by the author.