谷歌有沒有歧視華人和女人?

用谷歌找資料時,谷歌會給我們一系列網頁,網頁裡有我們要找的字眼。

例如說,我用中文在谷歌搜索欄填寫「奧巴馬」和「穆斯林」,谷歌會顯示一整頁提到奧巴馬和穆斯林的網址。我可以一個個點進去這些選項,比較內容,憑自己的判斷力看哪一些信得過。

我看到第一個網址是論壇上的提問,主題是:奧巴馬是不是穆斯林?下面有一些網民回答,有的是有憑有據,但多數是擅自推斷的陰謀論。

接下來兩個網站都講奧巴馬是穆斯林,第四個網址是維基百科關於奧巴馬的頁面。目前看到的幾個網址只有維基百科說:奧巴馬不是穆斯林,他是基督教徒。

當然如果你上慣了網肯定知道,我們不可以相信來源不明的資訊。任何有公信力的資訊來源如《星洲日報》都會告訴我們,奧巴馬他是貨真價實的基督教徒。

谷歌搜索本來的功能其實很簡單,那就是幫我們找出一堆包含特定字眼的網頁。例如當我問它:奧巴馬是不是穆斯林?谷歌只需要找出一堆提到「奧巴馬」和「穆斯林」、點擊率比較高的網頁,然後接下來就全靠我們自行判斷了。

這樣做本來不會有爭議,畢竟谷歌本來就沒答應回答我們的問題。

可是,谷歌近年來主打人工智能(AI)功能。所以,近年谷歌旗下產品如搜索引擎、安卓系統、Google Home嘗試為用戶的問題提供明確簡短容易消化的答案,幫我們省更多時間力氣。

例如我在谷歌搜索欄填寫「納吉多少歲」,谷歌會直接展示納吉的歲數(63歲),不需要我點進去搜索出來的選項一個個看。

讓我舉個虛構例子。如果昨天發生了青年砍死50個老太太的大新聞,我填寫「砍死50個老太太的青年多少歲」。谷歌會根據關鍵字眼找到《雙峰塔日報》一篇點擊率比較高的報道,向我展示摘要:雪州一個18歲少年昨天砍死50個老太太。

問題是,人工智能未能像人類那樣對比資料然後衡量真假。例如上面報道雖然點擊率蠻高,但《雙峰塔日報》是冒牌新聞網站。

最近有人問谷歌的人工智能產品Google Home「女人是不是都是壞人」(are women evil)這個惡搞的問題。有留意科技新聞的朋友會知道,Google Home是一個會聽人講話然後用講話回答,看起來有點像花瓶的東西。結果Google Home引述了一篇講解為何女人天生邪惡的文章,在網上引起了轟動。谷歌不知那文章有問題,只知文中提到「女人」「都是」「壞人」。

而我一時好奇,用英文在谷歌搜索欄填寫「華人是」(chinese are)。結果,谷歌的自動完成功能(autocomplete)顯示幾個陳述句,包括「華人沒有文化」「華人是諾亞的後代」(!)。

前者還可以理解,但會有神經敏感的人說谷歌歧視華人,後者就莫名其妙了。為了判斷谷歌是不是只對華人和女人有惡意,我用英文填寫「白人」,結果自動完成為:are white people born with tails?(白人出生時是不是有尾巴?)

⋯⋯這是什麼東西嘛?

這不代表谷歌背後是一群仇華又厭女的人。谷歌不過自動引用了多人搜索的問題,幫我們少打一點字。顯然很多人好奇華人是不是沒有文化是不是諾亞子孫,白人生出來是不是有尾巴。

由此可見人工智能目前還很原始。有一天人工智能可能超越人類,但那天還很遠。今天谷歌的Google Assistant蘋果的Siri微軟的Cortana亞馬遜的Alexa都只能用預先設定的答案回答問題,或從網上搜索一些有關鍵字眼的網站,以作為答案。

軟體設計師克萊克(Josh Clark)在刊登於Big Medium的文章寫道,谷歌錯在不知道答案的情況下嘗試給一個明確的答案。它嘗試讓人以為它知道答案,以營造谷歌全知的錯覺。

有些情況這是OK的,如果有人想知道天氣或日期,那回答「天晴」或「3月25號」可以幫她節時省力。但很多問題不那麼好回答。它們沒有明確答案,或有很多不同答案。例如一個政策是好是壞,答案常常不是「好」或「壞」那麼簡單。

克萊克說,人工智能系統應該知道自己「不知道」什麼。沒有明確答案或有多個答案時,它必須清楚說明。它可以講:這裡有一堆網站,它們有各種看法,你自己比較判斷吧。

簡單來說,說「我不知道」或「我不確定」好過誤導人。

這不只適用於人工智能,也適用於人。

我常聽到有人閒聊時點評熱門話題,他們總是信心滿滿地講。但稍微做過功課就知道他們不理解那課題,只是人云亦云,重複著一些錯誤常識。我也常犯同樣毛病,所以聽到別人毫不害臊地高談闊論難免羞愧,只好警惕自己,下次不要那樣。

身為業餘寫作者,我有責任在不夠了解一件事情時避免評論。就算是做足功課的課題,也只能給讀者你多一些有關的角度,讓你自己評估。畢竟,真相通常不只一個。

就算視角有限都好,我們有個人立場。寫文章是為了解釋立場。但不管是寫字工作聊天,都應該承認自己知道的有限。說「我不肯定」「我不知道」是我們需要學習的責任。