AI(人工智慧)現在滿多運用在協助判斷,例如用照片判斷毒蛇的種類、癌症的病灶、甚至是繼續雇用員工的決定。「既然是電腦選的,應該夠公平吧!?」不過今天的文章提醒了幾件事: 大多 AI 的學習方法,是依據工程師提供的資料來進行,再把規律套用在未知的資訊上,如果餵給 AI 的資料就帶有偏見,出來的判斷自然就不公正了。 就算想辦法給 AI… 更多 各式各樣的資料,給得均勻、給得公平、給得穠纖合度,人類文化無形的歧視,還是可能培育出有偏見的 AI。這表示利用 AI 來進行跟人相關的的判斷時,任何人都有可能因為膚色、性別、職業、信仰......等等而成為少數,受到不公平的待遇。
「好啊,都給你玩啊!(摔筆)」
好啦好啦,消除 AI 歧視的路途困難重重,我們還是要多多支持、重視無偏見的 AI 與開發人員~ #幫戳個文章 #這樣我怎麼教AI