專頁
科技大觀園, 台北市。 70,490 個讚 · 643 人正在談論這個 · 11 個打卡次。科技大觀園是充滿科學知識的寶庫,我們用有趣、容易懂的方式介紹科普知識和時事!知識就是力量!【科技大觀園】Q博每天幫你補充科學能量!有 IG、YouTube,訂閱追蹤追起來!
貼文
【人工智慧 AI 也會有偏見?有偏見會怎樣嗎?】
  
AI(人工智慧)現在滿多運用在協助判斷,例如用照片判斷毒蛇的種類、癌症的病灶、甚至是繼續雇用員工的決定。「既然是電腦選的,應該夠公平吧!?」不過今天的文章提醒了幾件事: 大多 AI 的學習方法,是依據工程師提供的資料來進行,再把規律套用在未知的資訊上,如果餵給 AI 的資料就帶有偏見,出來的判斷自然就不公正了。 就算想辦法給 AI… 更多 各式各樣的資料,給得均勻、給得公平、給得穠纖合度,人類文化無形的歧視,還是可能培育出有偏見的 AI。這表示利用 AI 來進行跟人相關的的判斷時,任何人都有可能因為膚色、性別、職業、信仰......等等而成為少數,受到不公平的待遇。
  
「好啊,都給你玩啊!(摔筆)」
  
好啦好啦,消除 AI 歧視的路途困難重重,我們還是要多多支持、重視無偏見的 AI 與開發人員~ #幫戳個文章 #這樣我怎麼教AI
超連結 SCITECHVISTA.NAT.GOV.TW

AI不中立?─探討AI偏見帶來的影響-科技大觀園

大家對人工智慧(AI)的普遍印象,可能是理性、客觀,或不近人情。之所以會有這些印象,除了AI「冷靜思考下決定征服全人類」的電影層出不窮之外,還有很大的原因來自AI做出決定的憑據:數據(data)。當人們要求眼見為.....
留言
  • 科技大觀園
    延伸閱讀:英國政府的調查中,59% 的 AI 開發者 認為他們正在開發的產品,可能會對社會有害,在其他科技業工作者… 更多中,這個比率只有 28%......但 AI 界也在尋求可行的解法
    https://dq.yam.com/post.php?id=11308