OSC2020
2020-02-22 (土)   11時00分

AIから不公平なバイアスを取り除く AI Fairness 360 Open Source Toolkit

このエントリーをはてなブックマークに追加

講師:西戸 京子(IBM デベロッパー・アドボケイト)
担当:IBM
レベル:入門編
対象者:AIの公平性に興味のある方
前提知識:機械学習の初心者レベルの知識があるとよい。

AIが導き出す結果には人種や性別、地域、年齢などの属性によって何らかの偏見(バイアス)がある可能性があります。
AIの判断が与えられたデータに大きく依存するためで、過去の実績や傾向が習慣や歴史的背景によって偏っていれば、
それに基づく学習データがAIに与えられることによって学習の方向性が大きく変わる可能性があります。
本セッションではAI に使用される機械学習モデルの差別と偏見を調査、報告、および軽減するのに役立つpythonライブラリー、
AI Fairness 360 Open Source Toolkitをご紹介します。

【カテゴリ】AI




www.ospn.jp