近年、MLを活用したシステムの判断に関して、倫理に関するガイドライン(AI倫理)が整理されつつあり、その中でも特に公平性について基礎研究が活発に行われている。しかしながら、AI倫理に関するガイドラインは抽象度が高く、公平性の基礎研究は詳細すぎて、機械学習システムがどのような要求を満たすべきかといったシステム開発における要件との関係が明らかになっていない。
本WGでは、AI倫理や公平性の研究成果とシステム開発の要件との関係を明らかにし、機械学習システム開発者のためのガイドラインをまとめることを最終目標とする。
以下に扱うトピックの例を挙げるが、これらのトピックに限らず議論し適宜ガイドラインに含める。
AI倫理とソフトウェア工学
AI倫理や公平性のための要求分析・リスク分析
公平性を保つための設計・実装
公平性のためのデザインパターン
公平性のモニタリングとMLOps
幹事
吉岡信和(早稲田大学)
江澤美保(クレスコ)
久連石圭(東芝)
八幡晃一郎(日立製作所)
Discordチャンネル