Gunosyデータ分析ブログ

Gunosyで働くデータエンジニアが知見を共有するブログです。

公平性および説明性を考慮した機械学習 in KDD2019

研究開発チームインターンの北田 (shunk031) です。アメリカのアラスカにて行われたKDD2019に参加・発表してきました。

www.kdd.org

KDD2019 のチュートリアルやワークショップ、キーノートの中でFairness (公平性) および Explainability (説明性) にフォーカスした以下のものを聴講したので概要をまとめたいと思います。

Fairness-Aware Machine Learning: Practical Challenges and Lessons Learned

このチュートリアルでは機械学習システムに対して公正性 (fairness: フェアネス) をどのように担保するかについて、IT 企業各社の取り組みについての発表がありました。

セッションの冒頭では顔認識システムにおいて肌の色が暗い場合に予測が失敗する例が取り上げられました*1。これは学習データにおいて偏りが原因の一つとして挙げられます。学習データに依存している機械学習システムに対してバイアスを取り除き公正な予測を行うにはどうすればよいか、さまざまな角度からベストプラクティスが模索されています:

所感

特に機械学習を用いたサービスを提供する場合、対象ユーザーを正確に設定するのが重要だと考えられています。こうしたことを踏まえると、サービス立ち上げ期からデータサイエンスや機械学習を核としたビジネスロジックの構築が必要になりそうです。

フェアネスについて議論を聞いたときに感じたのは「パーソナライズとの両立は難しそう」ということです。パーソナライズは個人の持ついわばバイアスにフィットしていく流れを持つもので、こうしたバイアスを正す流れのフェアネスとの共存は難しいと感じました。パーソナライズの文脈で提供されるコンテンツに対して如何にフェアネスさを組み込むかが今後の課題となりそうです。

また海外ではこのように当然のようにフェアネスを考慮した機械学習システムについて議論されていましたが、日本ではまだそれ以前のフェーズの場合が多く、海外との差をとても感じました。

Explainable AI in Industry

このチュートリアルでは産業界における説明可能な AI について、説明性を支援する手法や LinkedIn を中心とした IT 企業の取り組みについての発表がありました。

昨今の機械学習モデルの予測精度は複雑さを伴うことで飛躍的に向上していますが、モデルのブラックボックス化によりなぜそのような予測がされているのかを解釈するのは困難を極めます。こうしたブラックボックス AI はインダストリーにおいてビジネスリスクを作ってしまう可能性があります。近年主に使われるニューラルネットワークに対して、勾配ベースで解釈可能な手法が複数紹介されました。

以下は LinkedIn における取り組みについてです。勾配ブースティングと一般化線形混合モデルを組み合わせた人材検索システムの解釈性向上や、モデルの解釈によく使われる LIME*2をベースとした xLIME を用いた営業予測など、独自に解釈性を向上させたモデルを用いているところが素晴らしいです:

所感

最先端のモデルを使うというよりは、より解釈しやすくモデルに対して精度を上げるような努力をし、確実にサービスに手堅く落とし込んでいる印象を受けました。私自身新しいモデルが好きで使いがちですが、機械学習のビジネス利用は必ずしも最先端のモデルを使わなくても良いです。こうした取り組みを見ると新しいモデルを使わなくても良いサービスが提供できるということを改めて感じました。

Explainable AI/ML (XAI) for Accountability, Fairness, and Transparency

このワークショップでは XAI 手法における最新動向や技術を産業用 AI や ML に適用する方法、またこのような XAI 技術の制限を共有について議論や発表がありました。

特に私は解釈可能な機械学習手法の研究のトップランナーの一人である Google AI Been Kim氏の Interpretability - now what? の講演をピックアップして概要をまとめます。

この講演では Interpretable machine learning の分野における進歩についての発表がありました。特に IT 企業の現場として「どこに向かっているのか」「どのようなことを気をつけるか」についてフォーカスしていました。こうした観点から Kim 氏を中心とした最新の研究について、「一般的となっている手法の sanity check」「より人に優しい解釈可能な手法の開発」の 2 つの側面から紹介がありました:

所感

解釈可能な機械学習手法の研究をリードする Kim 氏の講演を聞けたのはとても良かったです。特に SmoothGrad や TCAV は論文を読んだことがあったので、直接こうした研究の話を聞けたのはとても刺激的でした。TCAV については Google の CEO である Sundar Pichai 氏も言及しており*6、こうした機械学習の解釈性向上はこれからも注目を集めるだろうなと感じました。

Do Simpler Models Exist and How Can We Find Them?

本会議 3 日目のキーノートである本セッションでは「よりシンプルなモデルは存在するのか」「どうやってシンプルなモデルを見つけるか」についてCynthia Rudin氏から発表がありました。

キーノートの冒頭ではシンプルなモデルのために、損失が  \theta 以下になる空間の部分集合を Rashomon (羅生門) 集合、全仮設集合に対する Rashomon 集合の大きさの比を Rashomon ratio とし、こうした比率をもとによりシンプルなモデルについて考察していました。

また本キーノートでは解釈可能な機械学習手法である以下の 3 つの新しい手法についての概要を聞くことができました:

所感

複雑なモデルを用いてある事象を捉えるというのは今となっては難しくないことですが、ある種無駄を含んでいます。こうした無駄に対して Rashomon 集合を用いたり、スパースな制約を賢く導入したりすることでシンプルで説明性の高いモデルの構築が可能であることを教えていただきました。とてもわかり易い講演で、終始楽しみながら聞くことができました。

おわりに

KDD2019 における公平性や説明性をターゲットとしたトピックについてまとめました。機械学習モデルが複雑になるにつれて精度は良くなりますが、予測の解釈が難しくなり、時としてその予測があまり良くない影響を与える可能性が出てくるかもしれません。そうした中で予測の公正性や説明性の向上はこれからも重要なトピックとして引き続き議論していく必要があると思います。こうした分野のこれからの発展にも期待したいです。

Gunosy では論文執筆・投稿を目的として研究に全力で取り組むリサーチインターンを募集しています。今回 KDD2019 の参加および発表を通じて様々な最先端の研究に触れることができました。ぜひご興味がある方は応募してみてください。

hrmos.co

*1:The Coded Gaze Unmasked - YouTube https://www.youtube.com/watch?v=KB9sI9rY3cA

*2:[1602.04938] "Why Should I Trust You?": Explaining the Predictions of Any Classifier https://arxiv.org/abs/1602.04938

*3:[1706.03825] SmoothGrad: removing noise by adding noise https://arxiv.org/abs/1706.03825

*4:[1711.11279] Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV) https://arxiv.org/abs/1711.11279

*5:[1810.03292] Sanity Checks for Saliency Maps https://arxiv.org/abs/1810.03292

*6: (3) Google Keynote (Google I/O'19) - YouTube https://www.youtube.com/watch?v=lyRPyRKHO8M&t=3408s

*7:[1904.12847] Optimal Sparse Decision Trees https://arxiv.org/abs/1904.12847

*8:[1502.04269] Supersparse Linear Integer Models for Optimized Medical Scoring Systems https://arxiv.org/abs/1502.04269

*9:[1806.10574] This Looks Like That: Deep Learning for Interpretable Image Recognition https://arxiv.org/abs/1806.10574