Azure AI a b Cognitive Services Knowledge mining Machine Learning
The 80:20 Rule for AI Azure Machine Learning Develop Your Own Model 20 https://docs.microsoft.com/ja-jp/azure/architecture/data-guide/technology-choices/data-science-and-machine-learning https://medium.com/microsoftazure/9-advanced-tips-for-production-machine-learning-6bbdebf49a6f Use Pre-trained Model 80 Azure Cognitive Services
非構造化データ NLP, Vision, IoT など 構造化データ DB 格納、 CSV など 全てのスキルレベルの方向けの Studio Notebooks Automated ML UX Designer 科学的アプローチと変化への対応などための MLOps Reproducibility Automation Deployment Re-training 豊富なコンピューティング環境 CPU, GPU, FPGAs IoT Edge Apps REST Endpoint: ACI, AKS など Batch : SQL DB など Model Export: ONNX など Analytics Azure Synapse Power BI など Azure Machine Learning モデルの構築・展開を、個人から企業レベルでも
Automated Machine Learning
この車の妥当な価格は ?
Mileage Condition Car brand Year of make Regulations … Parameter 1 Parameter 2 Parameter 3 Parameter 4 … Gradient Boosted Nearest Neighbors SVM Bayesian Regression LGBM … Mileage Gradient Boosted Criterion Loss Min Samples Split Min Samples Leaf Others 30% Model Which algorithm? Which parameters? Which features? Car brand Year of make モデルの開発には、多くの 試行錯誤 が必要 …
Criterion Loss Min Samples Split Min Samples Leaf Others N Neighbors Weights Metric P Others Which algorithm? Which parameters? Which features? Mileage Condition Car brand Year of make Regulations … Gradient Boosted Nearest Neighbors SVM Bayesian Regression LGBM … Nearest Neighbors 50% Model 繰り返し 30% Gradient Boosted Mileage Car brand Year of make Car brand Year of make Condition
Mileage Condition Car brand Year of make Regulations … Gradient Boosted Nearest Neighbors SVM Bayesian Regression LGBM … Gradient Boosted SVM Bayesian Regression LGBM Nearest Neighbors Which algorithm? Which parameters? Which features? 50% 30% 70% 30% 45% 50% 65% 95% 35% 10% 75% 20% 70% 30% 15% 繰り返し Regulations Condition Mileage Car brand Year of make
内部で行っている事 User inputs Feature engineering Algorithm selection Hyperparameter tuning Model Leaderboard Dataset Configuration & Constraints 76% 34% 82% 41% 88% 72% 81% 54% 73% 88% 90% 91% 95% 68% 56% 89% 89% 79% Rank Model Score 1 95% 2 76% 3 53% … Data Clearing Model Explanation GPU GPU Job Management Container Packaging VM Auto scale Ensemble Learning “ HyperDrive ” Logging for Visualize
内部で行っている事 User inputs Feature engineering Algorithm selection Hyperparameter tuning Model Leaderboard Dataset Configuration & Constraints 76% 34% 82% 41% 88% 72% 81% 54% 73% 88% 90% 91% 95% 68% 56% 89% 89% 79% Rank Model Score 1 95% 2 76% 3 53% … Data Clearing Model Explanation GPU GPU Job Management Container Packaging VM Auto scale Ensemble Learning “ HyperDrive ” Logging for Visualize インフラのベストプラクティス 機械学習のベストプラクティス
深層学習でも User inputs Feature engineering Algorithm selection Hyperparameter tuning Model Leaderboard Dataset Configuration & Constraints 76% 34% 82% 41% 88% 72% 81% 54% 73% 88% 90% 91% 95% 68% 56% 89% 89% 79% Rank Model Score 1 95% 2 76% 3 53% … Data Clearing Model Explanation GPU GPU Job Management Container Packaging VM Auto scale Ensemble Learning “ HyperDrive ” Logging for Visualize インフラのベストプラクティス 深層学習のベストプラクティス
Automated ML Data Preprocessing Feature Selection Algorithm Selection Hyperparameter Tuning Model Recommendation Interpretability & Explaining データの クリーニング Feature の選択 ジョブの並列実行と合わせて 設定範囲の中で、何を選択して 何を選択肢から除外するか 精度と 実行速度も 加味 そのモデルに影響のあった Feature は どれだったのか ?
Deep Learning BEAT BiLSTM ForecastTCN
Deep learning Auto-settings 休日検知 気象など Open Dataset の利用 複数の models 新しい learners Time series forecasting 連続した時間に発生する イベントを予測する
目的変数 Target 目的変数 Target 説明変数の中に、 妥当性のある時間 のデータ Time Series Forecasting Requirements Day Store Sales Week_of_year 9/3/2018 A 2000 36 9/3/2018 B 600 36 9/4/2018 A 2300 36 9/4/2018 B 550 36 説明変数 Feature 頻度の一貫性
信頼性 安全で信頼できる 透明性 理解できる 包括性 あらゆる人の力となり、人々を結びつける プライバシーと セキュリティ 安全に管理され プライバシーを 最大限尊重する 公平性 全ての人を 公平に扱う THE GOLDEN RULE Microsoft の AI のための倫理的原則 説明責任 システムとしての 説明責任を 果たす
信頼性 安全で信頼できる 透明性 理解できる 包括性 あらゆる人の力となり、人々を結びつける プライバシーと セキュリティ 安全に管理され プライバシーを 最大限尊重する 公平性 全ての人を 公平に扱う THE GOLDEN RULE Microsoft の AI のための倫理的原則 説明責任 システムとしての 説明責任を 果たす
Joy Buolamwini , MIT Dr. Timnit Gebru , Google 性別に関する肌の色の影響
Woman Dark Skin Woman Light Skin Man Dark Skin Man Light Skin 2018 MS Face API Error Rate 20.8% 1.7% 6.0% 0.0% 2019 MS Face API Error Rate 1.5% 0.3% 0.3% 0.0% Buolamwini & Gebru , 2018 Raji & Buolamwini, 2019 リソースの継続的な投資によって改善 Accuracy より E rror Rate に着目 エラーを分解 特性間の交点を確認 Face API
Woman Dark Skin Woman Light Skin Man Dark Skin Man Light Skin 1.52% .34% .33% 0% 304,000 68,000 66,000 公平なのか ? NYC の著名なデパートには 毎年 2,000 万人もの人が来店する 50% ずつの性別と肌の色と仮説する 小売業向けの性別 C lassifier 誤差率が小さくとも、相対的な違いに注目 相対的な差異が重要
NIPS 2017 Keynote: The Trouble with Bias https://youtu.be/fMym_BKWQzk
The Future Computed : AI とその社会における役割 “ 我々は、 [ テクノロジーが AI からもたらす ] 社会的課題にどのように取り組んでいるかについて、慎重に考える必要があります " - ブラッド スミス Brad Smith, President of Microsoft 責任のある AI の利用
Learn more about our approach at https://www.microsoft.com/AI/our-approach-to-ai Download The Future Computed at aka.ms/ Futurecomputed Check the Responsible AI section at aischool.microsoft.com Get started with homomorphic encryption at ailab.microsoft.com Get started with InterpretML at github.com/Microsoft/interpret Learn more
Responsible AI への 取り組み
Black Box モデルの弊害 モデルの精度とモデルの解釈性はトレードオフになりがち Black Box モデル なぜその予測値になった? モデルの改善方法は? モデル構造が複雑 理解するのが非常に困難 要因探索 、 与信管理など説明責任が伴うビジネスでは ブラックボックスなモデルは使えない ...
主要なアルゴリズム 解釈可能な モデル Black Box 解釈フレームワーク 従来の統計的手法 線形回帰 決定木 LIME SHAP Permutation Feature Importance Microsoft Interpret ML Azure ML Interpretability SDK Power BI – Key Influencers アプローチ方法
Taxonomy カテゴリー アプローチ方法 Microsoft 提案方法 解釈可能な モデル 従来の統計解析手法 線形回帰 決定木 一般線形化モデル Power BI – Key Influencers Azure ML service – Visual Interface (Azure ML Studio) Python, R で実装 その他 Microsoft InterpretML 汎用的な 解釈フレームワーク Permutation Feature Importance Partial Dependency Plot LIME SHAP Azure ML Studio – PFI モジュール Azure ML Interpretability SDK Python, R で実装
Model Interpretability SDK LIME や SHAP などのモデル解釈のフレームワークを統合 API でご提供 データ探索 変数の重要度 各 予測値に対する説明 サマリー 要因探索 、 与信管理などの業務ではブラックボックスなモデルは使えない ... https://docs.microsoft.com/en-US/azure/machine-learning/service/machine-learning-interpretability-explainability Model interpretability with Azure Machine Learning service
Microsoft Interpret ML github.com/Microsoft/interpret Unified API Interactive Visualizations 精度が高く、説明力のある Explainable Boosting Machine
AI や 機械学習の最新の トレーニング 概要・基礎・チュートリアル 自分に適した、トレーニングコースの作成 AI Business School Conversational AI AI Services Machine Learning Autonomous System Responsible AI AI School aischool.microsoft.com