タグ: AutoML

  • 【Google認定MLエンジニア】MLパイプラインとインフラ管理のベストプラクティス

    【Google認定MLエンジニア】MLパイプラインとインフラ管理のベストプラクティス


    機械学習(ML)パイプラインとそのインフラストラクチャの適切な管理は、モデルの信頼性、パフォーマンス、スケーラビリティを確保し、ビジネス価値を最大化するための重要な要素です。本記事では、Google Cloud Platform (GCP) 上でのMLパイプラインとインフラ管理におけるベストプラクティスを体系的に解説します。


    ✅ 全体像(MLパイプラインとインフラ管理)

    1. データ収集・前処理

      • データパイプラインの設計(BigQuery、Cloud Storage、Dataflowなど)
      • 特徴量エンジニアリングとデータクレンジングの自動化
    2. モデル構築・トレーニング

      • Vertex AI Workbenchでの共同作業(特徴量エンジニアリング、モデル開発)
      • AutoMLまたはカスタムトレーニングの選択
    3. モデルのデプロイとスケーラビリティ確保

      • Cloud RunやVertex AI Predictionによるスケーラブルなデプロイメント
      • 高可用性(HA)設計の適用
    4. モニタリングとパフォーマンス最適化

      • Vertex AI Model Monitoringでのドリフト検知とパフォーマンス監視
      • Cloud Monitoringでインフラとコストの最適化
    5. 自動化と再トレーニング

      • Vertex AI PipelinesによるMLワークフローの自動化
      • Cloud Schedulerによる定期的な再トレーニングのトリガー
    6. セキュリティとプライバシーの確保

      • Cloud ArmorやIAMを用いたアクセス制御とデータ保護

    📌 各要素の詳細と活用サービス

    1. データパイプラインの構築

    • BigQuery:大規模なデータセットの蓄積と分析に使用。
    • Dataflow:データのインジェスト、前処理、変換をストリーミングまたはバッチで実行。

    注意: Dataflowはデータ前処理に重要ですが、MLパイプラインの全体管理にはVertex AI Pipelinesが推奨されます。


    2. モデル開発とトレーニング

    • Vertex AI Workbench

      • データサイエンティストとエンジニア間の共同作業環境。
      • Jupyterベースのノートブックを通じて特徴量エンジニアリングやモデル開発を実施。
    • AutoML vs. カスタムトレーニング

      • AutoML:低コードでモデル構築。
      • カスタムトレーニング:TensorFlowやPyTorchなどを使用した柔軟なモデル設計。

    3. モデルデプロイとスケーラビリティ

    • Vertex AI Prediction

      • サーバレスでスケーラブルなモデル提供。
      • トラフィックに応じた自動スケーリング。
    • Cloud Run

      • 任意のコンテナ化されたアプリケーションのスケーラブルデプロイメントに利用。
      • モデル推論やAPI提供に最適。
    • Google Kubernetes Engine (GKE)

      • 高度な制御が必要な場合に使用。ただし、低コードソリューションにはオーバースペックとなる可能性あり。

    4. モニタリングとパフォーマンス最適化

    • Vertex AI Model Monitoring

      • モデルドリフトやパフォーマンス低下を検知。
      • データ分布の変化に素早く対応し、精度維持。
    • Cloud Monitoring

      • インフラストラクチャ(CPU使用率、メモリ、コストなど)の監視。
      • パフォーマンスとコスト最適化のために活用。

    5. 自動化と再トレーニング

    • Vertex AI Pipelines

      • End-to-EndのMLワークフロー(データ準備、トレーニング、デプロイ)を自動化。
      • リトレーニングやパイプライン再実行を簡単に管理。
    • Cloud Scheduler

      • 定期的な再トレーニングを自動でトリガー。
      • モデルの最新性を保つために不可欠。

    6. セキュリティとプライバシー管理

    • Cloud Armor

      • DDoS対策やWAF(Web Application Firewall)でデータ保護。
      • 特にヘルスケアや金融業界で重要。
    • IAM (Identity and Access Management)

      • 最小権限の原則に基づくアクセス制御。
      • データへの不正アクセス防止。

    🎯 試験対策ポイント(Exam Focus)

    • Vertex AI Pipelines を活用してMLワークフローを自動化。
    • Cloud Run を使用してスケーラブルかつ高可用性なモデルデプロイメントを構築。
    • Vertex AI Model Monitoring により、モデルのドリフト検知やパフォーマンス維持を徹底。
    • Cloud Scheduler で定期的な再トレーニングを自動化。
    • Cloud Armor でセキュリティとプライバシーを確保。

    🚨 注意点(Caution Alerts)

    • Dataflowは前処理専用であり、パイプライン全体の自動化にはVertex AI Pipelinesが必要。
    • GKEやKubeflowは高機能ですが、シンプルなケースではオーバースペックになる可能性あり。
    • 手動の特徴量エンジニアリングは避け、可能な限り自動化する。
  • 【Google認定MLエンジニア】Google Cloud MLプロジェクトにおけるコラボレーションとコミュニケーション

    【Google認定MLエンジニア】Google Cloud MLプロジェクトにおけるコラボレーションとコミュニケーション

    1. データパイプラインの構築と前処理

    • Dataflowを活用した前処理
      データをクレンジングし、モデルのトレーニングに適した形に整える。BigQueryやCloud SQLに格納されているデータをDataflowで前処理し、AutoMLやVertex AIに渡す。特にヒストリカルデータを扱う場合は、予測モデルの精度に大きく影響する。

    Exam Focus:
    Dataflowによる前処理はほぼすべてのシナリオで重要。見落とさずに設計に組み込むこと。


    2. 共同作業のためのツール

    • Vertex AI Workbench
      データサイエンティストと協働し、特徴量エンジニアリングやモデルのトレーニングを行うための統合開発環境。Jupyterベースでクラウド上でノートブックを共有可能。

    • Vertex AI Experiments
      モデルバージョンを比較・管理し、最良のモデルを選択するための仕組み。複数のハイパーパラメータ設定や異なるトレーニングセットアップを一元管理できる。

    Exam Focus:
    Workbenchは協働の中心。Experimentsはモデルバージョン管理の中核。


    3. CI/CDパイプラインの構築

    CI/CD = Continuous Integration(継続的インテグレーション)とContinuous Delivery(継続的デリバリー)(またはContinuous Deployment(継続的デプロイ))

    • Cloud BuildやJenkins を使用して、モデルのトレーニング、デプロイ、評価を自動化。CI/CDにより、データやモデルの更新時に即座にパイプラインが走り、最新状態が維持される。

    Exam Focus:
    CI/CD構築はデプロイの効率性と品質管理に必須。


    4. モデルのモニタリングと可視化

    • Vertex AI Model Monitoring
      モデルドリフトや性能低下を検出し、長期的にモデルの効果を維持。

    • データスタジオ(Looker、Google Sheets)
      モデル結果や評価指標をステークホルダー向けに可視化し、理解と合意形成を促進。ただし、初期構築・設計段階では補助的な役割にとどまる。


    5. リアルタイム更新と通知(補足)

    • Pub/Sub
      モデルパフォーマンスのリアルタイム通知に有効だが、初期構築フェーズでは必須ではない。

    総合ポイント

    項目 推奨ツール 目的 重要性
    データ前処理 Dataflow データをクレンジングしモデル用に整備
    共同作業・開発環境 Vertex AI Workbench データサイエンティストとの共同開発・トレーニング
    モデルバージョン管理 Vertex AI Experiments モデルの最適なバージョンを選択
    CI/CDパイプライン Cloud Build / Jenkins モデルの自動トレーニング・デプロイ
    モデルモニタリング Vertex AI Model Monitoring モデルの性能維持・改善
    可視化・ステークホルダー共有 Data Studio / Looker モデル結果を可視化し共有
    リアルタイム通知(オプション) Pub/Sub モデルのリアルタイム通知・連携

    CAUTION ALERT まとめ

    • Dataflowの前処理を怠らない:データ品質がモデルの成功を左右する。
    • CI/CDの自動化を省略しない:継続的な改善とデプロイの効率化に不可欠。
    • 可視化ツールやGoogle Sheetsは補助的:初期段階ではロバストなコラボレーションツール(Workbenchなど)が重要。
  • 【Google認定MLエンジニア】Vertex AI におけるモデル構成とデバッグ

    【Google認定MLエンジニア】Vertex AI におけるモデル構成とデバッグ

    Google Cloud の Vertex AIを用いた機械学習モデルの開発やデプロイメントでは、設定ミスやスクリプトエラーによるトレーニング失敗、デプロイメント失敗が起こり得ます。ここでは、AutoML モデルの設定・デバッグおよびカスタムモデル(TensorFlow等)の設定・デバッグに関する代表的なエラーとその解決策を体系的に解説します。


    1. AutoMLモデルの構成とデバッグ

    1.1 Training Budgetの指定ミス

    • 症状: トレーニング実行時にエラー。
    • 原因: training_budget が文字列(例: "2000")で指定されている。
    • 解決策:
      training_budget整数値で指定する必要がある(例: 2000)。型が間違っていると実行時にエラーとなります。

    EXAM FOCUS: Training budgetは常に整数で指定する必要があります。


    1.2 Target Columnの指定ミス

    • 症状: データセットとスクリプトのtarget_columnが一致せず、トレーニングが失敗。
    • 原因: target_columnの指定がデータセットのカラム名と一致していない(例: "target"と書いたが、実際のカラム名は"churn")。
    • 解決策:
      データセット内の正確なカラム名を確認し、target_columnを修正する。

    CAUTION ALERT: target_column がデータセット スキーマと完全に一致していることを常に確認してください。


    2. Dataflow と Apache Beam によるデータ前処理

    2.1 Schema Validationの不足

    • 症状: データ前処理時にスキーマ不一致エラーが発生。
    • 原因: データのスキーマ(フィールド数、型など)の検証処理が含まれていない。
    • 解決策:
      スキーマ検証ステップを追加することで、ミスマッチを事前に検知できる。

    EXAM FOCUS: 不一致を早期に検出するためにスキーマ検証を組み込む。


    2.2 データ型変換時のエラーハンドリング不足

    • 症状: データ型変換で例外が発生すると、パイプラインが失敗。
    • 原因: 型変換(例: Integer.parseInt())の例外処理が実装されていない。
    • 解決策:
      型変換処理には必ずエラーハンドリング(try-catch)を追加して、堅牢性を高める。

    CAUTION ALERT: 堅牢性を確保するために、データ型変換のエラー処理を追加。


    3. カスタムモデルのデプロイメント(TensorFlow)

    3.1 model_pathの誤設定

    • 症状: モデルデプロイメント時にmodel_pathが見つからず失敗。
    • 原因: model_pathが無効なパス、もしくはアクセスできないパスになっている。
    • 解決策:
      GCSパスが正しいこと、かつ適切なアクセス権限があることを確認する。

    EXAM FOCUS: デプロイメントのために model_path にアクセスできることを確認。


    3.2 artifact_uriの誤設定

    • 症状: デプロイメント時にアーティファクトのURIが無効で失敗。
    • 原因: artifact_uriがGCSパスではなくローカルパス、もしくは無効なGCSパス。
    • 解決策:
      artifact_uri有効なGCSパス に設定する必要がある(例: "gs://your-bucket/model/")。

    CAUTION ALERT: artifact_uri を検証して、正しい GCS パスを指していることを確認。


    まとめ表

    課題 症状 解決策 該当スクリプト範囲
    Training Budget 型の誤り トレーニング開始時にエラー 整数型で指定する AutoML モデル
    Target Column 名の不一致 カラム不一致エラー データセットと一致させる AutoML モデル
    Schema Validationの欠如 スキーマ不一致エラー スキーマ検証ステップを追加 Dataflow + Apache Beam
    データ型変換時のエラーハンドリング不足 変換エラー時にパイプラインが停止 型変換時にtry-catchでエラーハンドリング追加 Dataflow + Apache Beam
    model_path の誤設定 モデルデプロイ時にパスエラー 有効なGCSパスに設定 TensorFlow モデルデプロイメント
    artifact_uri の誤設定 デプロイ時にアーティファクトが見つからない 正しいGCSパスに設定 TensorFlow モデルデプロイメント
  • 【Google認定MLエンジニア】Google CloudにおけるAutoML時系列予測モデル:設計と運用ガイド

    【Google認定MLエンジニア】Google CloudにおけるAutoML時系列予測モデル:設計と運用ガイド

    1. 概要

    AutoMLを活用した時系列予測モデル(forecasting models)は、ビジネス課題に対して、売上予測、在庫管理、配送時間予測、株価予測など幅広い用途に活用できます。Google Cloudでは、Vertex AI、BigQuery、Dataflowなど複数のサービスを組み合わせて、高度なMLパイプラインを構築・運用します。

    2. データ準備(Preprocessing)

    ETLプロセスの役割

    • Dataflow を使用して、データの前処理や欠損値処理、特徴量の変換を行います。Dataflowは、ETL(Extract, Transform, Load)プロセスに適したツールです。
    • BigQuery ML は分析には便利ですが、AutoML利用時の前処理には必須ではありません。

    EXAM FOCUS:
    Dataflowでデータ変換を行い、MLモデルに適した形式に整える。

    CAUTION ALERT:
    BigQueryでの分析機能に頼りすぎず、DataflowやVertex AIなど適切なツールを選択。


    3. モデル構築・トレーニング(Model Training)

    パイプラインの自動化

    • Vertex AI Pipelines を使用して、データ前処理、モデル学習、デプロイまでのプロセスを一元管理し、自動化します。これにより、再現性の高いMLワークフローが実現できます。

    EXAM FOCUS:
    Vertex AI Pipelinesでスケーラブルかつ再現性のあるMLパイプラインを構築。

    CAUTION ALERT:
    BigQuery MLやCloud Composerは限定的な用途。パイプライン全体の管理にはVertex AI Pipelinesを選択。


    4. モデル評価・最適化(Model Evaluation and Optimization)

    継続的な評価とチューニング

    • Vertex AI Workbench を活用して、インタラクティブな開発環境でモデルの反復的なチューニングと評価を行います。
    • ハイパーパラメータの調整にはVertex AI Experimentsが有用ですが、初期構築段階では必須ではありません。

    EXAM FOCUS:
    モデルの最適化と評価にはVertex AI Workbenchを活用。

    CAUTION ALERT:
    ハイパーパラメータチューニングに偏らず、全体の構成とパフォーマンス評価を重視。


    5. モデルの監視とデバッグ(Monitoring and Debugging)

    モデルのパフォーマンス監視

    • Vertex AI Model Monitoring を用いて、モデルの精度やパフォーマンスをリアルタイムでトラッキングします。これにより、パフォーマンス劣化やデータドリフトに対応できます。

    デバッグ用ログ取得

    • Cloud Logging を活用して、トレーニングや推論時の詳細なログを収集し、エラーの原因を特定・デバッグします。

    EXAM FOCUS:
    Vertex AI Model Monitoringでモデルパフォーマンスを継続的に追跡。

    CAUTION ALERT:
    Cloud Loggingはデバッグ用途。モデルの構成やパフォーマンス向上には直接寄与しない。


    6. 各シナリオごとの適用例(学習ポイント)

    シナリオ 重要ツール・アプローチ
    在庫管理の時系列予測 Vertex AI Pipelines + Model Monitoring
    株価予測モデルの評価と最適化 Vertex AI Workbench + Model Monitoring
    配送時間予測とデバッグ Vertex AI Pipelines + Cloud Logging
    販売予測とスケーラブルな運用 Dataflow + Vertex AI Pipelines

    まとめ:
    Google CloudにおけるAutoML forecasting modelsでは、Dataflowでの前処理、Vertex AI Pipelinesによるワークフロー自動化、Model Monitoringによる継続的なパフォーマンス追跡、Cloud Loggingでのデバッグ体制がカギです。状況に応じてWorkbenchやExperimentsも補助的に活用しましょう。

  • 【Google認定MLエンジニア】AutoMLモデルトレーニング戦略ガイド

    【Google認定MLエンジニア】AutoMLモデルトレーニング戦略ガイド

    Google Cloud AutoMLを活用した機械学習モデルのトレーニングにおいては、データの種類(表形式、テキスト、画像、動画)ごとに異なるワークフローと注意点が存在します。本ガイドでは、試験対策として必要な知識を体系的に整理します。


    1. 共通ステップ

    ステップ 説明
    データの前処理 Dataflow を使用して、AutoMLに送信する前にデータをクリーニング・整形する。
    ラベル付け 画像、テキスト、動画データでは、高品質なラベル付けが必要。AutoML表形式データでは不要。
    トレーニングの自動化 Vertex AI Pipelines を使用し、定期的なトレーニングをスケジュール。
    スケーラビリティとワークフロー統合 GCPの各種サービスと統合し、拡張性の高いソリューションを構築。

    2. データタイプ別戦略

    2.1 表形式データ(BigQuery)

    必須ステップ:

    • Dataflowでデータ前処理
      欠損値処理、型変換などを実施。
    • Vertex AI Feature Store を活用し、特徴量を一元管理。
    • Vertex AI Pipelinesでモデルの定期トレーニングを自動化。

    避けるべき:

    • カスタムデータラベリングツールの使用(表形式では通常不要)。
    • BigQuery MLによる特徴量エンジニアリング(Vertex AIで一元管理する方が効率的)。

    EXAM FOCUS:
    Vertex AI Pipelinesでのトレーニング自動化。

    CAUTION ALERT:
    表形式データでのカスタムラベリングは不要。


    2.2 テキストデータ(Cloud Storage)

    必須ステップ:

    • Dataflowでテキストデータ前処理
      正規化、ストップワード除去、トークン化など。
    • カスタムデータラベリング
      正確なラベル付けが不可欠。
    • Vertex AI Pipelinesでトレーニングを自動化。

    避けるべき:

    • Vertex AI Workbenchでの特徴量エンジニアリング(AutoMLが自動対応)。

    EXAM FOCUS:
    高品質なラベルの確保。

    CAUTION ALERT:
    特徴量エンジニアリングはAutoMLが担当するため不要。


    2.3 画像データ(Cloud Storage)

    必須ステップ:

    • Dataflowで画像データ前処理
      サイズ調整、フォーマット変換などを実施。
    • カスタムデータラベリング
      高精度なラベルが必要。
    • Vertex AI Pipelinesでトレーニングを自動化。

    避けるべき:

    • Vertex AI Workbenchでの画像前処理(AutoMLが対応)。
    • BigQueryでの画像保存(Cloud Storageが推奨)。

    EXAM FOCUS:
    Dataflowによる画像前処理。

    CAUTION ALERT:
    画像はBigQueryでなくCloud Storageに保存。


    2.4 動画データ(Cloud Storage)

    必須ステップ:

    • Dataflowで動画データ前処理
      フレーム抽出、圧縮などを実施。
    • カスタムデータラベリング
      高精度なラベルが必要。
    • Vertex AI Pipelinesでトレーニングを自動化。

    避けるべき:

    • Vertex AI Workbenchでの動画前処理(AutoMLが対応)。
    • BigQueryでの動画保存(Cloud Storageが推奨)。

    EXAM FOCUS:
    Vertex AI Pipelinesで定期的なトレーニングを実行。

    CAUTION ALERT:
    複雑な前処理は不要。AutoMLが効果的に対応。


    3. まとめ:データタイプ別対応表

    データタイプ Dataflow前処理 ラベル付け 特徴量管理 Vertex AI Pipelines 避けるべき
    表形式 必須 不要 Vertex AI Feature Store 必須 BigQuery MLでの特徴量設計
    テキスト 必須 必須 AutoMLが対応 必須 Workbenchでの特徴量設計
    画像 必須 必須 AutoMLが対応 必須 BigQueryでの画像保存
    動画 必須 必須 AutoMLが対応 必須 BigQueryでの動画保存

  • 【Google認定MLエンジニア】Data Preparation for AutoML 完全ガイド

    【Google認定MLエンジニア】Data Preparation for AutoML 完全ガイド

    AutoMLを効果的に活用するためには、**データ準備(Data Preparation)**が不可欠です。このプロセスでは、データをクリーンで一貫性があり、機械学習モデルに適した形式に整えます。本記事では、Google Cloudの各サービスを用いたAutoML向けのデータ準備方法を、ユースケース別に体系的に整理します。


    🧩 1. データ準備の主要ステップ

    ステップ 説明 主要サービス
    特徴量選択 (Feature Selection) 重要な特徴量を選定してモデル性能を最適化 BigQuery, BigQuery ML
    欠損値処理 (Missing Data Handling) 欠損値を適切に補完してデータの完全性を保つ Dataflow, Cloud Dataprep
    特徴量エンコーディング (Encoding) カテゴリカルデータを数値データへ変換してモデルが処理しやすい形式に整える BigQuery ML
    正規化 (Normalization) 数値データのスケールを統一し、学習を安定化 Cloud Dataprep, BigQuery ML
    データラベリング (Data Labeling) 目的変数(ターゲット変数)のラベル付けを行い、教師あり学習に備える Vertex AI Data Labeling
    言語統一 (Language Consistency) テキストデータにおいて多言語のばらつきを防ぎ、一貫した解析を可能にする Cloud Translation API
    特徴量管理 (Feature Management) 特徴量を一元管理し、モデルへの供給を効率化 Vertex AI Feature Store

    🏢 2. ユースケース別のアプローチ

    ① 小売業での売上予測(タブラー形式データ)

    目標:AutoMLで売上を予測するために、データ準備を行う。

    タスク 推奨アクション ツール
    特徴量選択 重要な特徴量をBigQueryで分析 BigQuery
    欠損値処理 Dataflowでデータクリーニングおよび欠損補完 Dataflow
    特徴量管理 Vertex AI Feature Storeで特徴量を管理・提供 Vertex AI Feature Store

    ② 医療業界での患者アウトカム予測(カテゴリカル+数値データ)

    目標:AutoMLで患者の予後を予測するため、データを整える。

    タスク 推奨アクション ツール
    カテゴリカルエンコーディング BigQuery MLでカテゴリカル変数を数値化 BigQuery ML
    数値データ正規化 Cloud Dataprepで数値変数を正規化 Cloud Dataprep
    欠損値処理 Dataflowでインピューテーション技法を適用 Dataflow

    ③ Eコマースのカスタマーレビュー分析(テキストデータ)

    目標:AutoMLでレビューを分析し、顧客満足度スコアを予測する。

    タスク 推奨アクション ツール
    言語統一 Cloud Translation APIで全レビューを1言語に統一 Cloud Translation API
    欠損値処理 Dataflowでテキストデータを前処理、欠損補完 Dataflow
    データラベリング Vertex AI Data Labeling Serviceで満足度ラベル付け Vertex AI Data Labeling

    ④ 金融業界でのローンデフォルト予測(数値データ中心)

    目標:AutoMLでローンデフォルトを予測するために、金融指標データを準備する。

    タスク 推奨アクション ツール
    特徴量選択 BigQueryで最も関連性の高い金融指標を選定 BigQuery
    欠損値処理 Dataflowでインピューテーションを適用 Dataflow
    特徴量管理 Vertex AI Feature Storeで選択した特徴量を管理 Vertex AI Feature Store

    🎯 試験対策のポイント(EXAM FOCUS)

    • BigQueryを活用して、特徴量の重要度分析やカテゴリカルデータのエンコーディングを行いましょう。
    • Dataflowを使って、欠損値の補完(インピューテーション)やデータクレンジングを実施しましょう。
    • 数値データの正規化には、Cloud Dataprepを使用するのが効果的です。
    • テキストデータ分析では、Cloud Translation APIで多言語データを統一し、解析の一貫性を確保しましょう。

    ⚠️ 注意すべき落とし穴(CAUTION ALERT)

    • Cloud StorageCloud SQLはあくまでデータの保管先であり、データ準備プロセス(前処理)の一部ではありません。これらを選択肢に入れる際は目的をよく確認しましょう。
    • TensorFlowは画像やテキストデータの拡張(データ増強)には有効ですが、AutoMLのタブラー形式データ準備では不要です。無駄な工程を増やさないようにしましょう。
  • 【Google認定MLエンジニア】Google Cloud 機械学習エコシステムの主要プロダクト一覧

    【Google認定MLエンジニア】Google Cloud 機械学習エコシステムの主要プロダクト一覧

    • データ収集/整形
      • Cloud Storage / PubSub / Dataflow / Dataprep

    • 前処理/特徴量管理
      • BigQuery / Dataform / Feature Store

    • モデリング
      • BigQuery ML / Vertex AI Workbench / AutoML / Custom Training

    • パイプライン/MLOps
      • Pipelines / Model Registry / Experiments

    • デプロイ・推論
      • Vertex AI Prediction / Edge Deployment / Matching Engine

    こんなときはどれ?

    状況 おすすめツール
    SQLだけで予測モデルを作りたい BigQuery ML
    ノートブックで深層学習したい Vertex AI Workbench
    ノーコードで画像分類モデルを作りたい AutoML Vision
    本番運用のMLOpsを整備したい Vertex AI Pipelines + Model Registry
    特徴量を複数チームで共有したい Vertex AI Feature Store