Google Cloud Next '25 Las Vegasとは
Google Cloud Next '25は、2025年4月9日から4月11日の3日間、アメリカ・ラスベガスのMandalay Bayにおいて開催されるGoogleのクラウドサービスに関する世界最大級のイベントです。「今回は、これまでで一番多彩なデベロッパー コンテンツを用意します。デベロッパー専用のエクスペリエンスやコンテンツを充実させ、アプリ開発や AI のほか、スケーラブルで安全なデータ駆動型アプリケーションの学習や開発に役立つ重要なトピックを網羅します。」と銘打っており、AIコンテンツで大いに盛り上がった昨年や一昨年にも勝るとも劣らないイベントとなることが期待されます。
私たち日本情報通信株式会社も、Google Cloudに精通した専門家として、技術イノベーションの最新動向を取り入れ、顧客に対するソリューション提供に活かしていくことを目指して参加しています。
このような貴重な機会ですので、現地からいち早くブログで最新情報や熱量を発信してまいります。
本記事で紹介するセッション概要
- 講演日時:2025年4月10日 17:15 - 18:00 GMT-7
- セッションタイトル:Measure the impact of code assistance with Gemini Code Assist
- 登壇者
- Sander Bogdan
- Google Cloud プロダクトマネージャー
- Nathen Harvey
- Google Cloud DevOps Research and Assessment(DORA) Lead
- Sander Bogdan
- セッション内容のサマリ
- Gemini Code Assistを活用したAI支援ソフトウェア開発の影響を評価および最適化する方法について解説します。AI支援の効果を測定するためのプロセス、Gemini Code Assistで利用可能な定量的および定性的な指標、そしてCloud MonitoringおよびCloud Loggingとの統合について説明します。さらに、生産性の向上を追跡するためにDORAのメトリクスを活用する方法を紹介します。
このセッションで期待できること
このセッションでは、ソフトウェア開発チームにおけるGemini Code AssistのようなAI支援ツールの導入と効果測定のための実践的なフレームワークである、「導入(Adoption)」、「信頼(Trust)」、「加速(Acceleration)」、「影響(Impact)」という四段階のプロセスについて、理解できます。
AI支援の導入前に実施すべき評価についても、成功基準の設定や参加者の選定など、段階的なアプローチについて、紹介されたので、本ブログでもその内容を紹介します。
セッション内容
本ブログでは、実際にセッションを聞いて特に興味深く感じたポイントを抜粋します。
AI支援導入における4つの段階
AI支援導入においては、4つのフェーズがあると紹介されていました。
具体的には、
- 導入 (Adoption):
開発者がツールを積極的に使用しているかを確認し、AI支援が開発成果にどのように貢献するかを評価する段階です。日々の利用状況やコード提案の量が指標になる。 - 信頼 (Trust):
AIの出力に対する開発者の信頼性を評価する段階です。コード提案の受入れ率や受入れられたコード行数が指標になる。 - 加速 (Acceleration):
DORAの指標、ストーリーポイント、チケットのクローズ数などの既存の生産性指標を通じて、開発スピードとソフトウェア品質の向上を確認する段階です。 - 影響 (Impact):
収益、市場シェア、製品化までの時間などの主要なビジネスKPIの変化を評価し、AI支援の導入がビジネス目標にどのように貢献しているかを確認する段階です。
これらの 4つの段階は順に進む必要があり、スキップすることはできない[以下図①]また、AI支援ツール導入(Adoption)から、加速 (Acceleration)までを最低3~4スプリント回す必要があるとのことでした。[以下図②]
Gemini for Cloud Logging (プレビュー版)
Gemini Code Assist は、導入 (Adoption)と信頼 (Trust)の測定をサポートしており、Gemini for Cloud Logging (プレビュー版) を通じて、アクティブな利用状況、コード提案、受入れられたコード提案、受入れ率、チャットの利用、受入れられたコード行数などの詳細なデータを提供します。
Gemini for Cloud Loggingで、取得できるものは、以下一例とのことです。
- リクエスト / レスポンスログ
- リクエスト / レスポンスエントリ
- ユーザ
- クライアント・バージョン
- 日付
- テレメトリ(メタデータ)ログ
- コード提案 / 受入れ
- プログラム言語
- 受入れられたコード
また、Gemini for Cloud Loggingで作成されたダッシュボードのサンプルについて、以下右図でご紹介されました。
DORA(DevOps Research and Assessment)
DORA(DevOps Research and Assessment)は、DevOpsの能力やパフォーマンスを測定・向上させるためのフレームワークおよび指標です。DORAが定義するDevOpsのパフォーマンスを測定するための4つの主要な指標について、紹介されていました。
- リードタイム(Lead time for changes):コード変更がコミットされてから、本番環境にデプロイされるまでの時間
- 目的:変更を迅速に提供する能力を測定
- 指標例:
- 高パフォーマンスチーム:変更ごとのリードタイムは数分から数時間程度
- 低パフォーマンスチーム:数週間から数か月
- デプロイ頻度(Deployment frequency):ソフトウェアを本番環境または運用環境にデプロイする頻度
- 目的:チームがどれだけ迅速に変更をリリースできるか
- 指標例
- 高パフォーマンスチーム:1日に複数回デプロイ可能
- 低パフォーマンスチーム:数か月に1回のデプロイ可能
- 変更失敗率(Change dail rate):本番環境にデプロイされた変更が失敗、または問題が発生する割合
- 目的:リリースの品質を測定
- 指標例:
- 高パフォーマンスチーム:平均失敗率が低い(0〜15%以下)
- 低パフォーマンスチーム:失敗率が高い(30%〜以上)
- 復旧時間(Failed deployment recovery time):本番環境で障害が発生してから復旧するまでにかかる時間
- 目的:耐障害性・迅速な問題解決能力を測定
- 指標例:
- 高パフォーマンスチーム:復旧時間が数分〜数時間
- 低パフォーマンスチーム:復旧時間が数日〜数週間
DORA指標を活用することで、チームが自身のパフォーマンスを客観的に評価できるようになるようです。
まとめ・感想
昨今、コードを一から書くのではなく、時間短縮のために、AIに支援を受けることが増えてきたのではないでしょうか。ただ、AIのコードは参考になる反面、全てを任せることはまだ出来ないのが現実かと思います。
AIと上手く付き合っていくためにも、このような Devops の考え方を上手く利活用していき、開発や運用の効率性を上げていきたいなと感じました。
参考
A framework for adopting Gemini Code Assist and measuring its impactGoogle Cloud、Google Workspace に関するご相談はXIMIXへ!
Google Cloud、Google Workspaceに関する お問い合わせはこちら
XIMIX®は日本情報通信株式会社が所有する登録商標です。(商標登録第6755234号)
執筆者紹介

- カテゴリ:
- クラウド
- キーワード:
- Google Cloud