![]()
Google Cloud Next '26 Las Vegasとは
Google Cloud Next '26は、2026年4月22日から4月24日の3日間、アメリカ・ラスベガスのMandalay Bayにおいて開催されるGoogleのクラウドサービスに関する世界最大級のイベントです。「ディープ ラーニング、刺激的なセッション、共同での問題解決など、充実した 1 週間になることでしょう。業界の専門家や、あなたと同じ課題や機会に直面している同業者から直接学ぶチャンスです。Next 26 を終える頃には、他では得られない斬新なアイデア、最先端のスキル、行動につながる知見を身につけていることでしょう。」と銘打っており、AIコンテンツで大いに盛り上がった昨年や一昨年にも勝るとも劣らないイベントとなることが期待されます。
私たちNTTインテグレーションも、Google Cloudに精通した専門家として、技術イノベーションの最新動向を取り入れ、顧客に対するソリューション提供に活かしていくことを目指して参加しています。
このような貴重な機会ですので、現地からいち早くブログで最新情報や熱量を発信してまいります。
本記事で紹介するセッション概要
講演日時:2026年4月24日 9:45 - 10:30
セッションタイトル:Agent development and AgentOps with BigQuery, ADK, and MCP
セッション内容のサマリ:本セッションでは、カスタムデータベース・コネクタをゼロから構築する手間を省き、エージェントとデータの接続方法を標準化するAgent Development Kit(ADK)とModel Context Protocol(MCP)の統合手法について学びます。ADKを用いて、分析用のBigQuery、地理空間インサイトのためのGoogle Maps、そしてトランザクション処理を行うAlloyDBに、単一のワークフローですべてアクセスできるエージェントを構築する方法をご紹介します。さらに、わずか1行のコードでエージェントのパフォーマンスとコストの両方を詳細に可視化する、エージェント運用(AgentOps)の実装方法についても解説します。
このセッションで期待できること
エージェント型AIの開発において、データベースとの接続設計やエージェントの動作監視は実装上の大きな課題です。ADK(Agent Development Kit)とMCP(Model Context Protocol)を組み合わせることでその課題をどう解決できるか、また実際に稼働するエージェントのパフォーマンスをどう把握・改善していくかその手法を学べればと思い臨みました。
セッション内容
本セッションはGoogleのBigQueryデータエージェントチームとLarueのデータエンジニアが登壇し、ADKとMCPを組み合わせたデータエージェントの構築方法とAgentOpsの実践事例が紹介されました。特に印象に残った3つのトピックをご紹介します。
1. データ接続の選択肢と標準化

本セッションでは、エージェントとデータの接続方法を5段階で整理したフレームワークが示されました。価値を重視するなら既存のBigQueryデータエージェントをそのまま活用し、柔軟性を重視するなら独自APIでツールをフルカスタムするという軸で、用途に応じた出発点を選べる構成です。また今回GAとして正式リリースされたMCP Server for BigQueryは、bigquery.googleapis.comへの接続だけで利用可能なマネージドサーバーで、データセット・テーブルの参照やSQL実行を標準ツールとして提供しつつ、読み取り専用モード・監査ログ・Model Armor連携といったガバナンス機能を備えています。さらにOSS MCP ToolBoxのStable版もリリースされており、MySQL・PostgreSQL・BigQuery・Bigtable・AlloyDB・Cloud SQL・Spannerなど主要データベースへの接続をセルフホストで一元管理できます。過去6か月でBigQuery MCPサーバーの利用は20倍以上に成長し、毎月数百万件のクエリが処理されているという数字も示されており、この標準化の流れが急速に広がっていることを実感しました。
2. 少ないコードで実現するデータエージェント
.jpg?width=4032&height=3024&name=IMG_7349%20(1).jpg)
エージェントの構築方法として、書き込み操作をブロックするツール設定・認証情報の設定・エージェント定義の3ブロックからなるシンプルなコードでBigQueryエージェントが構築できることが説明されました。デモでは、Google MapsのMCPサーバーとBigQueryのMCPサーバーを同時に接続し、地理空間データと販売データを組み合わせた分析を自然言語で実行する様子が実演されました。またConversational Analytics API(新しくGA)を使えば、BigQueryのデータに対して自然言語で会話しながら分析できるデータエージェントを迅速に構築・組織全体に展開することも可能です。Lookerのセマンティックレイヤーとの組み合わせにより、マルチテーブル分析の精度も向上しています。
3. エージェントの可観測性の重要性

エージェントを本番環境で動かし始めると、「今エージェントが何をしているのか」「なぜその結果になったのか」が分からないという問題が生じます。通常のプログラムと異なり、AIエージェントは毎回同じ動作をするとは限らないため、動作の記録(ログ)を残すことがコードを書くのと同じくらい重要だということが強調されました。また、単にログを残すだけでなく、会話の傾向を分類したりエラーのパターンを見つけたりといった、より深い分析が必要になること、さらにテキストだけでなく画像や音声といったデータもログに含まれるケースがあることも説明されました。
こうした課題に対応するAgent Analyticsプラグインを活用することで、エージェントの全操作・処理時間・コストをリアルタイムでBigQueryに記録できます。デモでは「どのツールの処理が一番遅いか教えて」と自然言語で聞くだけで、処理時間をグラフで表示し、改善のヒントまで自動で提示される様子が示されました。セッションの最後には、適切な場面にだけエージェントを使うこと・ユーザーが普段使っているツールの中にエージェントを組み込むこと・統合コストを過小評価しないことの3点が成功の鍵として紹介されました。
まとめ・感想
今回のセッションでは、MCP Server for BigQueryとConversational Analytics APIという2つの新機能が正式リリース(GA)されたタイミングでの参加となりました。MCP Server for BigQueryはエンドポイントに接続するだけでエージェントからBigQueryを安全に扱える仕組みで、これまで接続設計に費やしていた手間を大幅に削減できる点が印象的でした。またConversational Analytics APIは、自然言語でBigQueryのデータと会話しながら分析できるという機能で、データ専門家でなくても分析に参加できる世界を実現するものだと感じました。どちらもすぐに試せる段階にあり、お客様への提案にも活かせると感じています。
また「統合コストを過小評価するな」というメッセージは非常に共感しました。技術的な実装がシンプルになってきている一方、既存システムとの接続や組織への定着にかかるコスト・労力は依然として大きく、そこを丁寧に支援することが私たちSIerとしての付加価値だと改めて認識しました。
Google Cloud、Google Workspace に関するご相談はXIMIXへ!
Google Cloud、Google Workspaceに関する お問い合わせはこちら
XIMIX®はNTTインテグレーションが所有する登録商標です。(商標登録第6755234号)
執筆者紹介
.png?width=200&name=image%20(4).png)
- カテゴリ:
- クラウド
- キーワード:
- Google Cloud
- Next'26
- Las Vegas