Generative AI

24 時間 365 日 のシミュレーション ループ: エージェント型 AI がサブサーフェス エンジニアリングを前進させる仕組み

Reading Time: 2 minutes

サブサーフェス業界は、デジタル進化において重要な岐路に立っています。 数十年にわたり、貯留層の可能性を解放することは、専門家による、必要不可欠で時間のかかる手作業のワークフローに依存してきました。

データの複雑さが増す中、マシンの速度と人間の処理能力とのギャップが、主なボトルネックとなっています。

オンデマンドのシミュレーションワークフローは、現在、手作業によるデータ処理の負荷と運用に内在する遅延の両方に制約されています。エンジニアがさまざまな技術資料を手作業で収集、統合、翻訳する必要があるため、知識の集約において大幅なボトルネックが発生し、プロジェクトのサイクルを長期化させています。

これは、シミュレーション ジョブの非同期特性によってさらに悪化します。営業時間外、またはエンジニアが複数の優先事項を並行してこなしている最中にシミュレーションが終了または失敗すると、ダウンタイムが蓄積されます。その結果、本来は 24 時間で完了すべき処理が、しばしば数日にわたる遅延に繋がり、グローバル チームの進捗を停滞させます。

この投稿では、NVIDIA のフルスタック アクセラレーテッド コンピューティング プラットフォームにエージェント型 AI を適用することで、サブサーフェス エンジニアリングおよび関連分野において、専門家による手作業に依存したワークフローが、常時稼働のコンピューティング主導のシミュレーション ワークフローへ変革する方法を説明します。

エージェント型へ転換

エージェント型 AI は、繰り返し発生する技術的なハードルをオフロードすることで、この状況を一変させ、エンジニアが「まずまずの結果」に留まることなく、より広範なソリューション空間を探索し、資産価値の向上を推進することを可能にします。

このパラダイムでは、エンジニアは戦略的な監督役へと役割を移行し、エージェントが実行を担当する一方で、高レベルな方向性を決定するプロセスに関与し続けます。この記事では、そのようなシステムを構築する方法を紹介します。

例はサブサーフェス シミュレーションに焦点を当てていますが、このフレームワークはツールに依存せず、複雑なシミュレーション ワークフローを必要とするあらゆる業界に適用できます。

以下の図 1 に示すこのマスター アーキテクチャは、セントラル オーケストレーション エージェントと、シミュレーターの相互作用とワークフロー管理向けに設計された専用エージェントを統合しています。

貯留層シミュレーション アシスタント: 日々のワークフローの高速化

貯留層シミュレーション アシスタントは、エンジニア、技術ドキュメント、シミュレーションの間のギャップを埋めるデジタルな専門家として機能します。 これは、既存のモデリング環境と連携して、反復的なタスクや技術的な障害を処理する補完的なファスト トラックとして機能します。

要点

貯留層シミュレーション アシスタントは、業界で確立されたツールを置き換えるのではなく、補完するように設計されています。 シミュレーション ループの管理部分をオフロードすることで、エンジニアは大幅な余力を確保できます。

  • インスタント インタラクション: 階層化されたメニューを操作するのが好みでも、ターミナル経由でコマンドを実行するのが好みでも、エージェントを使うことで面倒なファイル検索に代わって即座に結果を得ることが出来ます。 シミュレーション デッキをチャットにドラッグして実行を起動することから、Well-X のスキン係数は何ですか?」といった質問まで、システムは手動での検索やデッキの設定を数秒で処理します。
  • 迅速な分析: エージェントは、時系列曲線をプロットするだけでなく、迅速な診断を提供します。 「Well-X で早期にウォーター ブレイクスルーが発生しているのはなぜですか?」など、複雑な質問に即座に回答できます。通常は、何時間もかけての手作業による照合が必要になります。
  • シームレスな「what-if」の反復:構文に悩まされることなく、アジャイルなシナリオ テストを実行できます。エージェントは退屈なキーワード編集とベースラインの比較を処理するとともに、自己修復ロジックにより、収束の問題と入力エラーをプロアクティブに修正。オプションで人間の介入も組み込むことができ、シミュレーションを 24 時間 365 日実行し続けることができます。

最終的に、このパーソナル エージェントは、マルチステップに分かれている手動の管理プロセスを、単一の自然な会話へと変換します。

NVIDIA のデモではスタンドアロン インターフェイスを備えていますが、これらのエージェント型機能を業界標準の高忠実度モデリング プラットフォームに直接統合できる可能性は、サブサーフェス デジタル エコシステムにとって極めて興味深い進化と言えます。

マルチエージェント スクワッド: 複雑なエンジニアリング研究のオーケストレーション

貯留層シミュレーション アシスタントは、迅速なシナリオ テストや手作業による検索などの日常のタスクを強化しますが、これらは履歴照合や現場開発の最適化など、大規模で複雑なシミュレーション研究における予備ステップに過ぎないことが多いです。 これらのワークフローは、サブサーフェスの意思決定プロセスを支えますが、運用の遅延と専門知識のギャップという 2 つの主要なボトルネックが交差する原因で、非常に困難な作業です

まず、これらのワークフローがデッド タイムの主な原因です。 1 回のワークフロー サイクルは数日かかることがあるため、結果は多くの場合業務時間外に終了し、そのまま放置されることになります。 この時間差により、通常 24 時間で完了する作業が、数日にわたる遅延を招くことがよくあります。

第 2 に、さらに重要な点として、これらの研究には「ヒューリスティックな休止」が必要です。各サイクル終了後、専門家は高次元のデータを手動で合成し、次回の実行に備えてパラメーターをどのように調整するかを決定しなければなりません。このレベルの専門知識は、通常、長年の経験または外部のコンサルタント企業に頼らざるを得ないですが、このような専門リソースは本質的に不足しています。 このヒューリスティックな休止は、認知的ボトルネックを引き起こし、ワークフローが専門家の介入を待つ際に、プロジェクト タイムラインに大幅な遅延が発生します。

これを解決するために、単一エージェント モデルからマルチエージェント スクワッドに移行します。 このシステムは、専門の貯留層エンジニアリング チームを模倣し、デジタル ジュニア エンジニアのグループを活用し、大規模な最適化ジョブを自律的に実行し監視します。

24 時間 365 日のオーケストレーション レイヤーとして機能することで、このスクワッドは、1 つのサイクルが終了するとすぐにデータの合成、次回のパラメーター提案、そして後続の実行が即座に開始されるようにし、イテレーション間のアイドル時間を効果的に削減します。

エージェント型ワークフローの主要原則:

  • ヒューマンインザループ (HITL): 高度な自律性を備えているにもかかわらず、エンジニアは全体的な管理や制御を維持します。 彼らは、数百件ものシミュレーション ジョブを含むワークフローを起動する前に、エージェントが提案した計画をレビューし、承認します。
  • 信頼できるエコシステム: エージェントは、ツールの呼び出しを介して業界標準のシミュレーションとオーケストレーション ソフトウェアを活用します。 物理的な仕組みを置き換えることではなく、ボトルネックの原因となっている手動の反復タスクを排除することで、デリバリーを加速させます。
  • 特定環境に依存せず将来のニーズにも対応: この実装は、シミュレーションと最適化にそれぞれ OPM Flow と社内 Python コードを活用していますが、このフレームワークはモジュール化を念頭に置いて設計されています。エージェント型レイヤーは物理エンジンから分離されているため、業界標準の商用シミュレーターや独自のコードベースとシームレスに統合できます。

ケース スタディ: 井戸配置の最適化

これを実際に動作させるために、マルチエージェント スクワッドを、ブルージュ ベンチマーク モデルの井戸配置の最適化に適用しました。目標は、30 基の井戸の場所を最適化することで、正味現在価値 (NPV) を最大化することでした。

  • 共同計画: プロポーザー エージェントが最適化戦略 (遺伝子アルゴリズム vs. 特定のハイパー パラメーターセットによる粒子群の最適化など) を提案し、クリティック エージェントがディベート ループを通じてそれらを洗練します。
  • 動的なオーケストレーション: エージェントは、パフォーマンス指標とドメインの知識に基づいて、リアルタイムでチューニング パラメーターを調整します。
  • 運用の安定性: ジョブ マネージャーは正常性を監視し、予期しない障害によるダウンタイムを排除します。
  • 自動化されたデータ合成: 結果アナリストは、高次元の生データを実用的な洞察に変換します。

この具体的な事例では、技術マニュアルや過去の実験を基盤とするエージェントのディスカッションは、戦略的に発展してきました。 初期のイテレーションでは、幅広い探索を優先し、大規模な母体と高い突然変異率を活用し、厳しい予算内でソリューション空間を広くサンプリングしました。ワークフローが進行するにつれ、思考プロセスは進化的な深さへと移行しましたたとえば、サンプリングの負荷が多い GA の変種から PSO に着想を得た構成に切り替え、初期のサンプリングや世代間の深度によってパフォーマンスが制限されたかどうかをテストします。

構築ブロック: NVIDIA Inference Microservices

これらのエージェントを駆動するインテリジェンスは、NVIDIA Inference Microservices (NIM) を活用して動作します。リアルタイムのエンジニアリング推論に必要な低遅延かつ本番環境に対応した推論を提供します。

  • 高度な推論: エージェントは、複雑な推論、計画、マルチターンのエージェント型ワークフロー向けに設計された最先端のモデルである Llama-3.3-Nemotron-Super-49B-v1.5 を活用しています。
  • コンテキスト インテリジェンス: 検索拡張生成 (RAG) は、Llama-3.2-NeMo-Retriever-300M-Embed-v2 によって実現されており、エージェントの応答が、独自の技術ドキュメントやシミュレーション マニュアルに基づくものであることを保証します。
  • モジューラー アーキテクチャ: システムは、LangChain 互換のインターフェイスである ChatNVIDIA を統合し、LangChain および LangGraph フレームワーク内でシームレスなオーケストレーションを可能にします。 これにより、シミュレーター API、データベース クエリ、カスタム ツールとのプログラマティックな相互作用を呼び出す構造化関数が提供され、マルチステップ ワークフロー全体で信頼性の高い状態管理を維持します。
  • 柔軟なデプロイ: アーキテクチャは、build.nvidia.com API エンドポイントを使用した迅速なプロトタイピングをサポートし、単一行の構成変更によって自己ホスト型 LLM デプロイへのホットスワップが可能になり、完全なデータ主権を伴う安全なオンプレミス実行を実現します。

このエージェント型システムは、エンジニアの焦点をタスク実行からオーケストレーションへとシフトさせます。 以前に手作業の検索や監視に費やされていた時間は、代替シナリオの探索と資産戦略の最適化に振り向けられます。これらは、今までは時間的な制約によって検討されないままになっていたものです。

これらの結果は貯留層シミュレーション領域内で実証されましたが、提案されたエージェント型システムは、本質的にシミュレーション ツールに依存しません。したがって、このフレームワークは、地質学的 CO2 貯留や地熱エネルギーといった隣接する分野から、複雑で反復的なシミュレーション ワークフローに依存するあらゆる業界に至るまで、自然に拡張できます。

何もしないことによる機会コストは、現在では測定可能です。従来のワークフローがキューで待機する中、エージェント型システムはすでに、次のイテレーションを模索しています。

試してみる

NVIDIA は、これらの機能をコミュニティが利用できるようにしています。GitHub のオープンソース リポジトリ リリースにアクセスして、エンドツーエンドのマルチエージェント ワークフローを試してみてください。 特定のユース ケースに合わせて、これらのエージェント型ワークフローをさらにカスタマイズすることもできます。

翻訳に関する免責事項

この記事は、「24/7 Simulation Loops: How Agentic AI Keeps Subsurface Engineering Moving」の抄訳で、お客様の利便性のために機械翻訳によって翻訳されたものです。NVIDIA では、翻訳の正確さを期すために注意を払っておりますが、翻訳の正確性については保証いたしません。翻訳された記事の内容の正確性に関して疑問が生じた場合は、原典である英語の記事を参照してください。

Tags