Akamai Technologiesが提供する「Akamai Inference Cloud」は、世界中の数千に及ぶ拠点を活用し、AIアプリケーションに不可欠な基盤を構築するクラウドソリューションです。リアルタイムな推論処理が求められるECサイトのリコメンデーションや自動運転アシスタントなどの領域で、多くの企業のAI活用を支えています。
同社のプロダクトの独自性は、世界中に分散するエッジリソースを活用した「超低遅延・低コスト」な推論環境と、「Firewall for AI」をはじめとするAI特有の脆弱性に対応したセキュリティ機構を一体として提供できる点にあります。本記事では、開発の背景にあるエージェントAI時代の課題意識、エッジコンピューティングによる独自の設計思想、そして企業が直面する「シャドーAI」などの導入・運用課題への対策について、同社の中西さんに伺いました。

エージェントAI時代に求められる「低遅延・低コスト」な社会実装
Q. まず、昨今の生成AIの普及に伴い、御社が新たにどのような役割を担おうとしているのか、事業の全体像とともにお聞かせください。
中西さん: 私たちはこれまで、Webコンテンツの配信などを担うCDNプラットフォームの提供や、ランサムウェア対策などを含むサイバーセキュリティの領域でサービスを提供してきました。現在はこの2つに加えて、3本目の柱として「クラウドコンピューティング」の領域をカバーしています。これまではAWSなどで立てたサーバーのコンテンツを配信したり守ったりする部分を担っていましたが、サーバーの部分自体も手掛けるようになり、クラウドからエッジまで包括的にサービスを提供しています。
その中で私たちが今、AIという文脈において新たに担おうとしている役割は、「低遅延かつ低コストなAIアプリケーションの社会実装」を推進していくことです。
AIの活用が進むと、データを取り込んで推論し、それを検証してまた返すというプロセスが様々な場面で発生します。今後、複数のAIが自律的に連携するエージェントAIの世界が普及していくと、やり取りや推論のプロセスにおいて「遅延(レイテンシー)」の累積が非常にクリティカルな課題になってきます。私たちはそうした課題に対し、低遅延で、かつクラウドコストを抑えたAIアプリケーションの構築をお手伝いしたいと考えています。
世界に分散するエッジ拠点を活かした超低遅延の推論クラウド
Q. 実際のAI活用の環境において、インフラに対する要求はどのように変化しているとお感じでしょうか?
中西さん: 例えば、ロボットや自動運転のアシスタントなど、反射的にアクションしなければならないフィジカルAIを構築しているベンダーは、「今まさに、どこで処理を行うべきか」というロケーションとレイテンシーの問題に非常にセンシティブになっています。例えば、画像を蓄積して意味を解釈したり強化学習を行ったりする際、センターのクラウドでやるのか、デバイスの近くでやるのか、適切な選択が求められます。
ここに関して、私たちは非常に大きな貢献ができると考えています。世界中に何千という拠点を持っており、エンドユーザーのすぐ近くでGPUを含めたコンピューティングリソースを提供し、連動させることができるからです。これは元々私たちが提供している「Akamai Inference Cloud」の最大の強みでもあります。
Q.「リアルタイム性」が重要であるサービスにおいて、貴社のソリューションは非常にクリティカルな課題解決なのですね。
中西さん:低レイテンシーが求められる領域は、画像認識やリアルタイムの状況認識にとどまりません。私たちの得意領域でもあるECサイトで、「アクセスしているユーザーに対するリコメンデーションのレスポンスを速く、より賢くしたい」といった需要も増えており、実際にクラウドを活用いただいている事例も出てきています。音声会話のアプリケーションなど、インタラクティブなコミュニケーションをAIで行う需要はこれから爆発的に増えていくでしょう。
さらに今後は、エージェントAI間の通信において「コストや遅延を考慮して、どこのAIを優先的に使うべきか」をコントロールする自動ルーティングの技術も必要になります。そのため、私たちは「インテリジェントなAIゲートウェイ」のようなプラットフォームの構築・提供も進めています。エッジサーバーとサーバーベースの処理を組み合わせ、最適にルーティングすることで、レスポンスが良くて使い勝手の良いAIを構築できる世界を作っていきたいですね。
AI特有の脅威を防ぐ「Firewall for AI」とアクセス制御
Q. AI環境を構築・運用する上で、セキュリティ面ではどのような課題があり、それに対してどのような独自のアプローチをとられているのでしょうか?
中西さん: LLMやAIアプリケーションを構築したものの、それをどう守るのかというセキュリティの課題は非常に深刻です。特に問題になるのが、「プロンプトインジェクション」と呼ばれるLLMに特化した攻撃や、AIが公開されているAPIに対する攻撃、そしてそもそもどこにAPIがあるのか分からない「シャドーAPI」の問題です。
私たちはこれを、世界中に分散するエッジ(CDN)のプラットフォーム上で防御する仕組みを整えています。AIのリソースが世界中に散らばっていても、包括的にカバーできるのがCDNの強みです。
例えば、AIに対してBotが大量アクセスしてGPUリソースを食いつぶしてしまう問題や、中国のAIベンダーにChatGPTのモデルが盗まれた可能性があるとOpenAIが指摘したケースのように、Botを通じてAIのスキルや情報を盗み出す「蒸留」という攻撃があります。私たちはBotアクセスを防御することで、コストの無駄遣いや資産の流出を防ぐことができます。また、AIが主要なアプリケーションになるにつれて、そこを標的にしたDDoS攻撃も出てくるため、その防御も可能です。
さらに、プロンプトインジェクション対策として「Firewall for AI」というソリューションを提供しています。これは入力ガードレールと出力ガードレールを備えており、リアルタイムに通信を検査します。悪意のある脱獄プロンプトや、AIを騙してうまく操ることで、システム内部で機微な情報を取ってこようとするコマンドインジェクションのような入力があればブロックし、出力側ではハルシネーションやヘイトに近い回答をコントロールします。
また、RAG(検索拡張生成)の仕組みにおいて、「AIが社内のどの情報にアクセスすべきか」を制御することも重要です。これにはマイクロセグメンテーションというネットワークのアクセス制御技術を用いて、データセンター内でAIが参照できる範囲を厳密にコントロールするお手伝いができます。
導入現場のリアルな課題である「シャドーAI」と「コスト高騰」へのアプローチ
Q.セキュリティ面ですと、昨今注目されている「シャドーAI」の発見や、実運用におけるインフラ課題に対しては、どのような支援をされているのでしょうか?
中西さん: シャドーAIの検知については、現時点では「できる部分とできない部分」が原理的に存在します。どこから情報を集めるかが一番の難所だからです。
社外に向けて公開しているアプリケーションであれば、ゲートウェイ型でトラフィックを取ることができるため、Webの通信の中からAPI形式の通信を抽出し、さらにLLMが関与している通信を絞り出す弊社のソリューション「API Security」でディスカバリー(発見)が可能です。これにより、どこにサーバーがあるのかを特定しやすくなります。
一方で、社内で従業員が独自にエージェントAIを乱立させているようなケースは、まとまりがなくP2P(ピアツーピア)で動いてしまうため、APIセキュリティだけではカバーしきれません。ここについては、社内でBotを使ってスキャニングをかけたり、AIに関連しそうなDNSレコードを探ったりすることで見つけていくような、ネットワークレベルでのソリューションを今後開発していく必要があると考えています。
また、実運用におけるもう一つの大きな課題が「コストの管理」です。部門単位でAIを動かしてしまうと、GPUコストやイーグレス(クラウドからのデータ転送)のコストが予想外に膨れ上がることがあります。こうしたクラウドコストの課題に対しても、私たちが提供するエッジの選択肢を活用していただくことで、レイテンシーだけでなくコスト全体を抑え込むことが可能になります。
「モデル学習」から「実世界でのリアルタイム推論」へシフトするAIの未来
Q. 今後AIがさらに進化していく中で、インフラ企業としてどのような役割を果たし、どのような展望を描かれていますか?
中西さん: 今後、AIの焦点は「巨大なデータセンターでのモデルの学習」から、「実世界でリアルタイムに機能する推論」へと明確にシフトしていきます。それに伴い、インフラ企業に求められる役割も変わってきます。
中央集権的な処理ではなく、数多くのデバイスやユーザーに対応できる分散型のアーキテクチャを提供することで、AIと現実世界を橋渡しする。これが、私たちの「Akamai Inference Cloud」が果たしていくべき役割だと考えています。
そのための一押しのアプローチとして、高度な推論ニーズをカバーできるNVIDIAの最新GPU、RTX PRO 6000 Blackwell を搭載したインスタンスとしてリリースしています。国内では東京、大阪の2拠点に展開済みで、低遅延かつクラウド大手3社よりリーズナブルなコストでご利用いただけるので、日本企業の皆様にもこれらのGPUコンピューティングリソースを活用いただき、多様な需要に応えていきたいと考えています。
Akamai Technologiesは創業以来25年以上にわたってグローバルに分散したインフラを運用してきた経験から、大規模なトラフィックにも耐えうるスケーラビリティと高い信頼性ではどこにも負けないという自負があります。AIの社会実装が進む中で、この分散基盤と強固なセキュリティを組み合わせることで、お客様にクラウドの使い勝手の良さと安心感を引き続き提供していきたいと考えております。