週間生成AIニュース【2026年4月20日〜4月26日】

今週はGoogle・OpenAI・Anthropicの3社から、新モデルや新機能が相次いで公開されました。

GoogleはGeminiに個人のGmailやGoogleフォトと連携する「Personal Intelligence」を日本でも公開。OpenAIは自律実行能力を強化した「GPT-5.5」、日本語テキスト描画が実用レベルに達した画像生成モデル「GPT-Images-2.0」、セキュリティ専門家向けの「GPT-5.4-Cyber」を立て続けに発表しました。AnthropicはコーディングなどをはじめとしたOpusシリーズ最上位モデルの性能を大幅に引き上げた「Claude Opus 4.7」を料金据え置きでリリースしています。今週公開した5本の記事をまとめてお届けします。

①Google Personal Intelligence公開。GmailやGoogleフォトと連携し、個人に最適化された回答を返す

引用:Google

重要ポイント

  • GmailやGoogleフォト・YouTube・検索履歴と連携し、個人に最適化した回答を返す機能が日本でも公開
  • デフォルトでは機能オフ。アプリごとに個別設定が可能
  • 個人Googleアカウント(18歳以上)が対象。仕事用アカウントは現時点では対象外

ニュース概要

2026年4月14日、GoogleはGeminiの新機能「Personal Intelligence」の日本での提供を開始しました。ユーザーが許可したGoogleアプリのデータをGeminiが参照し、その人の状況や好みに合わせた回答を生成する機能です。

これまでのGeminiはウェブ上の一般情報のみをもとに回答していたため、個人の文脈を毎回説明し直す必要がありました。Personal Intelligenceを有効にすると、GmailやGoogleフォト・検索履歴などをGeminiが自動で横断参照し、文脈を踏まえた回答が返ってくるようになります。

連携アプリと主な活用イメージ

Personal Intelligenceが参照できるアプリは現在4つです。

Gmailでは受送信メールの内容を参照するため、「先月申し込んだセミナーの日程は?」と聞けば予約確認メールから答えてくれます。
Googleフォトでは写真や動画に写っている情報を活用し、「うちの車に合うタイヤは?」という質問に対してナンバープレートから車種を特定して回答します。

Google検索では過去の検索・閲覧傾向から興味関心を把握し、検索履歴をもとに候補を出してくれます。
YouTubeでは視聴履歴から趣味や関心分野を読み取り、文脈に合った提案が返ってきます。

連携アプリ 参照される情報 活用イメージ
Gmail 受送信メールの内容 「先月申し込んだセミナーの日程は?」→予約確認メールから回答
Googleフォト 写真・動画の情報 「うちの車に合うタイヤは?」→ナンバーから車種を特定して回答
Google検索 過去の検索・閲覧傾向 「気になっているコーヒーメーカーを比較して」→検索履歴から提案
YouTube 視聴履歴・関心カテゴリ 「週末の過ごし方を提案して」→視聴傾向から趣味をふまえた提案

Google Personal Intelligenceの新しいポイントと影響

AIアシスタントの長年の課題は「ユーザー個人のことを何も知らない」点にありました。Personal Intelligenceはこの問題に正面から取り組んだ機能で、毎回の会話で状況を説明し直す手間がなくなります。メール・写真・検索履歴といった日々蓄積しているデータがそのまま回答精度に直結するため、情報収集や提案の精度向上が期待できます。

ビジネス活用の観点では、仕事用のGoogle Workspaceアカウントは現時点で対象外のため、業務での本格活用を検討する場合は対応状況のアップデートを待つ必要があります。また、GmailやGoogleフォトのデータがAIモデルの学習に直接使われることはなく、データはGoogle内で処理されます。

関連記事

2026年4月14日、GoogleはGeminiの新機能「Personal Intelligence(パーソナルインテリジェンス)」の日本での提供を開始しました。GmailやGoogleフォト、YouTube、Google検索の履歴と連携し[…]

②GPT-5.4-Cyber公開。セキュリティ専門家向けに制限を緩和したサイバー防衛特化モデル

重要ポイント

  • GPT-5.4をサイバーセキュリティの防衛業務向けに特化させた派生モデル。一般公開はなし
  • アクセスには「Trusted Access for Cyber(TAC)」プログラムへの参加と本人確認が必要
  • AnthropicのClaude Mythosとは対照的に「広く確認済みの防衛者に届ける」アプローチを採用

ニュース概要

2026年4月14日、OpenAIはGPT-5.4をサイバーセキュリティの防衛業務向けに特化させた派生モデル「GPT-5.4-Cyber」を発表しました。通常のGPT-5.4では脆弱性分析やエクスプロイト解析といったリクエストに制限がかかりますが、GPT-5.4-Cyberはこの閾値を身元確認済みの専門家に限って引き下げた設計です。ChatGPTの通常プランからは利用できず、アクセスにはTACプログラムへの参加と本人・組織確認が必要です。

GPT-5.4-Cyberの主な特徴

GPT-5.4-Cyberの最大の特徴は、通常モデルでは対応が難しいバイナリリバースエンジニアリングへの対応です。ソースコードが入手できないマルウェアや不審なソフトウェアをバイナリファイルから直接解析し、脆弱性やセキュリティ上の問題点を構造的に分析できます。これまで高度な専門知識を持つアナリストのみが担える領域でしたが、GPT-5.4-Cyberによって解析作業を大幅に効率化できます。加えて、脆弱性調査・マルウェア解析・エージェント型のセキュリティタスク自動化にも対応しており、複数ステップにわたるセキュリティ業務をAIが自律的に処理できます。

この発表はAnthropicがClaude Mythos PreviewとProject Glasswingを発表した約1週間後のタイミングで行われました。両社ともに「AIをサイバー防衛に活用する」という方向性は同じですが、アクセス範囲の設計が大きく異なります。Anthropicは「危険すぎる能力は極限まで絞る」として12社・約40組織への厳格な招待制を選んだのに対し、OpenAIは「身元を確認したうえで広く防衛者に届ける」という方針で、数千人規模の専門家と数百チームへの提供を進めています。

関連記事

  2026年4月7日、AnthropicがClaude MythosのPreview版を発表しました。同社の現時点での最高性能モデルですが、Anthropicは一般提供はしないと明言しています。 モデル発表と同時にAma[…]

GPT-5.4-Cyberの新しいポイントと影響

セキュリティ専門家がAIを使って脆弱性調査やマルウェア解析を行う場合、これまでは汎用モデルの制限に何度もブロックされながら業務フローを組む必要がありました。GPT-5.4-Cyberはこの摩擦を取り除くことを目的としており、ペネトレーションテスターやセキュリティアナリストの実務効率を高めることが期待されます。一般ユーザーや通常の企業担当者への直接的な影響はありませんが、AIを活用したサイバー防衛インフラが各社で整備されはじめているという動向として把握しておく価値があります。

関連記事

2026年4月14日、OpenAIはサイバーセキュリティ専用AIモデル「GPT-5.4-Cyber」を発表しました。同社の最新モデルGPT-5.4をベースに、防衛目的のセキュリティ業務に特化してファインチューニングしたモデルで、身元確認済み[…]

③Claude Opus 4.7公開。コーディング性能・高解像度ビジョン・自己検証機能を強化。

引用:Anthropic

重要ポイント

  • コーディング評価(SWE-bench Verified)が80.8%→87.6%に向上。料金はOpus 4.6から変わらず
  • 対応解像度が約3倍に拡大(長辺1,568px→2,576px)し、技術図面や財務書類の読み取り精度が向上
  • 出力前に自分の作業を検証する自己検証機能を搭載。誤ったデータを返す代わりに欠落を正しく報告する

ニュース概要

2026年4月16日、AnthropicがClaude Opus 4.7を正式リリースしました。Opus 4.6の直接的な上位モデルとして約2ヶ月のサイクルで登場し、コーディング性能の向上・高解像度ビジョン対応・自己検証機能・ファイルシステムベースのメモリ改善・新しい推論モード「xhigh」の追加が主な改善点です。料金はOpus 4.6と同じ(入力$5・出力$25/百万トークン)で、リリースのタイミングより利用可能になっています。

Claude Opus 4.6とClaude Opus 4.7の違い

コーディング性能はOpusシリーズで最大の改善を遂げており、実際のオープンソースリポジトリのバグ修正能力を測るSWE-bench Verifiedで80.8%から87.6%へ6.8ポイント上昇しました。楽天はOpus 4.6比で本番タスク解決数が3倍になったと報告しており、CursorもIDE内でのコーディング評価が58%から70%に改善しています。

ビジョン面では対応最大解像度が長辺2,576ピクセル(約3.75メガピクセル)へ約3倍に拡大し、スクリーンショット解析・化学構造式の読み取り・技術図面・財務書類の解析といった領域での実用性が高まりました。また、出力前に自分の作業を検証する仕組みにより、矛盾したデータや欠落を正しく検知して報告する精度が向上しています。

項目 Opus 4.6 Opus 4.7
コーディング(SWE-bench Verified) 80.8% 87.6%
対応最大解像度 長辺1,568px(約1.15MP) 長辺2,576px(約3.75MP)
推論モード low・high・max low・high・xhigh・max
料金(入力/出力) $5/$25(百万トークン) $5/$25(百万トークン)変わらず

引用:Anthropic

Claude Opus 4.7の新しいポイントと影響

料金が変わらずにコーディング性能が大幅に向上したことで、すでにOpus 4.6を使っている場合は即座に切り替えるメリットがあります。特にコーディングエージェントや長時間の自律タスクを運用しているチームへの恩恵が大きく、これまで密な監視が必要だった複雑なコーディング作業をより安心して委ねられる水準に達しています。一方で、短時間タスクや軽い質問応答が中心の用途ではClaude Sonnet 4.6で十分なケースが多く、用途に応じた使い分けはこれまでと変わりません。

関連記事

2026年4月16日、AnthropicがClaude Opus 4.7を正式リリースしました。2026年2月のOpus 4.6から約2ヶ月というこれまでの更新ペースを維持したアップデートで、コーディング性能・高解像度ビジョン・自己検証機能[…]

④GPT-5.5公開。複数ステップにわたる実務作業の自律実行能力で競合を引き離す

引用:OpenAI

重要ポイント

  • コーディング・PC操作・ツール活用など、複数ステップにわたる自律実行能力で競合モデルを上回る
  • ChatGPT Plusプラン($20/月)以上で即日利用可能。APIは近日公開予定
  • 日常的な文書作成や情報整理ではGPT-5.4との体感差は限定的。複雑なタスクほど差が出る

ニュース概要

2026年4月23日、OpenAIは最新AIモデル「GPT-5.5」と上位版「GPT-5.5 Pro」を発表しました。コーディング・オンライン調査・データ分析・ソフトウェア操作など、複数ステップにわたる作業をAIが自律的に進める能力を強化したモデルで、OpenAIは「実務のための新しい知能クラス」と位置付けています。ChatGPT Plusプラン以上で即日利用可能ですが、開発者向けAPIは追加のセキュリティ対策の実装後に公開予定で、現時点では利用できません。

GPT-5.5の主な特徴と強み

GPT-5.5の強みは「AIが自律的に作業をしてタスクを進行する」用途に集中しています。自律コーディングの能力を測るTerminal-Bench 2.0ではClaude Opus 4.7(69.4%)を13ポイント以上引き離す82.7%を記録しており、複数ファイルへのアクセス・ツールの実行・エラーの確認と修正・テストの実行を繰り返して最終成果物まで持っていく「まるごと任せる」使い方で最も価値が出ます。PC操作やアプリを使った定型業務の自動化でも高い評価を示しており、OSWorld-Verified(実際のPCアプリを自律操作する能力)では78.7%を記録しています。

一方で、すべての領域でGPT-5.5が他モデルを上回るわけではありません。ツールを使わない純粋な推論や専門的な判断が求められる場面では、Claude Opus 4.7が上回るケースもあります。

ベンチマーク GPT-5.5 Claude Opus 4.7 Gemini 3.1 Pro
Terminal-Bench 2.0(自律コーディング) 82.7% 69.4% 68.5%
OSWorld-Verified(PC操作自動化) 78.7% 78.0%
FrontierMath Tier 4(高難度数学) 35.4% 22.9% 16.7%
Humanity’s Last Exam(専門推論) 46.9%

引用:OpenAI

GPT-5.5の新しいポイントと影響

これまでのAIは「質問に答える」ことが中心でしたが、GPT-5.5は「複数ステップの作業をまるごと進める」方向への明確な進化を示しています。コーディングの自律実行やPC操作の自動化を業務に取り入れようとしているチームにとっては、試す価値のある選択肢です。

ただし、料金はGPT-5.4から約2倍(API:入力$5・出力$30/百万トークン)になっており、単純な文書作成や情報整理が主な用途であればGPT-5.4をそのまま使い続ける方が費用対効果は高いです。

関連記事

2026年4月23日、OpenAIは最新AIモデル「GPT-5.5」と上位版「GPT-5.5 Pro」を発表しました。 GPT-5.5は、コーディング、オンライン調査、データ分析、文書作成、スプレッドシート作成、ソフトウェア操作など、複数[…]

⑤GPT-Images-2.0公開。日本語テキストの描画と「thinking」モードで高レベルの画像生成が可能に

引用:OpenAI

重要ポイント

  • 画像生成前に推論を行う「thinkingモード」を搭載。指示した要素の抜けや誤りが大幅に減少
  • 日本語・中国語・韓国語など非ラテン系文字の描画精度が実用レベルに到達
  • 最大解像度が2K(2,048px)に対応。1回のプロンプトで最大8枚の一貫性ある画像を生成可能

ニュース概要

2026年4月21日、OpenAIが新しい画像生成モデル「GPT-Images-2.0」を発表しました。ChatGPT Images 2.0として全ChatGPTユーザーが利用可能で、API経由での利用は2026年5月上旬から段階的に解放予定です。画像生成AIとして初めて「thinkingモード」を搭載しており、生成前にプロンプトを分析・構図を計画・必要に応じてウェブ検索まで行ってから描画するという、これまでとは異なる生成アプローチを採用しています。

GPT-Images-2.0の主な特徴

最大の特徴はthinkingモードの搭載です。従来の画像AIは「プロンプトを与えると一発で描画する」設計でしたが、GPT-Images-2.0は描き始める前にプロンプトの意図を分析し、構図を計画し、生成後に指示を満たしているかを検証するステップを挟みます。これにより「指示した要素が抜けている」「文字が崩れている」といった問題が大幅に減少します。

日本語を含む非ラテン系文字の描画精度も実用レベルに引き上げられており、日本語バナーやインフォグラフィックをそのまま初稿として使える水準の出力が得られるようになりました。加えて最大解像度が2K(2,048px)に対応し、1回のプロンプトで最大8枚のキャラクター・スタイルが一貫した連続画像を生成することも可能です。

▼GPT-Images-2.0で作成した、バナー画像

何が新しく、何が変わるのか

日本語テキストが絡むデザイン制作物は、これまでどれだけ高性能な画像AIを使っても「面白いネタ止まり」の域を出ませんでした。GPT-Images-2.0では日本語バナー・SNS投稿画像・マーケティング用バナーなど、テキストがビジュアルの一部として必須の制作物で、初稿を短時間で作るツールとして実務に組み込める水準に達しています。ポスター・インフォグラフィック・複数シーンにわたるキャラクター画像など、これまでデザイナーへの依頼や複数ツールの組み合わせが必要だった作業を、1つのプロンプトでまかなえるケースが出てきています。完全にデザイナーを置き換える水準ではありませんが、前工程ツールとしての活用は現実的な選択肢になりました。

関連記事

2026年4月21日、OpenAIが新しい画像生成モデル「GPT-Images-2.0」を発表しました。同時にChatGPTで利用する画像生成機能「ChatGPT Images 2.0」もリリースされ、全てのChatGPT・Codexユーザ[…]

今週のまとめ

今週は生成AI業界の大手3社から新モデル・新機能が相次いで公開された週でした。Claude Opus 4.7・GPT-5.5はいずれも「複数ステップの作業を自律的に進める」方向への強化が共通しており、AIエージェントの実務活用が現実的な選択肢になってきていることを示しています。GPT-Images-2.0は日本語テキストの描画精度が実用レベルに達し、画像生成AIの業務活用の幅が広がりました。Google Personal IntelligenceはAIアシスタントが「個人を知っている状態」で動く時代の入口として、GPT-5.4-CyberはAIとサイバーセキュリティをめぐる各社の戦略の違いを示すニュースとして、それぞれ把握しておく価値があります。

×