はじめに
OpenAI の対話型 AI サービス ChatGPT は、リリース以来急速に進化しており、2024〜2025 年にはテキスト生成だけではなく音声・画像・動画を含む多様な機能が加わりました。本資料では、日本時間 2025 年 8 月 時点で確認できる ChatGPT の新機能を、公開日や具体的な機能とともに解説します。各項目では外部メディアの記事や技術解説の情報に基づき、信頼できる引用を添えています。最新情報の把握に役立ててください。
1. GPT‑4o (Omni) の登場と進化
1.1 GPT‑4o の概要
- 発表日 – 2024 年 5 月 13 日の Spring Update で、OpenAI は GPT‑4 Omni(GPT‑4o) を新しいフラッグシップモデルとして公開しました。
- “o” の意味 – “Omni” の略で、テキスト・画像・音声を単一モデルで扱えるマルチモーダル対応を意味します。
- リアルタイム音声応答 – GPT‑4o は人間に近い応答速度を実現しており、OpenAI によると平均応答時間は約 320 ミリ秒とされています。
- マルチモーダルの統合 – 従来は複数のモデルを組み合わせていた音声認識・生成と画像理解を単一のモデルに統合し、テキスト・画像・音声を組み合わせて入出力できます。
- 大きなコンテキストウィンドウ – GPT‑4o は 128k トークンまでの長文を扱えるコンテキストウィンドウを持ち、長い会話や文書の分析に利用できます。
- 安全性と誤情報対策 – 出力の安全性向上や幻覚(誤情報)抑制が図られている。
1.2 GPT‑4o の機能強化
OpenAI は GPT‑4o に対して継続的な改良を行っており、2025 年 3 月の更新では次のような改善が加わりました。
| 更新内容 | 詳細 | 出典 |
|---|---|---|
| STEM・コーディングの問題解決能力の向上 | GPT‑4o がより複雑な数学やプログラミング課題を解けるようになり、既存コードの修正点を特定し、実際にコンパイルできるコードを生成する能力が向上した。 | TechRadar の 2025 年 3 月記事 |
| 指示の追従とフォーマットへの配慮 | 複数の要件を含むプロンプトに対して指示どおりに応答する精度が向上し、表記の整った回答が得やすくなった。 | 同上 |
| 暗黙の意図の理解 | ユーザの意図や創造的・協働的な作業に対する文脈をよりよく理解し、冗長な絵文字などを減らして読みやすい回答を生成するようになった。 | 同上 |
1.3 GPT‑4o mini
- 公開時期 – 2024 年 7 月に GPT‑4o の小型版 GPT‑4o mini がリリースされ、ChatGPT の無料ユーザーでも利用できるようになりました。
- 特徴 – GPT‑4o mini は 128k トークンのコンテキストウィンドウを備え、フルモデルより低コストで高速に動作します。OpenAI によれば GPT‑3.5 Turbo よりスマートで安価であることが特徴です。
- 利用目的 – 高い処理速度が求められる顧客対応や大量のメール返信などの用途に適しており、2024 年 7 月以降、ChatGPT のフリーモードでも GPT‑4o mini が基盤モデルとして採用されています。
2. GPT‑4.5(コード名: Orion)
OpenAI は 2025 年 2 月 28 日に GPT‑4o の次世代モデル GPT‑4.5 (Orion) を研究プレビューとして公開しました。主な特徴は以下の通りです。
- 研究プレビューとして提供 – GPT‑4.5 は強化した計算能力と拡張されたデータセットを用いた大規模モデルであり、まずは ChatGPT Pro ユーザーや API 開発者向けに公開されました。
- フロンティアモデルではない – OpenAI は白書で GPT‑4.5 が「フロンティアモデル」に該当しないと説明しており、大規模化による性能向上が頭打ちになりつつあることを示しています。
- 世界知識と感情知性の向上 – GPT‑4.5 は先代より世界知識や感情理解が向上しているとされていますが、一部の推論モデルに比べるとベンチマークで劣る場面もあり、従来型のパターン生成モデルから推論モデルへの転換期に位置付けられています。
- コストと利用範囲 – GPT‑4.5 は運用コストが高く、API 利用料金が入力トークン 100 万当たり 75 ドルと高額です。現在は音声モードとの統合も未対応で、ChatGPT Pro や研究者向けの試験的機能として提供されています。
3. 高度な音声モードとマルチモーダル会話
3.1 高度な音声モード(Advanced Voice Mode)
- リリース状況 – 2024 年 7 月、OpenAI は GPT‑4o を用いた 高度な音声モード(Advanced Voice Mode) を一部の ChatGPT Plus ユーザーに先行提供しました。2024 年秋以降に Plus ユーザーへ段階的に展開する予定です。
- 特徴 – 従来は音声認識、生成、対話を別々のモデルで処理していましたが、GPT‑4o はこれらを単一のモデルに統合しているため、会話の遅延が大幅に減少します。OpenAI は GPT‑4o が声のトーンや感情(悲しみ・興奮・歌唱など)を識別できると述べています。
- 安全性と声の制限 – デモで用いられた「Sky」の声が女優の声に似ていると批判され、OpenAI は一部の声を取り下げました。アルファ版では 4 種のプリセット音声(Juniper、Breeze、Cove、Ember)のみ利用でき、他人の声を模倣することはできません。
3.2 プロジェクト機能への音声統合
- プロジェクト機能とは – ChatGPT の「Projects」機能は、複数のチャットや資料をまとめて管理できるワークスペースです。2025 年 6 月のアップデートではプロジェクト内でも音声モードが使えるようになりました。
- 効果 – 移動中でもプロジェクト内の資料を音声で読み上げながら相談したり、コードドキュメントを口述で記録できるようになり、モバイルワークフローが大きく変わります。
4. メモリー機能の強化とパーソナライゼーション
4.1 長期記憶と全チャット履歴の参照
- アップデート内容 – 2025 年 4 月に OpenAI は 長期記憶機能 を拡張し、過去のチャット履歴全体を参照できるようにしました。
- ユーザーへの利点 – ユーザーの好みや過去のやり取りを記憶することで、個別のプロジェクト状況を把握したり、過去の会話内容に基づいた提案を行うことが可能になりました。
- プライバシーと制御 – マーケティング AI インスティテュートによる解説では、長期記憶はオプトイン方式で、利用者はメモリーを無効化したり「一時的チャット」を使ったりすることで記憶を残さない選択ができます。記憶は個別に削除することもできますが、多くのユーザーは設定を変更しないまま利用する可能性が高いと指摘されています。
4.2 メモリー with Search
- 機能概要 – 2025 年 4 月 18 日に OpenAI は、チャット履歴に基づいて検索クエリを書き換える 「Memory with Search」 機能を発表しました。
- 仕組み – この機能を有効にすると、ウェブ検索が必要なプロンプトに対し、過去の会話から得た好みや場所などの情報を使って検索クエリを自動補完します。例えば、ヴィーガン志向でサンフランシスコ在住のユーザーが「近くのおすすめレストランは?」と尋ねると、メモリーを参照して「サンフランシスコのヴィーガンレストラン」と検索してくれます。
- オン・オフ可能 – Memory with Search はメモリー設定を無効にすると自動的に無効化されます。
4.3 メモリーがもたらす利点と課題
メモリーの拡張は、より個人化された応答やプロジェクトの継続性を実現しますが、一方でプライバシーとデータ管理の課題もあります。マーケティング AI インスティテュートの記事は次のような利点と懸念を挙げています。
- 利点 – メモリーによって過去の会話やプロジェクト情報を覚えておくことで、AI がユーザーの興味や業務に基づいたより的確な提案やリマインダーを行える。
- 懸念 – すべてのチャット履歴が保存されると、仕事や健康など敏感な内容も記憶される可能性があり、プライバシーの懸念が浮上する。ユーザーや企業はメモリー設定を確認し、必要に応じて削除や管理を行うべきだと指摘されています。
5. ChatGPT Projects の大型アップデート(2025 年 6 月)
OpenAI は「Projects」機能に対して大幅な改良を行い、研究や業務に活用できる AI ワークスペースを実現しました。Unite.AI の解説に基づき、主な 6 つの新機能をまとめます。
| 新機能 | 内容 | 出典 |
|---|---|---|
| 1. プロジェクト内の音声モード | Projects でも高度な音声モードが利用可能になり、ファイルや過去チャットについて音声で相談できる。移動中に報告書を読み上げながら議論するなど、モバイルワークフローが改善される。 | Unite.AI |
| 2. 強化されたプロジェクトメモリー | Plus/Pro ユーザーの場合、プロジェクト内のメモリーが過去のチャットを参照するようになり、複数のキャンペーンやドキュメントの文脈を維持して回答できる。 | 同上 |
| 3. モバイル機能の全面対応 | ChatGPT のスマホアプリから直接ファイルをアップロードしたりモデルを切り替えたりできるようになり、フィールドワークや外出先での作業効率が向上。 | 同上 |
| 4. 会話ごとの共有リンク | プロジェクト内の特定の会話のみを共有できるリンクを生成する機能が追加され、コンサルタントが分析結果だけを顧客に提示する等の制御が可能。 | 同上 |
| 5. ファイル容量と理解力の拡張 | 1 プロジェクトあたり最大 20 件の文書をアップロードでき、AI が複数文書間の関係性を理解しながら分析する。 | 同上 |
| 6. プロジェクトレベルのカスタム指示 | プロジェクト毎に特定の書式やトーンなどのカスタム指示を設定でき、それが他の会話に干渉しない。例えば API ドキュメント用とユーザーガイド用で異なるスタイルを適用できる。 | 同上 |
さらに Projects ではプライバシーに配慮し、Team/Enterprise/Edu ユーザーの場合はデフォルトでモデル改善のためのデータ利用をオフにしており、他の利用者も設定で無効化できる。
6. カスタム GPT と GPT ストア
OpenAI は 2023 年 11 月の DevDay で、ユーザーが独自の GPT を作成できる カスタム GPT 機能を発表しました。その後、2024 年 1 月に公式マーケットプレイス GPT ストア が公開され、多くのカスタム GPT が共有されています。ApiX-Drive の解説によると、主なポイントは次の通りです。
- 数百万のカスタム GPT – GPT ストア公開までの 3 か月間にユーザーが 300 万件以上のカスタム GPT を開発し、専門性の高い AI アプリが多数登録されています。
- 作成方法 – 開発にはプログラミングスキルが不要で、ChatGPT で構築したアプリを公開用に保存し、開発者プロフィールを認証するだけで登録できます。
- 収益化モデル – OpenAI は開発者への収益分配を予定しており、ユーザーの利用に応じて報酬が発生する仕組みを準備しています。
- 利用条件 – GPT ストアは有料プラン(Plus/Team/Enterprise)のユーザーが利用でき、無料ユーザーはカスタム GPT を公開できません。
- カテゴリー – ストアには「DALL‑E」「Writing」「Productivity」「Research & Analysis」「Programming」「Education」「Lifestyle」などのカテゴリがあり、人気アプリが週ごとに更新されます。
- チームプラン – GPT ストアと同時に「ChatGPT Team」プランが発表され、チーム内でカスタム GPT を共有したり管理できるようになりました。Team プランでは GPT‑4 (32K) や DALL‑E 3、Advanced Data Analysis(旧 Code Interpreter)などの高度なツールが利用できます。
7. 学習支援を目的とした Study Mode
- リリース日 – 2025 年 7 月 29 日、OpenAI は学生向けの Study Mode を ChatGPT に導入しました。
- 目的と特徴 – Study Mode をオンにすると、ChatGPT は問題の答えをすぐに提示せずに、理解度を確かめる質問を返すことで学習者の批判的思考を促します。
- 提供範囲 – この機能は ChatGPT の Free/Plus/Pro/Team プランの利用者に順次提供され、教育機関向けプラン(Edu)への展開も予定されています。
- 位置づけ – OpenAI は Study Mode を「学習体験を強化する第一歩」と位置付けており、同様のモードを Anthropic 社の Claude も提供しています。
- 課題 – ユーザーがモードを自由に切り替えられるため、学習者が真に学びたいという意欲を持たないと効果が薄いという課題も指摘されています。
8. 内蔵ウェブ検索とショッピング推薦の強化
- ウェブ検索機能 – 2025 年版 ChatGPT には内蔵のウェブ検索機能があり、AI がインターネット上の最新情報を取得して回答に反映します。
- ショッピングレコメンド – ウェブ検索と連携して、商品の価格やレビューを含むショッピング推薦を行う機能が追加されました。オンラインショッピング時にユーザーのニーズに合った商品を迅速に見つけ出せるサポートを提供します。
- メモリーとの連携 – 前述の「Memory with Search」と組み合わせることで、ユーザーの好みや過去の行動に合わせた検索・推薦が可能になります。
9. Sora のチャット統合に関する動向
OpenAI は 2024 年末にテキストから動画を生成するモデル Sora を公開し、2025 年 2 月には Sora を ChatGPT へ統合する計画を発表しました。TechCrunch によれば、現在 Sora は独立した Web アプリで利用できるものの、将来的に ChatGPT に直接組み込まれる予定です。Sora 統合版では動画生成機能が簡略化される可能性があり、チャット内から短い動画を作成できるようになると見込まれています。ただし統合時期は未定で、現時点では外部アプリとしての利用に限られます。
10. その他の注目機能
以下の機能も最近追加・改善されたものとして注目されています。
- 長期記憶を利用したパーソナルな情報提供 – GPT‑4o では長期記憶機能が大幅に強化され、ユーザーの過去のやり取りを覚えてパーソナライズされた助言を行うことが可能になっています。
- プロジェクト単位でのカスタム指示 – Projects 機能では、プロジェクトごとに専用の指示やトーンを設定できるため、同じアカウントでも用途に応じた応答を実現できます。
- モバイルアプリでのモデル切り替え – スマートフォンアプリから GPT‑4o・GPT‑4o mini など複数のモデルを切り替え、用途に応じて速度と精度を最適化できる。
結論
2024〜2025 年にかけて、ChatGPT はマルチモーダル対応や長期記憶機能、高度な音声モード、カスタム GPT ストア、教育支援向け Study Mode など多彩な機能を獲得し、単なる会話 AI から総合的なパーソナルアシスタントへと進化しました。特に GPT‑4o の導入により、テキスト・音声・画像を横断した自然な対話が可能になり、長期記憶機能や Memory with Search によって個々のユーザーに合わせた応答が実現しています。一方で、データ保存やプライバシーの管理、モデル間のコスト差など新たな課題も浮上しており、利用者や企業は設定の確認や適切なプラン選択が求められます。
今後は GPT‑4.5 や GPT‑5 といった次世代モデルの登場、Sora のチャット統合、プロジェクト機能のさらなる拡張などが予定されており、ChatGPT は引き続き進化を続けると考えられます。ユーザーは新機能の恩恵を受ける一方で、プライバシーや利用コストなどにも目を向けながら、最適な使い方を検討していくことが重要です。


コメント