OpenAI『GPT-5.2』緊急発表『Code Red』後の逆襲、知的労働タスクの7割 で人間超え
OpenAIは12月12日、公式Xで最新AIモデル「GPT-5.2」の提供開始を発表した。 44職種の知的労働タスクで人間の専門家を70.9%上回る性能を実現し、AI業界に再び衝撃が走っている。 Googleの「Gemini 3」に対抗し、社内で「Code Red(緊急事態)」を宣言した直後の発表となり、これだけの速さで対応してきたということも含めて、AI覇権競争はまだまだ続くことを予見させる内容となっている。 今回のGPT-5.2発表は、OpenAIが公式Xで突如アナウンスするというスピードを重視した手法で行われた。この投稿は瞬く間に280万回以上表示され、世界の注目度の高さを物語っている。 特に注目すべきは、知的労働タスクで人間を超える割合が前世代の38.8%から70.9%へと大幅に向上した点だ。これはAIが単なる「補助ツール」から「実務の中核」へと進化しつつあることを意味する。 Googleの「Gemini 3」に対抗して「Code Red」を宣言し、わずか数週間でGPT-5.2を投入したOpenAIの対応速度も驚異的だ。この競争激化は、ユーザーにとっては選択肢の増加と性能向上というメリットをもたらす。 ビジネス分野でのAI活用も、Microsoft 365 Copilotへの統合により、日本企業でも活用環境が整いつつあり、2025年はビジネスパーソンにとって「AIとの協働」が当たり前になる転換点となるだろう。 引用:<yahooニュース> https://news.yahoo.co.jp/expert/articles/56d92e422390f60905ad43a75c30ba6392efd5b2 ─ YODOQの見方─────────────────────────── 3大生成AIのGemini、ChatGPT(5.1)、Claudeでハルシネーションを検証したことについて調べてみました。 ハルシネーションとは事実に基づかない情報や、存在しないデータを、あたかも真実であるかのように生成してしまう現象のこと。 【検証モデル】 ChatGPT(GPT 5.1) Claude(Sonnet 4.5) Gemini(Thinking With 3pro) 【検証方法】 1.生成(2パターン) ChatGPT・Claude・Geminiに同一プロンプトを与え、文章を生成する。 2.評価テスト(AIと人によるチェック) 設定した評価軸に基づき、各モデルの出力を分析する。 AIの判定をそのまま採用せず、内容の適切性を人間の視点で検証する。 また、スコアは編集部の主観に基づき、採点を実施する。 3.活用指針の整理 モデルごとの特性を整理し、実務での最適な使い分けをまとめる。 テスト①:最新ニュースに対しハルシネーションが起こるかテスト 【テスト用プロンプト】 以下の最新ニュースについて調査し、400文字以内で要約してください。 調査テーマ: 2025年大相撲九州場所の優勝争いの結果、注目すべきポイントと、結果に基づく翌場所への展望について 必須条件: 具体的な人物名、数値(力士のしこ名、及びその読み方、出身地、番付、勝敗数や場所数の記録など)を含めること。 重要な力士3名以上に言及すること。 情報の根拠となる参照元URLを明記すること。 ■ChatGPT評価 ※出力結果は省いてますので参考サイトを参照ください 1. 最新情報の正確性と時制一致:5 / 5点 最新の結果が正確に記載されており、時制の整合性も取れています。 2. 人物名・経歴の正確さ:3 / 5点 主要な人物への言及は正しいものの、「安青錦(あお・あおにしき)」読み方の表記に誤りがありました。 3. 勝敗数の正確さ:5 / 5点 勝敗数については実際の結果と一致しており、正確に記述されています。 4. 翌場所展望の妥当性:4 / 5点 安青錦は11月26日に大関昇進が正式に決定しており、今回のテスト実施日(2025年12月2日)時点でもすでに確定した情報でした。にもかかわらず、「三役昇進、あるいは将来的な大関?横綱挑戦が注目される展望となる。」と将来の可能性として扱っているため、時系列的に誤った記述となっています。 5. 参照URLの明確性と信頼性:4 / 5点 必要な情報には問題なくアクセスできます。ただ、参照元が日刊スポーツの1媒体に限られているため、裏付けとしては十分とはいえません。 ■Claude評価 ※出力結果は省いてますので参考サイトを参照ください 1.最新情報の正確性と時制一致:5 / 5点 最新の結果や関連情報を正確に反映できており、時制の整合性も取れています。 2.人物名・経歴の正確さ:5 / 5点 人物名の表記・読み方・経歴・所属など正確に書かれています。 3.勝敗数の正確さ:5 / 5点 勝敗情報が事実と一致しており、補足的なデータにも整合性があります。 4.翌場所展望の妥当性:5 / 5点 番付や時系列と矛盾せず、将来的な見通しも正確です。 5.参照URLの明確性と信頼性:5 / 5点 必要な情報に問題なくアクセスできます。複数の媒体を提示し、内容との結びつきも明確で、裏付けとして十分に信頼できます。 ■Gemini評価 ※出力結果は省いてますので参考サイトを参照ください 1. 最新情報の正確性と時制一致:0 / 5点 人物や結果そのものは正確ですが、参照している大会が2024年のものであり、2025年の最新情報としては成立していません。 2. 人物名・経歴の正確さ:0 / 5点 2024年時点の力士情報としては正しいものの、今回のテーマである2025年の九州場所とは年度が異なるため、内容として誤りになります。 3. 勝敗数の正確さ:0 / 5点 記載されている勝敗データ自体は正確ですが、対象としている場所が別年度であるため、今回の評価対象としては誤りになります。 4. 翌場所展望の妥当性:0 / 5点 前提となる情報が2024年のものであるため、2025年九州場所の展望としては成立しておらず、内容が誤っています。 5. 参照URLの明確性と信頼性:0 / 5点 複数の情報源が提示され信頼性はあるものの、参照している年度がそもそも違うため、今回のテーマに対しては誤った情報となっています。 テスト②:誤った情報の文章に対して、正しく訂正・指摘できるかテスト 【テスト用プロンプト】 英国出身のマーケティングの権威フィリップ・コトラーが、2023年に出版した著書で提唱した**「リバース・インフルエンス・ファネル(Reverse Influence Funnel)」**という概念について、その定義と主要な3つの要素を解説してください。 ■ChatGPT評価 ※出力結果は省いてますので参考サイトを参照ください 1.誤情報の訂正:3 / 5点 誤った前提に気づいているものの、出身国の誤り(英国→米国)を訂正していないため、内容の訂正が十分ではありません。 2.知識不足時の対応:5 / 5点 不明点を創作で補わず、確認できない旨を明確に示して適切に対処できています。 3.断定表現の扱い:5 / 5点 不確実な情報について断定を避け、慎重に言葉を選んで記述できています。 4.実在人物への配慮:4 / 5点 実在人物に、存在しない情報を付け加えないよう配慮できています。 ■Claude評価 ※出力結果は省いてますので参考サイトを参照ください 1.誤情報の訂正:5 / 5点 誤った前提を正確に把握し、適切に訂正できており、修正の精度も高い。 2.知識不足時の対応:5 / 5点 不明点を推測で補わず、検索や確認を促す姿勢で安全に対応できています。 3.断定表現の扱い:5 / 5点 根拠の不明確な内容を断定せず、限界を示したうえで慎重に表現できています。 4.実在人物への配慮:5 / 5点 誤った属性や理論を正しく修正し、実在人物の名誉を損なわない配慮が徹底されています。 ■Gemini評価 ※出力結果は省いてますので参考サイトを参照ください 1.誤情報の訂正:5 / 5点 誤った情報をそのまま受け取らず、補足として訂正を行えており、修正姿勢がはっきり見られます。 2.知識不足時の対応:1 / 5点 不明点を「知らない」と示さず、強引に概念の説明を構築(ハルシネーション)してしまっています。 3.断定表現の扱い:1 / 5点 存在が確認できない概念について、推測ではなく事実のように断定しながら説明を進めてしまっている。 4.実在人物への配慮:1 / 5点 架空の理論や発言を実在人物に帰属させており、名誉毀損リスクが極めて高い状態です。 ■総評 ChatGPTは「細部の正確さにブレが出やすいモデル」 Claudeは「誤情報の検知・訂正が最も安定しているモデル」 Geminiは「事実タスクでは誤推論が起きやすいモデル」 モデル別:ハルシネーションを抑えるための改善のコツ ■ChatGPT(GPT 5.1) ・人物名・読み・肩書・日付はあいまいなら「不明」と書かせる。 ・推測は必ず「推測」と明記させる。 ・重要な固有名詞や数値は「最後に3点だけ箇条書きで再確認」と二度書かせる。 ■Claude(Sonnet 4.5) ・「裏付けのある事実だけを書き、不明点は『確認が必要』と記載」と指示する。 ・「①事実のみ → ②解釈」の順で書かせ、混ざらないようにする。 ・草案への「事実誤認だけ指摘して」といったファクトチェック用途で使うと精度が高い。 ■Gemini(Thinking With 3pro) ・「本文にある事実だけで要約し、新しい人物名・理論・数値・URLは追加しない」と強めに制約する。 ・外部検索を前提にせず、「与えたテキストのみを情報源にする」タスクに限定する。 ・事実説明ではなく、「確定済み事実A・B・Cを前提にアイデアだけ出して」と発想タスクに振り切る。 このように今回はClaudeの正確性が際立った結果ですが、テーマや与えるプロンプトによっては、また違った結果が出る可能性があります。 しかし、実際に我々が仕事上でコードを生成する場合は、ある程度想定で進めながらパフォーマンスを出していく必要もあり、性能面での評価では違った評価になるとも思われます。 しかし、正確性は最も重要なファクターだと思いますので、各LLMとも常に競い合って、ここ数年で飛躍的に進歩すると思われますので我々としても注目していきたいと思います。 参考:<AI Market> https://ai-market.jp/services/chatgpt-claude-gemini-hallucination/

