
生成AIには依然として幻覚や誤情報が存在する中、OpenAIがGPT-5におけるこれらの欠点を軽減しようと試みていることは、今日の大規模言語モデルアシスタントの現状について何を示唆しているのでしょうか?生成AIはますます主流になりつつありますが、その信頼性に関する懸念は依然として残っています。
「このAIブームは、処理能力やチップの優位性をめぐる世界的なAI軍拡競争にとどまりません」と、ソフトウェア企業JitterbitのCEOで元インターポール顧問のビル・コナー氏は、TechRepublicへの声明で述べた。「これは、AI、セキュリティ、プライバシーが一体となって設計され、政府、企業、そして国民への説明責任を果たす、大規模な信頼、透明性、そして相互運用性の試練なのです。」
GPT-5は、安全性に関するデリケートな質問に、より微妙な方法で答えます。
OpenAIの安全訓練チームリーダーであるサーチ・ジェインは、先週木曜日のリリースライブストリームで、幻覚の軽減とGPT-5における「欺瞞の緩和」について議論しました。彼女はGPT-5における欺瞞を、モデルが推論プロセスの詳細を捏造したり、タスクを完了したと虚偽の主張をしたりする場合と定義しました。
例えば、ReplitのAIコーディングツールは、本番環境のデータベース全体を削除した理由を説明しようとした際に、奇妙な動作を見せました。OpenAIがGPT-5のデモを行った際、プレゼンテーションには医療アドバイスの例や、ユーモアのために歪んだグラフが使われていました。
「GPT-5はo3やo4-miniに比べて欺瞞性が大幅に低い」とジェイン氏は述べた。

OpenAIは、安全性を考慮したプロンプトの評価方法をモデルに変更し、プロンプトの挿入や偶発的な曖昧さの発生を減らしたとジェイン氏は述べた。彼女は例として、花火に使用される化学物質である点火発熱物質に関する質問にモデルがどのように答えるかを実演した。
かつて最先端だったモデルo3は、この質問をされると「意図に基づいて過剰に回転する」とジェイン氏は述べた。o3は、要求が中立的な表現であれば技術的な詳細を提供し、暗黙の危害を検知した場合は拒否する。GPT-5は代わりに「安全な補完」という安全策を採用しており、「安全上の制約内で有用性を最大限に高めようとする」とジェイン氏は述べた。例えば、花火の点火に関する質問では、プロ仕様の花火の作り方についてはメーカーのマニュアルを参照するようユーザーに促す。
「もしお断りしなければならない場合には、その理由をお伝えするとともに、より安全な方法で会話を進めるのに役立つ代替案もご提示します」とジェイン氏は述べた。
この新しい調整によって、自然言語モデルの柔軟性を悪用するサイバー攻撃や悪意のあるプロンプトのリスクが排除されるわけではありません。SPLXのサイバーセキュリティ研究者は、GPT-5に対してレッドチーム演習を実施し、GPT-5が依然として特定のプロンプトインジェクション攻撃や難読化攻撃に対して脆弱であることを確認しました。テストされたモデルの中で、SPLXはGPT-4oが最も優れたパフォーマンスを示したと報告しています。
OpenAIのHealthBenchがGPT-5を実際の医師と比較してテストした
消費者はChatGPTを心身の健康に関する相談窓口として利用してきましたが、そのアドバイスには、オンラインで症状をGoogle検索するよりも多くの注意点が伴います。OpenAIによると、GPT-5は実際の医療現場で業務に携わる医師のデータに基づいて部分的に学習されており、健康関連の質問への回答精度が向上しています。同社は、262人の医師と共同で開発されたルーブリックベースのベンチマークであるHealthBenchを用いてGPT-5を測定し、5,000件の現実的な健康に関する会話でAIをテストしました。GPT-5はHealthBench Hardで46.2%のスコアを獲得し、o3は31.6%でした。
発表ライブストリームで、OpenAIのCEOサム・アルトマン氏は、ChatGPTを使って生検報告書を理解した女性にインタビューしました。AIは報告書を分かりやすい言葉に解読し、医師間で治療方針の合意に至らなかった後、放射線治療を受けるかどうかの判断を下すのに役立ちました。
しかし、消費者は、チャットボットの応答に基づいて健康に関する重大な決定を下したり、非常に個人的な情報をモデルと共有したりすることについては注意を払う必要があります。

OpenAIはメンタルヘルスに関する質問への回答を調整した
ユーザーがメンタルヘルスに関するアドバイスを求める際のリスクを軽減するため、OpenAI は GPT-5 にガードレールを追加し、ユーザーに休憩を促し、人生の大きな決断に対する直接的な答えを出さないようにしました。
「私たちの4oモデルが妄想や感情的依存の兆候を認識できなかった事例がありました」と、OpenAIのスタッフは8月4日のブログ投稿で述べています。「稀ではありますが、私たちはモデルの改良を続け、精神的または感情的な苦痛の兆候をより正確に検出するためのツールを開発しています。これにより、ChatGPTは適切な対応を行い、必要に応じてエビデンスに基づいたリソースを紹介することができます。」
AIへの信頼の高まりは個人とビジネスの両方での利用に影響があると、検索最適化企業Azomaの最高経営責任者(CEO)兼共同創業者のマックス・シンクレア氏は、TechRepublicへの電子メールで述べた。
「今回の発表で、健康とメンタルヘルスのサポートにどれほど重点が置かれているかに驚きました」と、彼は用意した声明の中で述べた。「調査では既に、人々がAIの結果を非常に信頼していることが示されています。特に買い物に関しては、実店舗のスタッフよりも高い信頼を置いています。人々が人生における最も差し迫ったプライベートな問題のサポートを求めてChatGPTに頼るケースが増えれば増えるほど、AIへの信頼は高まるでしょう。」
Black Hat では、一部のセキュリティ専門家が AI によって作業が持続不可能なペースまで加速されていると感じています。