AIFreeAPI Logo

OpenAI画像生成APIのendpoint:どれを使うべきか

A
12 min readAI開発

OpenAIの画像生成API endpointを探しているなら、今の短い答えはこうです。単発生成は /v1/images/generations、入力画像がある編集は /v1/images/edits、画像生成がより大きなマルチモーダル処理の一部になったときだけ Responses に切り替えます。

OpenAI画像APIのルート図。直接のImages APIとResponsesのimage_generation toolの分担を示す

今 OpenAI の画像生成を実装するなら、最初に使うべき既定ルートは Responses ではなく、直接の Images API です。単発の画像生成は POST /v1/images/generations、既存画像を編集するなら POST /v1/images/edits、そして画像生成が大きなマルチモーダルまたは agent ワークフローの一部になったときだけ Responses の image_generation tool に移るのが安全です。

この区別が重要なのは、OpenAI の現在のドキュメントが答えを複数のページに分散させているからです。image generation guide は Images API と Responses API の分担を説明し、Images API reference が生のパスを示し、image_generation tool guide が Responses 内での画像生成を説明します。しかも 2026年3月23日 時点で、公式の Images and vision には最新画像生成モデルが gpt-image-1 と残っており、現在のモデルカタログとズレています。

だからこのキーワードで本当に必要なのは「URL を1本教えること」ではありません。必要なのは、自分が今やっている仕事を、どの API surface から始めるべきかを決めることです。まず 1 枚の画像を確実に返せるか確認したいなら、直接 Images API から始めるべきです。会話状態、他の tool、推論モデルと一緒に画像生成を扱う必要が出てきたら、その時点で Responses に切り替えれば十分です。

現在のOpenAI画像endpointを1枚の表で整理する

直接のOpenAI画像endpointとResponses image_generation toolを比較し、Images APIを既定の出発点として強調した図。
直接のOpenAI画像endpointとResponses image_generation toolを比較し、Images APIを既定の出発点として強調した図。

OpenAI の現在の画像スタックは、直接画像を扱う仕事tool を伴うマルチモーダル編成 を分けて考えると一気に分かりやすくなります。

仕事現在の最適ルート生のパスまたは SDK 呼び出しmodel に入れるもの先に使うべき場面ありがちな誤り
1回のリクエストで画像を生成するImages APIPOST /v1/images/generations または client.images.generate()gpt-image-1.5最短で動く経路を取りたい新しそうだからといって最初から Responses に行く
既存の画像を編集するImages APIPOST /v1/images/edits または client.images.edit()gpt-image-1.5入力画像がすでにあるedit だから Responses が必要だと思い込む
画像生成がより大きな assistant/agent の一部Responses API + image_generation toolclient.responses.create()gpt-5 などの上位モデル画像が workflow の一部にすぎないgpt-image-1.5 を Responses の最上位 model に入れる

この表がいちばん実用的なのは、OpenAI の現行ドキュメントの分け方にそのまま沿っているからです。image generation guide は主に2本のルートがあると説明し、単発の画像 なら Image API を推します。Responses の tool guide はその逆で、画像生成がもっと大きな推論フローに入るケース向けです。

実務上のルールは単純です。明確な理由がない限り、まずは直接 Images API から始める。 そのほうが最初のリクエストも、チーム内の再現も、デバッグの切り分けもはるかに簡単です。

モデル名の選び方自体がまだ曖昧なら、先に同言語の OpenAI Image Generation API Models を見てください。このページは deliberately 狭く、surface の選び方だけに集中します。

単発生成なら POST /v1/images/generations から始める

大半の新規統合にとって、この endpoint は最初の確認に最適です。現在の Images API referencePOST /images/generations を生の生成 endpoint として示しており、実際の呼び出しでは https://api.openai.com/v1/images/generations を使うことになります。モデル選択については、GPT Image 1.5 のモデルページ が現在の画像モデルの起点として最も信頼できます。

最初のリクエストは、あえて退屈にしておくべきです。1つの prompt、正方形サイズ、現在の画像モデル。これだけで API key、project、model access、payload shape が正常かどうかが分かります。最初から透明背景、多画像編集、Responses、出力形式まで一気に詰め込むより、はるかに問題の位置を特定しやすいです。

最小の cURL 例はこうです。

bash
curl https://api.openai.com/v1/images/generations \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-image-1.5", "prompt": "Create a clean editorial illustration of a robot camera operator in a bright studio", "size": "1024x1024", "quality": "medium" }'

JavaScript の SDK でも対応はほぼそのままです。

js
import OpenAI from "openai"; const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY }); const result = await client.images.generate({ model: "gpt-image-1.5", prompt: "Create a clean editorial illustration of a robot camera operator in a bright studio", size: "1024x1024", quality: "medium", });

ここで弱い記事が飛ばしがちな大事な点が1つあります。Images API reference によれば、GPT Image 系はデフォルトで b64_json を返します。つまり最初の「成功」は、HTTP 200 が返ることではなく、その戻り値を decode して保存できることまで含めて確認すべきです。だからこそ、最初の一歩は直接 endpoint のほうが向いています。リクエストから利用可能な画像までの最小ループが一番見えやすいからです。

コード例をもっと幅広く見たいなら、同言語の OpenAI image generation API example に進めば十分です。この endpoint 記事の役目は、あくまで「どの surface から始めるか」を先に固定することです。

入力画像があるなら POST /v1/images/edits を使う

編集、fidelity、透明背景、出力形式、圧縮、サイズ、品質が同じ直接Images APIファミリーに属することを示す図。
編集、fidelity、透明背景、出力形式、圧縮、サイズ、品質が同じ直接Images APIファミリーに属することを示す図。

“image generation endpoint” を探している人でも、実際に必要なのが純粋な生成ではなく、手元の画像を修正することは少なくありません。その場合でも、現在の最適ルートは直接 Images APIのままです。単に生成 branch から edit branch に移るだけです。

Images API referencePOST /images/edits を編集 endpoint として示し、主 image generation guide も GPT Image 1.5 の edit 例を同じ surface 上で案内しています。これは重要です。なぜなら、画像編集は still Images API の正式な仕事 であり、edit だからといって自動的に Responses に寄せる必要はないからです。

SDK の最小形はこうです。

js
import fs from "fs"; import OpenAI from "openai"; const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY }); const result = await client.images.edit({ model: "gpt-image-1.5", image: [fs.createReadStream("product-shot.png")], prompt: "Keep the product shape, but place it on a clean studio shelf with warm lighting", input_fidelity: "high", });

input_fidelity: "high" を endpoint 記事でも触れるべき理由は、直接 edit ルートが「簡易版」ではないことを示せるからです。これは OpenAI が今まさに提供している編集の本線です。ここを離れる理由があるとすれば、それは画像タスクが難しいからではなく、workflow 自体がより大きくなったからです。

多くの弱いチュートリアルは、画像タスクが少し複雑になるだけで何でも Responses へ寄せてしまいます。そのせいで習得コストが不必要に高くなります。仕事が still “この画像を変える” である限り、直接 Images API のほうが request shape もデバッグも分かりやすいことが多いです。

mask、input_fidelity、preservation、多画像 compositing まで深く知りたいなら、同言語の OpenAI image editing API を見れば十分です。このページで固定したいのは、編集は Images API の第一級ユースケースであり、それ自体は Responses へ移る理由ではないということです。

画像生成が大きなフローの一部になったときだけ Responses に移る

Responses の価値は「新しい」ことではなく、より大きな workflow に向いていることです。もしあなたの製品が、指示を読み、別の tool を呼び、会話状態を保ちながら、その一部として画像を生成する必要があるなら、image_generation tool は直接 endpoint より自然な抽象になります。

このとき最も起きやすい誤りは、gpt-image-1.5 を Responses の最上位 model に入れることです。現在の image_generation tool guide は明確で、GPT Image モデルは tool の裏側で使われるものの、最上位 model の値としては有効ではありません

つまり shape はこうなります。

js
import OpenAI from "openai"; const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY }); const response = await client.responses.create({ model: "gpt-5", input: "Generate a transparent sticker-style icon of a paper airplane for a travel app", tools: [{ type: "image_generation", background: "transparent", quality: "high" }], });

このルートは正しいですが、解いている問題は直接 Images API と別です。向いているのは次のようなケースです。

  1. 1つのリクエストが文章と画像の両方を返す可能性がある
  2. 画像生成が複数 tool の一つである
  3. モデル自身に「いつ画像を作るか」を判断させたい

逆に、今の悩みが「どの endpoint から始めるべきか」だけなら、Responses は層を増やしすぎます。上位モデル、tool invocation、tool output parsing、より間接的なデバッグが増えるからです。

だから原則は「Responses は新しいから優先」ではありません。オーケストレーション自体が本当の課題になったときだけ Responses が正解になる、ということです。

この先でより広い導入ルートまで整理したいなら、同言語の OpenAI Image API tutorial を続けて読むのが自然です。

ドキュメントのズレとアクセス確認が、正しいendpointを“間違い”に見せる

現在のモデル選択、tier、組織認証、デバッグ順序を確認してからendpointを疑うべきことを示すアクセスゲート図。
現在のモデル選択、tier、組織認証、デバッグ順序を確認してからendpointを疑うべきことを示すアクセスゲート図。

ここが今の SERP で最も弱い部分です。多くの開発者は endpoint を間違えたと思い込みますが、実際には ドキュメントの鮮度のズレアカウントアクセス が問題です。

まず鮮度のズレです。2026年3月23日 時点で、all-model catalogGPT Image 1.5 を現在の画像ラインとして見せ、GPT Image 1.5 のモデルページ もそれを current flagship として扱っています。ところが公式の Images and vision には still gpt-image-1 が最新と残っています。さらに古い cookbook examplegpt-image-1 を使っています。

これは公式ドキュメントが使えないという意味ではありません。意味するのは、ページごとに解くべき問題が違う ということです。

  1. 生の path は API reference を見る
  2. 現在どのモデルが主線か は all-model catalog と GPT Image 1.5 page を見る
  3. Images API か Responses か は main guide を見る
  4. Responses を本当に使うときだけ tool guide を見る

次にアクセスです。GPT Image 1.5 のページは Free not supported と示し、公開制限は Tier 1 の 100,000 TPM と 5 IPM から始まります。API model availabilitygpt-image-1gpt-image-1-mini の利用可否が tier 1 through 5 と organization verification に関係することも書いています。つまり endpoint が正しくても、アカウントが ready でなければ失敗します。

さらに rollout 由来のノイズも検索圏に残っています。OpenAI 自身の GPT Image 1.5 rollout thread では、モデルが見えない、model-not-found が返る、といった報告がありました。こうしたローンチ直後の情報は、古いチュートリアルやキャッシュ断片に残りやすいです。

だから安全なデバッグ順はこうなります。

  1. まず route が正しいか確認する。Images API 先、Responses は必要になってから
  2. 次に model default が current か確認する。GPT Image 1.5 を基準にする
  3. その後で tier、active org、verification を確認する
  4. 最後に payload や SDK 呼び出しを疑う

もし本当の問題が access なら、同言語の OpenAI image generation API verification に進む方が早いです。endpoint を闇雲に変えても、ほとんどの場合ここは直りません。

最終的なおすすめ

2026年3月23日 時点で短く覚えるなら、次の順番で十分です。

  • 単発生成POST /v1/images/generations
  • 入力画像を使う編集POST /v1/images/edits
  • 画像生成が大きなマルチモーダル処理の一部 なら Responses + image_generation
  • 生の path は reference、鮮度は model catalog と GPT Image 1.5 page を基準にする

この順番が現在の page one 平均より優れているのは、公式 facts をただ並べるのではなく、実装上の判断に変換しているからです。多くの上位ページは reference、help、古い例、最新 guide のあいだを読者に自分で縫わせています。より安全なのは、まず surface を選び、最小の直接リクエストを成功させ、それから本当に必要な複雑さだけを積み上げることです。

FAQ

普通の画像編集でも Responses が必要ですか。

いいえ。一般的な edit workflow なら、現在の OpenAI ドキュメントは POST /v1/images/editsclient.images.edit() を正式ルートとして扱っています。Responses が有利なのは、画像編集がより大きな assistant/agent フローの一部になっている場合です。

一部の公式ページに gpt-image-1 とあるなら、まだそれを使うべきですか。

新規導入の既定値としては使わないほうが安全です。2026年3月23日時点では、all-model catalog と GPT Image 1.5 page が GPT Image 1.5 を current line として扱っています。gpt-image-1 は migration や legacy comparison の文脈で残っている、と考えるのが安全です。

endpoint は正しいのに、なぜ still 失敗するのですか。

endpoint routing と account readiness は別問題だからです。GPT Image 1.5 page は Free 非対応を示し、availability guidance も一部アクセスが paid tier と organization verification に結びつくことを示しています。route が正しそうなら、まず access を確認してください。

Nano Banana Pro

4K画像80%OFF

Google Gemini 3 Pro Image · AI画像生成

10万+の開発者にサービス提供
$0.24/枚
$0.05/枚
期間限定·企業レベル安定性·Alipay/WeChat
Gemini 3
ネイティブモデル
ダイレクト接続
20ms遅延
4K超高解像度
2048px
30秒生成
超高速
|@laozhang_cn|$0.05獲得

200+ AI Models API

Jan 2026
GPT-5.2Claude 4.5Gemini 3Grok 4+195
Image
80% OFF
gemini-3-pro-image$0.05

GPT-Image-1.5 · Flux

Video
80% OFF
Veo3 · Sora2$0.15/gen
16% OFF5-Min📊 99.9% SLA👥 100K+