Nøkkelfunksjoner
- Tekst→bilde-generering: konverterer naturlige språkprompter til bilder med sterk instruksjonsfølgning.
- Bilderedigering / inpainting: godtar referansebilder og masker for målrettede endringer.
- Kostnadsoptimalisert («mini») design: et mindre fotavtrykk som OpenAI og observatører beskriver som mye billigere per bilde enn den store modellen (OpenAI/DevDay-budskap og tidlige rapporter sier ~80 % billigere).
- Fleksible kontroller for utdata: støtter størrelse, utdataformat (JPEG/PNG/WEBP), komprimering og en kvalitetsbryter (low/medium/high/auto i Cookbook).
Tekniske detaljer (arkitektur og kapabiliteter)
- Modellfamilie og inn/ut: medlem av gpt-image-1-familien; aksepterer tekstprompter og bildeinput (for redigering) og returnerer genererte bildeutdata. Quality/size-parametere styrer oppløsningen (typisk maks ~1536×1024 i denne familien — se dokumentasjonen for nøyaktig støttede størrelser).
- Driftsmessige avveininger: konstruert som en modell med mindre fotavtrykk — bytter bort noe toppnivå-fidelitet for gjennomstrømning og kostnadsforbedringer, samtidig som robust instruksjonsfølgning og redigeringsfunksjoner bevares.
- Sikkerhet og metadata: følger OpenAIs sikkerhetsretningslinjer for bilder og kan innebygge C2PA-metadata for opphav når tilgjengelig.
Inndata og utdata — standard bruk støtter:
- Tekstprompt (streng) for å generere et nytt bilde.
- Bilde + maske for målrettede redigeringer/inpainting.
- Referansebilder for å styre stil eller komposisjon.
Disse er tilgjengelige via Images API (modellnavngpt-image-1-mini).
Begrensninger
- Lavere maksimal fidelitet: sammenlignet med den store gpt-image-1-modellen kan mini miste noen mikrodetaljer og toppnivå fotorealisme (forventet avveining for kostnad).
- Tekstgjengivelse og svært små detaljer: som mange bildemodeller kan den slite med liten lesbar tekst, tette diagrammer eller mikrofine teksturer; forvent å etterbehandle eller bruke modeller med høyere kapasitet for disse behovene.
- Redigeringsomfang: funksjoner for bildeditering/inpainting er tilgjengelige, men antyder noen redigeringsbegrensninger sammenlignet med interaktive ChatGPT-nettverktøy — redigeringer fungerer for mange oppgaver, men kan kreve iterativ finjustering.
- Sikkerhet og retningslinjer: utdata er underlagt OpenAIs moderering/sikkerhetsregler (eksplisitt innhold, opphavsrettsbegrensninger, ikke-tillatte utdata). Utviklere kan kontrollere modereringssensitivitet via API-parametere der dette tilbys.
Anbefalte bruksområder
- Høyvolum innholdsgenerering (markedsføringsmateriell, miniatyrbilder, rask konseptkunst) — der kostnad per bilde er viktigst.
- Programmatisk redigering / malbasert — masse-inpainting eller variantgenerering fra en basisressurs.
- Interaktive applikasjoner med budsjettbegrensninger — chatgrensesnitt eller integrerte designverktøy der svartid og kostnad betyr mer enn absolutt toppfidelitet.
- Prototyping og A/B-bildegenerering — generer mange kandidatbilder raskt og oppskaler selektivt eller kjør på nytt på større modeller for finalistene.
- Slik får du tilgang til gpt-image-1-mini API
Trinn 1: Registrer deg for API-nøkkel
Logg inn på cometapi.com. Hvis du ikke er bruker ennå, registrer deg først. Logg inn på din CometAPI-konsoll. Hent tilgangslegitimasjonen API-nøkkel for grensesnittet. Klikk “Add Token” ved API-token i personlig senter, hent token-nøkkel: sk-xxxxx og send inn.

Trinn 2: Send forespørsler til gpt-image-1-mini API
Velg endepunktet “\**gpt-image-1-mini \**” for å sende API-forespørselen og angi forespørselskroppen. Forespørselsmetoden og forespørselskroppen finnes i API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for enkel bruk. Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din.
Sett inn spørsmålet eller forespørselen din i content-feltet — dette er det modellen vil svare på . Behandle API-responsen for å få det genererte svaret.
Trinn 3: Hent og verifiser resultater
Behandle API-responsen for å få det genererte svaret. Etter behandling svarer API-et med oppgavestatus og utdata.