Nøglefunktioner
- Tekst→billede-generering: konverterer prompts i naturligt sprog til billeder med stærk efterlevelse af instruktioner.
- Billedredigering / inpainting: accepterer referencebilleder og masker for at udføre målrettede redigeringer.
- Omkostningsoptimeret (“mini”) design: et mindre aftryk, som OpenAI og observatører beskriver som væsentligt billigere pr. billede end den store model (OpenAI/DevDay-budskaber og tidlige rapporter siger ~80 % billigere).
- Fleksible outputindstillinger: understøtter størrelse, outputformat (JPEG/PNG/WEBP), komprimering og en kvalitetsknap (low/medium/high/auto i cookbooken).
Tekniske detaljer (arkitektur og kapabiliteter)
- Modelfamilie og input/output: medlem af gpt-image-1-familien; accepterer tekstprompter og billedinput (til redigering) og returnerer genereret billedoutput. Kvalitet/størrelse-parametre styrer opløsningen (typisk maks. ~1536×1024 i denne familie—se dokumentationen for præcist understøttede størrelser).
- Driftsmæssige afvejninger: konstrueret som en model med mindre aftryk — bytter noget top-end-fidelitet for højere gennemløb og lavere omkostninger, samtidig med at robust prompt-efterlevelse og redigeringsfunktioner bevares.
- Sikkerhed og metadata: følger OpenAI’s billedsikkerhedsretningslinjer og indlejrer C2PA-metadataindstillinger for oprindelse, når det er tilgængeligt.
Input og output — standardbrug understøtter:
- Tekstprompt (streng) til at generere et nyt billede.
- Billede + maske til at udføre målrettede redigeringer/inpainting.
- Referencebilleder til at styre stil eller komposition.
Disse eksponeres via Images API (modelnavngpt-image-1-mini).
Begrænsninger
- Lavere topfidelitet: sammenlignet med den store gpt-image-1-model kan mini miste nogle mikrodetaljer og top-end-fotorealisme (forventet kompromis for prisen).
- Tekstgengivelse og meget små detaljer: som mange billedmodeller kan den have svært ved lille læsbar tekst, tætte diagrammer eller mikrofin tekstur; forvent behov for efterbehandling eller brug af modeller med højere kapacitet til disse behov.
- Redigeringsomfang: funktioner til billedredigering/inpainting er tilgængelige, men indikerer visse redigeringsbegrænsninger i forhold til de interaktive ChatGPT-webværktøjer — redigeringer er effektive til mange opgaver, men kan kræve iterativ forfinelse.
- Sikkerheds- og politikbegrænsninger: output er underlagt OpenAI’s moderation-/sikkerhedsretningslinjer (eksplicit indhold, ophavsretligt beskyttede indholdsbegrænsninger, ikke-tilladt output). Udviklere kan styre moderationsfølsomheden via API-parametre, hvor dette tilbydes.
Anbefalede anvendelsestilfælde
- Højvolumen-indholdsgenerering (marketingmateriale, miniaturebilleder, hurtig konceptkunst) — hvor omkostning pr. billede er primær.
- Programmatisk redigering / skabelonarbejde — masse-inpainting eller variantgenerering fra et basisaktiv.
- Interaktive applikationer med budgetbegrænsninger — chatgrænseflader eller integrerede designværktøjer, hvor svartid og omkostninger er vigtigere end absolut topfidelitet.
- Prototyping og A/B-billedgenerering — generér hurtigt mange kandidatbilleder og opskalér selektivt eller kør igen på større modeller for finalister.
- Sådan får du adgang til gpt-image-1-mini API
Trin 1: Tilmeld dig og få en API-nøgle
Log ind på cometapi.com. Hvis du ikke allerede er bruger, skal du først registrere dig. Log ind i din CometAPI-konsol. Hent grænsefladens adgangslegitimations-API-nøgle. Klik på “Add Token” ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og indsend.

Trin 2: Send forespørgsler til gpt-image-1-mini API
Vælg “\**gpt-image-1-mini \**”-endpointet for at sende API-anmodningen og angiv anmodningskroppen. Anmodningsmetoden og anmodningskroppen fås fra vores websteds API-dokumentation. Vores websted tilbyder også Apifox-test for din bekvemmelighed. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto.
Indsæt dit spørgsmål eller din anmodning i content-feltet — det er dette, modellen svarer på. Behandl API-svaret for at få det genererede svar.
Trin 3: Hent og verificér resultater
Behandl API-svaret for at få det genererede svar. Efter behandlingen svarer API’et med opgavestatus og outputdata.