OpenAI est le laboratoire d'intelligence artificielle americain fonde le 11 decembre 2015 a San Francisco par Sam Altman, Elon Musk, Greg Brockman, Ilya Sutskever, Wojciech Zaremba et John Schulman, avec une dotation initiale de 1 milliard de dollars. Initialement structure comme organisation a but non lucratif, OpenAI a bascule en 2019 vers un modele hybride « capped-profit » (OpenAI LP) puis, fin 2025, vers une societe Public Benefit Corporation (PBC) tout en conservant la fondation au capital. Editeur de ChatGPT (lance le 30 novembre 2022, plus de 1,2 milliard d'utilisateurs hebdomadaires en 2026), des modeles GPT-5 (aout 2025) et GPT-5.5 (mars 2026), de l'API platform.openai.com, du generateur d'images DALL-E, du modele video Sora 2, du transcripteur Whisper, de l'agent de codage Codex et des assistants Operator et ChatGPT Agents, OpenAI est sans conteste le vendor IA generative le plus visible et le plus influent de la decennie. Adosse a Microsoft (investissement total de 13 a 15 milliards de dollars depuis 2019, partenariat exclusif sur Azure jusqu'en 2030), il est valorise plus de 500 milliards de dollars en 2026 apres le tender offer de fevrier 2026. Cette page entity-first detaille sa fondation, ses modeles, l'offre API, le pricing ChatGPT Plus/Pro/Team/Enterprise, la posture de securite et de conformite (SOC 2, GDPR, HIPAA, AI Act), les incidents notables (panne de novembre 2024, leak Codex de mai 2025), la comparaison face a Anthropic, Google DeepMind et Mistral AI, ainsi que les bonnes pratiques pour integrer GPT-5 en entreprise sans exposer ses donnees sensibles.

L'essentiel a retenir

  • Fondation : 11 decembre 2015 par Sam Altman, Elon Musk, Greg Brockman, Ilya Sutskever et al., bascule capped-profit 2019, PBC fin 2025.
  • Produits phares : ChatGPT (1,2 Md utilisateurs/sem 2026), API GPT-5 et GPT-5-mini, Codex, DALL-E 3, Sora 2, Whisper v3, embeddings text-embedding-3.
  • Pricing 2026 : ChatGPT Free, Plus 23 USD/mois, Pro 220 USD/mois, Team 30 USD/poste, Enterprise sur devis (a partir de ~150 USD/poste).
  • API GPT-5 : 1,25 USD/M tokens input, 10 USD/M tokens output, fenetre 400k tokens, retention donnees 30 jours par defaut, 0 jour en zero data retention (ZDR).
  • Conformite : SOC 2 Type II, ISO 27001/27017/27018/27701/42001, GDPR, HIPAA (Enterprise/API avec BAA), CSA STAR, demarche AI Act GPAI conforme.
  • Incidents : panne mondiale 8 novembre 2024 (4 h), fuite plateforme Codex mai 2025 (logs internes), exposition redis chat history mars 2023.
  • Risque : dependance Microsoft Azure, concentration vendor, prompt injection et jailbreaks persistants, contentieux droits d'auteur (NYT, Authors Guild, Getty).

Definition : qu'est-ce qu'OpenAI ?

OpenAI est un laboratoire de recherche et editeur de produits d'intelligence artificielle generative, dont la mission affichee depuis 2015 est de « faire en sorte que l'intelligence artificielle generale (AGI) beneficie a toute l'humanite ». Operationnellement, l'entite combine trois activites : (1) la recherche fondamentale sur les grands modeles de langage (LLM), la vision par ordinateur, la generation video et l'apprentissage par renforcement ; (2) la commercialisation d'API payantes via la plateforme platform.openai.com adressant les developpeurs et les entreprises ; (3) la distribution de ChatGPT, application grand public et professionnelle disponible sur web, iOS, Android, macOS et Windows.

OpenAI n'est ni un pure player academique (comme DeepMind avant 2014) ni un editeur logiciel classique : c'est un acteur hybride finance par capitaux prives, partenaires cloud (Microsoft Azure, en negociation avec Oracle et CoreWeave en 2026), revenus produits (estimes a plus de 12 milliards USD ARR en avril 2026) et levees de fonds successives. Son siege historique est a San Francisco (Mission District puis Bryant Street depuis 2024), avec des bureaux a Londres, Dublin, Tokyo, Singapour, Munich, Paris (ouvert mai 2024) et Bruxelles.

Histoire : de la fondation 2015 a GPT-5.5 en 2026

OpenAI naquit d'un dejeuner entre Sam Altman (alors president de Y Combinator) et Elon Musk en 2015, motive par leur crainte commune que l'AGI soit developpee en huis-clos par une seule entreprise (allusion a Google qui venait d'acquerir DeepMind en 2014). Jalons cles :

  • 11 decembre 2015 : creation officielle d'OpenAI Inc. (501c3) avec 1 Md USD promis par Musk, Altman, Reid Hoffman, Peter Thiel, Y Combinator, Infosys et AWS.
  • 2018 (fevrier) : Elon Musk demissionne du conseil, allegue conflit d'interets avec Tesla AI ; il continue partiellement a financer jusqu'en 2020.
  • 2019 (11 mars) : creation d'OpenAI LP, structure capped-profit, et investissement de 1 Md USD par Microsoft. Partenariat Azure exclusif.
  • 2020 (juin) : sortie de GPT-3 (175 Md parametres), premiere API commerciale.
  • 2021 (janvier) : lancement de DALL-E (generation d'images texte-vers-image).
  • 2022 (30 novembre) : lancement public de ChatGPT (base GPT-3.5), 1 million d'utilisateurs en 5 jours, 100 millions en 2 mois.
  • 2023 (14 mars) : sortie de GPT-4. (23 mars) incident Redis exposant des historiques de conversation et 1,2% des metadonnees de paiement Plus.
  • 2023 (17-22 novembre) : crise du board, Sam Altman ecarte puis reintegre apres revolte des employes (95% signent une lettre de demission conditionnelle), reconfiguration du conseil.
  • 2024 (13 mai) : sortie de GPT-4o (omni-modal texte/image/audio), latence vocale ~320 ms.
  • 2024 (12 septembre) : sortie de la famille o1 (raisonnement chain-of-thought integre).
  • 2024 (8 novembre) : panne mondiale de 4 h impactant ChatGPT, Sora et l'API (cause : configuration upstream sur le balanceur de charges Cloudflare cote OpenAI).
  • 2025 (aout) : sortie de GPT-5, fenetre de contexte 400k tokens, raisonnement natif sans bascule de modele.
  • 2025 (octobre) : conversion en Public Benefit Corporation, valorisation 500 Md USD lors du tender offer.
  • 2026 (mars) : sortie de GPT-5.5 (multilingue ameliore, agentic loops natifs, tool use parallele).

Gouvernance et structure capitalistique

La gouvernance d'OpenAI est singuliere et a evolue plusieurs fois. En 2026, la structure repose sur :

  • OpenAI Foundation (entite a but non lucratif) : detient une part de gouvernance et de resultats sur l'entite commerciale, controle la mission AGI.
  • OpenAI Group PBC (Public Benefit Corporation, depuis octobre 2025) : entite operationnelle qui emploie les salaries (~3500 en 2026) et porte les revenus.
  • Microsoft : investisseur majeur (~13-15 Md USD) avec droits sur les revenus et licence d'usage des modeles jusqu'en 2030 ou jusqu'a declaration d'AGI par le board OpenAI.
  • Conseil d'administration (2026) : Bret Taylor (chair), Sam Altman (CEO), Adam D'Angelo, Larry Summers, Sue Desmond-Hellmann, Nicole Seligman, Paul Nakasone (ex-NSA), Zico Kolter (Carnegie Mellon).

Cette gouvernance hybride a ete tendue en 2023 (eviction-reintegration d'Altman) et fait l'objet de critiques recurrentes (Elon Musk poursuit OpenAI depuis 2024 pour rupture de mission, suit toujours en 2026 ; California AG a examine la conversion PBC). Les salaries beneficient d'un programme PPU (Profit Participation Units) plutot que de stock-options classiques.

Modeles principaux : GPT-5, GPT-5-mini, o-series, et heritage

OpenAI a publie une dizaine de generations de modeles depuis 2018. Etat des lieux en mai 2026 :

ModeleSortieSpecialiteFenetre contexteStatus 2026
GPT-3juin 2020text completion2kdeprecated
GPT-3.5 Turbonov 2022chat / instruct16klegacy, decommissionnement T3 2026
GPT-4mars 2023raisonnement, vision8k / 32k / 128kretired juin 2025
GPT-4omai 2024multimodal voice/image128kactif (legacy mode)
o1 / o1-prosept 2024 / dec 2024raisonnement avance128k / 200kfusionne dans GPT-5
o3 / o3-minijan 2025raisonnement budget200kactif
GPT-4.5 « Orion »fev 2025style ecriture128kretired oct 2025
GPT-5aout 2025flagship, raisonnement integre400kactif
GPT-5-miniaout 2025budget agent / batch400kactif
GPT-5.5mars 2026agentic, tool parallele1M (preview)actif
DALL-E 3oct 2023image genn/aactif (integre ChatGPT)
Sora / Sora 2fev 2024 / dec 2025video genn/aactif (Sora 2)
Whisper v3nov 2023speech-to-textn/aactif (open weight Apache 2.0)
text-embedding-3-largejan 2024embeddings 3072d8kactif

GPT-5 a unifie la « bascule de mode » qui frustait les utilisateurs en 2024 : un seul modele decide en interne s'il doit reflechir longuement (ex-o1 reasoning) ou repondre rapidement (ex-4o). GPT-5.5 (mars 2026) ajoute des boucles agentiques natives (le modele peut planifier, executer et observer plusieurs outils en parallele) et un mode 1M tokens en preview, payant a la window etendue.

API OpenAI : endpoints, capacites et SDK

L'API OpenAI (platform.openai.com) est la facon programmatique d'acceder aux modeles. Elle expose plusieurs endpoints majeurs :

  • /v1/responses (recommande depuis 2025) : endpoint unifie successor de chat/completions, gere multi-turn, tools, fichiers, vision, audio, structured outputs.
  • /v1/chat/completions : endpoint historique, encore supporte (stable jusqu'a au moins 2027), large adoption ecosysteme.
  • /v1/embeddings : vecteurs (text-embedding-3-small 1536d, text-embedding-3-large 3072d).
  • /v1/images/generations : DALL-E 3, GPT-Image-1.
  • /v1/audio/transcriptions, /v1/audio/translations : Whisper v3 (et Whisper-1 historique).
  • /v1/audio/speech : TTS (voix Alloy, Echo, Fable, Onyx, Nova, Shimmer, Sage).
  • /v1/realtime (websocket / WebRTC) : voice agents bidirectionnels, latence ~300-500 ms.
  • /v1/moderations : classification de contenu (gratuit).
  • /v1/files + /v1/batch : traitement asynchrone (24 h SLA, 50 % de remise).
  • /v1/fine_tuning : SFT, DPO et RFT (Reinforcement Fine-Tuning) supportes en 2026.
  • /v1/assistants et /v1/threads : Assistants API (deprecated mi-2026 au profit de Responses + tools natifs).

SDK officiels en mai 2026 : Python (openai), Node.js (openai), .NET (Azure SDK), Go (openai-go, en preview officielle), Java (en preview), Ruby (community puis officiel depuis 2025). Tous supportent le streaming SSE, les tool calls, les structured outputs (JSON Schema) et les retries exponentiels.

Pricing API GPT-5 et famille de modeles (mai 2026)

Les tarifs API sont exprimes en dollars par million de tokens (M = 1 000 000). Etat indicatif a la date de cette page :

ModeleInput USD / 1M tokCached inputOutput USD / 1M tokNotes
GPT-51,250,1210,00flagship, reasoning effort modulable
GPT-5-mini0,250,0252,00cible agent / volume
GPT-5-nano0,050,0050,40edge / classification
o310,002,5040,00raisonnement long
o3-mini1,100,554,40raisonnement budget
GPT-4o2,501,2510,00legacy multimodal
GPT-4o-mini0,150,0750,60legacy budget
text-embedding-3-large0,13n/an/a3072 dimensions
text-embedding-3-small0,02n/an/a1536 dimensions
Whisper v30,006 USD / minute audiotranscription ou traduction
DALL-E 30,040 a 0,120 USD / image selon resolution
Sora 20,30 a 0,90 USD / seconde de video selon resolution / duree

Mecanismes de remise : prompt caching automatique (jusqu'a 90% de reduction sur le re-input cache, depuis octobre 2024), Batch API (50% sur les jobs asynchrones < 24 h), Scale Tier (engagement de capacite reservee pour entreprise). Les tarifs ont baisse en moyenne de 30 a 60% par an depuis 2023, suivant la trajectoire « Moore's law for AI » documentee par Altman.

ChatGPT : Free, Plus, Pro, Team, Edu, Enterprise

L'application grand public ChatGPT decline plusieurs offres en 2026 :

PlanPrixModelesLimitesCible
Free0 USDGPT-5 (limite), GPT-5-mini illimite~10 messages GPT-5/5hgrand public
Plus23 USD/moisGPT-5, o3, image, voice80 GPT-5 messages/3hindividuel pro
Pro220 USD/moisGPT-5 unlimited, o3-pro, Sora 2fair use, pas de quota durchercheur / power user
Team30 USD/poste/mois (annuel)GPT-5 + workspacemin 2 sieges, exclusion training par defautPME / equipes
EdudevisGPT-5 + adminpour universitesacademique
Enterprise~150 USD/poste/mois (annuel)GPT-5 + admin / SSO / DLPmin 150 sieges, retention 0-30j config, BAA possiblegrand groupe

Differences cles : Team et Enterprise ont l'opt-out training par defaut (les conversations ne sont pas utilisees pour entrainer les modeles), Enterprise ajoute SSO SAML, audit logs, integration DLP/Compliance API, retention configurable (de 0 a 30 jours), Business Associate Agreement (HIPAA), Data Processing Addendum (GDPR), et residence de donnees Europe (depuis 2024 — Dublin et Francfort).

Securite : retention, chiffrement, isolement

La posture de securite OpenAI a beaucoup evolue. Faits saillants 2026 :

  • Retention : par defaut 30 jours pour les inputs/outputs API (abuse monitoring), reductible a 0 jour sur Enterprise/API en formulant une demande Zero Data Retention (ZDR) — accordee aux comptes a haut volume sur dossier.
  • Chiffrement : TLS 1.2+ en transit, AES-256 au repos, cles gerees par OpenAI ; pas de BYOK client en GA en 2026 (en preview Enterprise).
  • Isolement : tenants logiques sur infrastructure Microsoft Azure (regions US East, US West, Europe Dublin/Francfort, Asia Tokyo/Singapour). Pas de cluster physique dedie hors offre Azure OpenAI Service Provisioned Throughput Units (PTU).
  • Authentification : SSO SAML 2.0 (Enterprise), OAuth pour developpeurs, cles API rotatables, support des projects et restricted keys depuis 2024.
  • Logs : audit logs Enterprise (qui a parle a quel modele, depuis quel poste), exportables SIEM via API ou direct connectors Splunk / Sentinel.
  • DLP : Compliance API (depuis avril 2025) permettant aux DPO d'inspecter, supprimer ou exporter les conversations en lot.

Les bonnes pratiques d'integration en entreprise sont detaillees dans notre guide integrer une API LLM dans une fonction IA, qui couvre la gestion des secrets, les retries, la mise en cache et l'observabilite.

Conformite : SOC 2, ISO, GDPR, HIPAA, AI Act

OpenAI a obtenu une serie de certifications pour gagner les marches enterprise et secteurs regules :

  • SOC 2 Type II : OpenAI API et ChatGPT Enterprise (auditeur Schellman, rapport disponible sous NDA via Trust Portal).
  • ISO 27001 : SI global, depuis 2024.
  • ISO 27017 / 27018 : controles cloud et donnees personnelles, depuis 2024.
  • ISO 27701 : management de la vie privee, depuis 2024.
  • ISO/IEC 42001 : premier vendor IA generative certifie en 2024 sur le management de l'IA.
  • GDPR : DPA accessible, base legale interet legitime + contrat, DPO designe en Irlande (Dublin), engagement transfert hors UE via SCC + EU-US Data Privacy Framework.
  • HIPAA : Business Associate Agreement (BAA) disponible sur ChatGPT Enterprise et l'API a partir de 2024 pour les couvrants medicaux US.
  • CSA STAR Level 2, FedRAMP High Moderate (Azure OpenAI), HITRUST (en cours 2026).
  • EU AI Act : OpenAI declare ses modeles GPT-5 et GPT-5.5 comme « modeles d'IA a usage general (GPAI) avec risque systemique », publie un model card et un code de conduite signe en 2025.

Pour une comprehension fine des obligations creees par la regulation europeenne, consultez notre guide comparatif des LLM open source 2026 qui replace OpenAI dans le contexte concurrentiel et reglementaire.

Incidents notables : panne, fuite, contentieux

OpenAI a subi plusieurs incidents publics qui ont marque l'industrie :

  • 20 mars 2023 — bug Redis : un bug dans la bibliotheque redis-py expose une fenetre d'environ 9 heures durant laquelle 1,2% des utilisateurs ChatGPT Plus voient les noms, emails partiels et 4 derniers chiffres de carte d'autres clients. Indemnisation, audit, postmortem public.
  • 8 novembre 2024 — panne mondiale 4 h : panne simultanee de ChatGPT, Sora et de l'API. Cause racine officielle : changement de configuration sur la couche d'acces edge, propagation incontrolable. Postmortem publie le 12 novembre.
  • 14 mai 2025 — leak Codex : un repository public contenant des logs d'evaluation interne de Codex et certaines fuites de prompts systeme de modeles non publies est decouvert par un chercheur (compte X @therealadam). OpenAI revoque les credentials, publie un communique 72 h apres, renforce les controles supply chain et integre desormais des scans SCA automatises (voir notre guide securite Codex et scan de vulnerabilites).
  • 27 decembre 2023 : The New York Times poursuit OpenAI et Microsoft pour violation de droits d'auteur sur le corpus d'entrainement, encore en cours en 2026 (audience prevue T4 2026).
  • Authors Guild, Getty Images, Sarah Silverman : autres actions collectives sur le scraping de contenus pour l'entrainement.
  • 2024 — Scarlett Johansson / voix Sky : controverse sur l'imitation vocale, OpenAI retire la voix Sky de GPT-4o.

Comparatif vs Anthropic, Google DeepMind, Mistral et Meta

Le paysage des fondations LLM en 2026 reste oligopolistique. Comparaison synthetique :

CritereOpenAIAnthropicGoogle DeepMindMistral AIMeta
Modele flagshipGPT-5.5Claude Opus 4.7Gemini 2.5 UltraMistral Large 3Llama 4 405B
Fenetre contexte400k (1M preview)1M2M256k1M
Open weight ?non (sauf Whisper v3)nonpartiel (Gemma)partiel (Mixtral, Pixtral)oui (Llama 4 weights)
Cloud partnerAzureAWS, GCPGCPOVHcloud, Azuren/a (auto)
Souverainete UEDublin / FrancfortFrancfort, Dublinregions EUFR / EUn/a
Pricing input flagship $/M1,253,001,252,00(self-host)
Reputation safetymoyenne, jailbreaks frequentshaute (Constitutional AI)hautemoyennemoyenne

OpenAI conserve un avantage distribution (ChatGPT, integration Microsoft 365 Copilot) et ecosysteme developpeur (Responses API, plugins). Anthropic excelle sur la securite et le coding (Claude Sonnet et Opus dominent les benchmarks SWE-bench depuis 2024). Google rattrape avec Gemini 2.5 Ultra et son contexte 2M tokens. Mistral est le champion europeen (souverainete, open weights). Meta differencie par les modeles ouverts. Voir aussi notre comparatif LM Studio vs Ollama 2026 pour deployer ces modeles ouverts en local.

Jailbreaks, prompt injection et risques offensifs

Comme tous les LLM, les modeles OpenAI ont ete et restent vulnerables a deux familles d'attaques :

  • Jailbreaks : prompts qui contournent les guardrails (RLHF + system prompt) pour produire du contenu interdit (instructions de fabrication d'armes, malware, contenu illegal). Familles connues : DAN, Crescendo (multi-turn escalation), Many-Shot Jailbreak (Anthropic 2024 mais reproductible chez OpenAI), payload split, encodage exotique (base64, leetspeak, ASCII art).
  • Prompt injection : instructions adverses cachees dans des documents, emails, sites web ou outputs d'outils, qui detournent un agent qui ingere ces contenus. C'est le risque numero un OWASP LLM Top 10 (2024 et 2025). GPT-5 a renforce la separation system / user / tool depuis aout 2025, mais aucune defense n'est complete.

OpenAI repond par : (1) un programme de bug bounty Bugcrowd avec recompenses jusqu'a 100 000 USD pour les vulnerabilites infrastructure (les jailbreaks de modeles ont leur propre programme depuis 2024) ; (2) le Preparedness Framework (mise a jour 2.0 en 2025) qui evalue les capacites dangereuses avant deploiement (CBRN, cyber offensif, persuasion, autonomie) ; (3) des classifiers de moderation cote API (endpoint /v1/moderations gratuit) ; (4) des partenariats avec NIST AI Safety Institute et UK AI Safety Institute pour le red-teaming pre-release.

EU AI Act : OpenAI et la conformite GPAI

Le reglement europeen sur l'IA (Regulation 2024/1689, en application progressive depuis aout 2024, dispositions GPAI applicables depuis aout 2025, sanctions completes en aout 2026) impose des obligations specifiques aux fournisseurs de modeles d'IA a usage general (GPAI), categorie dans laquelle s'inscrivent GPT-5 et GPT-5.5. OpenAI doit :

  • Publier un model card detaillant le corpus d'entrainement, les performances, les biais et limitations.
  • Mettre en place une politique de respect du droit d'auteur (article 53) — points de friction sur le opt-out via robots.txt et le standard TDM.
  • Pour les modeles a risque systemique (>= 10^25 FLOPs entrainement, ce qui couvre GPT-5), notifier la Commission, evaluer les risques systemiques, signaler les incidents graves, garantir la cybersecurite du modele et des poids.
  • Designer un representant dans l'UE et tenir une documentation technique mise a jour.

OpenAI a signe le EU GPAI Code of Practice en juillet 2025, ce qui constitue une presomption de conformite. Les amendes potentielles atteignent 3% du chiffre d'affaires mondial pour les violations GPAI, et 7% pour les pratiques interdites.

Integration entreprise : architectures recommandees

Pour integrer GPT-5 dans une organisation sans exposer de donnees sensibles, plusieurs patterns sont eprouves :

  • Azure OpenAI Service : alternative tenant-isolee (Microsoft Azure) avec le meme modele, residence de donnees configurable (France Central, West Europe, Sweden Central, etc.), conformite Azure heritee (FedRAMP High, IRAP, C5 BSI).
  • OpenAI Enterprise + ZDR : utilisation directe de l'API OpenAI avec Zero Data Retention, BAA et residence Europe Dublin/Francfort.
  • Architecture RAG : conserver les documents d'entreprise dans un vector store interne (pgvector, Qdrant, Weaviate, Pinecone, Azure AI Search), n'envoyer a GPT-5 que les passages pertinents apres redaction. Voir notre guide RAG : Retrieval-Augmented Generation.
  • Anonymisation prompt-side : pseudonymisation des PII avant appel (ex. Microsoft Presidio, AWS Comprehend Detect PII), restitution post-reponse.
  • Local fallback : pour les charges les plus sensibles, basculer sur un modele open weight (Llama 4, Mistral Large 3, Qwen 3) heberge en interne, eventuellement quantifie. Lire notre article AWQ quantization LLM en INT4.
  • Garde-fous applicatifs : Guardrails AI, NeMo Guardrails (Nvidia), Azure AI Content Safety, OpenAI Moderation API en cascade.

Fine-tuning et personnalisation : SFT, DPO, RFT

L'API OpenAI propose trois modes de fine-tuning en 2026 :

  • Supervised Fine-Tuning (SFT) : pre-existant, prompt-completion sur GPT-4o-mini, GPT-4o, GPT-5-mini et GPT-5 (depuis octobre 2025). Cible : style, format, jargon metier.
  • Direct Preference Optimization (DPO) : depuis 2024, optimisation par preferences paires (chosen / rejected). Cible : alignement comportemental fin.
  • Reinforcement Fine-Tuning (RFT) : depuis 2025, fournir un grader (fonction de score, reasoning evaluator ou rubrique) qui evalue les sorties, le modele s'optimise par RL. Cible : taches verifiables (math, code, agents structures).

Le fine-tuning est facture (1) en tokens d'entrainement (par exemple 25 USD / M tokens pour SFT GPT-5-mini), puis (2) en surcharge d'inference sur le modele customise (typiquement 1,5x a 2x le tarif du modele de base). Recommandation pratique : commencer par du prompt engineering + few-shot + structured outputs, n'envisager le fine-tuning que si les metriques metier ne convergent pas.

Function Calling, Structured Outputs et tools natifs

Le Function Calling est arrive en juin 2023 et est devenu le pilier des architectures agents :

  • Le developpeur declare des fonctions (nom, description, JSON Schema des parametres) ;
  • Le modele decide d'appeler une ou plusieurs fonctions, retourne un objet structure ;
  • L'application execute, retourne le resultat, le modele continue son raisonnement.

En 2024, OpenAI a ajoute les Structured Outputs garantis (depuis aout 2024, GPT-4o et superieurs) : le modele respecte strictement un JSON Schema fourni, plus de parsing fragile. En 2025, GPT-5 a introduit le parallel tool use et le tool result chaining nativement (plusieurs appels en parallele resolus en un seul tour). Tools hosted natifs depuis l'API Responses : web_search, file_search (sur fichiers uploades), computer_use (Operator), code_interpreter. Ces briques constituent la base des agents OpenAI.

Codex, Operator et l'ere des agents (2024-2026)

Apres l'enthousiasme initial autour de GPT-3 Codex en 2021 (deprecie en 2023), OpenAI a relance la categorie avec :

  • Codex CLI (lance avril 2025) : agent de codage open source local (Apache 2.0) qui pilote GPT-5 ou GPT-5-mini sur le terminal, lit/ecrit/execute du code dans un sandbox.
  • Codex Cloud (mai 2025) : version SaaS, pull requests automatiques, isolation par task, integration GitHub.
  • Operator (janvier 2025) : agent navigateur (Computer Use) capable de remplir des formulaires, naviguer, automatiser des taches web. Disponible Pro / Enterprise.
  • ChatGPT Agents (juillet 2025) : workflow agentique multi-tour avec memoire, planification, outils, dans ChatGPT.

Ces produits inaugurent l'ere des « agents qui agissent ». Ils introduisent de nouveaux risques (prompt injection a l'echelle de la machine, exfiltration via outils web/file). En consequence, OpenAI publie en 2025 un Agent Operations Security Guide et impose des isolations renforcees (sandbox, allow-listing de domaines, confirmation utilisateur sur actions sensibles).

Roadmap et perspectives 2026-2028

Les communications publiques d'OpenAI et les fuites contractuelles laissent entrevoir :

  • Un GPT-6 attendu fin 2026 / debut 2027, axe sur la continuite agentique long terme et la multimodalite native (texte, image, audio, video, embodied).
  • Une montee en puissance de Sora 3 (cinema generatif a la minute), DALL-E 4 et de la video temps reel.
  • Un investissement massif en compute via le projet « Stargate » (annonce janvier 2025, 500 Md USD sur 4 ans avec Oracle, SoftBank, MGX) — site Abilene (Texas) en demarrage 2026.
  • Une diversification vers le hardware (alliance Jony Ive, racha de io en 2025) annoncee pour 2026-2027.
  • Une bataille reglementaire et concurrentielle plus intense (poursuite Musk, recours antitrust, montee de DeepSeek, Mistral, Qwen).

Bonnes pratiques et anti-patterns

Pour utiliser OpenAI en production en 2026, retenez :

  • A faire : utiliser Responses API pour les nouveaux projets, activer le prompt caching, choisir GPT-5-mini en defaut et GPT-5 si reasoning effort eleve necessaire, signer un DPA et demander ZDR si donnees sensibles, mettre en place observabilite (Langfuse, Helicone, Arize, Datadog LLM), versionner les prompts, instrumenter les couts.
  • A eviter : envoyer des PII en clair sans BAA/ZDR, hardcoder des cles API en front-end, ignorer la moderation, utiliser GPT-3.5 sur du nouveau code (deprecie), confondre fine-tuning et RAG (le fine-tuning n'apprend pas de nouvelles connaissances factuelles), faire confiance aveuglement aux outputs structured sans validation cote serveur.

FAQ : OpenAI en 2026

Quelle est la difference entre OpenAI et Azure OpenAI ?

OpenAI direct (api.openai.com) est l'API native OpenAI, contrats US, residence configurable. Azure OpenAI Service est la meme famille de modeles redistribuee par Microsoft sur Azure, avec contrats Microsoft, residence par region Azure, conformite heritee Azure (FedRAMP, IRAP, C5). Les modeles sont identiques, mais le rythme de mise a disposition Azure peut accuser quelques semaines de retard.

OpenAI utilise-t-il mes donnees pour entrainer ses modeles ?

Sur l'API et sur ChatGPT Team / Enterprise / Edu : non par defaut depuis mars 2023. Sur ChatGPT Free et Plus : oui par defaut, sauf opt-out via les parametres (« Improve the model for everyone »). En zero data retention, les inputs/outputs ne sont pas non plus loggues plus de quelques minutes.

GPT-5 est-il open source ?

Non. Seul Whisper v3 (transcription) est sous Apache 2.0 et publie sur GitHub. GPT-5 et GPT-5.5 sont proprietaires.

OpenAI est-il conforme RGPD pour une PME francaise ?

Oui sous conditions : signer le DPA, choisir Enterprise ou Team avec opt-out training, idealement residence Europe (Dublin/Francfort), tenir un registre des traitements, notifier les personnes concernees, prevoir un PIA si donnees sensibles. La CNIL a publie en 2024 et 2025 plusieurs fiches pratiques sur l'usage de LLM en conformite RGPD.

Combien coute un agent en production ?

Pour un agent moyen (input 5k tokens prompt + 2k tokens contexte cache, output 1k) sur GPT-5, environ 0,02 USD par execution. A 10 000 executions/jour, ~6 000 USD/mois. GPT-5-mini divise ce cout par 5.

Que se passe-t-il si OpenAI subit une panne ?

Toute strategie en production doit prevoir un fallback : second fournisseur (Anthropic Claude, Google Gemini), modele open weight self-host pour les requetes degradees, file d'attente pour rejouer. La panne de novembre 2024 (4 h) a ete un signal d'alerte adopte largement par les architectures resilientes en 2025.

Comment detecter un jailbreak de mon agent GPT-5 ?

Combiner : (1) classifiers cote entree (Moderations API, Llama Guard, Azure Content Safety), (2) restriction system prompt et delimiters, (3) classifiers cote sortie, (4) journalisation et detection d'anomalies (frequence, longueur, taux de refus), (5) red-teaming periodique. Voir notre guide comparatif LLM open source 2026 pour les guardrails ouverts.

OpenAI ou Anthropic pour du code ?

En 2026, Anthropic Claude (Opus 4.7, Sonnet 4.6) tient le haut des benchmarks SWE-bench Verified (~75-80% vs ~70-75% pour GPT-5 sur les memes evaluations publiques). Pour du code generaliste avec ecosysteme tools, OpenAI reste tres competitif via Codex CLI. Beaucoup d'equipes adoptent une strategie multi-modeles.

Qu'est-ce que le Preparedness Framework ?

Le cadre de gouvernance interne d'OpenAI (v2 en 2025) qui evalue les capacites dangereuses (CBRN, cyber, persuasion, autonomie) sur 4 niveaux (Low / Medium / High / Critical) avant chaque deploiement. Un modele « High » necessite des mitigations specifiques, « Critical » un blocage du deploiement.

Peut-on heberger GPT-5 on-premise ?

Non. Aucun hosting on-premise officiel n'est propose en 2026. Les seules options « isolees » sont Azure OpenAI Provisioned Throughput Units (PTU) sur regions dediees, ou souscrire au programme Foundry Sovereign en preview (clusters dedies en Europe pour clients gouvernementaux).

Sources et references officielles

  • Site officiel : openai.com (mission, blog, securite, recherche).
  • Plateforme developpeur : platform.openai.com (documentation API, pricing, status, model cards).
  • Code et modeles ouverts : github.com/openai (Whisper, Codex CLI, gym, baselines, evals, swarm).
  • Trust Portal et conformite : trust.openai.com (acces NDA aux rapports SOC 2, ISO, DPA).
  • Status : status.openai.com (incidents et postmortems).
  • EU AI Act et code de pratique GPAI : digital-strategy.ec.europa.eu.

Conclusion. OpenAI reste en 2026 le vendor IA generative le plus visible et le plus integre de l'ecosysteme entreprise mondial, mais aussi celui dont la concentration de risque (dependance Microsoft, contentieux droits d'auteur, jailbreaks recurrents) impose la plus grande discipline architecturale. Aborder GPT-5 et GPT-5.5 comme une commodity LLM avec strategie multi-fournisseurs, gouvernance des donnees stricte (ZDR, residence UE, anonymisation), guardrails actifs et observabilite est la posture defendable. La conformite EU AI Act, l'integration Azure et les certifications ISO 42001 / SOC 2 fournissent un socle juridique solide, mais l'audit interne reste la responsabilite ultime du client. Pour aller plus loin, lisez nos guides connexes sur l'integration d'API LLM, le RAG, la quantification AWQ pour modeles ouverts, le comparatif LM Studio vs Ollama, le panorama des LLM open source 2026 et la securite Codex et scan de vulnerabilites.