Anthropic PBC est l'editeur d'IA generative fonde en 2021 par Dario et Daniela Amodei (ex-OpenAI). Cette page entity-first detaille la methode Constitutional AI, l'histoire et la gamme Claude (Haiku, Sonnet, Opus avec contexte jusqu'a 1M tokens), l'API, le pricing, Tool Use, Computer Use, Claude Code, le Model Context Protocol (MCP), la Responsible Scaling Policy, la conformite SOC 2 / ISO 27001 / ISO 42001 et le comparatif vs OpenAI GPT-5 et Google Gemini 2.5 en 2026.
Anthropic PBC est l'éditeur d'IA générative américain fondé en 2021 par Dario Amodei et Daniela Amodei, anciens VP Research et VP Safety/Policy d'OpenAI, accompagnés d'une dizaine de chercheurs dissidents (Jared Kaplan, Tom Brown, Sam McCandlish, Jack Clark, Chris Olah). Société à mission (Public Benefit Corporation enregistrée dans le Delaware), Anthropic se positionne comme le concurrent direct d'OpenAI et de Google DeepMind sur les frontier models, avec une thèse différenciante : la safety-first AI research. La famille de modèles Claude (Claude 1 mars 2023, Claude 2 juillet 2023, Claude 3 Haiku/Sonnet/Opus mars 2024, Claude 3.5 Sonnet juin 2024, Claude 3.7 Sonnet février 2025, Claude 4 mai 2025, Claude Sonnet 4.5 septembre 2025, Claude Opus 4.5 novembre 2025, Claude Opus 4.7 mars 2026) repose sur la méthode Constitutional AI (CAI) publiée en décembre 2022 et sur le Reinforcement Learning from AI Feedback (RLAIF). Avec une fenêtre de contexte allant jusqu'à 1 million de tokens en GA depuis mars 2026, des capacités tool use, computer use, extended thinking et managed agents, Claude est devenu en 2026 l'un des deux LLM dominants du marché B2B aux côtés de GPT-5 d'OpenAI. Anthropic a levé plus de 16 Md$ auprès d'Amazon (8 Md$ étalés 2023-2024), de Google (3 Md$), de Salesforce, de Lightspeed et d'investisseurs souverains, atteignant une valorisation post-money supérieure à 183 Md$ en mars 2026. Cette page entity-first détaille l'histoire d'Anthropic, la méthode Constitutional AI, la gamme Claude, l'API et le pricing, les capacités tool use, computer use, le Model Context Protocol (MCP), la Responsible Scaling Policy, la conformité (SOC 2 Type II, ISO 27001, ISO 42001), les comparatifs vs OpenAI GPT-5 et Google Gemini, ainsi que les best practices de prompt caching, batch API et défense contre l'injection de prompt.
L'essentiel a retenir
- Anthropic PBC : Public Benefit Corp fondee en 2021 a San Francisco par Dario et Daniela Amodei (ex-OpenAI), thèse safety-first, valorisation 183 Md$ en mars 2026.
- Constitutional AI : methode d'alignement (CAI + RLAIF) qui remplace une partie du RLHF humain par un modele juge guide par une "constitution" de principes.
- Famille Claude : Haiku (rapide/economique), Sonnet (equilibre), Opus (raisonnement). Contexte 200K tokens standard, 1M GA depuis mars 2026 sur Sonnet 4.5+ et Opus 4.7.
- Capacites cles : tool use, computer use (controle ecran/clavier), extended thinking, managed agents, prompt caching, batch API (50% off), vision multimodale.
- MCP (Model Context Protocol) : protocole open-source publie en novembre 2024, devenu standard de facto pour connecter LLM et outils/donnees (>800 serveurs MCP en mai 2026).
- Pricing : Claude Haiku 4.5 ~0,80 $/1M input, Sonnet 4.5 ~3 $/1M input, Opus 4.7 ~15 $/1M input. Prompt caching jusqu'a 90% de reduction.
- Conformite : SOC 2 Type II, ISO 27001, ISO 27701, ISO 42001 (premier LLM a l'obtenir), HIPAA BAA, GDPR/RGPD, residence donnees UE (eu.api.anthropic.com).
- Partenariats : Amazon Bedrock (8 Md$), Google Cloud Vertex AI (3 Md$), Salesforce, Snowflake Cortex, Databricks.
Definition : qu'est-ce qu'Anthropic ?
Anthropic, PBC est une societe americaine de recherche et de produits en intelligence artificielle, dont la mission statutaire est "the responsible development and maintenance of advanced AI for the long-term benefit of humanity". Son siege est a San Francisco (548 Market St) avec des bureaux a Londres, Dublin, New York, Zurich et Tokyo. En tant que Public Benefit Corporation, Anthropic est juridiquement tenue d'equilibrer profit et benefice public, et publie un annual benefit report.
Concretement, Anthropic edite :
- La famille de LLM Claude (Haiku, Sonnet, Opus) accessibles via API directe, Amazon Bedrock et Google Vertex AI.
- Le produit grand public Claude.ai (web + iOS + Android + macOS + Windows) avec plans Free, Pro, Max et Team.
- Le produit Claude for Enterprise (SAML SSO, audit logs, residence donnees, contracts DPA) et Claude for Work.
- Le produit Claude Code (CLI agent de coding, sortie GA en mai 2025) et son extension Anthropic Console.
- Des outils developpeurs : Claude Workbench, Anthropic Cookbook, SDK Python/TypeScript/Go/Java/Ruby.
- Le standard ouvert MCP (Model Context Protocol) publie en novembre 2024.
L'entreprise emploie environ 1 100 personnes en mai 2026 (vs 700 fin 2024), majoritairement chercheurs, ingenieurs ML et red-teamers. Son ARR (Annualized Run-Rate) revenu est passe de ~150 M$ debut 2024 a ~3,5 Md$ debut 2026 selon les chiffres publies a la presse, principalement en B2B/API.
Histoire : de la dissidence d'OpenAI a la levee de 16 Md$
Anthropic est fondee en janvier 2021 par Dario Amodei (alors VP of Research chez OpenAI) et sa soeur Daniela Amodei (alors VP of Safety and Policy), avec sept anciens collaborateurs OpenAI : Jared Kaplan, Tom Brown (auteur principal du papier GPT-3), Sam McCandlish, Chris Olah (interpretabilite), Jack Clark (policy), Tom Henighan, Andy Jones. Le depart est motive par un desaccord strategique sur la safety et la trajectoire commerciale prise par OpenAI apres l'investissement Microsoft de janvier 2023 (annonce de 10 Md$).
Jalons :
- 2021 (mai) : Serie A 124 M$ menee par Jaan Tallinn (cofondateur Skype, Future of Life Institute).
- 2022 (avril) : Serie B 580 M$, dont 500 M$ de Sam Bankman-Fried/FTX (montant ulterieurement objet de procedures dans la faillite FTX, sans implication directe d'Anthropic).
- 2022 (decembre) : publication du papier Constitutional AI: Harmlessness from AI Feedback (Bai et al.).
- 2023 (mars) : sortie publique de Claude 1 via Slack puis API.
- 2023 (juillet) : sortie de Claude 2 avec contexte 100K tokens — record de l'epoque.
- 2023 (septembre-novembre) : Amazon investit jusqu'a 4 Md$, Google jusqu'a 2 Md$.
- 2023 (novembre) : sortie de Claude 2.1 (200K tokens) et Responsible Scaling Policy v1.
- 2024 (mars) : Claude 3 (Haiku, Sonnet, Opus), depasse GPT-4 sur plusieurs benchmarks (MMLU, GPQA).
- 2024 (juin) : Claude 3.5 Sonnet introduit Artifacts (rendu canvas) et un saut qualitatif majeur en code (HumanEval 92%).
- 2024 (octobre) : annonce Computer Use en beta — Claude pilote souris/clavier/ecran.
- 2024 (novembre) : Amazon ajoute 4 Md$ (total 8 Md$) ; publication de MCP (Model Context Protocol).
- 2025 (fevrier) : Claude 3.7 Sonnet avec mode extended thinking hybride.
- 2025 (mai) : Claude 4 Opus / Sonnet et lancement GA de Claude Code.
- 2025 (septembre) : Claude Sonnet 4.5, premiere ISO 42001 d'un LLM frontier.
- 2025 (novembre) : Claude Opus 4.5 et Claude Haiku 4.5, fenetre 1M tokens en beta.
- 2026 (mars) : Claude Opus 4.7, contexte 1M tokens en GA, managed agents en GA, valorisation 183 Md$.
- 2026 (avril) : audition au Congres US sur les LLM frontieres (voir notre article Anthropic vs OpenAI au Congres).
Dario Amodei reste CEO en 2026, Daniela Amodei est presidente. Le board comprend notamment Yasmin Razavi (Spark Capital) et un siege detenu par le Long-Term Benefit Trust, structure de gouvernance unique au monde charge de garantir l'alignement avec la mission a long terme.
Constitutional AI : la methode d'alignement signature
Constitutional AI (CAI) est la methode d'alignement publiee par Anthropic en decembre 2022 (Bai, Kadavath et al., arXiv:2212.08073). L'idee : remplacer une partie du Reinforcement Learning from Human Feedback (RLHF), couteux et limite par la disponibilite des annotateurs humains, par un processus en deux phases ou un modele juge evalue les sorties d'un modele apprenant en s'appuyant sur une constitution ecrite — une liste de principes et de directives.
Phases de la methode CAI :
- Supervised Learning (SL-CAI) : on demande au modele de critiquer et reecrire ses propres reponses problematiques en s'appuyant sur les principes de la constitution (ex. "ne pas aider a fabriquer une arme biologique", "respecter la dignite humaine"). On fine-tune ensuite le modele sur ces reecritures.
- Reinforcement Learning from AI Feedback (RLAIF) : un modele juge (souvent une variante de Claude) compare des paires de reponses et choisit la meilleure selon la constitution. Ces preferences servent de signal de reward pour un PPO classique.
La constitution publique de Claude integre des references a la Declaration universelle des droits de l'Homme, aux Apple Terms of Service, aux principes de Sparrow (DeepMind), et a des principes propres a Anthropic (honnetete, prudence, refus de scenarios catastrophiques). Les benefices revendiques :
- Scalabilite : moins de dependance aux annotateurs humains (couteux, biais culturels).
- Transparence : la constitution est publique et auditable (vs un modele de reward humain opaque).
- Robustesse aux jailbreaks : Claude refuse plus systematiquement les requetes hors-perimetre.
- Mise a jour : modifier la constitution et reentrainer est plus rapide que reaccueillir des annotateurs.
Limites reconnues : risque de biais introduit par le modele juge, sur-refus (refusal-prone) et incapacite intrinseque a couvrir des dilemmes ethiques nouveaux. En 2024, Anthropic a publie une iteration Collective Constitutional AI avec des principes co-construits via une consultation publique. La methode a inspire d'autres laboratoires (notamment les Spec d'OpenAI publies en 2024) et fait l'objet d'un cours dedie au MOOC AI Safety Fundamentals de BlueDot Impact.
Famille Claude : Haiku, Sonnet, Opus en 2026
Anthropic structure sa gamme en trois tailles aux cas d'usage distincts, suivant la tradition haiku/sonnet/opus introduite avec Claude 3 (mars 2024) :
| Modele | Sortie | Contexte | Specialite | Prix input/output ($/1M) |
|---|---|---|---|---|
| Claude Haiku 4.5 | nov. 2025 | 200K (1M opt-in) | Rapide, economique, classification, summarization | 0,80 / 4 |
| Claude Sonnet 4.5 | sept. 2025 | 1M (GA mars 2026) | Equilibre cout/qualite, code, agents | 3 / 15 |
| Claude Sonnet 4.6 (1M) | fev. 2026 | 1M GA | Code longue contexte, refactoring, RAG | 3 / 15 (jusqu'a 200K) puis 6 / 22,5 |
| Claude Opus 4.5 | nov. 2025 | 200K (1M beta) | Raisonnement, recherche, agents complexes | 15 / 75 |
| Claude Opus 4.7 | mars 2026 | 1M GA | Top frontier, agents long-running, R&D | 15 / 75 |
Les trois familles partagent : capacites vision (images, PDF natif jusqu'a 100 pages, diagrammes), tool use, extended thinking, computer use, prompt caching, batch API. Toutes sont multilingues (haute qualite en francais, allemand, japonais, espagnol, portugais, arabe, mandarin) et acceptent du code dans plus de 80 langages. La famille Opus se distingue par un meilleur raisonnement chaine, des capacites superieures sur SWE-bench Verified (>72% pour Opus 4.7) et sur GPQA Diamond (>78%). Pour un comparatif RAG vs LLM, voir notre guide RAG et notre comparatif LM Studio vs Ollama pour l'option open-source locale.
API Anthropic : authentification, endpoints et SDK
L'API Anthropic est REST/JSON, accessible sur https://api.anthropic.com/v1/messages (US) ou https://eu.api.anthropic.com/v1/messages (residence donnees UE depuis 2024). L'authentification utilise un header x-api-key et un header obligatoire anthropic-version: 2023-06-01.
Exemple minimal Python :
from anthropic import Anthropic
client = Anthropic() # lit ANTHROPIC_API_KEY
resp = client.messages.create(
model="claude-opus-4-7",
max_tokens=1024,
messages=[{"role": "user", "content": "Bonjour Claude"}],
)
print(resp.content[0].text)
Endpoints majeurs :
POST /v1/messages: completion principale (chat + tool use + vision).POST /v1/messages/batches: Batch API (jusqu'a 100K requetes/batch, 50% de reduction).POST /v1/messages/count_tokens: comptage de tokens.POST /v1/files: upload de fichiers (PDF, images) reutilisables.GET /v1/models: liste des modeles disponibles avec capacites.POST /v1/agents: Managed Agents (GA mars 2026).
SDK officiels en mai 2026 : Python, TypeScript/Node, Go, Java, Ruby, .NET (preview), PHP (preview). La tutoriel d'integration API LLM couvre le pattern de retry, gestion des rate limits (RPS, TPM, ITPM, OTPM) et streaming SSE.
Tool Use : function calling natif
Tool Use (anciennement function calling) permet a Claude d'invoquer des outils JSON definis par l'application. Disponible en GA depuis avril 2024, il s'utilise via le parametre tools :
tools = [{
"name": "get_weather",
"description": "Get current weather for a city",
"input_schema": {
"type": "object",
"properties": {"city": {"type": "string"}},
"required": ["city"]
}
}]
Le modele peut alternativement repondre directement ou demander un tool_use. L'application execute, renvoie un message tool_result, et la conversation continue. Particularite Anthropic : le tool_choice permet de forcer (any, tool) ou interdire (none) l'usage d'outils, et un mode parallel tool use autorise plusieurs appels simultanes. Depuis Sonnet 3.5 (juin 2024), Claude excelle sur Tau-bench (benchmark d'agents tools) avec des taux de succes superieurs a 70% sur les scenarios retail. Pour les agents complexes, Claude introduit en 2025 le tool_use streaming et les fine-grained tool_use blocks qui reduisent la latence de 30 a 50%.
Computer Use : Claude pilote l'ecran
Annoncee le 22 octobre 2024 en public beta, Computer Use est la capacite de Claude a piloter un desktop via captures d'ecran et actions souris/clavier. Trois outils dedies sont fournis : computer (screenshot, click, type, scroll), text_editor (str_replace, view, create), bash (commandes shell). En GA depuis Sonnet 4.5 (septembre 2025) et generalisee a Opus 4.7 en 2026, la latence par action est passee de ~5 secondes (beta 2024) a ~1,5 seconde en 2026 grace au caching de screenshots et a l'usage de vision-only diff.
Cas d'usage : automatisation QA, web scraping resilient (vs DOM brittle), assistance handicap, RPA self-healing. Limites majeures : risque de prompt injection visuelle (un attaquant inserant des instructions dans une capture d'ecran), risque d'erreur sur des actions destructives. Anthropic recommande l'execution en VM/sandbox dediee (Docker, Lima, Firecracker) avec accès limite aux secrets, et fournit un reference container sur GitHub. Voir aussi notre article Cowork Claude pour metiers no-dev.
Claude Code : agent CLI et IDE
Claude Code est l'agent de coding officiel d'Anthropic, sorti en preview fevrier 2025 et GA mai 2025. Il s'execute en CLI (claude) avec acces lecture/ecriture au repertoire de travail, capacites bash, recherche grep, edition fichiers via outil str_replace_based_edit_tool, et integration native MCP. La version Plan Mode (introduite octobre 2025) separe planification et execution. Claude Code se distingue par :
- Long-running agents : sessions multi-tours sur des taches de >30 minutes.
- Subagents et worktrees pour parallelisation propre (depuis dec. 2025).
- Hooks (PreToolUse, PostToolUse, Stop, SessionStart) pour personnalisation du comportement.
- Skills markdown (.claude/skills/) pour packaging d'expertise reutilisable.
- Crons et background tasks (CronCreate, TaskCreate API).
Concurrents : Cursor (IDE), GitHub Copilot Workspace, Aider, OpenAI Codex CLI, Devin (Cognition), Cline (open source). Claude Code s'est impose en 2025-2026 comme le terminal coding agent de reference dans les enquetes Stack Overflow Developer Survey (39% d'utilisation hebdomadaire chez les pros en avril 2026). Voir Managed Agents mai 2026 et Cowork Claude no-dev.
Model Context Protocol (MCP) : le standard d'interconnexion
Le Model Context Protocol (MCP) est un protocole open-source (licence MIT) publie par Anthropic en novembre 2024 pour standardiser la connexion entre un client LLM et des sources de contexte externes (outils, donnees, prompts, sampling). Il s'inspire du Language Server Protocol (LSP) de Microsoft et utilise JSON-RPC 2.0 sur stdio, HTTP+SSE ou Streamable HTTP.
Concepts cles :
- Server : expose des tools, resources, prompts a un client (ex. serveur Postgres, serveur GitHub, serveur Filesystem).
- Client : LLM ou IDE qui consomme (Claude Desktop, Claude Code, Cursor, VS Code, Zed, Sourcegraph Cody, OpenAI Agents SDK).
- Capabilities : negociees a l'initialisation (
initialize+capabilities). - Transport : stdio (local), SSE (legacy), Streamable HTTP (recommande depuis 2025).
En mai 2026, le registre officiel modelcontextprotocol.io/servers et le repertoire communautaire mcpservers.org denombrent plus de 800 serveurs MCP (Slack, GitHub, GitLab, Linear, Notion, Postgres, MySQL, MongoDB, Brave Search, Stripe, AWS, Cloudflare, Sentry, etc.). MCP a ete adopte par OpenAI (mars 2025, dans Agents SDK et ChatGPT), Google DeepMind (avril 2025, dans Gemini API), Microsoft (Copilot Studio, fevrier 2025) et Block (Square Goose). C'est de facto le USB-C des LLM.
Pricing detaille et optimisations en 2026
Le pricing Anthropic est par millions de tokens, avec deux leviers d'optimisation cles : prompt caching et batch API.
| Modele | Input | Output | Cache write 5min | Cache write 1h | Cache read | Batch (-50%) |
|---|---|---|---|---|---|---|
| Haiku 4.5 | 0,80 $ | 4 $ | 1 $ | 1,60 $ | 0,08 $ | 0,40 / 2 $ |
| Sonnet 4.5 (≤200K) | 3 $ | 15 $ | 3,75 $ | 6 $ | 0,30 $ | 1,50 / 7,50 $ |
| Sonnet 4.5 (>200K) | 6 $ | 22,50 $ | 7,50 $ | 12 $ | 0,60 $ | 3 / 11,25 $ |
| Opus 4.7 | 15 $ | 75 $ | 18,75 $ | 30 $ | 1,50 $ | 7,50 / 37,50 $ |
Prompt caching (GA aout 2024) : marquer un bloc avec cache_control: {"type": "ephemeral"} stocke sur le serveur 5 minutes (par defaut) ou 1 heure (depuis nov. 2024). Les lectures suivantes coutent 10% du prix input seulement, soit jusqu'a 90% de reduction sur les preambules longs (system prompts, documentation, exemples few-shot). Limite : minimum 1024 tokens (Haiku/Sonnet) ou 2048 (Opus) par bloc cachable.
Batch API (GA octobre 2024) : envoi asynchrone jusqu'a 100K requetes par batch, traitement <24h, 50% de reduction. Ideal pour bulk processing (classification, extraction, generation de descriptions e-commerce).
Rate limits : par tier (Tier 1 a 4 + Custom), exprime en RPM, TPM (tokens/min), ITPM (input/min), OTPM (output/min). Tier 4 atteint 4 000 RPM et 400K TPM sur Sonnet.
Responsible Scaling Policy (RSP) : la securite par paliers
La Responsible Scaling Policy (RSP) publiee par Anthropic en septembre 2023 et iteree (v1.0, v1.1, v2.0 en mars 2025) est un cadre interne d'AI Safety Levels (ASL) inspire des Biosafety Levels. Le niveau ASL d'un modele determine les tests de securite, la red team, les controles de deploiement et de poids autorises.
| Niveau | Definition | Mesures |
|---|---|---|
| ASL-1 | Modele jouet, capacites tres limitees | Standard |
| ASL-2 | Capacites significatives, risque modeste (Claude 1-3.5) | Red team, refus jailbreak, monitoring |
| ASL-3 | Capacite a augmenter sensiblement le risque CBRN ou cyberattaque sophistiquee (Claude 4-4.7) | Tests pre-deploiement biologique/cyber/autonomie ; isolation poids ; insider risk |
| ASL-4 | Capacite a aider materiellement un attaquant non-etat a creer des armes de destruction massive (non atteint) | Air-gap des poids, multi-party access, gouvernance externe |
| ASL-5 | Capacite superieure a l'humain sur la majorite des taches a impact | Pause deploiement jusqu'a alignement scalable demontre |
Anthropic a declare en mai 2025 que Claude 4 Opus est ASL-3, declenchant pour la premiere fois les controles de niveau biologique (USAMRIID-style red team), de cyberoffensive (DARPA/CYBERCOM-aligned) et d'autonomy evals (METR, Apollo Research). Le RSP est devenu une reference pour le AI Act europeen (modeles GPAI a risque systemique) et pour le Frontier AI Safety Commitments signes a l'AI Seoul Summit (mai 2024).
Securite et alignement : red team, interpretabilite, evals
Anthropic investit massivement dans :
- Mechanistic interpretability : equipe de Chris Olah, dictionary learning, sparse autoencoders. Publication majeure : Scaling Monosemanticity (mai 2024) qui a identifie des features interpretables dans Claude 3 Sonnet (Golden Gate Bridge feature, etc.).
- Red team interne : sectorielle (biologique, chimique, cyberoffensive, autonomie, persuasion) et integree au cycle de release.
- Evals externes : METR (autonomie), Apollo Research (deception), UK AISI / US AISI (pre-deployment).
- Sleeper agents et alignment faking : papiers majeurs (Hubinger 2024, Greenblatt 2024) sur les comportements deceptifs.
- Constitutional Classifiers (fevrier 2025) : couche de defense apprise contre les jailbreaks universels, evaluee a 95%+ de blocage sur 10K tentatives en bug bounty.
L'equipe Frontier Red Team (FRT), dirigee par Logan Graham, publie tous les 6 mois un rapport public d'uplift evaluations. Anthropic a egalement publie une Usage Policy stricte interdisant les usages militaires offensifs (avec exceptions encadrees pour l'analyse cyber defensive et le renseignement geopolitique sous contrat US Government depuis le partenariat Palantir/AWS de novembre 2024).
Partenariats : Amazon Bedrock, Google Cloud, Salesforce
Anthropic distribue Claude via trois canaux majeurs :
- API directe (api.anthropic.com) : controle total, dernieres features (cache, batch, computer use, MCP managed).
- Amazon Bedrock : Claude est le modele phare de Bedrock depuis 2023. Investissement Amazon : 8 Md$ (avril 2023 + nov. 2024). Co-developpement Trainium2 chips. Datacenters Project Rainier (Indiana) en construction 2026 pour Anthropic. Disponibilite : us-east-1, us-west-2, eu-central-1, ap-northeast-1 entre autres.
- Google Cloud Vertex AI : depuis fev. 2024, partenariat investissement 3 Md$ (oct. 2023 + 2024). Integration GKE et Vertex AI Agents.
- Salesforce : Claude est moteur LLM par defaut d'Agentforce (2024), partenariat strategique annonce en juillet 2024.
- Snowflake Cortex, Databricks Mosaic AI, SAP Joule, ServiceNow Now Assist : integrations entreprises majeures.
- Palantir / AWS GovCloud : depuis nov. 2024, Claude disponible sur Palantir AIP pour la defense et le renseignement US, sous controles dedies.
Cote distribution grand public, Claude.ai compte fin avril 2026 environ 110 M MAU (vs 25 M debut 2025), et l'application iOS est top 5 productivite dans 35 pays.
Conformite et certifications en 2026
Anthropic dispose des certifications suivantes (mai 2026) :
- SOC 2 Type II annuel (rapport disponible sur demande sous NDA).
- ISO 27001:2022.
- ISO 27701:2019 (privacy information management).
- ISO 27017 et ISO 27018 (controles cloud).
- ISO 42001:2023 (AI Management System) — Anthropic a ete le premier laboratoire LLM frontier a l'obtenir, en aout 2025.
- HIPAA avec BAA disponible sur Claude for Enterprise.
- RGPD/GDPR : DPA standard, residence donnees UE via
eu.api.anthropic.com(Dublin/Francfort), sub-processors publies. - AI Act (UE) : Anthropic a declare Claude Opus 4 et 4.7 comme GPAI a risque systemique (cap 10^25 FLOPs), conformement aux articles 51-55. Code de conduite GPAI signe en aout 2025.
- FedRAMP Moderate (en cours, via AWS GovCloud).
- Engagements White House Voluntary Commitments (juillet 2023), Seoul AI Safety Commitments (mai 2024), UK AISI testing access.
Les utilisateurs API peuvent activer le zero data retention (ZDR) sur demande (eligible Tier 2+), garantissant que les prompts ne sont pas conserves >30 jours.
Comparatif Claude vs GPT-5 vs Gemini 2.5 en 2026
| Critere | Anthropic Claude Opus 4.7 | OpenAI GPT-5 | Google Gemini 2.5 Pro |
|---|---|---|---|
| Sortie | mars 2026 | aout 2025 (Pro), maj fev. 2026 | mars 2025 (maj nov. 2025) |
| Contexte | 1M tokens GA | 400K tokens (1M en preview) | 2M tokens GA |
| SWE-bench Verified | ~72% | ~74% | ~63% |
| MMLU | ~89% | ~91% | ~88% |
| GPQA Diamond | ~78% | ~80% | ~74% |
| Tool use | Excellent (Tau-bench leader) | Excellent | Tres bon |
| Computer Use | Natif (GA Sonnet 4.5+) | Operator (preview) | Project Mariner (beta) |
| Agents | Managed Agents GA | Agents SDK + Operator | Vertex AI Agents |
| Safety | RSP / ASL-3, Constitutional AI | Preparedness Framework, Spec | Frontier Safety Framework |
| Open weights | Non | gpt-oss (open weights, aout 2025) | Gemma (open weights) |
| Prix Opus tier ($/1M in) | 15 | 15 (GPT-5 Pro) | 5 (Gemini 2.5 Pro <128K) |
| Forces | Code, agents long-running, MCP, transparence safety | Multimodal, Operator, ecosystem | Contexte 2M, prix, multimodal video, integration Google |
| Faiblesses | Pas open weights, latence Opus | Hallucinations residuelles, opacite RSP | Code legerement en retrait, SLA enterprise |
En B2B, Claude Opus/Sonnet est generalement choisi pour le code, l'agentique de longue duree et les charges sensibles a la safety. GPT-5 domine sur l'ecosystem grand public (ChatGPT) et certains workflows multimodaux. Gemini brille en RAG long contexte et integrations Google Workspace. Beaucoup d'entreprises adoptent une multi-LLM strategy avec abstraction (LiteLLM, Portkey, OpenRouter) pour eviter le vendor lock-in.
Prompt injection, jailbreaks et defense en profondeur
Comme tout LLM, Claude est expose a deux familles d'attaques distinctes :
- Jailbreaks directs : un utilisateur tente de contourner les refus du modele (ex. DAN, role-play malveillant, encodage base64, prompt sandwich). La defense Anthropic combine : entrainement RLHF/CAI, system prompt hardening, Constitutional Classifiers, et red team continue. Le bug bounty universel jailbreak d'Anthropic (mai 2025) a paye jusqu'a 25K$ par attaque universelle multi-domaine.
- Prompt injection indirecte : du contenu hostile cache dans une donnee aval (un email, une page web scraped, un PDF, un screenshot Computer Use) tente de detourner Claude. C'est le risque numero 1 des agents LLM (OWASP Top 10 for LLM 2025).
Best practices de defense (recommandations Anthropic + OWASP LLM01) :
- Separer system et user : ne jamais coller du contenu non-fiable dans le system prompt.
- Tagging structurel : encadrer les inputs externes par
<document>...</document>et instruire le modele a ignorer toute instruction interne. - Tool gating : confirmation utilisateur sur outils destructifs (delete, send-email, payment).
- Sandbox d'execution : VM/container pour computer use et code execution.
- Monitoring : Anthropic Console fournit des logs et un policy enforcement.
- Constitutional Classifiers : couche d'inference complementaire (en option payante).
- Defense in depth : ne pas faire dependre la securite metier du seul modele.
Voir nos articles connexes : integration API LLM, RAG securise, audition Congres avril 2026.
Limites et critiques d'Anthropic en 2026
Aucun acteur n'echappe aux critiques. Les principaux griefs adresses a Anthropic :
- Pas d'open weights : contrairement a Meta (Llama), Mistral, OpenAI (gpt-oss aout 2025) et Google (Gemma), Anthropic ne publie aucun modele en open weights — limitant la reproductibilite et l'usage souverain on-premise.
- Concentration cloud : 100% hosted, dependance Amazon (Trainium) et Google. Pas de deploiement on-prem hors AWS Outposts/Bedrock.
- Cout d'Opus : 15 $/75 $ par M tokens, parmi les plus eleves du marche frontier (sauf GPT-5 Pro).
- Refusal-prone : Claude est historiquement reconnu pour ses refus excessifs (sur-prudence), critique frequente des developpeurs sur cybersecurite, pentest, scenarios fictionnels. Reduit avec Sonnet 4.5+ mais persistant.
- Opacite des donnees d'entrainement : Anthropic ne publie pas son corpus d'entrainement (concurrence + risques juridiques). Plaintes en cours de Music Publishers Association (oct. 2023) et Reddit (juillet 2025) sur usage de contenus proteges.
- Resistance limitee aux jailbreaks de tier 0 en l'absence de Constitutional Classifiers.
- Dependance financiere a Amazon (8 Md$) qui pose des questions d'independance reelle vs un editeur "hyperscaler-locked".
- SecNumCloud : Anthropic n'est pas qualifie SecNumCloud ANSSI ; pour les OIV/OSE FR, considerer Mistral (souverain) ou un deploiement Bedrock SecNumCloud (en cours via partenariat AWS Europe).
FAQ — questions frequentes sur Anthropic
Anthropic est-elle une filiale d'Amazon ?
Non. Amazon est le plus gros investisseur (8 Md$ cumules) et son partenaire d'infrastructure prive (Trainium2, datacenters Project Rainier), mais Anthropic reste juridiquement independante en tant que Public Benefit Corporation. La gouvernance via le Long-Term Benefit Trust limite les droits de vote des investisseurs financiers sur les decisions liees a la mission. Amazon ne dispose pas de siege au board.
Quelle difference entre Claude Sonnet et Claude Opus ?
Sonnet est le modele de production equilibre (cout/qualite/latence). Opus est le top frontier d'Anthropic, reserve aux taches de raisonnement complexe, recherche, agents long-running et R&D. Opus coute 5x plus cher que Sonnet (15 vs 3 $/1M input) et est environ 2-3x plus lent. Sur la majorite des cas d'usage entreprise, Sonnet 4.5+ est suffisant et optimal en TCO. Opus est indique sur les benchmarks GPQA, ARC-AGI, et les scenarios agentiques de >2h.
Comment activer un contexte de 1 million de tokens ?
Le contexte 1M est GA depuis mars 2026 sur Claude Sonnet 4.5+ et Claude Opus 4.7. Au-dela de 200K tokens, le pricing input passe a 6 $/1M (Sonnet) et le tarif premium s'applique a tout le prompt, pas seulement la fraction au-dessus du seuil. Activation : header anthropic-beta: extended-context-2026-03 sur l'API directe ; via Bedrock le parametre max_context est natif. Pratique : ne pas confondre fenetre maximale et qualite de retrieval : utiliser RAG + reranker au-dela de 300K tokens utiles.
Claude est-il qualifie SecNumCloud pour les OIV francais ?
Non, en mai 2026 Anthropic Claude n'est pas qualifie SecNumCloud par l'ANSSI. Les alternatives souveraines sont Mistral AI (Le Chat Enterprise, Mistral Large 3), OVHcloud AI Endpoints ou un deploiement Llama 3.x/4 / Mixtral on-prem. Claude reste utilisable en France hors perimetre OIV/OSE sensibles, sous DPA UE et residence donnees Dublin/Francfort.
Qu'est-ce que MCP et pourquoi est-ce important ?
MCP (Model Context Protocol) est un protocole open-source publie par Anthropic en novembre 2024 pour standardiser la connexion entre LLM et sources externes (outils, donnees, prompts). Il evite a chaque editeur LLM de developper ses propres connecteurs proprietaires et permet aux developpeurs d'ecrire une seule fois un serveur MCP utilisable par Claude, ChatGPT, Cursor, VS Code, etc. Adopte par OpenAI (mars 2025), Google DeepMind (avril 2025) et Microsoft (fev. 2025), MCP est devenu le standard de facto. Voir modelcontextprotocol.io.
Comment reduire la facture API Anthropic ?
Trois leviers : (1) Prompt caching sur les system prompts longs et la documentation injectee, jusqu'a -90% sur les lectures en cache ; (2) Batch API pour les charges asynchrones bulk (-50%) ; (3) Choix du plus petit modele suffisant (Haiku pour classification/extraction, Sonnet par defaut, Opus seulement pour raisonnement complexe). Combine, on observe couramment des reductions de 60 a 80% vs un usage naif Opus full-prompt.
Anthropic vs OpenAI : qui choisir en 2026 ?
Claude (Anthropic) est generalement prefere pour : code, agents long-running, scenarios safety-critical, MCP-first integrations, transparence RSP. GPT-5 (OpenAI) reste fort pour : multimodal video, ecosystem grand public, Operator, gpt-oss open weights. La tendance B2B 2026 est multi-LLM avec orchestration via LiteLLM/Portkey. Voir notre analyse comparative congres avril 2026.
Pour aller plus loin : articles approfondis et ressources
- Anthropic vs OpenAI : audition au Congres US, avril 2026
- Cowork Claude pour metiers no-dev : automatiser sans coder
- Claude Managed Agents : la GA de mai 2026
- Integrer une API LLM dans une fonction IA : tutoriel
- LM Studio vs Ollama : comparatif LLM local 2026
- RAG : Retrieval Augmented Generation, le guide
- Externes : anthropic.com · docs.anthropic.com · modelcontextprotocol.io · Responsible Scaling Policy
À propos de l'auteur
Ayi NEDJIMI
Auditeur Senior Cybersécurité & Consultant IA
Expert Judiciaire — Cour d'Appel de Paris
Habilitation Confidentiel Défense
ayi@ayinedjimi-consultants.fr
Ayi NEDJIMI est un vétéran de la cybersécurité avec plus de 25 ans d'expérience sur des missions critiques. Ancien développeur Microsoft à Redmond sur le module GINA (Windows NT4) et co-auteur de la version française du guide de sécurité Windows NT4 pour la NSA.
À la tête d'Ayi NEDJIMI Consultants, il réalise des audits Lead Auditor ISO 42001 et ISO 27001, des pentests d'infrastructures critiques, du forensics et des missions de conformité NIS2 / AI Act.
Conférencier international (Europe & US), il a formé plus de 10 000 professionnels.
Domaines d'expertise
Ressources & Outils de l'auteur
Testez vos connaissances
Mini-quiz de certification lié à cet article — propulsé par CertifExpress
Articles connexes
vLLM : Moteur d'Inférence LLM Haute Performance 2026
vLLM est un moteur open-source d'inférence et de service pour LLM, écrit en Python et CUDA, conçu pour offrir un débit maximal et une latence prévisible sur GPU et accélérateurs spécialisés. Né en 2023 au Sky Computing Lab de UC Berkeley sous l'impulsion de Woosuk Kwon, Zhuohan Li, Ion Stoica et Hao Zhang, vLLM cumule en mai 2026 plus de 52 000 étoiles GitHub, 1 100 contributeurs et fait partie de la PyTorch Foundation. Cette page entity-first détaille PagedAttention, le continuous batching, l'architecture worker/scheduler/executor, les 250+ architectures supportées (Llama 4, Mistral, Mixtral, Qwen 3, DeepSeek V3/R1, Phi-4, Gemma 3, GLM-4.5), les backends CUDA/ROCm/CPU/TPU/Neuron/Gaudi, les formats FP8/AWQ/GPTQ/NVFP4, l'API OpenAI-compatible, le speculative decoding, le disaggregated prefill, le prefix caching, le multi-LoRA serving, la vLLM Production Stack Helm Kubernetes, le monitoring Prometheus et les benchmarks face à Ollama, TensorRT-LLM, llama.cpp et SGLang.
LangChain : Framework LLM, RAG, Agents Python 2026
LangChain est le framework open-source Python et JavaScript de reference pour construire des applications LLM : chatbots, pipelines RAG, agents et copilotes. Cette page entity-first detaille l'histoire (Harrison Chase, octobre 2022), l'architecture modulaire (langchain-core, community, packages partenaires), le langage LCEL, les composants (chains, agents, tools, memory, output parsers, document loaders, splitters, vector stores Chroma/Pinecone/Weaviate/Qdrant/FAISS, embeddings), les outils satellites (LangSmith, LangGraph, LangServe, LangChain.js), la securite (prompt injection, sandbox tools), les CVE majeures (SSRF, PALChain RCE, PromptTemplate injection), la conformite et le comparatif vs LlamaIndex, Pydantic AI, OpenAI Assistants et Haystack.
Hugging Face : Hub IA, Transformers, Datasets 2026
Hugging Face est la plateforme communautaire et commerciale de reference mondiale pour l'IA open-source. Fondee a New York en 2016 par les Francais Clement Delangue, Julien Chaumond et Thomas Wolf, l'entreprise heberge en mai 2026 plus de 1,8 million de modeles, 450 000 datasets et 720 000 Spaces, ce qui en fait le plus grand registry d'artefacts ML au monde. Cette page entity-first detaille l'histoire, le Hub, les bibliotheques Transformers/Datasets/Tokenizers/Diffusers, les services Inference Endpoints, AutoTrain, Spaces, ZeroGPU, le pricing, la securite (Safetensors, audit logs, SAML SSO), la conformite SOC 2/GDPR, les modeles cybersecurite hebergees, les LLM francais (Mistral, CroissantLLM, Vigogne) et les risques supply chain.
Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !
Laisser un commentaire