En bref

  • Au Android Show 2026, Google annonce le basculement d'Android d'un système d'exploitation classique vers un "intelligence system" piloté par Gemini.
  • L'agent IA pourra traverser les applications, comprendre l'écran et exécuter des tâches multi-étapes sans intervention manuelle.
  • Le déploiement démarre cet été sur les Pixel 10 et Galaxy S26 avant d'arriver sur montres, voitures, lunettes et laptops Android.

Ce qui s'est passé

Google a profité de la version "I/O Edition" 2026 de son Android Show, retransmise cette semaine, pour officialiser un repositionnement stratégique qui dépasse largement le cadre d'une mise à jour annuelle. Sameer Samat, vice-président en charge de l'écosystème Android, a résumé l'ambition en une phrase qui circule depuis dans l'industrie : « We're transitioning from an operating system to an intelligence system ». Concrètement, Android n'est plus seulement la plateforme qui lance des applications, mais un environnement dans lequel un agent IA — Gemini — devient l'interface principale entre l'utilisateur et ses services numériques.

L'annonce centrale s'appelle Gemini Intelligence. Ce nouveau libellé fédère sous une même marque toutes les capacités IA avancées que Google avait jusqu'ici dispersées entre Pixel AI, Gemini Nano, Astra, Project Mariner et les fonctions baptisées au coup par coup. L'objectif explicite est d'aligner la communication consommateur avec la stratégie produit : à partir de cet été, les fonctions Gemini Intelligence seront livrées d'abord sur Pixel 10 et Samsung Galaxy S26, puis étendues progressivement aux Wear OS, Android Auto, Android XR (lunettes) et l'ordinateur Android annoncé sous le nom de code Googlebook.

Sur le plan fonctionnel, le changement de paradigme tient en trois capacités. D'abord, l'agent est désormais capable de se déplacer entre applications sans rupture : ouvrir une conversation, en extraire une adresse, basculer dans Maps pour calculer un itinéraire, repasser dans Calendar pour inscrire le rendez-vous, le tout déclenché par une seule instruction vocale ou textuelle. Ensuite, il analyse en permanence le contenu de l'écran — un mécanisme baptisé in-context understanding — pour proposer des actions pertinentes : résumer un long e-mail, traduire en temps réel, ou détecter une opportunité d'achat et la croiser avec un budget. Enfin, il automatise des tâches multi-étapes (réserver un vol, remplir un formulaire administratif, organiser un déménagement) en interagissant avec les apps comme le ferait un utilisateur, mais à la vitesse machine.

Côté technique, Google s'appuie sur deux modèles complémentaires. Gemini Nano 2 tourne en local sur la puce Tensor G6 du Pixel 10 et l'Exynos 2600 du Galaxy S26 pour traiter les requêtes sensibles à la latence ou aux données privées. Gemini 2.5 Flash et Gemini 2.5 Pro hébergés dans Vertex AI prennent le relais pour les requêtes lourdes, avec un routage automatique transparent. Ce double palier réintroduit la notion de "AI hybrid execution" que Microsoft avait popularisée avec Copilot+ PC, et que Apple s'apprête à officialiser avec sa propre refonte Apple Intelligence prévue à la WWDC.

L'autre versant de l'annonce concerne les développeurs. Google a publié un nouveau set d'API regroupées sous l'appellation Agentic Android SDK. Ces interfaces permettent à toute application d'exposer ses fonctionnalités à Gemini sous forme d'« app actions », avec des manifestes déclaratifs précisant les intents disponibles, les paramètres acceptés et les zones de l'UI que l'agent peut piloter. En parallèle, le système ouvre une nouvelle couche d'orchestration baptisée Intelligence Layer, qui gère le contexte cross-app, l'historique conversationnel et la mémoire utilisateur. Pour les éditeurs, c'est une bascule équivalente à celle qu'avait imposée Material Design en 2014 : ne pas adopter la couche agentique, c'est risquer de disparaître de l'expérience utilisateur principale.

La promesse de confidentialité est mise en avant. Google insiste sur le fait que Gemini Nano traite localement, que les sessions agentiques cross-app passent par un sandbox baptisé Private AI Compute et qu'aucune donnée n'est utilisée pour l'entraînement sans consentement explicite. Reste que la transition d'un modèle où chaque app gère ses propres données à un modèle où un agent central a un droit de lecture transverse soulève des questions concrètes pour les RSSI : que se passe-t-il quand l'agent voit en clair un courriel chiffré côté serveur, ou qu'il accède à une app bancaire pour effectuer un virement ? Google répond en partie par un système de permissions granulaires basé sur les intents, mais la documentation détaillée reste à venir.

Sur le calendrier, l'éditeur a annoncé un déploiement par vagues plutôt qu'un lancement Big Bang. Les premières fonctions arriveront cet été en bêta sur Pixel 10 (juin) et Galaxy S26 (juillet), avec extension progressive aux Pixel 9, Galaxy S25 et autres terminaux compatibles d'ici la fin de l'année. Les capacités multi-appareils (montre, voiture, lunettes, Googlebook) suivront fin 2026 et début 2027. Le rebranding marketing complet, lui, prendra effet cet été à l'occasion des lancements matériels.

L'annonce intervient à un moment charnière du marché. Apple, qui doit ré-aligner Apple Intelligence à la WWDC de juin face à des résultats jugés décevants l'an dernier, est désormais sous pression pour démontrer qu'iOS peut offrir un niveau d'intégration équivalent sans rouvrir la chaîne de privacy qui constitue son argument différenciant. Samsung, qui mise tout sur le partenariat avec Google pour le Galaxy S26, se positionne en accélérateur du déploiement. Microsoft, qui contrôle Copilot sur Windows et Office mais reste absent du mobile, voit avec inquiétude un acteur capable de capter le contexte utilisateur sur les deux écrans principaux (téléphone et ordinateur Android).

Pourquoi c'est important

Le repositionnement d'Android comme intelligence system n'est pas qu'un slogan marketing : c'est une décision architecturale qui modifie le rapport de force entre l'OS, les applications et les éditeurs tiers. Pendant quinze ans, la valeur captée dans le mobile s'est concentrée chez les éditeurs d'applications, qui contrôlaient l'interface, la relation client et la monétisation. Avec Gemini Intelligence, c'est l'OS — donc Google — qui redevient le point d'entrée et le médiateur de l'expérience. Une partie de cette valeur va inévitablement remonter vers la plateforme, comme l'avait fait Apple en 2007 avec l'App Store, ou Google avec le Play Store quelques années plus tard.

Pour les entreprises, l'enjeu est double. Premier point : la sécurité du parc mobile entre dans une phase critique. Un agent IA qui agit au nom de l'utilisateur introduit de nouvelles surfaces d'attaque (prompt injection cross-app, manipulation de l'agent par des contenus piégés, exfiltration discrète via les capacités multi-tâches) que les MDM actuels ne savent pas inspecter. Les directions sécurité devront pousser pour des politiques BYOD adaptées, et probablement réviser les profils de gestion Android Enterprise pour désactiver Gemini Intelligence sur les terminaux contenant des données réglementées tant que les contrôles d'audit ne sont pas mûrs.

Deuxième point : les directions produit et marketing doivent intégrer dès maintenant l'idée que la moitié de leur audience découvrira leurs services à travers un agent IA, pas via l'icône de leur application. Cela impose de publier des manifestes Agentic SDK exhaustifs, d'exposer proprement les intents critiques (commande, paiement, support client) et de mesurer la part des interactions captées par l'agent versus l'app directe. Les éditeurs qui négligeront cette couche perdront en visibilité commerciale, comme l'avaient appris ceux qui n'avaient pas migré vers Material Design ou plus récemment vers les actions Siri.

Enfin, sur le plan réglementaire, cette bascule arrive juste après l'entrée en vigueur du Digital Markets Act et des décisions d'interopérabilité imposées à Apple et Google. La Commission européenne va devoir trancher rapidement la question de savoir si Gemini Intelligence constitue un service distinct soumis à des obligations propres, ou s'il fait partie intégrante d'Android — auquel cas Google devra ouvrir l'API à des agents tiers (Claude, ChatGPT, Mistral). C'est probablement le prochain front juridique de l'année, et il pèsera autant sur la stratégie de Google que la décision App Store contre Apple.

Ce qu'il faut retenir

  • Android cesse d'être pensé comme un système d'exploitation classique pour devenir une plateforme agentique où Gemini se place entre l'utilisateur et ses apps.
  • Les éditeurs d'apps doivent dès maintenant exposer leurs fonctions via le nouvel Agentic SDK pour ne pas disparaître de l'expérience utilisateur d'ici à 2027.
  • Les directions sécurité doivent traiter Gemini Intelligence comme un nouveau composant à auditer dans les politiques BYOD et MDM, avec des contrôles spécifiques pour les terminaux contenant des données réglementées.

Que change Gemini Intelligence pour la sécurité d'un parc Android géré en entreprise ?

Un agent qui agit au nom de l'utilisateur et qui peut lire le contenu de l'écran cross-app crée de nouveaux scénarios de fuite de données et de prompt injection que les MDM ne détectent pas aujourd'hui. Tant que Google n'expose pas une console d'audit complète, il est prudent de désactiver Gemini Intelligence via Android Enterprise sur les terminaux manipulant des données sensibles (santé, finances, données classifiées) et d'attendre la première itération du framework de gouvernance avant un déploiement large.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact