Avec AppFunctions, Google commence à faire basculer Android dans l’ère de l’IA agentique. Les applications ne seront plus seulement des destinations que l’on ouvre une à une, mais des réservoirs de fonctions que des agents comme Gemini peuvent appeler directement. Derrière cette évolution technique se joue un changement bien plus profond : la fin progressive du smartphone centré sur l’interface, au profit d’un mobile piloté par l’intention.

Pendant des années, l’expérience smartphone s’est limitée à un même rituel : ouvrir une app, dénicher la bonne fonction, enchaîner les taps, recommencer.
Mais ça c’était avant l’IA générative avec ses facultés en langage naturel et avant l’IA générative et sa capacité à exécuter les tâches à notre place.

Avec AppFunctions, Google continue d’explorer le potentiel de l’IA et métamorphoser nos expériences mobiles. L’idée est simple, mais lourde de conséquences : au lieu de naviguer d’application en application, l’utilisateur formule une intention, et un agent comme Gemini se charge d’aller chercher la bonne capacité dans la bonne app. Android ne veut plus seulement lancer des applications. Il veut orchestrer des tâches.

L’application n’est plus une destination, mais une capacité

Techniquement, AppFunctions est à la fois une capacité de plateforme d’Android 16 et une bibliothèque Jetpack. Les développeurs peuvent y exposer des fonctions “auto-descriptives” que les agents découvrent puis exécutent en langage naturel. Le mécanisme repose sur une déclaration des fonctions dans l’app, la génération d’un schéma indexé par l’OS, puis l’appel de ces fonctions par un agent capable d’en lire les métadonnées. Dit autrement, AppFunctions est à Android ce que MCP est au cloud : une couche de description et d’appel de fonctions pour agents, mais embarquée sur le terminal.
En clair, Google transpose au mobile une logique qui rappelle les protocoles d’interopérabilité entre agents et outils. C’est moins spectaculaire qu’une démonstration d’agent autonome sur PC, mais sans doute plus structurant à long terme.

Le signal le plus intéressant n’est d’ailleurs pas technique. Il est ergonomique et économique. Le succès d’une application ne se mesure plus seulement à sa capacité à faire venir l’utilisateur dans son interface, mais à sa capacité à l’aider à accomplir sa tâche le plus vite possible. Toute l’économie de l’attention mobile est bousculée par cette idée. Dans ce nouveau monde, une app n’est plus uniquement une vitrine ou un point d’entrée. Elle devient un fournisseur de capacités pour assistant.

Google illustre déjà ce modèle avec Samsung Gallery sur les Galaxy S26. L’utilisateur peut demander à Gemini d’afficher certaines photos sans avoir à ouvrir lui-même l’application. L’assistant identifie la bonne fonction, récupère le résultat et l’affiche dans sa propre interface. Ce contenu récupéré et mise en forme par l’IA agentique reste dans le fil conversationnel et peut ensuite être partagé, modifié ou réutilisé dans d’autres actions. Le smartphone commence ainsi à ressembler à une couche d’exécution agentique posée au-dessus des apps.

Android prépare discrètement l’ère post-app

Google pousse même l’idée plus loin. Pour les applications qui n’intègrent pas encore AppFunctions, l’éditeur prépare une couche d’automatisation de l’interface. Autrement dit, l’agent pourra manipuler l’application via son interface graphique pour accomplir certaines tâches génériques, un peu comme GPT 5.4 et Claude Opus 4.6 sont aujourd’hui capables de piloter le PC ou le Mac. La promesse est habile : même sans intégration profonde, une app pourra devenir exploitable par Gemini.

Au final, AppFunctions n’est pas seulement une nouveauté pour développeurs Android. C’est une tentative de redéfinition du rôle du système d’exploitation mobile à l’ère des agents. Android ne veut plus être seulement la plateforme sur laquelle tournent des applications. Il veut devenir la couche qui arbitre, appelle, enchaîne et sécurise leurs fonctions. Google insiste d’ailleurs sur l’exécution locale, la réduction de la latence, la confidentialité, la visibilité des actions engagées et la nécessité de confirmer les opérations sensibles comme un achat. L’objectif est clair : rendre l’agent utile sans en faire une boîte noire.

Reste un détail, et il n’est pas anodin : nous sommes encore au stade bêta. Les premiers cas d’usage sont limités, les appareils concernés peu nombreux, et l’élargissement de cette logique est renvoyé aux prochaines versions d’Android. Nous ne sommes donc pas encore au moment où tout l’écosystème mobile devient nativement pilotable par agent. Mais le cap est fixé : L’interface cesse peu à peu d’être le centre de gravité. Ce qui comptera demain, ce ne sera plus seulement de proposer une belle app, mais d’exposer les bonnes fonctions, au bon niveau de description, pour qu’un agent puisse les invoquer intelligemment. Sur mobile aussi, l’ère post-app commence à prendre forme.

_____________________

À lire également :

L’IA agentique débarque dans votre poche : Gemini automatise les tâches du quotidien sur Android

Gemini 3.1 Pro : Google accélère dans la course aux modèles frontières

Google gagne son pari : Gemini franchit les 750 millions d’utilisateurs

Lyria 3 Pro : Google passe de la démo musicale à la création studio