|
Getting your Trinity Audio player ready...
|
Apple s’appuiera sur Gemini de Google pour la prochaine génération de Siri, plus personnalisé, attendue au printemps 2026. L’accord pluriannuel vise à développer les Apple Foundation Models basés sur Gemini et la technologie cloud de Google.
Apple va utiliser donc Gemini de Google pour améliorer Siri, comme annoncé hier par CNBC après des mois de rumeurs. Suite à cette annonce, le marché boursier a réagit favorablement avec les actions d’Apple et d’Alphabet qui ont bondi.
Apple et Google ont signé un accord pluriannuel pour développer la prochaine génération des Apple Foundation Models, basés sur Gemini et la technologie cloud de Google. Ces modèles alimenteront les nouvelles fonctions d’Apple Intelligence, dont une version plus personnalisée de Siri prévue pour 2026.
Apple a testé des modèles concurrents comme OpenAI et Anthropic, mais a choisi Google pour sa base performante. Dès novembre 2025, des fuites évoquaient un modèle Gemini sur mesure, colossal, avec 1200 milliards de paramètres et un coût annuel estimé à près d’un milliard de dollars pour Apple.
Mais pourquoi ces décisions maintenant ?
Apple, en retard sur l’IA générative, doit se rattraper. Pour la confidentialité, elle utilisera une version adaptée de Gemini sur ses serveurs, évitant ainsi l’exposition des données brutes des utilisateurs à Google. Le nouveau Siri est attendu au printemps 2026. Apple veut ainsi entrer dans la course LIA tout en gardant le contrôle de l’expérience iPhone.
Une alliance de géants pour contrer OpenAI et NVIDIA
Il faut dire que OpenAI n’a pas caché ses ambitions de jouer les troubles-fête dans la tech. ChatGPT avait déjà fait vasciller Google à ses débuts et les modèles d’IA génératives ménacent fortement le business du Search de Google.
De son côté, Apple voit problement le développement des appareils fonctionnant à l’IA par OpenAI comme des ménaces pour ses propres appareils comme l’iPhone.
Cette alliance pourrait aussi porter un coup de frein ne serait-ce que minim à NVIDIA, patron des GPU utilisés largement pour l’entrainement et le fonctionnement des modèles IA. En effet, Google a développé et utilise des TPU, des processeurs développés en interne pour ses modèles et qui interessent également d’autres géants comme Meta. Du coup, cela pourrait ralentir les ventes de NVIDIA.
Qu’est-ce qu’un GPU ou un TPU ?
Un TPU ou Tensor Processing Unit est un accélérateur matériel spécialisé conçu spécifiquement pour accélérer les charges de travail en apprentissage automatique et intelligence artificielle, en particulier les réseaux de neurones. C’est un accélérateur d’IA personnalisé conçu par Google pour entraîner et exécuter efficacement des modèles d’apprentissage automatique.
Un GPU ou Graphics Processing Unit est un processeur spécialisé initialement conçu pour afficher des images, des vidéos et des graphismes, mais qui est aujourd’hui aussi l’une des puces les plus importantes pour l’intelligence artificielle.
À lire aussi : Comprendre les leaders du secteur des semi-conducteurs : NVIDIA, Intel, TSMC, ASML, AMD, ARM et Apple Silicon
Abonnez-vous à notre chaine WhatsApp pour recevoir nos alertes : https://whatsapp.com/channel/0029VaCbkCwAYlUSIeDmk92X
Digital Magazine Burkina, La Rédaction
En savoir plus sur Digital Magazine Burkina
Subscribe to get the latest posts sent to your email.

