Aller au contenu

Tensor Processing Unit

Un article de Wikipédia, l'encyclopédie libre.
Un Tensor Processing Unit 3.0 datant de mai 2016

Un Tensor Processing Unit (TPU, unité de traitement de tenseur) est un circuit intégré développé par Google pour accélérer les systèmes d'intelligence artificielle par réseaux de neurones. À la différence d'un GPU (Graphics processing unit), ce circuit intégré ne contient pas de fonction pour le rendu graphique, mais uniquement des unités de calcul optimisées pour le calcul tensoriel sur un grand volume de données.

Présentation

[modifier | modifier le code]

Les TPU ont été annoncés en 2016 au Google I/O, lorsque la société a déclaré les utiliser dans leurs centres de données depuis plus d'un an. La puce a été conçue spécialement pour TensorFlow, une bibliothèque logicielle mathématique qui est utilisée pour l'apprentissage automatique dans des applications telles que les réseaux de neurones[1]. Cependant, Google utilise toujours les CPU et GPU pour d'autres types d'apprentissage automatique[2].

Les TPU ont été utilisés par Google pour entrainer l'IA Gemini 3 Pro, sortie en novembre 2025[3]. Ces puces présentent un coût d'exploitation inférieur à celui des GPU de Nvidia[4].

En novembre 2025, Google annonce qu'il mettra en vente ses puces, notamment à Meta, faisant directement concurrence à Nvidia[5].

Notes et références

[modifier | modifier le code]
  1. "TensorFlow: Open source machine learning" "It is machine learning software being used for various kinds of perceptual and language understanding tasks" — Jeffrey Dean, minute 0:47 / 2:17 from YouTube clip.
  2. (en) « Google's Tensor Processing Unit explained: this is what the future of computing looks like », TechRadar, .
  3. Maxime Mainguet, « « Des progrès considérables » : pourquoi Google vient de frapper un grand coup dans l’intelligence artificielle », sur Ouest France, .
  4. « L’arme cachée de Google dans la course aux infrastructures IA », sur Bilan, (consulté le )
  5. « Google peut-il vraiment détrôner Nvidia, le roi absolu des puces pour l'IA ? », sur Les Echos, (consulté le )