Discussion:Tensor Processing Unit
Ajouter un sujet- Admissibilité
- Neutralité
- Droit d'auteur
- Article de qualité
- Bon article
- Lumière sur
- À faire
- Archives
- Commons
est un circuit intégré spécifique pour une application (ASIC)
[modifier le code]Tout cela semble issu de la même connerie, copier-coller du marketing qui ne comprend rien aux puces. Un GPU Nvidia n'est pas un ASIC ???
Le TPU de Google doit même être un SOC, vu les IPs de Broadcom / Arm qui sont synthétisés sur le die... ~2025-36966-89 (discuter) 28 novembre 2025 à 13:37 (CET)
Spécification exacte des TPUs de Google
[modifier le code]À priori, c'est compliqué d'avoir un datasheet... C'est un chip interne à Google...
Efficacité des GPUs
[modifier le code]Bien que les GPUs affichent de grandes performances théoriques. Il n'est pas aisé d'obtenir une bonne efficacité énergétique et de puissance de calcul. Il suffit de lire le document PDF historique de Nvidia pour effectuer un calcul d'histogramme... On assiste donc à deux approches, l'une consiste à acheter des millions de $ de GPU sur étagère et ne rien optimiser, et l'autre qui consiste soit à optimiser le programme exécuté par le « GPU » (approche Chinoise pour le concurrent de ChatGPT), (et/ou) soit à utiliser un coprocesseur optimisé pour les calculs (approche Google TPU et cie). On peut faire un parallèle avec les smartphones (système embarqué), où le couple historique Intel/Microsoft a échoué à s'imposer contre Arm/Linux Android.
Calcul 8-bit
[modifier le code]Pour effectuer des calculs graphiques ou des simulations scientifiques, on a souvent besoin d'effectuer ces calculs avec des nombres « floatants » avec une simple 32-bit ou double 64-bit précision etc.
Pour effectuer une inférence dans un grand réseau de neurones, un signal encodé sur 256 niveaux, soit 8-bit peut-être amplement suffisant. Cela permet donc d'optimiser l'architecture du chip et de synthétiser un grand nombre d'unités de calcul sur le die. Ce qui n'aurait pas été possible avec que des unités de calculs à 64-bit.