TensorFlow Hub
| TensorFlow Hub | ||
|---|---|---|
|
| ||
| Información general | ||
| Tipo de programa | biblioteca de Python | |
| Desarrollador | ||
| Lanzamiento inicial | 2018 de marzo del 06 | |
| Licencia | Licencia Apache 2.0 | |
| Información técnica | ||
| Programado en | Python | |
| Plataformas admitidas | TensorFlow | |
| Versiones | ||
| Última versión estable | 0.16.130 de enero de 2024 | |
| Enlaces | ||
TensorFlow Hub (también estilizado como TF Hub) es una biblioteca de código abierto de aprendizaje automático y un repositorio en línea que proporciona componentes reutilizables de modelos de TensorFlow, llamados módulos.[1]
Es mantenido por Google como parte del ecosistema de TensorFlow y permite a los desarrolladores descubrir, publicar y reutilizar modelos preentrenados para tareas como visión por computadora, procesamiento del lenguaje natural y aprendizaje por transferencia.[2]
Descripción general
[editar]TensorFlow Hub proporciona una plataforma central donde los desarrolladores y investigadores pueden acceder a modelos preentrenados e integrarlos directamente en los flujos de trabajo de TensorFlow.[3] Cada módulo encapsula un grafo de computación y sus pesos entrenados, con firmas de entrada y salida estandarizadas. Los módulos pueden cargarse utilizando la función hub.load() o mediante la integración con Keras a través de hub.KerasLayer, lo que permite realizar aprendizaje por transferencia o extracción de características.[4]
El servicio reduce el entrenamiento redundante, acelera la experimentación y promueve la reutilización de modelos entre diferentes tareas. Es comparable en espíritu al repositorio de modelos de Hugging Face, pero está estrechamente integrado con las API de TensorFlow y es compatible con TensorFlow Lite y TensorFlow Extended (TFX).[5]
Historia
[editar]TensorFlow Hub fue anunciado por Google en marzo de 2018, con la primera versión pública publicada poco después. Su introducción coincidió con la creciente adopción de técnicas de aprendizaje por transferencia y la necesidad de una empaquetación estandarizada de modelos. Con el tiempo, el hub se amplió para incluir modelos como la familia BERT, MobileNet, EfficientNet y el Universal Sentence Encoder.[6]
En 2020, una investigación sobre “Regret selection in TensorFlow Hub” exploró el problema de identificar los modelos óptimos para tareas posteriores dada una gran cantidad de alternativas en el repositorio.[7]
Aplicaciones
[editar]TensorFlow Hub aloja una amplia variedad de modelos en distintos dominios del aprendizaje automático:
- Procesamiento del lenguaje natural: BERT, ALBERT y Universal Sentence Encoder.
- Visión por computadora: ResNet, Inception, MobileNet, EfficientNet.
- Voz y audio: extractores de características de espectrogramas y modelos de reconocimiento automático del habla.
- Incrustaciones multilingües: representaciones interlingüísticas y a nivel de frase para traducción automática y similitud semántica.
Los módulos se utilizan ampliamente en la educación, la investigación académica y la industria para la creación de prototipos y el despliegue en producción.[8]
Integración
[editar]TF Hub se integra de forma fluida con el conjunto más amplio de herramientas de TensorFlow:[9]
- TensorFlow Serving – para servir modelos preentrenados a gran escala.
- TFX – para construir canalizaciones completas de aprendizaje automático.
- TensorFlow Lite – para desplegar modelos en dispositivos móviles y sistemas embebidos.
- Google Colab y entornos Jupyter Notebook – para la experimentación interactiva.
Comparación con plataformas similares
[editar]Mientras que el repositorio de modelos de Hugging Face se centra principalmente en el procesamiento del lenguaje natural y admite múltiples marcos (como PyTorch y JAX), TensorFlow Hub permanece enfocado en módulos basados en TensorFlow y garantiza una compatibilidad directa con las API de TensorFlow.[10]
Licencia
[editar]TensorFlow Hub se distribuye bajo la Licencia Apache 2.0. Los modelos individuales alojados en la plataforma pueden especificar sus propias licencias dependiendo de los datos y el código fuente utilizados para su entrenamiento.[11]
Véase también
[editar]Referencias
[editar]- ↑ Goh HA, et al. (2022). “Front-end deep learning web apps development and …” Publications / PMC (US National Library of Medicine). Recuperado de https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9709375/
- ↑ Google, ed. (6 de marzo de 2018). «Introducing TensorFlow Hub: a library for reusable machine learning modules». Consultado el 13 de octubre de 2025.
- ↑ “TensorFlow Hub: overview”, TensorFlow, recuperado de https://www.tensorflow.org/hub/overview
- ↑ Google (ed.). «TensorFlow Hub overview». Consultado el 13 de octubre de 2025.
- ↑ «Reusing pre-trained models with TensorFlow Hub». Consultado el 13 de octubre de 2025.
- ↑ Daniel Cer (2018). «Universal Sentence Encoder». arXiv.
- ↑ Martin Jaggi (2020). «Regret selection in TensorFlow Hub». arXiv.
- ↑ Xiu M, Eghan EE, Zhen M, Jiang, Adams B (2020). “Empirical Study on the Software Engineering Practices in Open Source ML Package Repositories.” arXiv:2012.01403. Recuperado de https://arxiv.org/abs/2012.01403
- ↑ “Train and serve a TensorFlow model with TensorFlow Serving”, tutorial de TensorFlow TFX, recuperado de https://www.tensorflow.org/tfx/tutorials/serving/rest_simple (ejecutable en cuaderno de Colab)
- ↑ «Model hubs comparison: TensorFlow Hub vs Hugging Face». 15 de septiembre de 2023. Consultado el 13 de octubre de 2025.
- ↑ “tensorflow-hub — PyPI”, PyPI, recuperado de https://pypi.org/project/tensorflow-hub/ (muestra “License: Apache Software License (Apache 2.0)”)
Enlaces externos
[editar]- Esta obra contiene una traducción derivada de «TensorFlow Hub» de Wikipedia en inglés, concretamente de esta versión del 16 de octubre de 2025, publicada por sus editores bajo la Licencia de documentación libre de GNU y la Licencia Creative Commons Atribución-CompartirIgual 4.0 Internacional.
- Sitio web oficial de TensorFlow Hub
- Repositorio de TensorFlow Hub en GitHub
- Blog de TensorFlow: "Introducing TensorFlow Hub"