En esta página: [esconder]
La estimada unidad de nube de Google Cloud ha presentado recientemente una importante colaboración con Hugging Face Inc., el operador de una plataforma ampliamente utilizada para compartir código abierto inteligencia artificial modelos.
Esta asociación estratégica posiciona a Google Cloud como el “destinación preferida” para las cargas de trabajo de inferencia y entrenamiento de IA de Hugging Face, Fomentar una integración más profunda de sus respectivos servicios..
El diverso portafolio de Hugging Face
abrazando la cara, valorado en $4.5 mil millones hasta agosto pasado, opera una plataforma similar a GitHub, facilitar el alojamiento de modelos de IA de código abierto y compartir archivos asociados, incluyendo conjuntos de datos de entrenamiento. Más allá de alojar proyectos de aprendizaje automático de varios desarrolladores, Hugging Face ha contribuido al campo mediante la creación de dos modelos de lenguaje de código abierto a través de asociaciones de investigación..
La empresa monetiza su plataforma a través de un conjunto de pagos servicios en la nube, incluyendo AutoTrain, que agiliza el esfuerzo manual involucrado en el entrenamiento de modelos de IA, y puntos finales de inferencia para alojar modelos de IA previamente entrenados. Con esta colaboración, Hugging Face tiene como objetivo aprovechar el conjunto de productos Vertex AI de Google Cloud, que incorpora herramientas de desarrollo de IA y más 130 modelos fundamentales preempaquetados. Los desarrolladores accederán sin problemas a Vertex AI desde la interfaz de Hugging Face, mejorando la facilidad del desarrollo de IA con solo unos pocos clics.
La integración se extiende a Google Kubernetes Engine (GKE), El servicio Kubernetes gestionado por Google, permitir a los desarrolladores ejecutar cargas de trabajo de IA, incluidas las redes neuronales de código abierto de Hugging Face, en forma de contenedores de software. Esta integración facilita el despliegue de contenedores en la plataforma en la nube de Google, aprovechando chips optimizados para IA para un rendimiento mejorado.
Hugging Face y la colaboración en la nube de Google
Los usuarios de Hugging Face también obtendrán acceso a Google Cloud TPU v5e, el último procesador de aprendizaje automático desarrollado internamente por Google. Este chip promete una notable 250% mejora en el rendimiento por dólar en comparación con su predecesor, con latencia reducida para ejecutar modelos de IA de manera eficiente.
Mirando hacia el futuro, Hugging Face planea admitir las máquinas virtuales A3 lanzadas recientemente por Google. Estas instancias cuentan con ocho tarjetas gráficas H100 de Nvidia Corp., ofreciendo capacidades de intercambio de datos más rápidas para mejorar el rendimiento de la IA. Apoyado por dos Intel Corp. procesadores y con dos terabytes de memoria, Las máquinas virtuales A3 representan una gran infraestructura para la vanguardia. Aplicaciones de IA.
Director ejecutivo de Google Cloud, Thomas Kurian, destacó la visión compartida de hacer que la IA generativa sea más accesible e impactante para los desarrolladores. La asociación tiene como objetivo proporcionar a los desarrolladores de Hugging Face acceso a la plataforma de inteligencia artificial especialmente diseñada de Google Cloud., IA de vértice, junto con una infraestructura segura para acelerar la próxima generación de servicios y aplicaciones de IA.
Además de mejoras de infraestructura, Hugging Face se integrará con Google Cloud Marketplace para simplificar las tareas de facturación para los clientes que utilizan sus servicios pagos de alojamiento y desarrollo de IA.. Esta integración se extenderá también al portal Spaces, una plataforma utilizada por desarrolladores de código abierto para compartir aplicaciones de inteligencia artificial, simplificar aún más la experiencia del usuario dentro del ecosistema Hugging Face.