En asociación con Google, Nvidia lanzó hoy una nueva oferta de hardware en la nube, la plataforma L4, optimizada para ejecutar aplicaciones centradas en video.
Disponible en vista previa privada en Google Cloud a través de las máquinas virtuales G2 de Google, Nvidia dice que la plataforma L4 está diseñada para acelerar el rendimiento de video «impulsado por IA». L4, que sirve como GPU de uso general, ofrece capacidades de decodificación de video, así como transcodificación y transmisión de video.
Más allá de brindar acceso a la plataforma L4 a través de Google Cloud, Google está integrando L4 en Vertex AI, su servicio administrado de aprendizaje automático para clientes empresariales.
Para aquellos que prefieren no registrarse en Google Cloud, L4 estará disponible a finales de este año a través de los socios de hardware de red de Nvidia, incluidos Asus, Cisco, Dell, Hewlett Packard Enterprise y Lenovo.
L4 se encuentra junto a otras soluciones de hardware centradas en IA que Nvidia anunció hoy, incluidas L40, H100 NVL y Grace Hopper para modelos de recomendación. L40 está optimizado para gráficos y generación de imágenes 2D, video y 3D habilitadas para IA, mientras que H100 NVL admite la implementación de modelos de lenguaje grandes como ChatGPT. (Como su nombre lo indica, Grace Hopper para modelos de recomendación se centra en los modelos de recomendación).
L40 está disponible esta semana a través de los socios de hardware de Nvidia antes mencionados. Mientras tanto, Nvidia espera que Grace Hopper y el H100 NVL se envíen en la segunda mitad del año.
En noticias relacionadas, hoy se lanza la plataforma DGX Cloud de Nvidia, que brinda a las empresas acceso a infraestructura y software para entrenar modelos para formas generativas y otras formas de IA. Anunciado a principios de este año, DGX Cloud permite a las empresas alquilar grupos de hardware Nvidia mensualmente, a partir de la increíble suma de $36,999 por instancia al mes.
Cada instancia de DGX Cloud cuenta con ocho GPU Nvidia H100 o A100 de 80 GB Tensor Core para un total de 640 GB de memoria GPU por nodo, junto con almacenamiento. Con las suscripciones a DGX Cloud, los clientes también obtienen acceso a AI Enterprise, la capa de software de Nvidia que contiene marcos de IA, modelos previamente entrenados y bibliotecas de ciencia de datos «aceleradas».
Nvidia dice que se está asociando con proveedores de servicios en la nube «líderes» para alojar la infraestructura DGX Cloud, comenzando con Oracle Cloud Infrastructure. Se espera que Microsoft Azure comience a alojar DGX Cloud el próximo trimestre fiscal y el servicio pronto se expandirá a Google Cloud.
El agresivo impulso de Nvidia hacia la computación de IA se produce cuando la compañía se aleja de inversiones no rentables en otras áreas, como los juegos y la virtualización profesional. El último informe de ganancias de Nvidia mostró que su negocio de centros de datos, que incluye chips para IA, siguió creciendo (hasta 3.620 millones de dólares), lo que sugirió que Nvidia podría seguir beneficiándose del auge de la IA generativa.
Pcenter.es – #Nvidia #asocia #con #Google #Cloud #para #lanzar #instancias #hardware #centradas
Síguenos en YouTube: @PCenterES