El dominio que ejerce NVIDIA sobre la industria del hardware para inteligencia artificial (IA) es férreo. Actualmente la compañía que lidera Jensen Huang acapara cerca del 80% del mercado de los chips para IA, y aunque compite con AMD, Intel, Google o Amazon nada parece indicar que su posición de dominio vaya a verse alterada a corto o medio plazo. No obstante, en la receta de su éxito no intervienen solo sus GPU; la tecnología CUDA (Compute Unified Device Architecture) también tiene un rol esencial en su negocio.
La mayor parte de los proyectos de inteligencia artificial que se están desarrollando actualmente están implementados sobre CUDA. Esta tecnología aglutina el compilador y las herramientas de desarrollo utilizados por los programadores para desarrollar su software para las GPU de NVIDIA, y reemplazarla por otra opción en los proyectos que ya están en marcha es un problema. Huawei, que aspira a hacerse con una porción importante de este mercado en China, tiene CANN (Compute Architecture for Neural Networks), que es su alternativa a CUDA, pero hay otras opciones sobre la mesa.
Pat Gelsinger asegura que la industria está decidida a dejar atrás CUDA
Como he mencionado en las primeras líneas de este artículo, Intel es una de las grandes compañías de tecnología que compiten con NVIDIA en el mercado del hardware para IA. Y en este contexto es evidente que CUDA representa un obstáculo que es necesario derribar, especialmente si no pasamos por alto que es una tecnología vinculada estrechamente al hardware de NVIDIA. Pat Gelsinger, el director general de Intel, se ha mojado y ha explicado cuál es la postura oficial de su empresa en el contexto del sector de la IA.
"Toda la industria está decidida a eliminar CUDA del mercado [...] Lo vemos como un foso poco profundo y pequeño", defiende Pat Gelsinger
"Toda la industria está decidida a eliminar CUDA del mercado [...] Lo vemos como un foso poco profundo y pequeño, por lo que estamos motivados a proponer un conjunto de tecnologías más amplio tanto para abordar el entrenamiento como la innovación o la ciencia de datos", ha defendido Gelsinger hace apenas unas horas en el marco del evento "AI Everywhere" que se acaba de celebrar en Nueva York. No obstante, esta no es la única información interesante que nos ha entregado este ejecutivo.
Durante su declaración también ha asegurado que Google y OpenAI son dos de las empresas con un gran peso específico en la industria de la IA que quieren dejar atrás CUDA. La ambición de Intel en este terreno está fuera de toda duda, algo que Gelsinger no disimula lo más mínimo: "Vamos a perseguir todas las oportunidades comerciales que se presenten y a competir con NVIDIA, AMD, etc. Vamos a ser un jugador clave en esta industria".
Es posible que a medio o largo plazo los deseos de Pat Gelsinger se materialicen, pero a corto plazo NVIDIA tiene bien agarrada la sartén por el mango. Mientras siga siendo la empresa que más hardware para IA vende, y con mucha diferencia, CUDA seguirá teniendo una salud de hierro. De eso no cabe la menor duda. NVIDIA prevé que el último trimestre del año fiscal en curso va a ser incluso mejor que el que acaba de dejar atrás, que ha sido espectacular. Su negocio en China se va a resentir a causa de las sanciones impuestas por EEUU, pero su rendimiento en los demás mercados relevantes a corto plazo va a ser capaz de compensar su debilitamiento en el país liderado por Xi Jinping.
Imagen de portada: Intel
Más información: Tom's Hardware
Ver 10 comentarios
10 comentarios
crisct
Ah, vaya un grupo de cínicos de pacotilla.
Cuando solo servía para minar criptos y aceleración de cálculos puntuales, nadie le hizo ni puto caso, ni invirtió un duro en openCL.
Ahora que alimenta la (nueva) gallina de los huevos de oro de la IA, ahora interesa quitarla de enmedio (por buscar algo mas barato....o al menos algo que no enriquezca a un competidor directo). ¿Ahora si interesa, cabroncetes?
Lo dicho. Avaricia.
ayrton_senna
Aquí está habiendo muchos movimientos y, quién lo iba a decir, la plataforma JAVA es la que más está innovando.
El anuncio de la versión 1.0 de TornadoVM, una extendión para las máquinas virtuales de Java ya en producción que, de manera transparente y con cero cambios en el código, transpila instrucciones de la VM Java a instrucciones nativas de la CPU, GPU o cualquier otra plataforma presente o futura ha sacudido todo el mercado. De repente millones de programadores de aplicaciones de gestión o finanzas o administración pública puede utilizar la potencia de la GPU o hardware especializado sin necesidad de utilizar complejas herramientas del mundo académico.
Si a esto añadimos la reciente adición de hilos virtuales en Java 21 (diseñados para soportar decenas de miles de peticiones concurrentes a una única máquina), el soporte en Android y dispositivos embebidos, parece que el sueño de Java para crear una plataforma universal de desarrollo, ahora sí, 30 años más tarde de lo prometido, es una realidad.
Intel, NVidia, ARM, RISC-V se "pelearán" por que su hardware sea compatible y optimize la VM de JAVA y el resto del desarrollo se realizará en JAVA o lenguajes amigos (Kotlin, Scala,...).
Siempre quedará un 0.0001% de proyectos no cubiertos que requieran otra cosa, pero será eso, un 0,0001% de proyectos en rincones oscuros de alguna universidad puntera para investigar durante años cosas nuevas.
Desde que Oracle cedió el desarrollo de Java a la comunidad Open Source todo se ha acelerado muchísimo.
Siempre nos acorderemos de aquel viejo chiste "toc, toc. ¿Quién es? ... (media hora tarde) ... Soy JAVA"
xant27
Cuando esta gente saquen algo mejor que CUDA, ya verás como todo el mundo lo deja. Mientras tanto...
Que no se cabreen ni peleen como en un patio de colegio, que se pongan las pilas...
igor_g
No tengo ni idea de como funciona CUDA, pero entiendo que es un interface "amable" entre las funciones que se utilizan para AI y el hardware de Nvidia.
Al final si quieres utilizar el Hardware de Nvidia tendrás que pasar por el aro, y como mucho podrás utilizar "traductores" para trasladar tu proyecto a otro hardware y viceversa.
El mejor firmware siempre (o casi siempre) está en manos del que ha diseñado el hardware, a menos que sean totalmente públicos todos los entresijos del hardware.
Spitfire
16 años después ni AMD ni Intel han conseguido desarrollar ninguna alternativa comparable a lo que ofrece CUDA (OpenCL siempre ha ido a la zaga). Y nvidia evidentemente no va a hacer el más mínimo esfuerzo de soportar una alternativa libre que pueda debilitar su ferreo control del mercado de computación.
Anamnesis
Ojalá y lo hagan. Sería interesante
awsomo
Apple se cargó Flash cuando, acertadamente, decidió no implementarlo en el iPhone y ahora va a mandar CUDA a la tumba, desde que dejó de montar gráficas Nvidia por desavenencias