¿Qué tan altas son las barreras técnicas para la GPU? Mejor que Intel, simplemente fuera de su alcance.
Mejor que Intel, pero fuera de su alcance.
Puntos de inversión
Revisión del mercado: esta semana (11.1-11.5), el índice de la industria informática (CITIC) subió un 1,90 %, el índice CSI 300 cayó un 1,35 % y el índice GEM subió un 0,06%.
La estructura de hardware de la GPU es sofisticada y compleja, lo cual es el resultado de una evolución tecnológica a largo plazo. Hay muchos pasos de procesamiento de gráficos de alto nivel, incluido el procesamiento de vértices, rasterización, mapeo de texturas, etc., que son compatibles con la compleja estructura de hardware subyacente. Tomemos como ejemplo la arquitectura Turing lanzada por Nvidia en 2018. Incluye 4608 núcleos CUDA (unidades informáticas ordinarias, incluidas 1 unidad INT32 y 1 unidad FP32), 576 núcleos tensoriales (unidades informáticas matriciales de aprendizaje profundo) y 72 estructuras RT Fine. El núcleo (unidad de trazado de rayos) trabaja en conjunto. La arquitectura de hardware de NVIDIA se actualiza cada dos años. Desde que se lanzó oficialmente Fermi en NVIDIA en 2010, la primera arquitectura informática completa de GPU, Fermi, se ha repetido cinco veces, cada vez con actualizaciones y mejoras de hardware.
Los algoritmos y la ecología son el poder blando de la GPU. La representación de gráficos GPU requiere gráficos computacionales, que es un tema complejo que involucra matemáticas, física y otros conocimientos. Simular el mundo real es muy difícil. Detrás de escenas aparentemente ordinarias, como hojas balanceándose, cabello arrastrado por el viento y ondas de agua, se esconde una gran cantidad de algoritmos gráficos. El ecosistema de software es una barrera competitiva importante para los fabricantes de GPU. Por un lado, NVIDIA establece una cooperación comercial o autorización mutua con socios de la industria, por otro lado, NVIDIA lanza la plataforma CUDA para desarrolladores de software, formando un ecosistema de comunidad de desarrolladores. Para 2020, CUDA se ha convertido en la autoridad mundial en procesamiento de gráficos avanzado y computación de IA, con una influencia comparable a la de IOS, lo que ha ayudado a NVIDIA a convertirse en el líder mundial en GPU.
El procesamiento de gráficos tiene barreras técnicas más altas que la computación con IA. Funcionalmente, el procesamiento de gráficos y la computación con IA son esencialmente computación paralela, pero el procesamiento de gráficos tiene más módulos relacionados con el procesamiento de gráficos. La computación con IA se puede comparar con una "versión abreviada" del procesamiento de gráficos. Algorítmicamente, los algoritmos de procesamiento de gráficos implican la simulación del mundo físico real y deben considerar muchas cuestiones, como la física y las matemáticas. La GPU es más difícil que la tecnología FPGA y ASIC. Funcionalmente, la GPU tiene visualización de gráficos y cálculo de IA, con un rendimiento más sólido. En términos de potencia informática, la potencia informática dentro de la GPU es mayor. Las GPU requieren una precisión de punto flotante doble para la representación de gráficos, mientras que los FPGA y ASIC utilizados únicamente para la informática de IA requieren, en el mejor de los casos, una precisión de punto flotante único.
Intel lleva más de 20 años desarrollando GPU, pero no ha tenido éxito. La primera investigación y desarrollo de GPU de Intel se remonta a 1997. Intel adquirió C&T y adquirió la tecnología central de pantallas 2D. La tecnología 3D se originó en Real3D con una participación del 20%. En 1998, basándose en la tecnología Real3D, Intel lanzó la primera GPU independiente i740. Sin embargo, debido a resultados insatisfactorios de investigación y desarrollo, Intel no continuó desarrollando GPU independientes. En 2007, después de ver a NVIDIA lanzar su estrategia GPGPU y CUDA, Intel planeó relanzar el producto GPU independiente Larrabee para mantener su ventaja. Sin embargo, debido a un progreso inesperado en el desarrollo y un rendimiento deficiente, Intel anunció en mayo de 2010 que cancelaría su plan independiente de investigación y desarrollo de GPU. En 2020, Intel lanzó una nueva arquitectura de GPU independiente, Xe, pero hasta 202110, Intel todavía no lanzó sus propios productos de GPU independientes para consumidores.
Las barreras técnicas de la GPU son extremadamente altas y el camino hacia la localización es largo. El diseño de GPU es un proyecto sistemático que incluye arquitectura de hardware, algoritmos, ecosistema de software, etc. Ambos son indispensables y las barreras son extremadamente altas. El gigante de las CPU Intel ha hecho muchos intentos de ingresar al campo de las GPU de alta gama en las últimas dos décadas, pero todos terminaron en fracaso. En comparación con FPGA y ASIC, el diseño de GPU es más difícil en términos de función y hardware. El camino hacia la investigación y el desarrollo independientes de GPU es difícil y largo. Debido a que no existen licenciatarios de IP de terceros como ARM, los diseñadores de GPU deben desarrollar de forma completamente independiente, lo que es más difícil comenzar desde cero. Recomendamos Jingjiawei, el único fabricante nacional que ha logrado una producción comercial de GPU a gran escala. La tecnología se desarrolla de forma completamente independiente y el rendimiento del producto es líder.
Objetivos recomendados: Jingjiawei, Taiji, Guardon, UFIDA, Gran Muralla China, Taichi, Kingsoft Office, Qianxin, etc.
Advertencia de riesgos: 1) el progreso en la innovación de la información y la seguridad de la red es menor de lo esperado; 2) el carácter cíclico postindustrial; 3) los riesgos epidémicos superan las expectativas;
Este artículo proviene de Caijing.com.