Nvidia Tesla
Nvidia Tesla | ||
---|---|---|
Información | ||
Tipo | Tarjeta gráfica | |
Desarrollador | Nvidia | |
Fecha de lanzamiento | 2 de mayo de 2007 (17 años) | |
Descontinuación | Mayo de 2020 (4 años) | |
Datos técnicos | ||
Microarquitectura | Tesla | |
Estandarización | ||
Uso | GPGPU | |
Nvidia Tesla era el nombre de la línea de productos de Nvidia destinados al procesamiento de flujo o unidades de procesamiento de gráficos de uso general (GPGPU), que lleva el nombre del pionero ingeniero eléctrico Nikola Tesla. Sus productos comenzaron a usar GPU de la serie G80 y han seguido acompañando el lanzamiento de nuevos chips. Son programables utilizando las API de CUDA o OpenCL.
La línea de productos Nvidia Tesla compitió con las líneas de tarjetas GPU y de aprendizaje profundo Radeon Instinct e Intel Xeon Phi de AMD.
Nvidia retiró la marca Tesla en mayo de 2020, supuestamente debido a una posible confusión con la marca de automóviles.[1] Sus nuevas GPU tienen la marca Nvidia Data Center GPU,[2] como en la GPU Ampere A100.[3]
Descripción general
[editar]Ofreciendo una potencia computacional mucho mayor que los microprocesadores tradicionales, los productos de Tesla apuntaron al mercado de computación de alto rendimiento.[4] A 2012 , Nvidia Tesla alimentan algunas de las supercomputadoras más rápidas del mundo, incluida Summit en el Laboratorio Nacional Oak Ridge y Tianhe-1A, en Tianjin, China.
Las tarjetas Tesla tienen un rendimiento de precisión doble cuatro veces superior al de una tarjeta Nvidia GeForce basada en Fermi con un rendimiento de precisión simple similar. A diferencia de las tarjetas GeForce de consumo de Nvidia y las tarjetas Nvidia Quadro profesionales, las tarjetas Tesla originalmente no podían mostrar imágenes en una pantalla. Sin embargo, los últimos productos de clase C de Tesla incluían un puerto DVI de doble enlace.[5]
Como parte del Proyecto Denver, Nvidia tiene la intención de incorporar núcleos de procesador ARMv8 en sus GPU.[6] Este será un seguimiento de 64 bits de los chips Tegra de 32 bits.
El Tesla P100 utiliza el proceso de fabricación de semiconductores FinFET de 16 nanómetros de TSMC, que es más avanzado que el proceso de 28 nanómetros utilizado anteriormente por las GPU de AMD y Nvidia entre 2012 y 2016. El P100 también usa la memoria HBM2 de Samsung.[7]
Aplicaciones
[editar]Los productos de Tesla se utilizan principalmente en simulaciones y cálculos a gran escala (especialmente cálculos de punto flotante) y para la generación de imágenes de alto nivel para campos profesionales y científicos.[8]
En 2013, la industria de la defensa representó menos de una sexta parte de las ventas de Tesla, pero Sumit Gupta predijo un aumento de las ventas en el mercado de la inteligencia geoespacial.[9]
Especificaciones
[editar]Modelo | Microarquitectura | Lanzamiento | Chips | Reloj del núcleo (MHz) | Sombreadores | Memoria | Poder de procesamiento (GFLOPS)[Notas 1] | Capacidad de cómputo CUDA[Notas 2] | TDP(vatios) | Notas,factor de forma | ||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Núcleos Cuda (total) | Reloj base (MHz) | Máx. reloj turbo (MHz)[Notas 3] | Tipo de bus | Ancho del bus (bit) | Tamaño (GB) | Reloj (MT/s) | Ancho de banda (GB/s) | Media precisiónTensor Core FP32 Accumulate | Simple precisión(MAD o FMA) | Doble precisión(FMA) | ||||||||
C870 GPU Computing Module[Notas 4] | Tesla | 2 de mayo de 2007 | 1× G80 | 600 | 128 | 1350 | N/A | GDDR3 | 384 | 1.5 | 1600 | 76.8 | No | 345.6 | No | 1.0 | 170.9 | Internal PCIe GPU (full-height, dual-slot) |
D870 Deskside Computer[Notas 4] | 2 de mayo de 2007 | 2× G80 | 600 | 256 | 1350 | N/A | GDDR3 | 2× 384 | 2× 1.5 | 1600 | 2× 76.8 | No | 691.2 | No | 1.0 | 520 | Deskside or 3U rack-mount external GPUs | |
S870 GPU Computing Server[Notas 4] | 2 de mayo de 2007 | 4× G80 | 600 | 512 | 1350 | N/A | GDDR3 | 4× 384 | 4× 1.5 | 1600 | 4× 76.8 | No | 1382.4 | No | 1.0 | 1U rack-mount external GPUs, connect via 2× PCIe (×16) | ||
C1060 GPU Computing Module[Notas 5] | 9 de abril de 2009 | 1× GT200 | 602 | 240 | 1296[11] | N/A | GDDR3 | 512 | 4 | 1600 | 102.4 | No | 622.08 | 77.76 | 1.3 | 187.8 | Internal PCIe GPU (full-height, dual-slot) | |
S1070 GPU Computing Server "400 configuration"[Notas 5] | 1 de junio de 2008 | 4× GT200 | 602 | 960 | 1296 | N/A | GDDR3 | 4× 512 | 4× 4 | 1538.4 | 4× 98.5 | No | 2488.3 | 311.0 | 1.3 | 800 | 1U rack-mount external GPUs, connect via 2× PCIe (×8 or ×16) | |
S1070 GPU Computing Server "500 configuration"[Notas 5] | 1440 | N/A | No | 2764.8 | 345.6 | |||||||||||||
S1075 GPU Computing Server[Notas 5][12] | 1 de junio de 2008 | 4× GT200 | 602 | 960 | 1440 | N/A | GDDR3 | 4× 512 | 4× 4 | 1538.4 | 4× 98.5 | No | 2764.8 | 345.6 | 1.3 | 1U rack-mount external GPUs, connect via 1× PCIe (×8 or ×16) | ||
Quadro Plex 2200 D2 Visual Computing System[Notas 6] | 25 de julio de 2008 | 2× GT200GL | 648 | 480 | 1296 | N/A | GDDR3 | 2× 512 | 2× 4 | 1600 | 2× 102.4 | No | 1244.2 | 155.5 | 1.3 | Deskside or 3U rack-mount external GPUs with 4 dual-link DVI outputs | ||
Quadro Plex 2200 S4 Visual Computing System[Notas 6] | 25 de julio de 2008 | 4× GT200GL | 648 | 960 | 1296 | N/A | GDDR3 | 4× 512 | 4× 4 | 1600 | 4× 102.4 | No | 2488.3 | 311.0 | 1.3 | 1200 | 1U rack-mount external GPUs, connect via 2× PCIe (×8 or ×16) | |
C2050 GPU Computing Module[13] | Fermi | 25 de julio de 2011 | 1× GF100 | 575 | 448 | 1150 | N/A | GDDR5 | 384 | 3[Notas 7] | 3000 | 144 | No | 1030.4 | 515.2 | 2.0 | 247 | Internal PCIe GPU (full-height, dual-slot) |
M2050 GPU Computing Module[14] | 25 de julio de 2011 | 3092 | 148.4 | No | 225 | |||||||||||||
C2070 GPU Computing Module[13] | 25 de julio de 2011 | 1× GF100 | 575 | 448 | 1150 | N/A | GDDR5 | 384 | 6[Notas 7] | 3000 | 144 | No | 1030.4 | 515.2 | 2.0 | 247 | Internal PCIe GPU (full-height, dual-slot) | |
C2075 GPU Computing Module[15] | 25 de julio de 2011 | 3000 | 144 | No | 225 | |||||||||||||
M2070/M2070Q GPU Computing Module[16] | 25 de julio de 2011 | 3132 | 150.336 | No | 225 | |||||||||||||
M2090 GPU Computing Module[17] | 25 de julio de 2011 | 1× GF110 | 650 | 512 | 1300 | N/A | GDDR5 | 384 | 6[Notas 7] | 3700 | 177.6 | No | 1331.2 | 665.6 | 2.0 | 225 | Internal PCIe GPU (full-height, dual-slot) | |
S2050 GPU Computing Server | 25 de julio de 2011 | 4× GF100 | 575 | 1792 | 1150 | N/A | GDDR5 | 4× 384 | 4× 3[Notas 7] | 3 | 4× 148.4 | No | 4121.6 | 2060.8 | 2.0 | 900 | 1U rack-mount external GPUs, connect via 2× PCIe (×8 or ×16) | |
S2070 GPU Computing Server | N/A | 4× 6[Notas 7] | ||||||||||||||||
K10 GPU accelerator[18] | Kepler | 1 de mayo de 2012 | 2× GK104 | N/A | 3072 | 745 | ? | GDDR5 | 2× 256 | 2× 4 | 5000 | 2× 160 | No | 4577 | 190.7 | 3.0 | 225 | Internal PCIe GPU (full-height, dual-slot) |
K20 GPU accelerator[19][20] | 12 de noviembre de 2012 | 1× GK110 | N/A | 2496 | 706 | 758 | GDDR5 | 320 | 5 | 5200 | 208 | No | 3524 | 1175 | 3.5 | 225 | Internal PCIe GPU (full-height, dual-slot) | |
K20X GPU accelerator[21] | 12 de noviembre de 2012 | 1× GK110 | N/A | 2688 | 732 | ? | GDDR5 | 384 | 6 | 5200 | 250 | No | 3935 | 1312 | 3.5 | 235 | Internal PCIe GPU (full-height, dual-slot) | |
K40 GPU accelerator[22] | 8 de octubre de 2013 | 1× GK110B | N/A | 2880 | 745 | 875 | GDDR5 | 384 | 12[Notas 7] | 6000 | 288 | No | 4291–5040 | 1430–1680 | 3.5 | 235 | Internal PCIe GPU (full-height, dual-slot) | |
K80 GPU accelerator[23] | 17 de noviembre de 2014 | 2× GK210 | N/A | 4992 | 560 | 875 | GDDR5 | 2× 384 | 2× 12 | 5000 | 2× 240 | No | 5591–8736 | 1864–2912 | 3.7 | 300 | Internal PCIe GPU (full-height, dual-slot) | |
M4 GPU accelerator[24][25] | Maxwell | 10 de noviembre de 2015 | 1× GM206 | N/A | 1024 | 872 | 1072 | GDDR5 | 128 | 4 | 5500 | 88 | No | 1786–2195 | 55.81–68.61 | 5.2 | 50–75 | Internal PCIe GPU (half-height, single-slot) |
M6 GPU accelerator[26] | 30 de agosto de 2015 | 1× GM204-995-A1 | N/A | 1536 | 722 | 1051 | GDDR5 | 256 | 8 | 4600 | 147.2 | No | 2218–3229 | 69.3–100.9 | 5.2 | 75–100 | Internal MXM GPU | |
M10 GPU accelerator[27] | 4× GM107 | N/A | 2560 | 1033 | ? | GDDR5 | 4× 128 | 4× 8 | 5188 | 4× 83 | No | 5289 | 165.3 | 5.2 | 225 | Internal PCIe GPU (full-height, dual-slot) | ||
M40 GPU accelerator[25][28] | 10 de noviembre de 2015 | 1× GM200 | N/A | 3072 | 948 | 1114 | GDDR5 | 384 | 12 or 24 | 6000 | 288 | No | 5825–6844 | 182.0–213.9 | 5.2 | 250 | Internal PCIe GPU (full-height, dual-slot) | |
M60 GPU accelerator[29] | 30 de agosto de 2015 | 2× GM204-895-A1 | N/A | 4096 | 899 | 1178 | GDDR5 | 2× 256 | 2× 8 | 5000 | 2× 160 | No | 7365–9650 | 230.1–301.6 | 5.2 | 225–300 | Internal PCIe GPU (full-height, dual-slot) | |
P4 GPU accelerator[30] | Pascal | 13 de septiembre de 2016 | 1× GP104 | N/A | 2560 | 810 | 1063 | GDDR5 | 256 | 8 | 6000 | 192.0 | No | 4147–5443 | 129.6–170.1 | 6.1 | 50-75 | PCIe card |
P6 GPU accelerator[31][32] | 24 de marzo de 2017 | 1× GP104-995-A1 | N/A | 2048 | 1012 | 1506 | GDDR5 | 256 | 16 | 3003 | 192.2 | No | 6169 | 192.8 | 6.1 | 90 | MXM card | |
P40 GPU accelerator[30] | 13 de septiembre de 2016 | 1× GP102 | N/A | 3840 | 1303 | 1531 | GDDR5 | 384 | 24 | 7200 | 345.6 | No | 10007–11758 | 312.7–367.4 | 6.1 | 250 | PCIe card | |
P100 GPU accelerator (mezzanine)[33][34] | 5 de abril de 2016 | 1× GP100-890-A1 | N/A | 3584 | 1328 | 1480 | HBM2 | 4096 | 16 | 1430 | 732 | No | 9519–10609 | 4760–5304 | 6.0 | 300 | SXM card | |
P100 GPU accelerator (16 GB card)[35] | 20 de junio de 2016 | 1× GP100 | N/A | 1126 | 1303 | No | 8071‒9340 | 4036‒4670 | 250 | PCIe card | ||||||||
P100 GPU accelerator (12 GB card)[35] | 20 de junio de 2016 | 3072 | 12 | 549 | No | 8071‒9340 | 4036‒4670 | |||||||||||
V100 GPU accelerator (mezzanine)[36][37][38] | Volta | 10 de mayo de 2017 | 1× GV100-895-A1 | N/A | 5120 | ? | 1455 | HBM2 | 4096 | 16 or 32 | 1750 | 900 | 119192 | 14899 | 7450 | 7.0 | 300 | SXM card |
V100 GPU accelerator (PCIe card)[36][37][38] | 21 de junio de 2017 | 1× GV100 | N/A | Desconocido | 1370 | 112224 | 14028 | 7014 | 250 | PCIe card | ||||||||
V100 GPU accelerator (PCIe FHHL card) | 27 de marzo de 2018 | 1× GV100 | N/A | 937 | 1290 | 16 | 1620 | 829.44 | 105680 | 13210 | 6605 | 250 | PCIe FHHL card | |||||
T4 GPU accelerator (PCIe card)[39][40] | Turing | 12 de septiembre de 2018 | 1× TU104-895-A1 | N/A | 2560 | 585 | 1590 | GDDR6 | 256 | 16 | 5000 | 320 | 64800 | 8100 | ? | 7.5 | 70 | PCIe card |
A2 GPU accelerator (PCIe card)[41] | Ampere | 10 de noviembre de 2021 | 1× GA107 | N/A | 1280 | 1440 | 1770 | GDDR6 | 128 | 16 | 6252 | 200 | 18124 | 4531 | 140 | 8.6 | 40-60 | PCIe card (half height, single-slot) |
A10 GPU accelerator (PCIe card)[42] | 12 de abril de 2021 | 1× GA102-890-A1 | N/A | 9216 | 885 | 1695 | GDDR6 | 384 | 24 | 6252 | 600 | 124960 | 31240 | 976 | 8.6 | 150 | PCIe card (single-slot) | |
A16 GPU accelerator (PCIe card)[43] | 12 de abril de 2021 | 4× GA107 | N/A | 4× 1280 | 885 | 1695 | GDDR6 | 4× 128 | 4× 16 | 7242 | 4× 200 | 4x 18432 | 4× 4608 | 1084.8 | 8.6 | 250 | PCIe card (dual-slot) | |
A30 GPU accelerator (PCIe card)[44] | 12 de abril de 2021 | 1× GA100 | N/A | 3584 | 930 | 1440 | HBM2 | 3072 | 24 | 1215 | 933.1 | 165120 | 10320 | 5161 | 8.0 | 165 | PCIe card (dual-slot) | |
A40 GPU accelerator (PCIe card)[45] | 5 de octubre de 2020 | 1× GA102 | N/A | 10752 | 1305 | 1740 | GDDR6 | 384 | 48 | 7248 | 695.8 | 149680 | 37420 | 1168 | 8.6 | 300 | PCIe card (dual-slot) | |
A100 GPU accelerator (PCIe card)[46][47] | 14 de mayo de 2020[48] | 1× GA100-883AA-A1 | N/A | 6912 | 765 | 1410 | HBM2 | 5120 | 40 or 80 | 1215 | 1555 | 312000 | 19500 | 9700 | 8.0 | 250 | PCIe card (dual-slot) | |
H100 GPU accelerator (PCIe card)[49] | Hopper | 22 de marzo de 2022[50] | 1× GH100[51] | N/A | 14592 | 1065 | 1755 CUDA 1620 TC | HBM2e | 5120 | 80 | 1000 | 2039 | 756449 | 51200 | 25600 | 9.0 | 350 | PCIe card (dual-slot) |
H100 GPU accelerator (SXM card) | N/A | 16896 | 1065 | 1980 CUDA 1830 TC | HBM3 | 5120 | 80 | 1500 | 3352 | 989430 | 66900 | 33500 | 9.0 | 700 | SXM card | |||
L40 GPU accelerator[52] | Ada Lovelace | 13 de octubre de 2022 | 1× AD102[53] | N/A | 18176 | 735 | 2490 | GDDR6 | 384 | 48 | 2250 | 864 | 362066 | 90516 | 1414 | 8.9 | 300 | PCIe card (dual-slot) |
L4 GPU accelerator[54] | 21 de marzo de 2023[55] | 1x AD104[56] | N/A | 7680 | 795 | 2040 | GDDR6 | 192 | 24 | 1563 | 300 | 125338 | 31334 | 490 | 8.9 | 72 | HHHL single slot PCIe card | |
Modelo | Microarquitectura | Lanzamiento | Chips | Reloj del núcleo (MHz) | Núcleos Cuda (total) | Reloj base (MHz) | Máx. reloj turbo (MHz)[Notas 3] | Tipo de bus | Ancho del bus (bit) | Tamaño (GB) | Reloj (MT/s) | Ancho de banda (GB/s) | Media precisiónTensor Core FP32 Accumulate | Simple precisión(MAD o FMA) | Doble precisión(FMA) | Capacidad de cómputo CUDA[Notas 8] | TDP(vatios) | Notas,factor de forma |
Sombreadores | Memoria | Poder de procesamiento (GFLOPS)[Notas 1] |
Notas
[editar]- ↑ a b Para calcular la potencia de procesamiento, consulte Tesla (microarquitectura)#Rendimiento, Fermi (microarquitectura)#Rendimiento, Kepler (microarquitectura)#Rendimiento, Maxwell (microarquitectura)#Rendimiento, o Pascal (microarquitectura)#Rendimiento. Un rango de números especifica la potencia de procesamiento mínima y máxima en, respectivamente, el reloj base y el reloj de impulso máximo.
- ↑ Versión de arquitectura core según la guía de programación CUDA.
- ↑ a b GPU Boost es una función predeterminada que aumenta la velocidad del reloj del núcleo mientras permanece por debajo del presupuesto de energía predeterminado de la tarjeta. Hay varios relojes de impulso disponibles, pero esta tabla enumera el reloj más alto admitido por cada tarjeta.[10]
- ↑ a b c Se supone que las especificaciones no especificadas por Nvidia se basan en la GeForce 8800 GTX
- ↑ a b c d Se supone que las especificaciones no especificadas por Nvidia se basan en la GeForce GTX 280
- ↑ a b Se supone que las especificaciones no especificadas por Nvidia se basan en Quadro FX 5800
- ↑ a b c d e f Con ECC activado, una parte de la memoria dedicada se utiliza para bits ECC, por lo que la memoria de usuario disponible se reduce en un 12,5 %. (por ejemplo, 4 GB de memoria total producen 3,5 GB de memoria disponible para el usuario).
- ↑ Versión de arquitectura core según la guía de programación CUDA.
Véase también
[editar]Referencias
[editar]- ↑ Casas, Alex (19 de mayo de 2020). «NVIDIA Drops Tesla Brand To Avoid Confusion With Tesla». Wccftech (en inglés estadounidense). Consultado el 8 de julio de 2020.
- ↑ «NVIDIA Supercomputing Solutions».
- ↑ «NVIDIA A100 GPUs Power the Modern Data Center». NVIDIA (en inglés estadounidense). Consultado el 8 de julio de 2020.
- ↑ «High Performance Computing - Supercomputing with Tesla GPUs».
- ↑ «Professional Workstation Solutions».
- ↑ «Nvidia to Integrate ARM Processors in Tesla.». 1 de noviembre de 2012.
- ↑ Walton, Mark (6 de abril de 2016). «Nvidia unveils first Pascal graphics card, the monstrous Tesla P100». Ars Technica (en inglés estadounidense). Consultado el 19 de junio de 2019.
- ↑ «NVIDIA® Tesla™ GPU Computing Technical Brief». 24 de mayo de 2007.
- ↑ «Nvidia chases defense, intelligence ISVs with GPUs». www.theregister.com (en inglés). Consultado el 8 de julio de 2020.
- ↑ «Nvidia GPU Boost For Tesla». Enero de 2014. Consultado el 7 de diciembre de 2015.
- ↑ «Tesla C1060 Computing Processor Board» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Difference between Tesla S1070 and S1075». 31 de octubre de 2008. Consultado el 29 de enero de 2017. «S1075 has one interface card».
- ↑ a b «Tesla C2050 and Tesla C2070 Computing Processor» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla M2050 and Tesla M2070/M2070Q Dual-Slot Computing Processor Modules» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla C2075 Computing Processor Board» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ Hand, Randall (23 de agosto de 2010). «NVidia Tesla M2050 & M2070/M2070Q Specs OnlineVizWorld.com». VizWorld.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla M2090 Dual-Slot Computing Processor Module» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla K10 GPU accelerator» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla K20 GPU active accelerator» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla K20 GPU accelerator» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla K20X GPU accelerator» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla K40 GPU accelerator» (PDF). Nvidia.com. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla K80 GPU accelerator» (PDF). Images.nvidia.com. Archivado desde el original el 12 de julio de 2018. Consultado el 11 de diciembre de 2015.
- ↑ «Nvidia Announces Tesla M40 & M4 Server Cards - Data Center Machine Learning». Anandtech.com. Consultado el 11 de diciembre de 2015.
- ↑ a b «Accelerating Hyperscale Datacenter Applications with Tesla GPUs | Parallel Forall». Devblogs.nvidia.com. 10 de noviembre de 2015. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla M6» (PDF). Images.nvidia.com. Consultado el 28 de mayo de 2016.
- ↑ «Tesla M10» (PDF). Images.nvidia.com. Consultado el 29 de octubre de 2016.
- ↑ «Tesla M40» (PDF). Images.nvidia.com. Archivado desde el original el 21 de octubre de 2016. Consultado el 11 de diciembre de 2015.
- ↑ «Tesla M60» (PDF). Images.nvidia.com. Consultado el 27 de mayo de 2016.
- ↑ a b Smith, Ryan (13 de septiembre de 2016). «Nvidia Announces Tesla P40 & Tesla P4 - Network Inference, Big & Small». Anandtech. Consultado el 13 de septiembre de 2016.
- ↑ «Tesla P6» (PDF). www.nvidia.com. Consultado el 7 de marzo de 2019.
- ↑ «Tesla P6 Specs». www.techpowerup.com. Consultado el 7 de marzo de 2019.
- ↑ Smith, Ryan (5 de abril de 2016). «Nvidia Announces Tesla P100 Accelerator - Pascal GP100 for HPC». Anandtech.com. Anandtech.com. Consultado el 5 de abril de 2016.
- ↑ Harris, Mark. «Inside Pascal: Nvidia’s Newest Computing Platform». Consultado el 13 de septiembre de 2016.
- ↑ a b Smith, Ryan (20 de junio de 2016). «NVidia Announces PCI Express Tesla P100». Anandtech.com. Consultado el 21 de junio de 2016.
- ↑ a b Smith, Ryan (10 de mayo de 2017). «The Nvidia GPU Technology Conference 2017 Keynote Live Blog». Anandtech. Consultado el 10 de mayo de 2017.
- ↑ a b Smith, Ryan (10 de mayo de 2017). «NVIDIA Volta Unveiled: GV100 GPU and Tesla V100 Accelerator Announced». Anandtech. Consultado el 10 de mayo de 2017.
- ↑ a b Oh, Nate (20 de junio de 2017). «NVIDIA Formally Announces V100: Available later this Year». Anandtech.com. Consultado el 20 de junio de 2017.
- ↑ «NVIDIA TESLA T4 TENSOR CORE GPU». NVIDIA. Consultado el 17 de octubre de 2018.
- ↑ «NVIDIA Tesla T4 Tensor Core Product Brief» (PDF). www.nvidia.com. Consultado el 10 de julio de 2019.
- ↑ «NVIDIA TESLA A2 TENSOR CORE GPU».
- ↑ «NVIDIA TESLA A10 TENSOR CORE GPU».
- ↑ «NVIDIA TESLA A16 TENSOR CORE GPU».
- ↑ «NVIDIA TESLA A30 TENSOR CORE GPU».
- ↑ «NVIDIA TESLA A40 TENSOR CORE GPU».
- ↑ «NVIDIA TESLA A100 TENSOR CORE GPU». NVIDIA. Consultado el 14 de enero de 2021.
- ↑ «NVIDIA Tesla A100 Tensor Core Product Brief» (PDF). www.nvidia.com. Consultado el 22 de septiembre de 2020.
- ↑ Smith, Ryan (14 de mayo de 2020). «NVIDIA Ampere Unleashed: NVIDIA Announces New GPU Architecture, A100 GPU, and Accelerator». AnandTech.
- ↑ https://www.nvidia.com/en-us/data-center/h100/
- ↑ https://wccftech.com/nvidia-hopper-gh100-gpu-official-5nm-process-worlds-fastest-hpc-chip-80-billion-transistors-hbm3-memory/
- ↑ https://www.techpowerup.com/gpu-specs/h100-pcie.c3899
- ↑ https://www.nvidia.com/en-us/data-center/l40/
- ↑ https://www.techpowerup.com/gpu-specs/l40.c3959
- ↑ https://www.nvidia.com/en-us/data-center/l4/
- ↑ https://investor.nvidia.com/news/press-release-details/2023/NVIDIA-and-Google-Cloud-Deliver-Powerful-New-Generative-AI-Platform-Built-on-the-New-L4-GPU-and-Vertex-AI/default.aspx
- ↑ https://www.techpowerup.com/gpu-specs/l4.c409