Notebookcheck Logo

NVIDIA RTX A4500 Laptop GPU vs Intel Iris Xe Graphics G7 96EUs vs NVIDIA RTX A3000 Laptop GPU

NVIDIA RTX A4500 Laptop GPU

► remove from comparison NVIDIA RTX A4500 Laptop GPU

Die Nvidia RTX A4500 Laptop GPU oder A4500 Mobile (für Laptops) ist eine professionelle Grafikkarte für mobile Workstations. Sie basiert auf die Consumer GeForce RTX 3070 Ti Laptop GPU und bietet ebenfalls 5,120 Grafik-Kerne, 40 RT-Kerne, 160 Tensor-Kerne und bis zu 16 GB GDDR6 Grafikspeicher. Im Vergleich zu einer günstigeren GeForce RTX 3070 Ti Laptop GPU mit Studio Treibern, bietet die RTX A4500 zertifizierte Treiber für zahlreiche professionelle Applikationen.

Wie auch die GeForce RTX 3070 Ti Mobile, ist auch die RTX A4500 in verschiedenen TGP-Versionen erhältlich. Diese rangieren bei der A4000 von 80 - 140 Watt und damit im Maximum 15W höher als die RTX 3070 Mobile. Je nach verbauter Variante unterscheiden sich die Taktraten von Chip und Speicher und damit auch deutlich die Performance.

Es gibt nun keine Max-Q Variante mehr (die 80 - 90 Watt Versionen heissen auch nur "Laptop GPU"), aber jede TGP-Version kann die Max-Q Technologien nutzen (Dynamic Boost, WhisperMode).

Die professionellen Grafikkarten von Nvidia bieten zertifizierte Treiber, welche auf Stabiltität und Performance bei professionellen Anwendungen (CAD-, DCC-, Medizin-, Prospektions-, Visualisierungsanwendungen) optimiert sind.

Die Leistung ist abhängig von der TGP-Variante und der verwendeten Kühlung. Bei gleichem TGP sollte sie aber deutlich oberhalb einer alten Quadro RTX 4000 bzw. RTX 4000 Max-Q für Laptops liegen. Die Desktop-Variante der RTX A4500 sollte jedoch deutlich schneller ausfallen (durch den höheren TGP und höhere Taktraten). Dadurch reicht die Leistung bei den meisten anspruchsvollen Spielen auch für 4k mit maximalen Details. 

Der GA104 Chip bietet 6.144 FP32 ALUs wovon die Hälfte auch INT32 Befehle ausführen können (also 3.072 INT32 ALUs). Bei Turing konnten noch alle Shader FP32 oder INT32 ausführen. Die Raytracing und Tensor Kerne auf dem Chip wurden laut Nvidia ebenfalls verbessert. Die RTX A4500 nutzt jedoch nur 5.888 der 6.144 Kerne. Weiters integriert der Ampere Chip einen Hardware Video-Encoder (NVENC 5. Generation für H.264 und H.265) und Decoder (7. Generation für zahlreiche Formate inklusive AV1).

Der GA104 Chip wird bei Samsung im 8nm (8N) Verfahren welches mit dem 7nm Verfahren von TSMC nicht ganz mithalten kann (z.B. von AMD genutzt, aber auch für den professionellen GA100 Ampere Chip).

Intel Iris Xe Graphics G7 96EUs

► remove from comparison Intel Iris Xe G7 96EUs

Die Intel Iris Xe Graphics G7 (Tiger-Lake mit 96 EUs, Device ID 9A49) ist eine Prozessorgrafikkarte, die im September 2020 vorgestellt wurde. Sie basiert auf die neue Xe Architektur (Gen12) und soll eine Leistung auf dem Niveau einer GeForce MX350 bieten. Dies ist aber abhängig von TDP Settings (15 - 28 Watt Default), verbautem SoC und Kühlung.

Die GPU bietet einen garantierten Mindesttakt von 400 MHz und einen Boost Takt von bis zu 1350 MHz (z.b. i7-1185G7). Im schwächsten i5-1130G7 ist die Performance aber deutlich schlechter (12 W TDP, 1100 MHz Boost, 8 MB L3 Cache).

Bei synthetischen Benchmarks und einigen Spielen kann die G7 mit 96EUs mit einer dedizierten Nvidia GeForce MX 350 mithalten und teilweise auch eine MX450 schlagen (je nach Version). Die schwächere 80EU Version (ebenfalls G7) wird deutlich geschlagen und auch die integrierten Vega 7 und Vega 8 iGPUs bleiben zurück. Trotzdem reicht die Spieleleistung nicht für alle modernen Spiele und auch die Grafiktreiber sind manchmal ein Hindernis (z.B. Cyberpunk 2077 und Horizon Zero Dawn starteten bei unseren Tests manchmal nicht oder liefen nur ruckelig - siehe Spieleliste weiter unten). Weniger anspruchsvolle Spiele wie Monster Hunter Stories 2 oder Fifa 21 laufen aber auch mit mittlerer bis hoher Detailstufe und Full HD flüssig.

Die Xe Graphics G7 wird im modernen 10nm+ (10nm SuperFin) Prozess bei Intel gefertigt und ist als Prozessorgrafikkarte sehr sparsam.

NVIDIA RTX A3000 Laptop GPU

► remove from comparison NVIDIA RTX A3000 Laptop GPU

Die Nvidia RTX A3000 Laptop GPU oder A3000 Mobile (für Laptops) ist eine professionelle Grafikkarte für mobile Workstations. Sie bietet eine ähnliche Performance wie die Consumer GeForce RTX 3060 Laptop GPU und bietet mit 4096 genau 256 CUDA-Kerne mehr (und basiert daher auf den größeren GA104 Chip). Weiters integriert die A3000 32 RT-Kerne und 128 Tensor-Kerne. Im Vergleich zu einer günstigeren GeForce RTX 3070 Laptop GPU mit Studio Treibern, bietet die RTX A3000 zertifizierte Treiber für zahlreiche professionelle Applikationen und wahrscheinlich eine minimal höhere Performance.

In 2022 veröffentlichte Nvidia eine leicht verbesserte Version der RTX A3000 mit mehr und schneller getaktetem Grafikspeicher. Die ursprünglichen 6 GB mit 11 GBits wurden verdoppelt zu 12 GB GDDR6 die mit 14 GBits getaktet werden.

Wie auch die GeForce RTX 3060 Mobile, ist auch die RTX A3000 in verschiedenen TGP-Versionen erhältlich. Diese rangieren bei der A3000 von 60 - 130 Watt und damit im Maximum 15W höher als die RTX 3060 Mobile. Je nach verbauter Variante unterscheiden sich die Taktraten von Chip und Speicher und damit auch deutlich die Performance.

Es gibt nun keine Max-Q Variante mehr (die 60 - 90 Watt Versionen heissen auch nur "Laptop GPU"), aber jede TGP-Version kann die Max-Q Technologien nutzen (Dynamic Boost, WhisperMode).

Die professionellen Grafikkarten von Nvidia bieten zertifizierte Treiber, welche auf Stabiltität und Performance bei professionellen Anwendungen (CAD-, DCC-, Medizin-, Prospektions-, Visualisierungsanwendungen) optimiert sind.

Die Leistung ist abhängig von der TGP-Variante und der verwendeten Kühlung. Bei gleichem TGP sollte sie aber deutlich oberhalb einer alten Quadro RTX 3000 bzw. RTX 3000 Max-Q für Laptops liegen. 

Der GA104 Chip bietet 6.144 FP32 ALUs wovon die Hälfte auch INT32 Befehle ausführen können (also 3.072 INT32 ALUs). Bei Turing konnten noch alle Shader FP32 oder INT32 ausführen. Die Raytracing und Tensor Kerne auf dem Chip wurden laut Nvidia ebenfalls verbessert. Die RTX A4000 nutzt jedoch nur 4.096 der 6.144 Kerne.

Der GA104 Chip wird bei Samsung im 8nm (8N) Verfahren welches mit dem 7nm Verfahren von TSMC nicht ganz mithalten kann (z.B. von AMD genutzt, aber auch für den professionellen GA100 Ampere Chip).

NVIDIA RTX A4500 Laptop GPUIntel Iris Xe Graphics G7 96EUsNVIDIA RTX A3000 Laptop GPU
RTX A Serie
RTX A5500 Laptop GPU 7424 256 Bit @ 16000 MHz
RTX A4500 Laptop GPU 5888 @ 0.93 - 1.5 GHz256 Bit @ 16000 MHz
RTX A5000 Laptop GPU 6144 @ 1.22 - 1.77 GHz256 Bit @ 14000 MHz
RTX A4000 Laptop GPU 5120 @ 0.78 - 1.68 GHz256 Bit @ 12000 MHz
RTX A3000 Laptop GPU 4096 @ 1.08 - 1.56 GHz192 Bit @ 14000 MHz
RTX A2000 3328 @ 0.56 - 1.2 GHz192 Bit @ 12000 MHz
RTX A2000 Laptop GPU 2560 @ 0.89 - 1.69 GHz128 Bit @ 14000 MHz
RTX A1000 Laptop GPU 2048 128 Bit @ 14000 MHz
RTX A500 Laptop GPU 2048 64 Bit @ 14000 MHz
Iris Xe G7 96EUs 96 @ 0.4 - 1.35 GHz
Iris Xe G7 80EUs 80 @ 0.4 - 1.35 GHz
UHD Graphics 64EUs 64 @ 1.4 GHz
UHD Graphics Xe G4 48EUs 48 @ 0.35 - 1.45 GHz
UHD Graphics 32EUs 32 @ 1.25 GHz
UHD Graphics Xe 32EUs (Tiger Lake-H) 32 @ 0.35 - 1.45 GHz
UHD Graphics Xe 750 32EUs 32 @ 0.35 - 1.45 GHz
UHD Graphics 24EUs (Alder Lake-N) 24 @ 0.45 - 0.75 GHz
UHD Graphics Xe 16EUs (Tiger Lake-H) 16 @ 0.35 - 1.45 GHz
RTX A5500 Laptop GPU 7424 256 Bit @ 16000 MHz
RTX A4500 Laptop GPU 5888 @ 0.93 - 1.5 GHz256 Bit @ 16000 MHz
RTX A5000 Laptop GPU 6144 @ 1.22 - 1.77 GHz256 Bit @ 14000 MHz
RTX A4000 Laptop GPU 5120 @ 0.78 - 1.68 GHz256 Bit @ 12000 MHz
RTX A3000 Laptop GPU 4096 @ 1.08 - 1.56 GHz192 Bit @ 14000 MHz
RTX A2000 3328 @ 0.56 - 1.2 GHz192 Bit @ 12000 MHz
RTX A2000 Laptop GPU 2560 @ 0.89 - 1.69 GHz128 Bit @ 14000 MHz
RTX A1000 Laptop GPU 2048 128 Bit @ 14000 MHz
RTX A500 Laptop GPU 2048 64 Bit @ 14000 MHz
CodenameGA104Tiger Lake XeGA104
ArchitekturAmpereGen. 11 Ice LakeAmpere
Pipelines5888 - unified96 - unified4096 - unified
TMUs184128
ROPs9664
Raytracing Cores4632
Tensor / AI Cores127128
Kerntakt930 - 1500 (Boost) MHz400 - 1350 (Boost) MHz1080 - 1560 (Boost) MHz
Theoretical Performance18.5 TFLOPS FP32
CacheL2: 4 MB
Speichertakt16000 effective = 2000 MHz14000 effective = 1750 MHz
Speicherbandbreite256 Bit192 Bit
SpeichertypGDDR6GDDR6
Max. Speichergröße16 GB12 GB
Shared Memoryneinjanein
Memory Bandwidth512 GB/s264 GB/s
APIDirectX 12_2, Shader 6.7, OpenGL 4.6, OpenCL 3.0, Vulkan 1.3DirectX 12_1, OpenGL 4.6DirectX 12_2, Shader 6.7, OpenGL 4.6
Stromverbrauch140 Watt (80 - 140 Watt TGP)28 Watt130 Watt (60 - 115 Watt TGP)
Herstellungsprozess8 nm10 nm8 nm
PCIe4.0 x164.0
FeaturesDisplayPort 1.4, HDMI 2.1, PCIe 4.0 x16, 17.8 SP-FP TFLOPS Peak, 143 Tensor Performance Peak, up to 384 GB/s Memory Bandwidth, Resizable BAR, Support for Modern Standby3.8 MB L3 Cache, QuickSync, Device ID 9A49, Vendor ID 8086DisplayPort 1.4, HDMI 2.1, PCIe 4.0 x16, 12.8 SP-FP TFLOPS Peak, 102 Tensor Performance Peak, up to 264 GB/s Memory Bandwidth, Resizable BAR, Support for Modern Standby
Notebookgrößegroß (17" z.B.)groß (17" z.B.)
Erscheinungsdatum30.03.2022 15.08.2020 12.04.2021
Herstellerseitenvdam.widen.netwww.nvidia.com
PredecessorRTX A4000 Laptop GPU
Transistors17.4 Billion
Die Size 392 mm²
DisplaysHDMI 2.1, DisplayPort 1.4
CPU in Iris Xe G7 96EUsGPU Base SpeedGPU Boost / Turbo
Intel Core 9 270H14 x 1900 MHz, 45 W? MHz1550 MHz
Intel Core i9-13900HK14 x 1900 MHz, 45 W? MHz1500 MHz
Intel Core i9-13905H14 x 1900 MHz, 45 W? MHz1500 MHz
min. - max.400 MHz950 - 1550 MHz

Benchmarks

Performance Rating - 3DMark 11 + Fire Strike + Time Spy - Iris Xe G7 96EUs
2.3 pt (7%)
3DMark - 3DMark Time Spy Score
min: 789     avg: 1675     median: 1736 (5%)     max: 2133 Points
min: 6490     avg: 7324     median: 7703 (22%)     max: 7779 Points
3DMark - 3DMark Time Spy Graphics
min: 707     avg: 1495     median: 1559.5 (4%)     max: 1871 Points
min: 6530     avg: 7129     median: 7320 (19%)     max: 7536 Points
3DMark - 3DMark Ice Storm Unlimited Graphics
min: 159203     avg: 229702     median: 208639 (21%)     max: 375145 Points
3DMark - 3DMark Ice Storm Extreme Graphics
min: 35612     avg: 81313     median: 76810.5 (9%)     max: 168062 Points
3DMark - 3DMark Cloud Gate Score
min: 9231     avg: 19216     median: 19088 (18%)     max: 30468 Points