Notebookcheck Logo

Qualcomm SD X Adreno X1-45 2.1 TFLOPS vs NVIDIA GeForce RTX 3080 Max-Q vs NVIDIA GeForce RTX 3050 A Laptop GPU

Qualcomm SD X Adreno X1-45 2.1 TFLOPS

► remove from comparison Qualcomm Adreno X1-45 2.1 TFLOPS

Die Qualcomm Adreno X1-45 2,1 TFLOPS-Version ist eine integrierte Grafikkarte, welche in Snapdragon X Plus 8-Kern-SoCs ab September 2024 verbaut ist. Im Vergleich zu den 3,8 TFLOPS und den 4,6 TFLOPS X1-85 iGPUs läuft die kleine Version nicht nur mit niedrigeren Taktraten, sondern hat auch weniger Unified Shader zur Verfügung, wobei 768 die wahrscheinlichste Zahl ist.

Architektur

Die zugrundeliegende Architektur ist Berichten zufolge (Chips and Cheese) in vielerlei Hinsicht die gleiche wie die der Adreno 730, was die iGPU DirectX 12-kompatibel, aber nicht DirectX 12 Ultimate-kompatibel macht. Raytracing wird nur über Vulcan 1.3 unterstützt. Die höchste unterstützte OpenGL-Version ist ES 3.2. Die iGPU kann auf ausreichend schnellen Arbeitsspeicher zugreifen, hat aber vergleichsweise kleine und langsame Caches, mit denen sie arbeiten muss. AVC-, HEVC- und AV1-Videocodecs können sowohl hardware-decodiert als auch hardware-encodiert werden; bei VP9 ist nur die Decodierung möglich.

Die höchste unterstützte Bildschirmauflösung ist UHD 2160p und nicht SUHD 4320p.

Leistung

Genau wie bei AMD-, Intel- und Nvidia-Produkten hängt viel von den Leistungszielen eines bestimmten Systems ab. Durch höhere Taktraten, sollte die 2,1 TFLOPS-Variante knapp besser als die 1,7 TFLOPS-Variante performen.

Es ist auch erwähnenswert, dass Qualcomms Grafiktreiber nicht ganz so ausgefeilt sind wie die von AMD, Intel und vor allem Nvidia, was zu starken visuellen Artefakten in bestimmten Spielen führt. Viele Spiele laufen aktuell auch gar nicht.

Stromverbrauch

Snapdragon X Plus 8-Kern-Chips verbrauchen normalerweise nicht mehr als 30 W, einschließlich des integrierten RAMs. Daher ist es höchst unwahrscheinlich, dass die iGPU jemals mehr als 20 W verbrauchen wird.

Da der N4P-Prozess von TSMC verwendet wird, kann man davon ausgehen, dass die Energieeffizienz dieser iGPU ab Ende 2024 überdurchschnittlich gut sein wird. Sie liegt natürlich immer noch weit hinter Apples Chips der M-Serie zurück, wie unser ausführlicher Analyseartikel zeigt.

NVIDIA GeForce RTX 3080 Max-Q

► remove from comparison NVIDIA GeForce RTX 3080 Max-Q

Die Nvidia GeForce RTX 3080 Max-Q (für Laptops, GN20-E7 Max-Q) bezeichnet eine GeForce RTX 3080 Laptop GPU mit Max-Q Technologien. Früher waren die Max-Q-Varianten die Stromsparversionen, mit der RTX 3000 Serie kann jedoch jede TGP-Variante mit Max-Q Technologien ausgestattet werden.

NVIDIA GeForce RTX 3050 A Laptop GPU

► remove from comparison NVIDIA GeForce RTX 3050 A Laptop GPU

Die Nvidia GeForce RTX 3050 A Laptop GPU (oder Mobile) ist eine neue Variante basierend auf die aktuelle Ada Lovelace Architektur (im Vergleich zu Ampere bei den anderen RTX 3050 Laptop GPUs). Sie nutzt den AD106 Chip der RTX 4060 oder AD107 der RTX 4050, jedoch mit deutlich verringerter Kernanzahl und Speicherbus. Die RTX 3050 A bietet nur 1.792 GPU Kerne (CUDA Cores) und ein 4GB GDDR6 Grafikspeicher der nur mit 64-Bit angebunden ist. Nach aktuellen Informationen ist die 3050 A zum Launch nur für den Indischen Markt gedacht.

Durch die geringe Kernanzahl und den kleinen Speicherbus, sollte die Performance nicht deutlich überhalb der alten RTX 3050 4GB Laptop GPU liegen.

Der AD106 Chip wird bei TSMC im 5nm (4N) Verfahren gefertigt und ist dadurch deutlich effizienter als der alte Ampere Chip der RTX 3050 4GB. Der TGP kann vom Notebookhersteller zwischen 35 und 50 Watt gewählt werden (System Power).

Qualcomm SD X Adreno X1-45 2.1 TFLOPSNVIDIA GeForce RTX 3080 Max-QNVIDIA GeForce RTX 3050 A Laptop GPU
GeForce RTX 3000 Serie
Adreno X1-85 4.6 TFLOPS 1536 @ 1.5 GHz? Bit @ 8448 MHz
Adreno X1-85 3.8 TFLOPS 1536 @ 1.25 GHz? Bit @ 8448 MHz
Adreno X1-45 2.1 TFLOPS 768 128 Bit @ 8448 MHz
Adreno X1-45 1.7 TFLOPS 768 128 Bit @ 8448 MHz
NVIDIA GeForce RTX 3090 Ti 10752 @ 1.56 - 1.86 GHz384 Bit @ 21000 MHz
NVIDIA GeForce RTX 3090 10496 @ 1.4 - 1.7 GHz384 Bit @ 19500 MHz
NVIDIA GeForce RTX 3080 Ti 10240 @ 1.37 - 1.67 GHz384 Bit @ 19000 MHz
NVIDIA GeForce RTX 3080 12 GB 8960/ cores @ 1.26 - 1.71 GHz384 Bit @ 19000 MHz
NVIDIA GeForce RTX 3080 8704 @ 1.45 - 1.71 GHz320 Bit @ 19000 MHz
GeForce RTX 3070 Ti 6144 @ 1.58 - 1.77 GHz256 Bit @ 19000 MHz
GeForce RTX 3080 Ti Laptop GPU 7424 @ 0.98 - 1.59 GHz256 Bit @ 14000 MHz
NVIDIA GeForce RTX 3070 5888 @ 1.5 - 1.73 GHz256 Bit @ 14000 MHz
GeForce RTX 3080 Laptop GPU 6144 @ 0.78 - 1.25 GHz256 Bit @ 14000 MHz
NVIDIA GeForce RTX 3060 Ti 4864 @ 1.41 - 1.67 GHz256 Bit @ 14000 MHz
GeForce RTX 3070 Ti Laptop GPU 5888 @ 0.92 - 1.48 GHz256 Bit @ 14000 MHz
GeForce RTX 3070 Laptop GPU 5120 @ 0.78 - 1.29 GHz256 Bit @ 14000 MHz
NVIDIA GeForce RTX 3060 3584 @ 1.32 - 1.78 GHz192 Bit @ 15000 MHz
GeForce RTX 3080 Max-Q 6144 @ 0.78 - 1.25 GHz256 Bit @ 6000 MHz
GeForce RTX 3070 Max-Q 5120 @ 1.29 GHz256 Bit
GeForce RTX 3060 Laptop GPU 3840 @ 0.82 - 1.7 GHz192 Bit @ 14000 MHz
GeForce RTX 3060 Max-Q 3840 @ 1.28 GHz192 Bit
NVIDIA GeForce RTX 3050 2560 @ 1.55 - 1.78 GHz128 Bit Bit @ 1750 MHz
GeForce RTX 3050 Ti Laptop GPU 2560 @ 1.22 - 1.49 GHz128 Bit @ 12000 MHz
GeForce RTX 3050 6GB Laptop GPU 2560 @ 1.24 - 1.49 GHz96 Bit @ 12000 MHz
GeForce RTX 3050 A Laptop GPU 1792 64 Bit
GeForce RTX 3050 4GB Laptop GPU 2048 @ 1.24 - 1.5 GHz128 Bit @ 12000 MHz
NVIDIA GeForce RTX 3090 Ti 10752 @ 1.56 - 1.86 GHz384 Bit @ 21000 MHz
NVIDIA GeForce RTX 3090 10496 @ 1.4 - 1.7 GHz384 Bit @ 19500 MHz
NVIDIA GeForce RTX 3080 Ti 10240 @ 1.37 - 1.67 GHz384 Bit @ 19000 MHz
NVIDIA GeForce RTX 3080 12 GB 8960/ cores @ 1.26 - 1.71 GHz384 Bit @ 19000 MHz
NVIDIA GeForce RTX 3080 8704 @ 1.45 - 1.71 GHz320 Bit @ 19000 MHz
GeForce RTX 3070 Ti 6144 @ 1.58 - 1.77 GHz256 Bit @ 19000 MHz
GeForce RTX 3080 Ti Laptop GPU 7424 @ 0.98 - 1.59 GHz256 Bit @ 14000 MHz
NVIDIA GeForce RTX 3070 5888 @ 1.5 - 1.73 GHz256 Bit @ 14000 MHz
GeForce RTX 3080 Laptop GPU 6144 @ 0.78 - 1.25 GHz256 Bit @ 14000 MHz
NVIDIA GeForce RTX 3060 Ti 4864 @ 1.41 - 1.67 GHz256 Bit @ 14000 MHz
GeForce RTX 3070 Ti Laptop GPU 5888 @ 0.92 - 1.48 GHz256 Bit @ 14000 MHz
GeForce RTX 3070 Laptop GPU 5120 @ 0.78 - 1.29 GHz256 Bit @ 14000 MHz
NVIDIA GeForce RTX 3060 3584 @ 1.32 - 1.78 GHz192 Bit @ 15000 MHz
GeForce RTX 3080 Max-Q 6144 @ 0.78 - 1.25 GHz256 Bit @ 6000 MHz
GeForce RTX 3070 Max-Q 5120 @ 1.29 GHz256 Bit
GeForce RTX 3060 Laptop GPU 3840 @ 0.82 - 1.7 GHz192 Bit @ 14000 MHz
GeForce RTX 3060 Max-Q 3840 @ 1.28 GHz192 Bit
NVIDIA GeForce RTX 3050 2560 @ 1.55 - 1.78 GHz128 Bit Bit @ 1750 MHz
GeForce RTX 3050 Ti Laptop GPU 2560 @ 1.22 - 1.49 GHz128 Bit @ 12000 MHz
GeForce RTX 3050 6GB Laptop GPU 2560 @ 1.24 - 1.49 GHz96 Bit @ 12000 MHz
GeForce RTX 3050 A Laptop GPU 1792 64 Bit
GeForce RTX 3050 4GB Laptop GPU 2048 @ 1.24 - 1.5 GHz128 Bit @ 12000 MHz
Pipelines768 - unified6144 - unified1792 - unified
Speichertakt8448 MHz6000 MHz
Speicherbandbreite128 Bit256 Bit64 Bit
SpeichertypLPDDR5xGDDR6GDDR6
Shared Memoryjaneinnein
APIDirectX 12_1, OpenGL ES 3.2, OpenCL 3.0, Vulkan 1.3DirectX 12_2, Shader 6.7, OpenGL 4.6DirectX 12_2, Shader 6.7, OpenGL 4.6
Stromverbrauch20 Watt80 Watt45 Watt (35 - 80 Watt TGP)
Herstellungsprozess4 nm8 nm5 nm
Displays3 Displays (max.)HDMI 2.1, DisplayPort 1.4a
FeaturesSUHD 2160p60 resolution support, AVC/HEVC/AV1 encoding and decodingNVIDIA DLSS, NVIDIA Reflex, Resizable BAR, NVIDIA Broadcast, NVIDIA Ansel, NVIDIA ShadowPlay, NVIDIA G-SYNC, Advanced Optimus, Nvidia Max-Q, Dynamic Boost
Erscheinungsdatum03.09.2024 04.01.2021 26.07.2024
CodenameGN20-E7 GA104
ArchitekturAmpereAda Lovelace
Kerntakt780 - 1245 (Boost) MHz
Max. Speichergröße16 GB4 GB
Notebookgrößegroß (17" z.B.)mittel (15.4" z.B.)
PCIe4.0
PredecessorGeForce RTX 3050 4GB Laptop GPU

Benchmarks

- Bereich der Benchmarkergebnisse für diese Grafikkarte
- Durchschnittliche Benchmarkergebnisse für diese Grafikkarte
* Smaller numbers mean a higher performance
1 This benchmark is not used for the average calculation

Eine Liste mit weiteren Spielen und allen Grafikkarten finden Sie auf unserer Seite: Welches Spiel ist mit welcher Grafikkarte spielbar?

v1.28
log 20. 10:44:47

#0 ran 0s before starting gpusingle class +0s ... 0s

#1 checking url part for id 12780 +0s ... 0s

#2 checking url part for id 10586 +0s ... 0s

#3 checking url part for id 12736 +0s ... 0s

#4 redirected to Ajax server, took 1726821887s time from redirect:0 +0s ... 0s

#5 did not recreate cache, as it is less than 5 days old! Created at Thu, 19 Sep 2024 05:16:33 +0200 +0s ... 0s

#6 composed specs +0.029s ... 0.029s

#7 did output specs +0s ... 0.029s

#8 start showIntegratedCPUs +0s ... 0.029s

#9 getting avg benchmarks for device 12780 +0.019s ... 0.048s

#10 got single benchmarks 12780 +0s ... 0.048s

#11 getting avg benchmarks for device 10586 +0s ... 0.048s

#12 got single benchmarks 10586 +0s ... 0.049s

#13 getting avg benchmarks for device 12736 +0s ... 0.049s

#14 got single benchmarks 12736 +0s ... 0.049s

#15 got avg benchmarks for devices +0s ... 0.049s

#16 min, max, avg, median took s +0s ... 0.049s

#17 before gaming benchmark output +0s ... 0.049s

#18 Got 0 rows for game benchmarks. +0.001s ... 0.049s

#19 return log +0s ... 0.05s

Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > Benchmarks / Technik > Benchmarks / Technik > Grafikkarten Vergleich - Head 2 Head
Autor: Klaus Hinum,  8.09.2017 (Update:  1.07.2023)