Die Intel HD Graphics 630 (GT2) ist eine integrierte Grafikeinheit, die in verschiedenen Desktop- und Notebook-Prozessoren der 2016-2017 vorgestellten Kaby-Lake-Generation zu finden ist. Die mittlere, auch "GT2" genannte Ausbaustufe verfügt über 24 EUs (Execution Units bzw. Ausführungseinheiten). Technisch unterscheidet sie sich von der HD Graphics 530 der Skylake Generation nicht, die Taktraten könnten jedoch minimal höher sein und auch der Turbo könnte dank des verbesserten 14nm+ Prozess schneller anspringen.
Performance
Die exakte Leistung der HD Graphics 630 hängt vom jeweiligen CPU-Modell ab, da sich TDP, Maximaltaktrate und Größe des L3-Caches teils stark unterscheiden können. Zum anderen bestimmt auch der verwendete Speicher (DDR3/DDR4) die Performance. Im Durchschnitt sollte die Leistung jedoch nur minimal oberhalb der Intel HD Graphics 530 liegen, wodurch sich anspruchsvolle Spiele aus 2016 wie Watch Dogs 2, Dishonored 2 oder Mafia 3 nicht spielbar sind. Weniger anspruchsvolle Spiele wie Overwatch oder Farming Simulator 17 sind jedoch in niedrigen Details flüssig spielbar. Siehe auch die Seite der Intel HD Graphics 530 für weitere Spielebenchmarks.
Features
Neu bei der Kaby-Lake Generation ist die verbesserte Videoengine, welche nun auch H.265/HEVC im Main10-profil mit 10 Bit Farbtiefe sowie Googles VP9-Codec in Hardware dekodieren kann. Die Chips mit HD Graphics 530 sollten auch bereits HDCP 2.2 unterstützen und somit z.B. Netflix-Videos unter Windows 10 in 4K ausgeben können (im Gegensatz zu den ersten Kaby-Lake Dual-Core Chips mit Intel HD Graphics 620). HDMI 2.0 unterstützt die HD Graphics 630 jedoch weiterhin nur per Wandler (LSPCon) über den DisplayPort.
Leistungsaufnahme
Die HD Graphics 630 ist in Desktop- und Notebook-Prozessoren verschiedener TDP-Klassen zu finden. Die Quad-Core CPUs sind jedoch meistens in größeren und schwereren Notebooks verbaut. Der verbesserte 14nm+ Prozess verspricht jedoch eine etwas geringere Leistungsaufnahme im Vergleich zur Intel HD Graphics 530.
Die Nvidia GeForce RTX 3070 Ti Laptop GPU oder 3070 Ti Mobile (für Laptops, GN20-E6, Max-P / Max-Q) ist der Refresh der RTX 3070 zur CES Anfang 2022. Sie basiert auf den selben GA104 Chip wie the RTX 3070 Laptop GPU und bietet mit 5888 15% mehr Shader als die Vorgängergeneration. Der Boost Takt wurde aber wahrscheinlich etwas reduziert. Die GPU bietet einen 256 Bit Speicherbus und 8 GB GDDR6 Grafikspeicher. Es gibt verschiedene Varianten mit unterschiedlichen Taktraten und TGP Einstellungen von 80 - 125 Watt. Je nach Variante, unterscheidet sich auch der maximale Boost-Takt von 1035 MHz (80W) bis 1485 MHz (125W). Es gibt aber keine Max-Q Variante mehr (die 80 - 90 Watt Versionen heissen auch nur "Laptop GPU"), aber jede TGP-Version kann die Max-Q Technologien nutzen (Dynamic Boost, Whispermode).
Die Leistung sollte zwischen der alten RTX 3070 Mobile und RTX 3080 Mobile liegen. Damit eignet sich die RTX 3070Ti Mobile am besten für QHD und maximale Settings bei anspruchsvollen Spielen (wie Cyberpunk 2077 oder Halo Infinite) bzw. 4K bei weniger anspruchsvollen Spielen (wie Farming Simulator 22).
Der GA104 Chip bietet 6144 FP32 ALUs wovon die Hälfte auch INT32 Befehle ausführen können (also 3072 INT32 ALUs). Bei Turing konnten noch alle Shader FP32 oder INT32 ausführen. Die Raytracing und Tensor Kerne auf dem Chip wurden laut Nvidia ebenfalls verbessert. Die RTX 3070 Ti nutzt 5888 der 6144 Kerne. Weiters integriert der Ampere Chip einen Hardware Video-Encoder (NVENC 5. Generation für H.264 und H.265) und Decoder (7. Generation für zahlreiche Formate inklusive AV1).
Der GA104 Chip wird bei Samsung im 8nm (8N) Verfahren welches mit dem 7nm Verfahren von TSMC nicht ganz mithalten kann (z.B. von AMD genutzt, aber auch für den professionellen GA100 Ampere Chip).
Die Nvidia GeForce RTX 3090 is zum Launch die schnellste GeForce Grafikkarte der Ampere-Generation und Quasi-Nachfolger der Titan RTX. Sie nutzt den großen GA102-Chip mit 10.496 Shader und 24 GB GDDR6X Grafikspeicher. Im Vergleich zur RTX 3080 ist die Mehrleistung erst ab Auflösungen höher 4K spürbar, für echtes 8K-Gaming mit hohen Details reicht die Rohleistung aber nicht aus. Mit einer Leistungsaufnahme von 350 Watt braucht die GPU zwar sehr viel Strom unter Last, die Energieeffizienz ist jedoch trotzdem sehr gut (Leistung pro Watt).