The Last of Us Part I im Test: Laptop und Desktop Benchmarks
Wir erweitern unser Team und suchen News-Redakteure sowie Unterstützung für unsere Video-Produktion im Raum Hamburg.
Details
Technik
Warte-Simulator mit absurdem VRAM-Bedarf: So lässt sich die PC-Version von The Last of Us aktuell zusammenfassen. Kein Wunder, dass das Action-Adventure derzeit auf Steam mit negativen Bewertungen überhäuft wird. Das Stirnrunzeln geht schon kurz nach dem ersten Start los: Selbst auf absoluten High-End-Systemen dauert es meist mindestens eine halbe Stunde, bis die Shader installiert worden sind – ein neuer Negativrekord. Dass die Ladezeiten generell nicht zu den besten, also kürzesten gehören, ist da vergleichsweise harmlos.
Als mindestens ebenso unverständlich wie die Dauer der Shader-Optimierung erweist sich der VRAM-Verbrauch, der als exorbitant bezeichnet werden kann. Speziell Grafikkarten mit 6 GB oder weniger geraten schnell in die Bredouille. So stürzte unser Testgerät mit GeForce RTX 3060 beim Einsatz des Ultra-Presets schon mit 1.920 x 1.080 Pixeln reproduzierbar ab. Hier rächt es sich besonders, dass vor allem Nvidia seinen Grafikkarten seit Jahren tendenziell zu wenig VRAM spendiert (hat), wobei man schon sagen muss, dass die PC-Version von The Last of Us in dieser Beziehung einfach schlecht programmiert ist.
Die dürftige Vorstellung überrascht im ersten Moment, da die letzten PC-Umsetzungen von Publisher Sony (z. B. Spider-Man Miles Morales, Days Gone & God of War) einen überwiegend guten Eindruck hinterlassen haben. Problem dürfte eher das für den PC-Port zuständige Entwickler-Studio Iron Galaxy sein, welches schon in der Vergangenheit nicht immer saubere Arbeit abgeliefert hat (Stichwort Batman Arkham Knight). Doch egal, wer für die technischen Mängel primär verantwortlich ist: Unserer Meinung nach hätte The Last of Us in dieser Form niemals auf dem PC veröffentlicht werden dürfen. Es bleibt nur zu hoffen, dass sich künftige Patches um die vorhandenen Schwächen kümmern.
Denn wenn man sich einmal durch die anfänglichen Querelen gekämpft hat und über eine starke Grafikkarte mit viel VRAM verfügt, weiß der Titel durchaus zu gefallen. Die Grafik des Remakes wirkt über weite Strecken sehr zeitgemäß. Neben den Texturen können auf höheren Stufen auch die Effekte (Rauch, Feuer, Spiegelungen, …) und die Charaktere überzeugen. Allgemein punktet der Titel mit einem hohen Detailreichtum und einer tollen Atmosphäre. Besonders viel Lob gibt es für die cineastische Inszenierung mit teils sehr dynamischen Übergängen zwischen Videosequenzen und Gameplay. Dem Storytelling gebührt ebenfalls Respekt.
Beim Grafikmenü haben es die Macher fast schon übertrieben. The Last of Us bietet derart viele Optionen (siehe Screenshots), dass man einerseits extrem viel scrollen muss und andererseits schnell den Überblick verliert. Zum Glück existieren praktische Presets, um die Gesamtqualität mit einem einzigen Klick anzupassen. Änderungen werden dabei direkt, also ohne Neustart übernommen, was sehr angenehm ist. Wie es sich für ein modernes Spiel gehört, unterstützt der Titel diverse Upscaling-Varianten wie FSR und das Nvidia-exklusive DLSS (Ray-Tracing fehlt allerdings).
Im Gegensatz zur Konsolen-Version sind außerdem die FPS nur auf Wunsch begrenzt. Positiv wären auch die teils umfangreichen Beschreibungen mit CPU-, GPU- und VRAM-Einfluss sowie die stellenweise vorhandenen Vergleichsbilder zu erwähnen. Vermisst haben wir eigentlich nur einen „klassischen“ Fullscreen-Modus. Dass der Titel bei einer Reduzierung der Settings trotz teils deutlich sichtbarer Optik-Einbußen oft kaum an Performance gewinnt, dürfte an der CPU-Lastigkeit in moderaten Auflösungen liegen.
Benchmark
Für unsere Geschwindigkeitsmessungen kommt eine Mischung aus selbst ablaufender (Ingame-)Videosequenz und „echtem“ Gameplay zum Einsatz. Anhand des unteren Videos können Sie die genaue Passage, welche kurz nach Beginn des Spiels stattfindet und jede Menge Passanten sowie Effekte enthält, nachvollziehen. Knapp eine Minute lang wird die Framerate mit dem Tool CapframeX aufgezeichnet.
Resultate
FHD (1.920 x 1.080)
Mit iGPUs kann man The Last of Us mehr oder weniger vergessen. Selbst die Radeon 680M bleibt in Full-HD beim Einsatz von minimalen Settings unter der 30-FPS-Marke (1.280 x 720 Pixel wären mit Abstrichen noch halbwegs spielbar). Für 1.920 x 1.080 Pixel sollte es zumindest ein Mittelklasse-Vertreter sein. Eine Radeon RX 6600M packt zum Beispiel auch die Presets Medium und High mit fast 60 FPS.
The Last of Us | |
1920x1080 Low Preset 1920x1080 Medium Preset 1920x1080 High Preset 1920x1080 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
NVIDIA GeForce RTX 3060 Laptop GPU, i7-12700H | |
AMD Radeon RX 6600M, R7 5800H | |
AMD Radeon 680M, R9 6900HS |
QHD (2.560 x 1.440)
Eine Kombination aus 2.560 x 1.440 Pixeln und Ultra-Preset bringt die Hardware und vor allem das VRAM schon deutlich mehr ins Schwitzen. Mehr als 40 FPS schaffte im Test erst eine GeForce RTX 3070.
The Last of Us | |
2560x1440 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
AMD Radeon RX 6600M, R7 5800H |
UHD (3.840 x 2.160)
Wenn man 3.840 x 2.160 Pixel und maximale Settings nutzt, zeigen sich auch starke High-End-Chips wie die GeForce RTX 3080 Ti überfordert. Hier hilft es Gebrauch von beispielsweise DLSS zu machen, wie unsere Tabelle beweist.
The Last of Us | |
3840x2160 Ultra Preset + Quality DLSS 3840x2160 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
AMD Radeon RX 6600M, R7 5800H |
Hinweis
Da Gaming-Tests sehr zeitaufwändig sind und oft durch Installations- bzw. Aktivierungslimits eingeschränkt werden, können wir Ihnen zur Veröffentlichung der Artikel nur einen Teil der Benchmarks liefern. Weitere Grafikkarten werden jeweils in den kommenden Tagen und Wochen eingebaut.
Übersicht
Testsysteme
Mit diesen Notebooks führen wir aktuell unsere Gaming-Benchmarks durch. Beim Klick auf die Fotos gelangen Sie zur jeweiligen Hersteller-Homepage. Alle weiteren Testsysteme (Tower-PCs, Mini-PCs, ...) stehen in folgender Liste.
Gerät | Grafikkarte | Prozessor | Arbeitsspeicher |
---|---|---|---|
Notebooks | |||
MSI Titan GT77 12UHS | Nvidia GeForce RTX 3080 Ti @175 W TGP (16 GB GDDR6) | Intel Core i9-12900 | 2 x 16 GB DDR5 |
Lenovo Legion 5 Pro | Nvidia GeForce RTX 3060 @140 W TGP (6 GB GDDR6) | Intel Core i7-12700H | 2 x 8 GB DDR5 |
Asus ROG Strix G15 | AMD Radeon RX 6800M (12 GB GDDR6) | AMD Ryzen 9 5900HX | 2 x 8 GB DDR4 |
Lenovo Legion 5 | AMD Radeon RX 6600M (8 GB GDDR6) | AMD Ryzen 7 5800H | 2 x 8 GB DDR4 |
Asus ROG Zephyrus G14 | AMD Radeon 680M | AMD Ryzen 9 6900HS | 2 x 16 GB DDR5 |
Tower-PCs | |||
Custom I | AMD Radeon RX 7900 XTX (24 GB GDDR6) AMD Radeon RX 7900 XT (20 GB GDDR6) MSI GeForce RTX 3080 (10 GB GDDR6X) MSI GeForce RTX 3070 (8 GB GDDR6) |
Intel Core i9-12900K | 2 x 16 GB DDR4 |
Custom II | Palit GeForce RTX 4090 GameRock OC (24 GB GDDR6X) Nvidia GeForce RTX 3090 FE (24 GB GDDR6X) Nvidia GeForce RTX 3060 Ti (8 GB GDDR6X) Nvidia Titan RTX (24 GB GDDR6) lNvidia GeForce RTX 2070 Super (8 GB GDDR6)Nvidia GeForce RTX 2060 Super (8 GB GDDR6) KFA2 GeForce GTX 1660 Super (6 GB GDDR6) PNY GeForce GTX 1660 (6 GB GDDR5) KFA2 GeForce GTX 1650 Super (4 GB GDDR6) AMD Radeon RX 6950 XT (16 GB DDR6) AMD Radeon RX 6800 (16 GB DDR6) AMD Radeon RX 6700 XT (12 GB DDR6) AMD Radeon RX 6650 XT (8 GB GDDR6) AMD Radeon RX 6600 (8 GB GDDR6) AMD Radeon RX 5700 XT (8 GB GDDR6) AMD Radeon RX 5700 (8 GB GDDR6) AMD Radeon RX 5600 XT (6 GB GDDR6) AMD Radeon RX 5500 XT (8 GB GDDR6) |
AMD Ryzen 9 7950X | 2 x 16 GB DDR5 |
Custom III | Nvidia GeForce RTX 2080 Super FE | Intel Core i9-11900K | 2 x 8 GB DDR4 |
Mini-PCs | |||
Zotac ZBOX CI665 Nano | Intel Iris Xe Graphics G7 (96 CUs) | Intel Core i7-1165G7 | 2 x 8 GB DDR4 |
Morefine S500+ | AMD Radeon RX Vega 8 | AMD Ryzen 9 5900HX | 2 x 16 GB DDR4 |
Minisforum NUCXi7 | Nvidia GeForce RTX 3070 @125 W TGP (8 GB GDDR6) | Intel Core i7-11800H | 2 x 8 GB DDR4 |
Minisforum HX99G | AMD Radeon RX 6600M @100 W TGP (8 GB GDDR6) | AMD Ryzen 9 6900HX | 2 x 16 GB DDR5 |
4K Monitore | Betriebssystem | Nvidia Treiber | AMD Treiber |
---|---|---|---|
Philips Brilliance 329P9H, Gigabyte M32U | Windows 11 | ForceWare | Adrenalin |