Meinung: Nvidias Max-Q - maximale Effizienz, minimale Performance?
Wir erweitern unser Team und suchen News-Redakteure sowie Unterstützung für unsere Video-Produktion im Raum Hamburg.
Details
Für den originalen englischen Artikel, siehe hier.
Die Fakten hinter dem Marketing-Hype von Nvidias Max-Q, zusammengefasst vom produktiven und gelegentlich schmerzhaft ehrlichen Computer-Enthusiasten Christian Reverand (auch bekannt als D2Ultima) und unserem Redakteur Douglas Black.
Anmerkung: Ich möchte an dieser Stelle anmerken, dass ich Verständnis für alle jene Nutzer habe, die sich nach dünneren Notebooks sehnen, und auch kein Problem mit gut designten und ordentlich gekühlten dünnen Notebooks an sich habe. Ganz im Gegenteil, ich bin der Meinung, dass derartige Effizienzziele beachtenswert sind und Respekt verdienen. In Bezug auf Max-Q störe ich mich jedoch am Marketing sowie am Preis-Leistungs-Verhältnis und bin der Überzeugung, dass eine andere Herangehensweise an die Sache besser gewesen wäre.
Viele derjenigen, die mich kennen, glauben, dass dieser Artikel zensiert wurde. Im Vergleich zum ersten Entwurf wurde tatsächlich so einiges entfernt, gleichzeitig wurden jedoch viele Details ergänzt und meine Aussagen mit zusätzlichen Fakten belegt. Ich will daher an dieser Stelle garantieren, dass dieser Artikel nichts enthält, dem ich nicht zustimme, und nichts gegen meinen Willen entfernt wurde. Er entspricht in der jetzigen Form dem, was ich aussagen wollte, und für jede Änderung gab es Gründe, die ich akzeptiert habe.
Christian Reverand
Ich bin seit 2009 Teil der Notebook-Enthusiasten-Community und seit etwa 2011 verstärkt mit dabei. Computer, Technologie, Gaming und Live-Streaming sind meine Hobbies und ich strebe immer danach, mein Wissen auszubauen und Neues zu lernen. Ich bin durch und durch gerecht und lobe, wo Lob angebracht ist, und kritisiere, wo Kritik notwendig ist. Ehre, wem Ehre gebührt.
Ein Hoffnungsschimmer
Mit der Veröffentlichung der mobilen Pascal Architektur im August 2016 wurde viel Aufsehen darum gemacht, dass „mobile“ GPUs endgültig tot seien. Zum ersten Mal in der Geschichte der Firma hatte Nvidia das „M“ aus dem Namen der mobilen GPUs entfernt um hervorzuheben, dass die Eigenschaften einer mobilen Grafikkarte nun denen der gleichnamigen Desktop-Karte entsprechen würden: Eine GTX 1080 ist eine GTX 1080, egal in welchem Endgerät sie steckt. Ein kühner Marketing-Schachzug, der den Eindruck entstehen ließ, dass die Tage der unschlagbaren Desktop-GPU gezählt waren. Ich dachte, wir befänden uns am Beginn einer ganz neuen Ära mit Notebooks, die in puncto Grafikleistung endlich mit Desktops mithalten oder diese sogar übertrumpfen konnten. Und dann kam Max-Q.
Vorgestellt auf der diesjährigen Computex sind die sogenannten „Max-Q“-Karten eine „modifizierte“ Serie von Pascal Chips. Die Produktpräsentation strotzte nur so vor Graphen und Diagrammen, die beweisen sollten, dass man bei Nvidia endlich die perfekte Kombination von Leistung und Energieeffizienz gefunden hat. Der Clou dieses ungehemmten Fokus auf Effizienz pro Watt bedeutete, dass ODMs („Original Design Manufacturers“, also jene Firmen, von denen OEMs wie Dell oder iBuyPower ihre Systeme kaufen, ehe sie in „Alienware“ oder „Chimera“ umbenannt an den Endkunden durchgereicht werden) nun auch endlich sehr dünne Notebooks entwickeln konnten, bei denen der relative Performance-Verlust im Vergleich mit den größeren und dickeren Modellen im Grunde vernachlässigbar sein sollte. Diese Max-Q-Notebooks müssen jedoch logischerweise anderweitige Kompromisse eingehen, wie zum Beispiel das Fehlen mehrerer Massenspeicher-Slots oder wechselbarer RAM-Module. Kompromisse sind jedoch unumgänglich, wenn man die Leistung einer GTX 1080 in einem unfassbar dünnen Notebook, wie beispielsweise dem Asus ROG Zephyrus, unterbringen will, und die meisten Anwender dürften damit sehr gut leben können. Soweit klingt das alles ganz hervorragend, und man fragt sich automatisch, wo der Haken sein soll. Ganz einfach: Der Haken ist, dass man zwar für eine GTX 1080 bezahlt, jedoch nicht die Leistung einer GTX 1080 bekommt.
Neuer Wein in alten Schläuchen?
Um die Zusammenhänge zu verstehen, ist zunächst etwas Hintergrundwissen über die vergangenen Notebook-GPUs mit dem Namenszusatz „M“ nötig. Die GTX 680M entsprach eins zu eins der Desktop-GPU GTX 670: identische Anzahl an Kernen und Busbreite, jedoch massiv heruntergetaktet und mit Low-Voltage-Memory versehen. Bei den GTX 680MX, 780M und 880M Karten handelte es sich um vollwertige GK104-GPUs, analog zu den 680/770-Karten, jedoch untertaktet. Die 970M war eine Variante der 960 OEM (1.280 Kerne, 192-bit Bus, GM204 und nicht GM206 und ausgestattet mit 3 GB oder ganz selten auch mal 6 GB VRAM) und ebenfalls untertaktet. 580M und 675M waren vollwertige GF114-Chips analog zur 560Ti, jedoch ebenfalls niedriger getaktet. Bei der GTX 860M (der Variante mit Maxwell Chip und nicht dem gleichnamigen Keppler Modell) und 960M handelt es sich um GTX-750Ti-Karten, während die GTX 965M GM206 eine heruntergetaktete GTX 960 ist. Und so geht es munter weiter, auch bei allen von uns hier nicht aufgeführten Karten. Das Namensschema von Notebook- und Desktop-GPUs unterschied sich teils eklatant voneinander, im Kern haben erstere jedoch dieselben Spezifikationen wie Letztere.
Mit der GTX 1000 (Pascal) sollte sich all das ein für allemal zum Guten wenden. Die neue Serie sollte eine ähnliche Leistungsfähigkeit wie die gleichnamige Desktop-Variante bringen, oder um ganz genau zu sein, mit einer Varianz von bis zu 10 %, wie bei Eurogamer und Ars Technica nachzulesen ist. Und wenngleich Nvidia seinen eigenen Ansprüchen nicht immer vollständig gerecht werden konnte, waren die Leistungswerte in der Praxis nah genug an den Verheißungen dran, um den Ansprüchen eine gewisse Glaubwürdigkeit zu verleihen. Auch die Taktraten wurden im Vergleich zu früheren Generationen drastisch angehoben, und obwohl die Basis-Taktfrequenz einer 1000er Notebook-GPU noch immer unterhalb einer 1000er Desktop-GPU liegt, sind die Turbo-Frequenzen identisch. Die 1080 (Notebook) des Autors erreicht spielend ein Maximum von 1.911 MHz, ausreichende Kühlung vorausgesetzt und ohne Übertaktung, obwohl sie nur bis 1.771 MHz Turbo-Boost spezifiziert ist.
Mit dem Max-Q-Design wirft Nvidia all das wieder über den Haufen, belässt die Preise jedoch, soweit wir das beurteilen können, auf dem bisherigen Niveau. Erst kürzlich hat das Team des YouTube Channels Digital Foundry in einem hervorragenden Video das neue Asus Zephyrus mit GTX 1080 (Notebook) Max-Q gegen eine 1080 (Desktop) und 1070 (Desktop) antreten lassen. Der Test hat die schlimmsten Befürchtungen bestätigt: Die 1080 (Notebook) Max-Q entspricht in puncto Leistung eher einer ordentlich gekühlten 1070 (Notebook), wie sie beispielsweise im Clevo P650HS oder MSI GT62VR steckt. Richtig gemein wird es jedoch, wenn man bedenkt, dass Nvidia die 1080 (Notebook) Max-Q zum selben Preis verkauft wie die normale GTX 1080 (Notebook), und man im Gegenzug nur die Leistung einer 1070 (Notebook) erhält.
Obwohl die Max-Q-GPUs bei den Spezifikationen deutlich näher an den Desktop-GPUs liegen (insbesondere in Bezug auf VRAM und die unrealistische Möglichkeit der Übertaktung) und sich dahingehend von der alten M-Serie unterscheiden, ist eine gewisse Ähnlichkeit nicht abzustreiten. Die Max-Q-Serie erinnert damit sehr stark an die alten Notebook-GPUs, die ihren Desktop-Äquivalenten ebenfalls auf dem Papier recht ähnlich waren (wie den diversen Beispielen oben gut zu entnehmen ist), ehe mit Pascal eine Art Gleichheit in Bezug auf Performance und potenzielle Übertaktbarkeit in Desktop- und Notebook-Universen einzog. Potenziell deswegen, weil es zwar die theoretische Möglichkeit gibt, die GPUs per Software zu übertakten, das thermische Fenster jedoch ausgesprochen knapp und das Erhöhen der GPU-Spannung bei Notebook-Pascal-GPUs ebenfalls nicht vorgesehen ist. Und da das thermische Limit bei Notebook Pascal deutlich enger gefasst ist, wird es insbesondere bei Spielen in 4k-Auflösung auch bei niedrigen Bildwiederholraten schon mal sehr eng – die tatsächliche Übertaktbarkeit einer Notebook-GPU ist also nicht mit der einer Desktop-GPU zu vergleichen.
Es ist jedoch nicht die Leistung, die mir am meisten aufstößt. Es ist das Marketing.
Es ist jedoch nicht die Leistung, die mir am meisten aufstößt. Es ist das Marketing. Auf der eigenen Webseite behauptet Nvidia, dass eine GTX 1080 (Notebook) Max-Q die 3,3-fache Leistung der GTX 880M, einer High-End GPU von 2014, bietet. Bisher hat es jedoch noch kein einziges getestetes Max-Q-Laptop geschafft, in synthetischen Benchmarks wie dem 3DMark Firestrike auch nur annähernd in diese Sphären vorzudringen. Auch geht aus den Informationen nicht eindeutig hervor, dass eine 1080 (Notebook) Max-Q nicht dieselbe Grafikleistung erbringt wie eine ordentlich gekühlte 1080 non-Max-Q, egal ob Desktop oder Notebook. Und schon gar nicht, dass sie in puncto Grafikleistung nominell eher einer GTX 1070 entspricht. Tatsächlich verwirren Diagramme wie dieses nur unnötig und suggerieren das Gegenteil. Obwohl nicht genullt hat dieses Diagramm einen steilen Anstieg zu Beginn und flacht dann am Ende deutlich ab. In der Praxis entspricht dieser „small gain“, also der geringe Zuwachs, nicht dem Performance-Unterschied von etwa 20 Prozent im 3DMark 11 Performance, Firestrike und Time Spy zwischen der 1080 (Notebook) Max-Q und 1080 (Notebook). Im Detail schwankt diese Divergenz natürlich, zwischen max. 11 % im 3DMark Firestrike Graphics im Vergleich von Asus Zephyrus mit dem Eurocom Tornado F5 Killer Edition auf der einen und bis zu 26 % im 3DMark Firestrike Graphics im Vergleich zwischen der 1080 (Notebook) Max-Q Referenz und dem Asus G701VIK-BA049T. Tatsächlich suggeriert Nvidia jedoch, dass es nur einen geringfügigen und nicht nennenswerten Leistungsunterschied im Vergleich mit den weniger energieeffizienten Notebook-GPUs gibt. In der Realität sieht das jedoch ganz anders aus. Ich will die hervorragende Ingenieursleistung, eine derartig hohe Grafikleistung in ein so wunderbar kleines Format zu gießen und gleichzeitig thermische Wunder zu vollbringen, keineswegs schlechtreden. Die Werbung ist jedoch äußerst irreführend und gehört kritisiert.
Die geheime Zutat
Nvidia hält sich auffällig zurück, wenn es darum geht zu erklären, was genau eine Max-Q-Karte eigentlich ausmacht. Nur so viel ist bekannt: Es ist eine Kombination aus Hardware, Software und Designanpassungen des Notebooks. Um nochmal auf den Vergleich von Digital Foundry zurückzukommen: Der Grund, warum die 1080 (Notebook) Max-Q im Vergleich mit der 1080 und 1070 so schlecht abschneidet, ist in der Tatsache zu suchen, dass sie eine massiv reduzierte TDP aufweist (nicht im Sinne von thermischem Limit, sondern wie viel Strom die GPU ziehen darf), heruntergetaktet ist (sowohl Basis- als auch Turbo-Takt) und womöglich auch noch mit einer niedrigeren Spannung (was, wie wir später feststellen werden, durchaus von Vorteil sein kann) läuft als die normalen non-Max-Q 1000 (Notebook) GPUs.
Was genau bedeutet diese reduzierte TDP? Einfach gesagt handelt es sich dabei um die elektrische Leistung in Watt, welche die GPU aus dem Akku ziehen kann. 1080 (Desktop) GPUs reichen von 180 W (Nvidia Referenz) über 300 W (EVGA FTW Hybrid) bis hin zu unbeschränkt (Asus Strix mit offiziellem öffentlich erhältlichem XOC-BIOS), 1080 (Notebook) reichen von 150 W (Razer Blade Pro, Eurocom Tornado F5 Killer Edition) bis 200 W (MSI GT73VR). Die Mehrzahl der mit einer 1080 (Notebook) GPU ausgestatteten Notebooks liegt bei etwa 180 W (Alienware 17, MSI GT83VR SLI, Acer Predator 17x und 21x SLI, Aorus X7 DT v6, etc.). Das war also die größte für Max-Q zu bewältigende Hürde.
Laptop GTX 1080 | GTX 1080 Max-Q | Desktop GTX 1080 Founder's Edition |
|
Basistakt (MHz) | 1.556 | 1.101-1.290 | 1.607 |
Turbotakt (MHz) | 1.733 | 1.278-1.468 | 1.733 |
TGP (Total Graphics Power, W) | 150-200 | 90-110 | 180 |
Wie der Tabelle oben zu entnehmen ist, liegen die 1080 (Notebook) Max-Q-GPUs zwischen 90 und 110 W, je nach Konfiguration. Der Grund dafür ist in der Ausrichtung dieser GPUs zu finden, denn selbst bei einem sehr guten Kühlsystem ist es eine Sache, 110 W an Wärmeentwicklung abzuführen und eine ganz andere, wenn 180 W abgeführt werden müssen. Und da der primäre Fokus von Max-Q auf minimaler Größe und Lautstärke (max. 40 dB(A) beim Spielen) liegt, gab es keinen anderen Weg, als die elektrische Leistung zu reduzieren. Die Gesetze der Thermodynamik sind nun mal gegeben und können nicht gebogen oder ignoriert werden, somit ist jedes Kühlsystem irgendwann an einer physikalisch definierten Grenze angelegt und kann ohne Erhöhung der Lautstärke die ordnungsgemäße Kühlung nicht mehr gewährleisten. Hinzu kommt, dass die Basis-Frequenz variabel ist und in den langsamsten Karten auf bis zu 1.101 MHz sinken kann. Das Problem hierbei ist, dass die der Reduzierung des Energiebedarfs von 180 auf 110 W (ich lasse die 90-W-Karte mal bewusst außen vor) zugrundeliegende Technik kein Hexenwerk und vor allem auch keine Neuentwicklung ist. Das Absenken der Taktfrequenz ist ein allseits bekannter Weg, die Effizienz zu steigern. Dasselbe gilt jedoch auch für die Reduzierung der Betriebsspannung. Mehr dazu später.
Ich will dabei die restlichen Aspekte des Gesamtpakets „Max-Q“, wie die Maximallautstärke, nicht außer Acht lassen, sondern lediglich anmerken, dass die Reduzierung der elektrischen Leistung eines Chips durch Reduktion von Betriebsspannung und/oder Taktraten keine besondere Leistung darstellt. Insbesondere dann nicht, wenn keine individuelle Vorabselektion auf besonders effiziente Chips stattfindet.
Es bleibt somit die Frage, was so schlimm daran sein soll, der Mobilität ein wenig Performance zu opfern. Schließlich ist auch das ein allseits bekannter Kompromiss, und je höher die Mobilität, desto mehr Einschnitte bei der Leistungsfähigkeit, und dem stimme ich auch uneingeschränkt zu: An diesem Kompromiss ist erstmal nichts verkehrt. Der Knackpunkt ist jedoch, dass Nvidia für die Max-Q-Varianten der Chips denselben Preis abruft wie für die normalen non-Max-Q-Varianten. Zwar sind die exakten Kaufpreise schwer zu ermitteln, da Nvidia Notebook-GPUs nicht direkt an Endkunden verkauft und stattdessen direkt mit den OEMs zusammenarbeitet. Logischerweise bestehen zwischen den Partnern entsprechende Verschwiegenheitserklärungen, so dass keine Details zu Preisen nach außen dringen. Es gibt jedoch auch GPUs im MXM-Format, die für Aufrüstungen verwendet werden. Auf Basis der Daten dieser MXM-Module können wir schlussfolgern, dass eine GTX 1080 (Notebook) einen OEM im Einkauf etwa 1.200 US-Dollar kostet, eine GTX 1070 (Notebook) etwa 750 US-Dollar. Die exakten Preise variieren natürlich wie schon geschrieben je nach OEM, daher sind das nur grobe Richtwerte. Grundsätzlich gilt jedoch: Eine 1080 (Notebook), egal ob Max-Q oder nicht, liegt überall dort, wo man die Wahl zwischen den beiden GPUs hat, in der Regel etwa 400 US-Dollar über einer 1070 (Notebook). Basierend auf diesen Daten - den einzigen, die uns Außenstehenden für Analysen zur Verfügung stehen - haben hier also eine etwa 1.200 US-Dollar teure Notebook-GPU, die in etwa die Leistungsfähigkeit einer 380 US-Dollar teuren Desktop-GPU (GTX 1070) erbringt. Außerdem beziehen sich diese Angaben auf Nvidias Referenz-Design. AIB-Partner, wie Asus oder EVGA, bieten teilweise GTX-1070-Karten an (Asus Striix, EVGA FTW), die für quasi dasselbe Geld deutlich mehr zu leisten vermögen. Unten stehende Tabelle zeigt einen Vergleich der Futuremark Performance verschiedener Grafikkarten mit GTX 1070 und GTX 1080.
Die Idee, Desktop-GPUs direkt mit Notebook-GPUs zu vergleichen, wurde mir gegenüber schon des Öfteren als schlecht bezeichnet, da Laptops laut Nvidias Aussage hochintegrierte Systeme sind. Insbesondere seit ab etwa 2014 keine GeForce-MXM-B-Referenzdesigns mehr verfügbar waren und Intel im selben Zeitraum damit begann, sämtliche mobilen CPUs zu verlöten statt zu sockeln. Ich möchte dennoch auf den Preisunterschied im allgemeinen eingehen, da es schon seit langer Zeit den Trend gibt, für Notebook-Komponenten deutlich mehr zu verlangen, obwohl sie eine wesentlich geringere Performance erbringen. Der Fokus dieses Artikels liegt in der Preisgestaltung der 1080 (Notebook) Max-Q GPU, da es meiner Meinung nach eine Grenze gibt, wie viel für ein Produkt mit reduzierter Leistungsfähigkeit verlangt werden darf. Im Kern bedeutet der obere Absatz also, dass selbst die beste GTX 1080 (Notebook) Max-Q-GPU alt aussieht im Vergleich zu einer GPU, die nur rund ein Drittel so viel kostet.
Und obwohl bei Max-Q-Karten das Übertakten standardmäßig aktiviert ist und erste Tests darauf hindeuten, dass dank reduzierter Spannungen je nach Design mehr oder weniger viel Spielraum vorhanden sein dürfte, bricht dies mit der „kühl und leise“-Prämisse der Max-Q Technologie, wie beim Asus Zephyrus zu sehen ist. Mir wurde zugetragen, dass ein Max-Q-Design zwar kein Limit in Bezug auf die maximal erlaubte Temperatur hat, jedoch entwickelt wurde, um jederzeit unter 40 dB(A) zu bleiben. Den OEMs steht es jedoch frei, einen Grenzwert für die Temperatur einzustellen, ab der die Lüfter dann deutlich höher drehen. Bei Asus liegt dieses Limit bei 75 °C, danach drehen die Lüfter ordentlich auf und durchbrechen den Schallpegel von 40 dB(A) deutlich. Dies ist auch dem Review des Asus Zephyrus hier auf Notebookcheck zu entnehmen.
Eine alternative Methode?
Diese Erkenntnis bedeutet, dass die von Nvidia veröffentlichten TGPs (siehe oben) mitnichten die optimalen Effizienzpunkte für die eigenen GPUs sind, ab denen weitere Steigerungen der Performance durch erhöhte Zufuhr von und Bedarf an Energie vernachlässigbar werden.
Ich hätte da ein paar Ideen, wie Nvidia den derzeitigen Stand der 1080 (Notebook) Max-Q hätte erreichen könnte, ohne auf eine 1080 zurückgreifen und entsprechend kassieren zu müssen. Gehen wir mal einen Schritt zurück und schauen uns die GTX 1070 (Notebook) näher an. Diese entspricht nicht zu 100 % der Desktop-Variante derselben GPU, denn sie verfügt über mehr Kerne (2.048 um genau zu sein). Gleichzeitig hat sie jedoch eine deutlich niedrigere maximale TDP von nur mehr 115 W und ist dadurch in ihrer Fähigkeit, den hohen Turbo-Takt über längere Zeit zu halten, arg eingeschränkt. Wie ein anderes Video von Digital Foundry sehr gut zeigt, schafft es die GPU relativ problemlos, die reduzierten Taktraten durch die zusätzlichen Recheneinheiten auszugleichen. Dadurch ist die 1070 (Notebook) de facto in der Lage, mit der 1070 (Desktop) mitzuhalten.
Wenn das Ziel von Max-Q eine maximale TDP von 110 W war, dann liegen die 115 W der 1070 (Notebook) da schon verdammt nah dran. Tatsächlich haben es viele Anwender (insbesondere im Asus Forum) problemlos geschafft, mittels MSI Afterburner die Betriebsspannung ihrer GPUs sehr weit zu reduzieren, was zu höheren Turbo-Taktraten und niedrigeren Temperaturen geführt hat. Einige sind sogar so weit gegangen, den Turbo-Takt auf max. 1.750 MHz und die Spannung hierfür auf zwischen 0,825 und 0,875 V zu pinnen. Die Temperaturen sanken spürbar, und die GPU war in der Lage, den hohen Turbo-Takt dauerhaft unter Last zu halten. Etwas, was im Auslieferungsmodus der Karte aufgrund von Einschränkungen bei TDP, Temperatur und Betriebsspannung unmöglich schien. In Anbetracht der Tatsache, dass die Spannung im direkten Zusammenhang mit Temperatur und Energiebedarf steht, ist dies nicht weiter verwunderlich. Standardmäßig liegt die 10er-Serie (Notebook) im Schnitt zwischen 1,050 V und 1,063 V unter Last. Eine Absenkung dieser Spannung führt zu einem niedrigeren Energieverbrauch bei gleicher Leistungsfähigkeit, da die Karte den Turbo-Takt wesentlich länger halten kann. Der Unterschied zwischen 0,875 V und 1,05 V ist extrem groß und spricht für die allgemeine Qualität der Chips der der non-Max-Q 1000er-Serie (Notebook).
Wichtig ist hierbei, dass es bei Pascal GPUs nicht die Möglichkeit gibt, eine spezifische Spannung einzustellen, und man stattdessen den Spannungsverlauf optimiert. Diese Methode hat logischerweise einen Nachteil: Die Reduzierung der Betriebsspannung kann einen Einfluss auf die Stabilität haben, daher muss hier eine Balance gefunden werden. Nicht jeder Chip läuft problemlos und stabil mit 1.800 MHz bei 0,8 V. Basierend auf den vorliegenden Informationen kann eine intelligente Spannungskurve jedoch einen gewaltigen Unterschied ausmachen. Einem Anwender ist es beispielsweise gelungen, im 3DMark Firestrike mit seiner non-Max-Q 1070 (Notebook) GPU die Performance der 1080 (Notebook) Max-Q-GPU zu erreichen und dabei gerade mal 100 W zu ziehen. Und dies ausschließlich durch Absenken der Betriebsspannung. Ein anderer Enthusiast hat es geschafft, die Taktfrequenz auf bis zu 1.974 MHz zu schrauben, ohne dabei mehr als 1 V anlegen zu müssen. Ein weiterer Beweis für die hohe Qualität und Effizienz der existierenden non-Max-Q-GPUs.
Weitere Tests mit reduzierter Spannung und abgestuften Energieniveaus ergaben, dass der tatsächliche Knick in der TDP-pro-Performance-Kurve für eine 1070 (Notebook) bei 110–115 W liegt, mit einem Turbo-Maximum von 150 W (Anmerkung: die Zahlen stellen keine real gemessenen Werte dar, sondern lediglich die Software-Limits). Folglich gilt auch, dass eine 1080 (Notebook) einen deutlich höheren Wert als jene 110 W aufweisen muss, mit denen die 1080 (Notebook) Max-Q spezifiziert ist. Stattdessen passt der optimale Effizienzpunkt von 110 W am besten zur 1070 (Notebook) GPU.
Diese Erkenntnis bedeutet, dass die von Nvidia veröffentlichten TGPs (siehe oben) mitnichten die optimalen Effizienzpunkte für die eigenen GPUs sind, ab denen weitere Steigerungen der Performance durch erhöhte Zufuhr von und Bedarf an Energie vernachlässigbar werden.
Was heißt all das nun in der Praxis? Faktisch bedeutet das also, dass Nvidia – wenn sie nur wollen würden – durchaus in der Lage wären, ein Grafikkarten-BIOS zu entwickeln, das für die bestehenden GPUs das Spannungsniveau anpasst und reduziert und die TDP-Limits gleichzeitig auf hohem Niveau hält. Dadurch wäre man in der Lage, mit einer 1070 (Notebook) GPU dieselbe oder sogar eine bessere Performance zu erzielen als mit einer 1080 (Notebook) Max-Q. Gleichzeitig könnte man eine noch schnellere Max-Q-GPU bereitstellen, die OEMs dann nach Bedarf in ihren Designs verbauen könnten, so wie beispielsweise Alienware mitten im Lebenszyklus des Alienware 17 R4 den Schwenk von 150 W auf 180 W durchgeführt hat. Dadurch würde das Performance-Niveau insgesamt angehoben werden. Dies würde wahrscheinlich einer Karte mit 100 W TDP, einer maximalen Spannung von 0,95 V und einer marginalen Reduzierung der Taktrate um vielleicht 100 MHz entsprechen, um die Stabilität zu gewährleisten. Damit würde eine 1070 (Notebook) Max-Q mit dauerhaftem Turbo-Takt von 1.700-1.800 MHz entstehen, abhängig von der Temperatur natürlich, und sogar noch höher (jenseits der 1.800 MHz) für Max-P-Karten, die jedoch bedeutend kühler bleiben würden. Zwischen normaler 1070 (Notebook) und 1070 (Notebook) Max-Q gäbe es nur noch geringfügige Performance-Unterschiede, jedoch mit höheren Übertaktungspotenzial bei den sogenannten Max-P-Karten. Dies würde der aktuellen Preisgestaltung wesentlich besser entsprechen und den Unterscheidbarkeit der Karten weg von der Leistungsfähigkeit und hin zur Wahl der Plattform verlagern.
Geht man also davon aus, dass eine 1070 (Notebook) Max-Q aus obigem Beispiel Ähnliches leisten würde wie eine 1080 (Notebook) Max-Q heute (oder vielleicht sogar ein wenig besser, wenn man sie mit den restlichen Vorteilen von Max-Q vereinen würde), wären ähnlichen Anpassungen der 1080 (Notebook) Max-Q Tür und Tor geöffnet. Eine Karte mit 115-125 W Limit und vergleichbar geringem Performance-Unterschied zur Max-P-Variante. Der Preis wäre zwar noch immer sehr hoch, aber zumindest gerechtfertigt. Soweit ich das beurteilen kann, wäre die Rückkehr zu den aus der Vergangenheit bekannten Performance-Unterschieden zwischen "M"-Karten und ihren Desktop-Äquivalenten damit wieder Geschichte. Meiner Meinung nach würden davon alle profitieren. Vielleicht würden einige Notebooks etwas dicker werden - 21 mm Dicke (also etwa 2 mm mehr), um die stromhungrigeren 1080 (Notebook) Max-Q-GPUs unterzubringen.
Richtige Wärmetechnik
Aus Sicht der Verbraucher und des Marketings ist das Beeindruckende an Max-Q – egal ob leistungsbeschränkt oder nicht –, dass die Ingenieure es geschafft haben, eine 1080 in ein derart kompaktes Format zu bekommen, ohne dass sie dabei überhitzt. Ich kann nicht oft genug betonen, dass diese Ingenieursleistung absolut phänomenal ist. Die Vapor-Chamber-Kontaktpunkte auf den Kühlern und andere Techniken, wie zum Beispiel, dass das Asus Zephyrus sich unten öffnet, wenn man es aufklappt, um den Luftfluss zu verbessern, sind fantastisch. Das Kühlsystem eines ODMs, der viel Energie in die Entwicklung steckt, steht diesem allerdings in nichts nach. Meiner Meinung nach müsste jedes High-End Gaming-Notebook mit Pascal GPU, egal ob dick oder dünn, von Anfang an entsprechend entwickelt worden sein.
Vapor-Chamber-Kühlsysteme machen beispielsweise einen gewaltigen Unterschied beim Umgang mit entstehender Hitze aus. Diese spezielle Technologie wurde entwickelt, um Wärmeenergie möglichst schnell von der Quelle abzuführen. Um Cooler Master zu zitieren:
Vapor-Chamber-Technologie ist dem herkömmlichen und traditionellen Kühlkörper aus Metall meilenweit überlegen und nebenbei noch leichter und kleiner. Der thermische Ausbreitungswiderstand ist beinahe vernachlässigbar und der Wärmewiderstand liegt um ein Vielfaches unterhalb dem von Kupfer, Karbon-Nanoröhren-Paste oder Karbon-Diamanten-Paste. Vapor-Chamber ermöglicht nicht nur eine deutlich höhere Energiedichte und höhere TDPs bei sicheren Betriebstemperaturen, sondern erhöht auch die Lebenszeit der einzelnen Komponenten und damit des gesamten Produkts.
(“Vapor Chambers provide far superior thermal performance than traditional solid metal Heat spreaders at reduced weight and height. Thermal spread resistance is almost neglectable and thermal resistance is x times lower than (refer to copper, carbon nanotube compound, nano diamond compound). Vapor Chambers enable higher component heat densities and TDPs at safe operating temperatures, extending the components and products life.”)
Ohne jetzt zu sehr ins Detail zu gehen - diese Technologie führt dazu, dass Kühlkörper deutlich effizienter arbeiten, weil sie in die Lage versetzt werden, Wärmeenergie nicht nur wesentlich schneller von der Quelle abzuführen, sondern auch deutlich mehr Energie pro Fläche transportieren zu können. Im Ergebnis sind thermische Hotspots wie GPUs eine deutlich geringere Herausforderung, denn je schneller die entstehende Wärme abgeführt und nach außen abgegeben werden kann, desto besser ist die Kühlleistung. Eine Erfolgsgarantie gibt es jedoch mitnichten. Ein verhältnismäßig winziger Vapor-Chamber-Kühler mit unterdurchschnittlichem Kühlsystem im Rest des Notebooks, wie dies beispielsweise beim Razer Blade Pro 1080 der Fall ist, kann einem größeren, jedoch vernünftig entwickelten Non-Vapor-Chamber-Kühlsystem wie dem des MSI GT73VR 7RF oder den Alienware 17 R4 Notebooks, nicht gezwungenermaßen das Wasser reichen.
Ein Nachteil für alle jene ODMs, die gerne Vapor-Chamber-Technologie einsetzen wollen, ist die notwendige Präzision bei der Entwicklung. Nicht zu 100 % exakter Kontakt zwischen Kühler und Chip ist bei Notebooks leider keine Besonderheit, und Techniken wie das „Lapping“, bei dem die Kontaktflächen mit feinstem Sandpapier bearbeitet werden, um die Kontaktfläche zu erhöhen, würde einen Vapor-Chamber-Kühler ruinieren: Der Kontaktpunkt muss extrem präzise und dünn sein. Derartig hohe Anforderungen an die Präzision erhöhen logischerweise die Kosten. Notebooks, in die entsprechender Aufwand gesteckt wurde, sind meist unter den Top-Modellen der Hersteller zu finden. Würde man die für Max-Q-Notebooks notwendige Präzision jedoch investieren, um die „dicken“ Notebooks zu optimieren, wäre es mit Sicherheit möglich, Größe und Lautstärke deutlich zu reduzieren. Wer weiß, vielleicht wären sogar Steigerungen der Performance im Rahmen des Möglichen. Man stelle sich nur mal vor: 5-10 mm Einsparung bei den derzeit am Markt befindlichen Notebooks und das Ganze ohne Performance-Verlust.
Mir ist absolut unbegreiflich, wieso Max-Q-Notebooks derartig rigide und strenge Anforderungen an das Kühlsystem haben, wo doch ohnehin leistungsreduzierte Hardware zum Einsatz kommt. Denn für die anderen Pascal Notebooks gelten diese nicht. Stattdessen wird sämtliche Innovationsenergie in die Entwicklung eines Kühlsystems gesteckt, welches dazu dient, eine überteuerte GTX 1070 (zumindest was die Performance angeht) in ein sehr dünnes Notebook zu stecken. Als Hauptverkaufsargument dient dann die Tatsache, dass man diese Karte „GTX 1080“ nennen kann, quasi eine Art Razer Blade Pro, das nicht überhitzt. Außerdem stellt sich mir die Frage, warum von der Optimierung der Effizienz nicht auch der Rest der Pascal Serie profitieren sollte. Selbst die nagelneue GeForce MX150 bedient sich noch immer der alten Treibertricks und ist eher auf Performance statt auf Energieverbrauch optimiert. Es grenzt schon fast an eine Schande, dass Nvidia und die ODMs/OEMs nicht den Weg der Optimierung der bereits vorhandenen 1070 (und, in Folge dessen, auch sämtlicher anderer GPUs) gegangen sind. Die Schuld liegt nicht nur ausschließlich bei Nvidia, schließlich wird wieder und wieder betont, wie wichtig die Mitarbeit jedes einzelnen OEMs war, um das zu erreichen, was nun als Max-Q das Licht der Welt erblickt hat (Quelle):
Statement Nvidia, 28.6.2017: Wir führen keine Auslese durch. Die Preise hängen von den OEMs und dem jeweiligen Design ab. Ein Laptop ist ein hochintegriertes System, dessen Preis von vielerlei Faktoren abhängt. Max-Q ist eine neue Herangehensweise, um das beste dünne, leichte und leistungsstarke Notebook zu entwickeln. Sie entstand in enger Zusammenarbeit bei Forschung und Entwicklung zwischen Nvidia und den OEMs.
("We are not binning. Pricing will depend on the OEM and the design. A laptop is an integrated system and pricing depends on a wide variety of factors. Max-Q is a new approach to building the best thin, light and powerful laptops, and has required extended work from NVIDIA and the OEMs in R&D.")
Das heißt: Die GPUs für Max-Q-Notebooks werden nicht nach Effizienz vorsortiert. Es handelt sich um ganz normale, zufällig ausgewählte Chips aus der normalen Produktion. Was wiederum meine Spekulationen bezüglich der Optimierung einer 1070 bestärkt. Mir ist bewusst, dass dies der Standpunkt eines Pro-Consumers ist. Ich verstehe auch die geschäftlichen Hintergründe dieser Entscheidung, bin jedoch mit der Art und Weise, wie die 1080 Max-Q beworben wird und mit dem Preis, für den sie verkauft wird, nicht einverstanden.
Fazit: Was steckt in einem Namen?
Alles in allem scheint es sich dabei aus meiner persönlichen Sicht der Dinge um einen Trick zu handeln, um Anwendern neue Geräte zu verkaufen. Die Entwicklungsarbeit, die in die Kühlsysteme gesteckt wurde, ist beachtenswert. Ich frage mich jedoch ernsthaft, warum dies nicht schon zuvor geschehen ist. Warum heißt die 1080 Max-Q noch immer „GTX 1080“, obwohl sie nur die Performance einer GTX 1070 abliefert? Ein Durchschnitt von rund 1.400 MHz einer 1080 (Notebook) Max-Q-GPU ist keine „geringfügige“ Reduzierung der Taktfrequenz im Namen der Energieeffizienz im Vergleich mit einer herkömmlichen GTX 1080 (Notebook); es ist eine massive Untertaktung, die zu einem Performance-Verlust von rund 30 % führt und am Ende trotzdem genauso viel kostet. Und zu allem Überfluss - im Namen des Marketings - auch noch genauso heißt.
Der Name ist so wichtig, dass mit ihm die generelle Akzeptanz einer Grafikkarte steht und fällt. Nehmen wir als Beispiel die 780M – eine fantastische mobile GPU mit hervorragendem Übertaktungspotenzial. Ich selbst habe es geschafft, mit Hilfe eines entsperrten Grafikkarten-BIOS eine solche GPU stabil mit 1.110 MHz zu betreiben. Damit entsprach sie vollumfänglich der GTX-680-Referenz und das in einem Laptop! Für Otto-Normal-Anwender war es dennoch keine echte „780“, und Erklärungsversuche, dass es eigentlich eine 680/770 mit minimal geringfügigerer Leistungsfähigkeit sein sollte, waren meist Zeitverschwendung. Anspielungen auf ihr Übertaktungspotenzial führten nicht selten zu Witzen und Witzen und Memes über Feuer und Öfen.
Ganz anders sieht dies bei den 1080 (Notebook) GPUs aus, denn diese sind tatsächlich das, wofür sie sich ausgeben. Doch selbst das Team von Global Foundry hat sich ernsthaft gefragt, ob eine solche Max-Q-GPU in Anbetracht des massiven Performance-Unterschieds den Namen „GTX 1080“ zurecht trägt, oder ob die Bezeichnung „GTX 1070“ nicht passender gewesen wäre. Ich stimme zwar nicht damit überein, die GPU GTX 1070 zu nennen, aber etwas in Richtung „1080M“ oder sogar „1080MQ“, um auf den drastischen Performance-Unterschied zur echten 1080 hinzuweisen, wäre deutlich besser gewesen. Zwar kennzeichnen GPU-Z und Futuremark die jeweiligen GPUs entsprechend als Max-Q-Varianten, allerdings ist diese postfaktische Kennzeichnung die falsche Zeit am falschen Ort.
Wenn Max-Q eine komplette Plattform verkörpern soll, ist das ein weiterer Grund für ein anderes Namenssystem, denn diese Karten sind eindeutig unterschiedlich zu den bestehenden GPUs. Auch der Preis müsste der Realität angepasst werden und die echte Leitungsfähigkeit widerspiegeln. Für einen Namensvetter zu kassieren, fühlt sich irgendwie falsch an, wenn die erbrachte Performance nicht stimmt. Allein die Tatsache, dass die Karten in allen Aspekten abgesehen von TDP und Taktfrequenz (Anzahl der Kerne, Anzahl der ROPs und TMUs, Busbreite der Speicheranbindung, Geschwindigkeit und Größe des Speichers, Art des Speichers) übereinstimmen, rechtfertigt noch nicht die Art und Weise, wie sie beworben und zu welchem Preis sie verkauft werden. Dies gilt umso mehr, als dass die Anwender davon ausgehen, dass es sich wie bei allen bisherigen Notebooks der 10er-Serie auch hier um mobile GPUs mit äquivalenter Leistung zur gleichnamigen Desktop-GPU handelt. Die 1080 (Notebook) Max-Q ist demzufolge eben immer noch eine „1080“, und für die große Masse reicht dies als Information bereits völlig aus.
Wie meinen Ausführungen zu entnehmen ist, gäbe es mindestens einen möglichen alternativen Weg, um Max-Q-Karten bereitzustellen. Meiner Meinung nach hätten Endanwender von diesem Weg deutlich mehr profitiert, insbesondere wenn es um den Preis geht. Ist die 1080 (Notebook) Max-Q tatsächlich die beste Lösung? Die Entscheidung liegt letztlich beim Endanwender. Weder kann noch will ich jedem einzelnen diese Entscheidung abnehmen. Meiner Meinung nach ist dies jedoch nicht der Fall – zumindest nicht in Anbetracht des derzeitigen Verkaufspreises und der Art und Weise wie die GPUs beworben werden.
Ich bin schon seit Langem in der Notebook-Enthusiasten-Szene aktiv und habe schon vielerlei Dinge kommen und gehen sehen. Meiner Meinung nach zahlen wir bereits jetzt schon mehr als genug für reduzierte Performance und eingeschränkte Hardware, und was Nvidia da treibt, ist aus meiner persönlichen Sicht massiv irreführend. Was ist eure Meinung?