NVIDIA GeForce GTX 680MX vs NVIDIA GeForce GTX 670M vs NVIDIA GeForce GTX 670MX SLI
NVIDIA GeForce GTX 680MX
► remove from comparisonDie NVIDIA GeForce GTX 680MX ist eine mobile, DirectX 11 fähige Grafikkarte der High-End-Klasse, welche speziell für den Einsatz in Apples iMac vorgesehen ist. Sie basiert wie die GTX 680M auf dem GK104-Chip der Kepler-Architektur (28-nm-Prozess), bietet allerdings statt 1344 alle 1536 1D-Shader. Die Kerntaktrate ist mit 720 MHz jedoch identisch. Der Speichertakt (GDDR5) wurde von 900 auf 1.250 MHz (5.000 MHz effektiv) angehoben, wodurch die Speicherbandbreite von 115.2 auf 160 GB/s steigt.
Architektur
Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK104 verfügt als Kepler-Chip über 8 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 680MX sind alle 8 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.
Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.
Leistung
Die Grafikleistung sollte durch die zusätzlichen Shadereinheiten sowie den deutlich gesteigerten Speichertakt um etwa 15 bis 25 Prozent oberhalb der GTX 680M liegen. Die GTX 680MX ist damit die schnellste mobile Grafikkarte (wenn auch nur in Apples iMac eingesetzt) und sollte das Niveau einer Desktop GTX 580 erreichen. Nahezu alle Spiele des Jahres 2012 sind damit in maximalen Einstellungen und hoher Auflösung flüssig spielbar.
Battlefield 3 zum Beispiel war in der nativen Auflösung mit 30 fps (Ultra Settings ) in unserer Benchmarksequenz noch flüssig spielbar. Für Multiplayergefechte empfiehlt sich jedoch auf Antialiasing zu verzichten, oder auf 1920x1080 (45 fps) zurückzuschalten.
Features
Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angesteuert werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.
Der HD-Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.
Gegenüber der GTX 680M (100 Watt) dürfte die Leistungsaufnahme weiter angestiegen sein, was die Kühlung der Grafikkarte erschwert. Bislang ist uns kein Hersteller bekannt, der die GTX 680MX auch in Notebooks verbauen möchte, sodass sich der Einsatz auf Apples iMac beschränkt. Gerüchte sprechen derzeit von 122 Watt Stromverbrauch. Im Leerlauf kann die GPU mithilfe der Optimus-Technologie zugunsten einer integrierten Grafikeinheit auch vollständig deaktiviert werden (nur ohne 3D Vision).
NVIDIA GeForce GTX 670M
► remove from comparisonDie NVIDIA GeForce GTX 670M ist eine High-End Grafikkarte für Notebooks, welche im 1. Quartal 2012 vorgestellt wurde. Sie basiert noch auf dem älteren GF114 Kern der GeForce GTX 570M, der einen Ableger der Fermi-Architektur darstellt und daher DirectX 11 und OpenGL 4.0 unterstützt. Wie auch bei der GTX 570M sind nur 336 der 384 Shader-ALUs freigeschalten (im Unterschied zur GTX 675M), die Taktraten fallen jedoch leicht höher aus.
Architektur
Im Gegensatz zu einigen anderen Ablegern der GeForce 600M Serie basiert die GTX 670M noch nicht auf der aktuellen Kepler-Architektur, sondern auf dem GF114-Chip des Vorgängers Fermi. Der Chip bietet im Vollausbau 384 CUDA-Cores (= Shader-ALUs), 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.
Leistung
Die Leistung der GeForce GTX 670M liegt aufgrund der leicht höheren Taktraten etwas vor der älteren GTX 570M, kann sich von dieser jedoch nicht entscheidend absetzen. Daher reiht sie sich in etwa auf dem Niveau der AMD Radeon HD 6970M ein. Verglichen mit dem schnellsten Ableger des Kepler-Chips GK107, der GTX 660M, geht die GTX 670M um etwa 15 Prozent Führung. Die meisten anspruchsvollen Spiele wie Anno 2070 oder Battlefield 3 sind somit in hohen Detailstufen flüssig darstellbar sein, teils auch mit zusätzlichem Antialiasing (Stand 2012).
Features
Wie auch die GTX 570M unterstützt die Grafikkarte die Bitstream Übertragung von HD Audio (z.B. Dolby True HD und DTS-HD bei Blu-Ray) per HDMI Anschluss. Zur Dekodierung von HD Videos durch die Grafikkarte unterstützt die GTX 670M PureVideo HD. Der verbaute Video Processor 4 (VP4) beherrscht das Feature Set C und kann somit MPEG-1, MPEG-2, MPEG-4 Part 2 (MPEG-4 ASP - z.B. DivX oder Xvid), VC-1/WMV9 und H.264 vollständig auf der Grafikkarte dekodieren (VLD, IDCT, Motion Compensation und Deblocking). Des Weiteren können gleichzeitig zwei Streams in Echtzeit dekodiert werden um beispielsweise Blu-Ray Picture-in-Picture umzusetzen (2x1080p lt DXVAChecker). Außerdem bezeichnet PureVideo HD die Fähigkeit der HDCP Verschlüsselung für digitale Anschlüsse.
Für generelle Berechnungen (z.B. Video Transcoding) können die Shader Cores (auch CUDA Cores genannt) durch die Schnittstellen CUDA, DirectCompute 2.1 und OpenCL angesprochen werden. Dank PhysX kann die 670M Physikberechnungen zudem auf die GPU verlagern.
Auch 3D Vision inklusive Support für HDMI 1.4a wird von der GeForce GTX 670M unterstützt. Somit kann man (sofern vom Notebookhersteller unterstützt) 3D Spiele, 3D Web Streaming Videos, 3D Fotos und 3D Blu-Ray Videos auf einem 3D Fernseher (per separatem 3DTV Play) oder am internen 3D Display wiedergeben.
Der Stromverbrauch der GeForce GTX 670M liegt in etwa auf dem Niveau der GTX 570M und ist damit laut Gerüchten bei ungefähr 75 Watt (TDP des MXM Boards inkl. Speicher) angesiedelt. Dadurch eignet sich die Grafikkarte am besten für große und schwere Notebooks. Ohne Last kann sich der Chip im 2D Betrieb automatisch auf 50/100 MHz (Chip / Shader) bzw. 200/400 MHz im 3D Betrieb herunter takten um Strom zu sparen. Außerdem unterstützt der GF114 Optimus zum automatischen Umschalten zwischen integrierter Grafikeinheit und Nvidia GPU. Dies muss jedoch vom Notebookhersteller umgesetzt werden und kann nicht nachgerüstet werden.
NVIDIA GeForce GTX 670MX SLI
► remove from comparisonDie NVIDIA GeForce GTX 670MX SLI ist eine DirectX 11.1 High-End-Notebook-Grafiklösung, welche aus einem Verbund zweier GeForce GTX 670MX Grafikkarten besteht. Diese basieren auf dem in 28nm hergestellten GK106-Chip (teils auch GK104) der Kepler Architektur und bieten jeweils 960 1D-Shader. Die Taktraten von 600 MHz für den Chip und 700 MHz (2.800 MHz effektiv) für den 2 GByte großen GDDR5-Speicher unterscheiden sich nicht von einer einzelnen GTX 670M. Die beiden Grafikkarten werden durch eine SLI Bridge verbunden und rendern normalerweise abwechselnd ein Bild (AFR). Dadurch kann es auch zu Mikrorucklern kommen (ungleichmäßige Abstände zwischen zwei Bildern führen zu spürbaren Rucklern trotz flüssiger fps Raten von etwa 30 fps).
Architektur
Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK106 verfügt als Kepler-Chip über 5 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 670MX sind davon alle 5 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.
Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.
Leistung
Bei guter Treiberunterstützung für das Spiel verdoppelt sich die Grafikleistung im Vergleich zu einer einzelnen GTX 670MX beinahe. Dadurch liegt der Verbund nahe der Performance einer einzelnen GTX 680M. Durch den höheren Stromverbrauch und das Problem mit Microrucklern, aber auch die nicht in jedem Fall optimale Multi-GPU-Skalierung ist eine einzelne, stärkere Karte wie die GTX 680M dennoch eher zu empfehlen.
Features
Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays, die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angebunden werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.
Der PureVideo HD Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.
Leistungsaufnahme
Die Leistungsaufnahme der GeForce GTX 670MX SLI verdoppelt sich gegenüber einer einzelnen GTX 670MX, womit der gesamte Verbund deutlich über einer einzelnen GTX 680M liegen sollte. Lediglich sehr große DTR-Notebooks können diese Wärmeleistung abführen. Derzeit wird auch Optimus von der SLI Kombination nicht unterstützt.
NVIDIA GeForce GTX 680MX | NVIDIA GeForce GTX 670M | NVIDIA GeForce GTX 670MX SLI | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
GeForce GTX 600M Serie |
|
|
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Architektur | Kepler | Fermi | Kepler | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pipelines | 1536 - unified | 336 - unified | 1920 - unified | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Kerntakt | 720 MHz | 598 MHz | 600 MHz | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Speichertakt | 5000 MHz | 3000 MHz | 2800 MHz | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Speicherbandbreite | 256 Bit | 192 Bit | 2x 192 Bit | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Speichertyp | GDDR5 | GDDR5 | GDDR5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Max. Speichergröße | 2048 MB | 3 GB | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Shared Memory | nein | nein | nein | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
API | DirectX 11, Shader 5.0, OpenGL 4.3 | DirectX 11, Shader 5.0 | DirectX 11, Shader 5.1, OpenGL 4.2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Stromverbrauch | 122 Watt | 150 Watt | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Transistors | 3.5 Billion | 2 Billion | 5.1 Billion | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Herstellungsprozess | 28 nm | 40 nm | 28 nm | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Features | Optimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV Play | Optimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV Play | Optimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV Play | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Notebookgröße | groß (17" z.B.) | groß (17" z.B.) | groß (17" z.B.) | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Erscheinungsdatum | 23.10.2012 | 22.03.2012 | 01.10.2012 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Herstellerseite | www.geforce.com | www.geforce.com | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Codename | N13E-GS1-LP | N13E-GR | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Shadertakt | 1196 MHz |