Die NVIDIA GeForce GTX 670M ist eine High-End Grafikkarte für Notebooks, welche im 1. Quartal 2012 vorgestellt wurde. Sie basiert noch auf dem älteren GF114 Kern der GeForce GTX 570M, der einen Ableger der Fermi-Architektur darstellt und daher DirectX 11 und OpenGL 4.0 unterstützt. Wie auch bei der GTX 570M sind nur 336 der 384 Shader-ALUs freigeschalten (im Unterschied zur GTX 675M), die Taktraten fallen jedoch leicht höher aus.
Architektur
Im Gegensatz zu einigen anderen Ablegern der GeForce 600M Serie basiert die GTX 670M noch nicht auf der aktuellen Kepler-Architektur, sondern auf dem GF114-Chip des Vorgängers Fermi. Der Chip bietet im Vollausbau 384 CUDA-Cores (= Shader-ALUs), 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.
Leistung
Die Leistung der GeForce GTX 670M liegt aufgrund der leicht höheren Taktraten etwas vor der älteren GTX 570M, kann sich von dieser jedoch nicht entscheidend absetzen. Daher reiht sie sich in etwa auf dem Niveau der AMD Radeon HD 6970M ein. Verglichen mit dem schnellsten Ableger des Kepler-Chips GK107, der GTX 660M, geht die GTX 670M um etwa 15 Prozent Führung. Die meisten anspruchsvollen Spiele wie Anno 2070 oder Battlefield 3 sind somit in hohen Detailstufen flüssig darstellbar sein, teils auch mit zusätzlichem Antialiasing (Stand 2012).
Features
Wie auch die GTX 570M unterstützt die Grafikkarte die Bitstream Übertragung von HD Audio (z.B. Dolby True HD und DTS-HD bei Blu-Ray) per HDMI Anschluss. Zur Dekodierung von HD Videos durch die Grafikkarte unterstützt die GTX 670M PureVideo HD. Der verbaute Video Processor 4 (VP4) beherrscht das Feature Set C und kann somit MPEG-1, MPEG-2, MPEG-4 Part 2 (MPEG-4 ASP - z.B. DivX oder Xvid), VC-1/WMV9 und H.264 vollständig auf der Grafikkarte dekodieren (VLD, IDCT, Motion Compensation und Deblocking). Des Weiteren können gleichzeitig zwei Streams in Echtzeit dekodiert werden um beispielsweise Blu-Ray Picture-in-Picture umzusetzen (2x1080p lt DXVAChecker). Außerdem bezeichnet PureVideo HD die Fähigkeit der HDCP Verschlüsselung für digitale Anschlüsse.
Für generelle Berechnungen (z.B. Video Transcoding) können die Shader Cores (auch CUDA Cores genannt) durch die Schnittstellen CUDA, DirectCompute 2.1 und OpenCL angesprochen werden. Dank PhysX kann die 670M Physikberechnungen zudem auf die GPU verlagern.
Auch 3D Vision inklusive Support für HDMI 1.4a wird von der GeForce GTX 670M unterstützt. Somit kann man (sofern vom Notebookhersteller unterstützt) 3D Spiele, 3D Web Streaming Videos, 3D Fotos und 3D Blu-Ray Videos auf einem 3D Fernseher (per separatem 3DTV Play) oder am internen 3D Display wiedergeben.
Der Stromverbrauch der GeForce GTX 670M liegt in etwa auf dem Niveau der GTX 570M und ist damit laut Gerüchten bei ungefähr 75 Watt (TDP des MXM Boards inkl. Speicher) angesiedelt. Dadurch eignet sich die Grafikkarte am besten für große und schwere Notebooks. Ohne Last kann sich der Chip im 2D Betrieb automatisch auf 50/100 MHz (Chip / Shader) bzw. 200/400 MHz im 3D Betrieb herunter takten um Strom zu sparen. Außerdem unterstützt der GF114 Optimus zum automatischen Umschalten zwischen integrierter Grafikeinheit und Nvidia GPU. Dies muss jedoch vom Notebookhersteller umgesetzt werden und kann nicht nachgerüstet werden.
Die NVIDIA GeForce GTX 680MX ist eine mobile, DirectX 11 fähige Grafikkarte der High-End-Klasse, welche speziell für den Einsatz in Apples iMac vorgesehen ist. Sie basiert wie die GTX 680M auf dem GK104-Chip der Kepler-Architektur (28-nm-Prozess), bietet allerdings statt 1344 alle 1536 1D-Shader. Die Kerntaktrate ist mit 720 MHz jedoch identisch. Der Speichertakt (GDDR5) wurde von 900 auf 1.250 MHz (5.000 MHz effektiv) angehoben, wodurch die Speicherbandbreite von 115.2 auf 160 GB/s steigt.
Architektur
Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK104 verfügt als Kepler-Chip über 8 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 680MX sind alle 8 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.
Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.
Leistung
Die Grafikleistung sollte durch die zusätzlichen Shadereinheiten sowie den deutlich gesteigerten Speichertakt um etwa 15 bis 25 Prozent oberhalb der GTX 680M liegen. Die GTX 680MX ist damit die schnellste mobile Grafikkarte (wenn auch nur in Apples iMac eingesetzt) und sollte das Niveau einer Desktop GTX 580 erreichen. Nahezu alle Spiele des Jahres 2012 sind damit in maximalen Einstellungen und hoher Auflösung flüssig spielbar.
Battlefield 3 zum Beispiel war in der nativen Auflösung mit 30 fps (Ultra Settings ) in unserer Benchmarksequenz noch flüssig spielbar. Für Multiplayergefechte empfiehlt sich jedoch auf Antialiasing zu verzichten, oder auf 1920x1080 (45 fps) zurückzuschalten.
Features
Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angesteuert werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.
Der HD-Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.
Gegenüber der GTX 680M (100 Watt) dürfte die Leistungsaufnahme weiter angestiegen sein, was die Kühlung der Grafikkarte erschwert. Bislang ist uns kein Hersteller bekannt, der die GTX 680MX auch in Notebooks verbauen möchte, sodass sich der Einsatz auf Apples iMac beschränkt. Gerüchte sprechen derzeit von 122 Watt Stromverbrauch. Im Leerlauf kann die GPU mithilfe der Optimus-Technologie zugunsten einer integrierten Grafikeinheit auch vollständig deaktiviert werden (nur ohne 3D Vision).
Average Benchmarks NVIDIA GeForce GTX 670M → 100%n=4
Average Benchmarks NVIDIA GeForce GTX 680MX → 228%n=4
- Bereich der Benchmarkergebnisse für diese Grafikkarte - Durchschnittliche Benchmarkergebnisse für diese Grafikkarte * Smaller numbers mean a higher performance 1 This benchmark is not used for the average calculation
Spiele-Benchmarks
Die folgenden Benchmarks basieren auf unseren Spieletests mit Testnotebooks. Die Performance dieser Grafikkarte bei den gelisteten Spielen ist abhängig von der verwendeten CPU, Speicherausstattung, Treiber und auch Betriebssystem. Dadurch müssen die untenstehenden Werte nicht repräsentativ sein. Detaillierte Informationen über das verwendete System sehen Sie nach einem Klick auf den fps-Wert.