Die NVIDIA GeForce GTX 670M ist eine High-End Grafikkarte für Notebooks, welche im 1. Quartal 2012 vorgestellt wurde. Sie basiert noch auf dem älteren GF114 Kern der GeForce GTX 570M, der einen Ableger der Fermi-Architektur darstellt und daher DirectX 11 und OpenGL 4.0 unterstützt. Wie auch bei der GTX 570M sind nur 336 der 384 Shader-ALUs freigeschalten (im Unterschied zur GTX 675M), die Taktraten fallen jedoch leicht höher aus.
Architektur
Im Gegensatz zu einigen anderen Ablegern der GeForce 600M Serie basiert die GTX 670M noch nicht auf der aktuellen Kepler-Architektur, sondern auf dem GF114-Chip des Vorgängers Fermi. Der Chip bietet im Vollausbau 384 CUDA-Cores (= Shader-ALUs), 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.
Leistung
Die Leistung der GeForce GTX 670M liegt aufgrund der leicht höheren Taktraten etwas vor der älteren GTX 570M, kann sich von dieser jedoch nicht entscheidend absetzen. Daher reiht sie sich in etwa auf dem Niveau der AMD Radeon HD 6970M ein. Verglichen mit dem schnellsten Ableger des Kepler-Chips GK107, der GTX 660M, geht die GTX 670M um etwa 15 Prozent Führung. Die meisten anspruchsvollen Spiele wie Anno 2070 oder Battlefield 3 sind somit in hohen Detailstufen flüssig darstellbar sein, teils auch mit zusätzlichem Antialiasing (Stand 2012).
Features
Wie auch die GTX 570M unterstützt die Grafikkarte die Bitstream Übertragung von HD Audio (z.B. Dolby True HD und DTS-HD bei Blu-Ray) per HDMI Anschluss. Zur Dekodierung von HD Videos durch die Grafikkarte unterstützt die GTX 670M PureVideo HD. Der verbaute Video Processor 4 (VP4) beherrscht das Feature Set C und kann somit MPEG-1, MPEG-2, MPEG-4 Part 2 (MPEG-4 ASP - z.B. DivX oder Xvid), VC-1/WMV9 und H.264 vollständig auf der Grafikkarte dekodieren (VLD, IDCT, Motion Compensation und Deblocking). Des Weiteren können gleichzeitig zwei Streams in Echtzeit dekodiert werden um beispielsweise Blu-Ray Picture-in-Picture umzusetzen (2x1080p lt DXVAChecker). Außerdem bezeichnet PureVideo HD die Fähigkeit der HDCP Verschlüsselung für digitale Anschlüsse.
Für generelle Berechnungen (z.B. Video Transcoding) können die Shader Cores (auch CUDA Cores genannt) durch die Schnittstellen CUDA, DirectCompute 2.1 und OpenCL angesprochen werden. Dank PhysX kann die 670M Physikberechnungen zudem auf die GPU verlagern.
Auch 3D Vision inklusive Support für HDMI 1.4a wird von der GeForce GTX 670M unterstützt. Somit kann man (sofern vom Notebookhersteller unterstützt) 3D Spiele, 3D Web Streaming Videos, 3D Fotos und 3D Blu-Ray Videos auf einem 3D Fernseher (per separatem 3DTV Play) oder am internen 3D Display wiedergeben.
Der Stromverbrauch der GeForce GTX 670M liegt in etwa auf dem Niveau der GTX 570M und ist damit laut Gerüchten bei ungefähr 75 Watt (TDP des MXM Boards inkl. Speicher) angesiedelt. Dadurch eignet sich die Grafikkarte am besten für große und schwere Notebooks. Ohne Last kann sich der Chip im 2D Betrieb automatisch auf 50/100 MHz (Chip / Shader) bzw. 200/400 MHz im 3D Betrieb herunter takten um Strom zu sparen. Außerdem unterstützt der GF114 Optimus zum automatischen Umschalten zwischen integrierter Grafikeinheit und Nvidia GPU. Dies muss jedoch vom Notebookhersteller umgesetzt werden und kann nicht nachgerüstet werden.
Die NVIDIA GeForce GTX 680MX ist eine mobile, DirectX 11 fähige Grafikkarte der High-End-Klasse, welche speziell für den Einsatz in Apples iMac vorgesehen ist. Sie basiert wie die GTX 680M auf dem GK104-Chip der Kepler-Architektur (28-nm-Prozess), bietet allerdings statt 1344 alle 1536 1D-Shader. Die Kerntaktrate ist mit 720 MHz jedoch identisch. Der Speichertakt (GDDR5) wurde von 900 auf 1.250 MHz (5.000 MHz effektiv) angehoben, wodurch die Speicherbandbreite von 115.2 auf 160 GB/s steigt.
Architektur
Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK104 verfügt als Kepler-Chip über 8 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 680MX sind alle 8 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.
Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.
Leistung
Die Grafikleistung sollte durch die zusätzlichen Shadereinheiten sowie den deutlich gesteigerten Speichertakt um etwa 15 bis 25 Prozent oberhalb der GTX 680M liegen. Die GTX 680MX ist damit die schnellste mobile Grafikkarte (wenn auch nur in Apples iMac eingesetzt) und sollte das Niveau einer Desktop GTX 580 erreichen. Nahezu alle Spiele des Jahres 2012 sind damit in maximalen Einstellungen und hoher Auflösung flüssig spielbar.
Battlefield 3 zum Beispiel war in der nativen Auflösung mit 30 fps (Ultra Settings ) in unserer Benchmarksequenz noch flüssig spielbar. Für Multiplayergefechte empfiehlt sich jedoch auf Antialiasing zu verzichten, oder auf 1920x1080 (45 fps) zurückzuschalten.
Features
Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angesteuert werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.
Der HD-Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.
Gegenüber der GTX 680M (100 Watt) dürfte die Leistungsaufnahme weiter angestiegen sein, was die Kühlung der Grafikkarte erschwert. Bislang ist uns kein Hersteller bekannt, der die GTX 680MX auch in Notebooks verbauen möchte, sodass sich der Einsatz auf Apples iMac beschränkt. Gerüchte sprechen derzeit von 122 Watt Stromverbrauch. Im Leerlauf kann die GPU mithilfe der Optimus-Technologie zugunsten einer integrierten Grafikeinheit auch vollständig deaktiviert werden (nur ohne 3D Vision).
Die NVIDIA GeForce GTX 675M ist eine High-End Grafikkarte für Notebooks, welche im 1. Quartal 2012 vorgestellt wurde. Sie basiert noch auf dem älteren GF114 Kern der GeForce GTX 580M, der einen Ableger der Fermi-Architektur darstellt und daher DirectX 11 und OpenGL 4.0 unterstützt. Wie auch die GTX 580M besitzt die Karte 384 Shader-ALUs (im Unterschied zur GTX 670M mit nur 336 aktiven Shader-ALUs), die Taktraten sind ebenfalls identisch.
Architektur
Im Gegensatz zu einigen anderen Ablegern der GeForce 600M Serie basiert die GTX 675M noch nicht auf der aktuellen Kepler-Architektur, sondern auf dem GF114-Chip des Vorgängers Fermi. Der Chip bietet im Vollausbau 384 CUDA-Cores (= Shader-ALUs), 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.
Performance
Aufgrund der identischen technischen Daten sollte sich auch die Leistung der GTX 675M mit jener der GTX 580M decken. Die höheren Taktraten, das breitere 256-Bit-Speicherinterface sowie die größere Anzahl an Shader-ALUs sollte zu einer etwa 30 Prozent höheren Performance als bei der GTX 670M führen. Auch verglichen mit dem schnellsten Ableger des Kepler-Chips GK107, der GTX 660M, geht die GTX 675M deutlich in Führung.
Bis auf wenige Ausnahmen wie Metro 2033 oder Crysis 2 (DX11) sind dadurch aktuelle und anspruchsvolle Spiele in FullHD Auflösung mit maximalen Details flüssig spielbar (Stand Frühjahr 2012). Mit einer ausreichend schnellen CPU läuft z.B. Duke Nukem Forever, Witcher 2, Dirt 3, BF: Bad Company 2 und Bulletstorm in 1920x1080 und höchster Detailstufe flüssig. Mehr Details zu den Spielebenchmarks finden Sie auf der Seite der GeForce GTX 580M.
Features
Wie auch die GTX 580M unterstützt die Grafikkarte die Bitstream Übertragung von HD Audio (z.B. Dolby True HD und DTS-HD bei Blu-Ray) per HDMI Anschluss. Zur Dekodierung von HD Videos durch die Grafikkarte unterstützt die GTX 675M PureVideo HD. Der verbaute Video Processor 4 (VP4) beherrscht das Feature Set C und kann somit MPEG-1, MPEG-2, MPEG-4 Part 2 (MPEG-4 ASP - z.B. DivX oder Xvid), VC-1/WMV9 und H.264 vollständig auf der Grafikkarte dekodieren (VLD, IDCT, Motion Compensation und Deblocking). Des Weiteren können gleichzeitig zwei Streams in Echtzeit dekodiert werden um beispielsweise Blu-Ray Picture-in-Picture umzusetzen (2x1080p lt DXVAChecker). Außerdem bezeichnet PureVideo HD die Fähigkeit der HDCP Verschlüsselung für digitale Anschlüsse.
Für generelle Berechnungen (z.B. Video Transcoding) können die Shader Cores (auch CUDA Cores genannt) durch die Schnittstellen CUDA, DirectCompute 2.1 und OpenCL angesprochen werden. Dank PhysX kann die 675M Physikberechnungen zudem auf die GPU verlagern.
Auch 3D Vision inklusive Support für HDMI 1.4a wird von der GeForce GTX 675M unterstützt. Somit kann man (sofern vom Notebookhersteller unterstützt) 3D Spiele, 3D Web Streaming Videos, 3D Fotos und 3D Blu-Ray Videos auf einem 3D Fernseher (per separatem 3DTV Play) oder am internen 3D Display wiedergeben.
Der Stromverbrauch sollte sich auf dem Niveau der alten GeForce GTX 580M und damit bei 100 Watt inklusive Speicher und MXM Board bewegen. Dadurch eignet sich die Grafikkarte am besten für große und schwere Notebooks. Außerdem unterstützt der GF114 Optimus zum automatischen Umschalten zwischen integrierter Grafikeinheit und Nvidia GPU. Dies muss jedoch vom Notebookhersteller umgesetzt werden und kann nicht nachgerüstet werden.
Average Benchmarks NVIDIA GeForce GTX 670M → 100%n=4
Average Benchmarks NVIDIA GeForce GTX 680MX → 228%n=4
Average Benchmarks NVIDIA GeForce GTX 675M → 120%n=4
- Bereich der Benchmarkergebnisse für diese Grafikkarte - Durchschnittliche Benchmarkergebnisse für diese Grafikkarte * Smaller numbers mean a higher performance 1 This benchmark is not used for the average calculation
Spiele-Benchmarks
Die folgenden Benchmarks basieren auf unseren Spieletests mit Testnotebooks. Die Performance dieser Grafikkarte bei den gelisteten Spielen ist abhängig von der verwendeten CPU, Speicherausstattung, Treiber und auch Betriebssystem. Dadurch müssen die untenstehenden Werte nicht repräsentativ sein. Detaillierte Informationen über das verwendete System sehen Sie nach einem Klick auf den fps-Wert.