NVIDIA GeForce GTX 680MX vs NVIDIA GeForce GTX 675M SLI
NVIDIA GeForce GTX 680MX
► remove from comparisonDie NVIDIA GeForce GTX 680MX ist eine mobile, DirectX 11 fähige Grafikkarte der High-End-Klasse, welche speziell für den Einsatz in Apples iMac vorgesehen ist. Sie basiert wie die GTX 680M auf dem GK104-Chip der Kepler-Architektur (28-nm-Prozess), bietet allerdings statt 1344 alle 1536 1D-Shader. Die Kerntaktrate ist mit 720 MHz jedoch identisch. Der Speichertakt (GDDR5) wurde von 900 auf 1.250 MHz (5.000 MHz effektiv) angehoben, wodurch die Speicherbandbreite von 115.2 auf 160 GB/s steigt.
Architektur
Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK104 verfügt als Kepler-Chip über 8 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 680MX sind alle 8 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.
Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.
Leistung
Die Grafikleistung sollte durch die zusätzlichen Shadereinheiten sowie den deutlich gesteigerten Speichertakt um etwa 15 bis 25 Prozent oberhalb der GTX 680M liegen. Die GTX 680MX ist damit die schnellste mobile Grafikkarte (wenn auch nur in Apples iMac eingesetzt) und sollte das Niveau einer Desktop GTX 580 erreichen. Nahezu alle Spiele des Jahres 2012 sind damit in maximalen Einstellungen und hoher Auflösung flüssig spielbar.
Battlefield 3 zum Beispiel war in der nativen Auflösung mit 30 fps (Ultra Settings ) in unserer Benchmarksequenz noch flüssig spielbar. Für Multiplayergefechte empfiehlt sich jedoch auf Antialiasing zu verzichten, oder auf 1920x1080 (45 fps) zurückzuschalten.
Features
Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angesteuert werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.
Der HD-Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.
Gegenüber der GTX 680M (100 Watt) dürfte die Leistungsaufnahme weiter angestiegen sein, was die Kühlung der Grafikkarte erschwert. Bislang ist uns kein Hersteller bekannt, der die GTX 680MX auch in Notebooks verbauen möchte, sodass sich der Einsatz auf Apples iMac beschränkt. Gerüchte sprechen derzeit von 122 Watt Stromverbrauch. Im Leerlauf kann die GPU mithilfe der Optimus-Technologie zugunsten einer integrierten Grafikeinheit auch vollständig deaktiviert werden (nur ohne 3D Vision).
NVIDIA GeForce GTX 675M SLI
► remove from comparison
Die NVIDIA GeForce GTX 675M SLI ist eine High-End Grafiklösung für Laptops welche auf zwei "Fermi" Chips (GF114) basiert. Die beiden Grafikkarten werden durch eine SLI Bridge verbunden und rendern normalerweise abwechselnd ein Bild (AFR). Dadurch kann es auch zu Mikrorucklern kommen (ungleichmäßige Abstände zwischen zwei Bildern führen zu spürbaren Rucklern trotz flüssiger fps Raten von etwa 30 fps). Die GTX 675M SLI unterstützt DirectX 11 und braucht sehr viel Strom (2x 100 Watt für das gesamte Board inkl 2GB GDDR5) und kommt daher nur in großen und schweren DTR Notebooks zum Einsatz. Die GTX 675M ist auch als SLI-Lösung exakt identisch mit der GTX 580M.
Im Gegensatz zur GeForce GTX 485M basiert jede einzelne GTX 675M auf dem auf Stromverbrauch optimierten GF114 Chip und nicht mehr dem GF104. Die Architektur und Performance pro MHz ist dadurch nicht betroffen, jedoch sind nun höhere Taktfrequenzen bei vergleichbarem Stromverbrauch möglich. Der GF114 basiert auf der Fermi Architektur und bietet im Vollausbau 384 Kerne, 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.
Die Grafikleistung der 675M SLI liegt dank der höheren Taktraten etwas oberhalb der 485M SLI und auf einem Niveau mit der GTX 580M SLI. Dadurch kann man anspruchsvolle Spiele wie Crysis 2, Dirt 3 oder Metro 2033 in 1920x1080 und hohen Details flüssig spielen. Die meisten Spiele sind auch mit Antialiasing und maximalen Details flüssig darstellbar.
Wie auch die GeForce 300M Serie, bietet die Geforce GTX 675M PureVideo HD mit dem VideoProcessor 4 (VP4) und VDPAU Feaure Set C. Dadurch kann die Grafikkarte HD Videos in H.254, VC-1, MPEG-2 und MPEG-4 ASP vollständig dekodieren ohne den Prozessor zu belasten. Mittels Flash 10.1 können auch Flash Videos GPU unterstützt wiedergegeben werden.
Eine Neuheit des GF114 Chips im Vergleich zum GF100 (GTX 480M) ist die Unterstützung der Bitstream Übertragung von HD Audio (Blu-Ray) per HDMI Anschluss. Wie die Radeon HD 5850, kann die GTX 675M Dolby True HD und DTS-HD per Bitstream ohne Qualitätsverlust an einen geeigneten Receiver übertragen.
Die Rendering Cores der Nvidia GeForce GTX 675M können dank CUDA und DirectCompute Unterstützung auch für generelle Berechnungen (z.B. das Encodieren von Videos) verwendet werden. Weiters kann man mittels PhysX die Rechenkerne für Physikberechnungen einsetzen. So kann man z.B. eine Grafikkarte dediziert für PhysX abstellen und die zweite Karte des SLI Verbunds berechnet die Grafikausgabe.
Im Vergleich zu Desktop Grafikkarten, ist die GeForce GTX 675M SLI vergleichbar mit zwei GeForce GTX 560Ti im SLI Modus. Die 560Ti ist jedoch deutlich höher getaktet und dadurch schneller.
NVIDIA GeForce GTX 680MX | NVIDIA GeForce GTX 675M SLI | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
GeForce GTX 600M Serie |
|
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Architektur | Kepler | Fermi | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pipelines | 1536 - unified | 768 - unified | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Kerntakt | 720 MHz | 620 MHz | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Speichertakt | 5000 MHz | 3000 MHz | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Speicherbandbreite | 256 Bit | 256 Bit | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Speichertyp | GDDR5 | GDDR5 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Max. Speichergröße | 2048 MB | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Shared Memory | nein | nein | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
API | DirectX 11, Shader 5.0, OpenGL 4.3 | DirectX 11, Shader 5.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Stromverbrauch | 122 Watt | 2x 100 Watt | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Transistors | 3.5 Billion | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Herstellungsprozess | 28 nm | 40 nm | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Features | Optimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV Play | Optimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV Play | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Notebookgröße | groß (17" z.B.) | groß (17" z.B.) | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Erscheinungsdatum | 23.10.2012 | 06.01.2011 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Herstellerseite | www.geforce.com | www.nvidia.com | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Codename | N12E-GTX2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Shadertakt | 1240 MHz |