Die NVIDIA GeForce GTX 675M SLI ist eine High-End Grafiklösung für Laptops welche auf zwei "Fermi" Chips (GF114) basiert. Die beiden Grafikkarten werden durch eine SLI Bridge verbunden und rendern normalerweise abwechselnd ein Bild (AFR). Dadurch kann es auch zu Mikrorucklern kommen (ungleichmäßige Abstände zwischen zwei Bildern führen zu spürbaren Rucklern trotz flüssiger fps Raten von etwa 30 fps). Die GTX 675M SLI unterstützt DirectX 11 und braucht sehr viel Strom (2x 100 Watt für das gesamte Board inkl 2GB GDDR5) und kommt daher nur in großen und schweren DTR Notebooks zum Einsatz. Die GTX 675M ist auch als SLI-Lösung exakt identisch mit der GTX 580M.
Im Gegensatz zur GeForce GTX 485M basiert jede einzelne GTX 675M auf dem auf Stromverbrauch optimierten GF114 Chip und nicht mehr dem GF104. Die Architektur und Performance pro MHz ist dadurch nicht betroffen, jedoch sind nun höhere Taktfrequenzen bei vergleichbarem Stromverbrauch möglich. Der GF114 basiert auf der Fermi Architektur und bietet im Vollausbau 384 Kerne, 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.
Die Grafikleistung der 675M SLI liegt dank der höheren Taktraten etwas oberhalb der 485M SLI und auf einem Niveau mit der GTX 580M SLI. Dadurch kann man anspruchsvolle Spiele wie Crysis 2, Dirt 3 oder Metro 2033 in 1920x1080 und hohen Details flüssig spielen. Die meisten Spiele sind auch mit Antialiasing und maximalen Details flüssig darstellbar.
Wie auch die GeForce 300M Serie, bietet die Geforce GTX 675M PureVideo HD mit dem VideoProcessor 4 (VP4) und VDPAU Feaure Set C. Dadurch kann die Grafikkarte HD Videos in H.254, VC-1, MPEG-2 und MPEG-4 ASP vollständig dekodieren ohne den Prozessor zu belasten. Mittels Flash 10.1 können auch Flash Videos GPU unterstützt wiedergegeben werden.
Eine Neuheit des GF114 Chips im Vergleich zum GF100 (GTX 480M) ist die Unterstützung der Bitstream Übertragung von HD Audio (Blu-Ray) per HDMI Anschluss. Wie die Radeon HD 5850, kann die GTX 675M Dolby True HD und DTS-HD per Bitstream ohne Qualitätsverlust an einen geeigneten Receiver übertragen.
Die Rendering Cores der Nvidia GeForce GTX 675M können dank CUDA und DirectCompute Unterstützung auch für generelle Berechnungen (z.B. das Encodieren von Videos) verwendet werden. Weiters kann man mittels PhysX die Rechenkerne für Physikberechnungen einsetzen. So kann man z.B. eine Grafikkarte dediziert für PhysX abstellen und die zweite Karte des SLI Verbunds berechnet die Grafikausgabe.
Im Vergleich zu Desktop Grafikkarten, ist die GeForce GTX 675M SLI vergleichbar mit zwei GeForce GTX 560Ti im SLI Modus. Die 560Ti ist jedoch deutlich höher getaktet und dadurch schneller.
Die NVIDIA GeForce GTX 660M ist eine DirectX 11 Notebook-Grafikkarte der oberen Mittelklasse, welche im 1. Quartal 2012 vorgestellt wurde. Sie basiert auf dem GK107 Chip der Kepler-Serie und wird in 28nm bei TSMC hergestellt. Die GTX 660M repräsentiert die derzeit schnellste Ausbaustufe des GK107 und wird ausschließlich mit GDDR5 an einem 128 Bit breiten Speicherinterface angeboten.
Architektur
Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK107 verfügt als derzeit kleinster Kepler-Chip über 2 Shader-Blöcke, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine bilden diese einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung der 384 ALUs in etwa 192 Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll, speziell bei hohen Faktoren, noch einmal deutlich verbessert worden sein. Als zusätzliche Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann, ausreichende Kühlungsreserven vorausgesetzt, die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.
Leistung
Die Performance der GeForce GTX 660M liegt durch den schnellen GDDR5-Speicher etwas oberhalb der DDR3-Version der GT 650M und erreicht in etwa das ältere High-End-Modell Radeon HD 6950M. Auch die Fermi-basierte GeForce GTX 570M kann sich kaum absetzen. Die meisten anspruchsvollen Spiele wie Anno 2070 oder Battlefield 3 sind somit in hohen Detailstufen flüssig darstellbar, weniger fordernde Titel teils auch mit zusätzlichem Antialiasing (Stand Frühjahr 2012).
Features
Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angebunden werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.
Der PureVideo HD Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.
Die Leistungsaufnahme der GeForce GTX 660M sollte für Notebooks im Bereich 15-17 Zoll geeignet sein. Bei geringer Last helfen zusätzliche Taktstufen dabei, Energie einzusparen, im Leerlauf kann die GPU mit Hilfe der Optimus-Technologie zugunsten eines IGP auch vollständig deaktiviert werden.
Die NVIDIA GeForce GTX 680MX ist eine mobile, DirectX 11 fähige Grafikkarte der High-End-Klasse, welche speziell für den Einsatz in Apples iMac vorgesehen ist. Sie basiert wie die GTX 680M auf dem GK104-Chip der Kepler-Architektur (28-nm-Prozess), bietet allerdings statt 1344 alle 1536 1D-Shader. Die Kerntaktrate ist mit 720 MHz jedoch identisch. Der Speichertakt (GDDR5) wurde von 900 auf 1.250 MHz (5.000 MHz effektiv) angehoben, wodurch die Speicherbandbreite von 115.2 auf 160 GB/s steigt.
Architektur
Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK104 verfügt als Kepler-Chip über 8 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 680MX sind alle 8 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.
Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.
Leistung
Die Grafikleistung sollte durch die zusätzlichen Shadereinheiten sowie den deutlich gesteigerten Speichertakt um etwa 15 bis 25 Prozent oberhalb der GTX 680M liegen. Die GTX 680MX ist damit die schnellste mobile Grafikkarte (wenn auch nur in Apples iMac eingesetzt) und sollte das Niveau einer Desktop GTX 580 erreichen. Nahezu alle Spiele des Jahres 2012 sind damit in maximalen Einstellungen und hoher Auflösung flüssig spielbar.
Battlefield 3 zum Beispiel war in der nativen Auflösung mit 30 fps (Ultra Settings ) in unserer Benchmarksequenz noch flüssig spielbar. Für Multiplayergefechte empfiehlt sich jedoch auf Antialiasing zu verzichten, oder auf 1920x1080 (45 fps) zurückzuschalten.
Features
Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angesteuert werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.
Der HD-Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.
Gegenüber der GTX 680M (100 Watt) dürfte die Leistungsaufnahme weiter angestiegen sein, was die Kühlung der Grafikkarte erschwert. Bislang ist uns kein Hersteller bekannt, der die GTX 680MX auch in Notebooks verbauen möchte, sodass sich der Einsatz auf Apples iMac beschränkt. Gerüchte sprechen derzeit von 122 Watt Stromverbrauch. Im Leerlauf kann die GPU mithilfe der Optimus-Technologie zugunsten einer integrierten Grafikeinheit auch vollständig deaktiviert werden (nur ohne 3D Vision).
Average Benchmarks NVIDIA GeForce GTX 675M SLI → 100%n=4
Average Benchmarks NVIDIA GeForce GTX 660M → 48%n=4
Average Benchmarks NVIDIA GeForce GTX 680MX → 124%n=4
- Bereich der Benchmarkergebnisse für diese Grafikkarte - Durchschnittliche Benchmarkergebnisse für diese Grafikkarte * Smaller numbers mean a higher performance 1 This benchmark is not used for the average calculation
Spiele-Benchmarks
Die folgenden Benchmarks basieren auf unseren Spieletests mit Testnotebooks. Die Performance dieser Grafikkarte bei den gelisteten Spielen ist abhängig von der verwendeten CPU, Speicherausstattung, Treiber und auch Betriebssystem. Dadurch müssen die untenstehenden Werte nicht repräsentativ sein. Detaillierte Informationen über das verwendete System sehen Sie nach einem Klick auf den fps-Wert.