Nvidia Pascal. NVIDIA: Neue GPUs auf Basis der Pascal-Architektur sind auf dem Weg

NVIDIA bereitet die Veröffentlichung einer neuen Serie von Gaming-Grafikkarten vor, die mit der GeForce GTX 1080 auf den Markt kommen wird. Dieses Modell wird das erste Produkt der Gaming-Klasse sein, das auf der Pascal-Architektur basiert. Die GeForce GTX 1080 wird eine Reihe technologischer Innovationen mit sich bringen, über die wir in diesem Artikel sprechen werden. Das Material wird theoretischer Natur sein und die architektonischen Merkmale und neuen Fähigkeiten der GeForce GTX 1080 besprechen. Tests und Vergleiche mit anderen Grafikkarten folgen später.

Rasante Fortschritte bei der Miniaturisierung von Siliziumchips in letzten Jahren verlangsamt. Intel hat sogar die „Tick-Tock“-Strategie aufgegeben, die einen regelmäßigen Übergang zu einem feineren technischen Prozess beinhaltete. Auf dem Grafikbeschleunigermarkt gab es mehrere Generationen von NVIDIA- und AMD-Produkten mit derselben 28-nm-Prozesstechnologie. Dies war teilweise von Vorteil und zwang die Hersteller, der Entwicklung der Architektur mehr Aufmerksamkeit zu schenken. Dieser qualitative Übergang war einst beim Übergang von der Kepler- zur Maxwell-Architektur deutlich sichtbar, als sich die neue Generation als produktiver und energieeffizienter erwies, ohne die Anzahl der Transistoren zu erhöhen oder gar die Größe der Kristalle zu verringern. Beispielsweise basiert die GeForce GTX 980 auf einem kompakteren GM204-Chip, was die Grafikkarte nicht daran hindert, eine höhere Leistung im Vergleich zur GeForce GTX 780 Ti mit einem komplexeren GK110-Chip zu zeigen.

Die neue GeForce-Generation erhält sowohl eine neue Architektur als auch einen ausgefeilteren technischen Prozess. Und die GeForce GTX 1080 ist in vielerlei Hinsicht ein Vorreiter. Dies ist der erste Grafikbeschleuniger auf Basis der Pascal-Architektur mit dem GP104-Grafikprozessor, der nach der 16-nm-FinFET-Prozesstechnologie hergestellt wird. Zu den wichtigen Neuerungen zählt NVIDIA einen noch schnelleren GDDR5X-Speicher. Neue technologische Funktionen ermöglichen es, die Frequenzen auf Rekordniveau zu erhöhen und so ein neues Niveau der „Meisterschaft“ zu definieren. Und neue Gaming-Technologien erweitern die Möglichkeiten von GeForce, insbesondere im Bereich der Arbeit mit VR-Inhalten. Dies sind die fünf Hauptmerkmale, die der Hersteller bei dem neuen Produkt hervorhebt.

Es ist erwähnenswert, dass die Pascal-Architektur ursprünglich vom spezialisierten Rechenbeschleuniger Tesla P100 entwickelt wurde. Es basiert auf dem GP100-Prozessor. Da das Produkt aber auf einen völlig anderen Anwendungsbereich abzielt, ist die GeForce GTX 1080 ein Vorreiter unter den Desktop-Grafikbeschleunigern.

GPU GP104 ist der Nachfolger von GM204, sodass Sie beim Studium der GeForce GTX 1080 mit der GeForce GTX 980 beginnen können, obwohl der Neuling schneller ist als die GeForce GTX 980 Ti und GeForce GTX Titan X. Pascal-Prozessoren verwenden eine ähnliche Clusterstruktur wie sie Vorgänger, bei denen der GPC-Cluster (Graphics Processing Cluster) im Wesentlichen eine unabhängige Recheneinheit ist. Der GP100 basiert auf sechs Clustern, der GP104 hat vier Cluster und der nächste GP106-Chip soll zwei Cluster haben. Vier GPCs machen die neue GP104-GPU so nah wie möglich an der GM204. Und auch das Blockschaltbild dieses Chips ähnelt einem alten Prozessor.

Unterschiede in der Struktur fallen bei näherer Betrachtung auf. In der Vorgängergeneration umfasste der Cluster vier große Multiprozessor-SMM-Einheiten. Der GP104 verfügt über Ausführungseinheiten niedriger Ordnung, die in fünf Multiprozessor-SM-Einheiten gruppiert sind. Jeder dieser großen Datenverarbeitungseinheiten ist eine eigene Polymorph Engine-Geometrieverarbeitungseinheit zugeordnet, von denen es jetzt 20 statt 16 im GM204 gibt.

Ein SM ist in vier Datenverarbeitungs-Arrays mit eigener Steuerlogik unterteilt, auch dies ähnelt dem Aufbau alter GPUs. Und in beiden Fällen arbeitet der Multiprozessor mit 128 Stream-Cores (CUDA-Cores). Der SM verfügt über 96 KB gemeinsamen Cache, einen separaten Textur-Cache und acht Textureinheiten. Infolgedessen haben wir eine Konfiguration von 2560 Stream-Prozessoren und 160 Textureinheiten. Der neue Prozessor verfügt über 64 ROP-Blöcke und einen 2 MB L2-Cache – es gibt keine Unterschiede zum GM204.

Es gibt mehr Speichercontroller und das gesamte Speichersubsystem hat sich in Pascal geändert. Anstelle von vier 64-Bit-Controllern sind acht 32-Bit-Controller implementiert, was eine Speicherbusbreite von 256 Bit ermöglicht. Nach der erfolgreichen GeForce GTX 980 ist ein solcher Speicherbus in einem Spitzenprodukt keine Überraschung mehr. Gleichzeitig ist die Buseffizienz der GeForce GTX 1080 durch neue Datenkomprimierungsalgorithmen höher. Für die Durchsatzsteigerung sorgen außerdem Chips des neuen GDDR5X-Standards, deren effektiver Datenaustauschwert einer Frequenz von 10 GHz entspricht. Herkömmlicher GDDR5-Speicher war auf Frequenzen bis 7 GHz beschränkt. Das Videopuffervolumen wurde auf 8 GB erhöht.

Dank des neuen technischen Verfahrens ist der GP104 kompakter als der GM204 mit einer größeren Anzahl an Recheneinheiten. Gleichzeitig bietet der neue Prozessor mehr Möglichkeiten, die Frequenzen zu erhöhen. Ursprünglich war der Basiswert auf 1607 MHz eingestellt, mit einem durchschnittlichen Boost-Takt von 1733 MHz. Die Spitzenfrequenzwerte sind sogar noch höher. Bei solchen Rekordfrequenzen erreicht die GeForce GTX 1080 eine TDP von 180 W und liegt damit etwas über der GeForce GTX 980. Allerdings ist der Neuling schneller als die Top-Ti-Version, die eine deutlich höhere TDP aufweist.

Für einen visuellen Vergleich fassen wir in einer Tabelle die Eigenschaften der GeForce GTX 1080 und Top-End-Grafikkarten früherer Generationen zusammen.

Videoadapter GeForce GTX 1080 GeForce GTX Titan X GeForce GTX 980 Ti GeForce GTX 980 GeForce GTX 780 Ti
Kern GP104 GM200 GM200 GM204 GK110
Anzahl der Transistoren, Millionen Stück 7200 8000 8000 5200 7100
Technischer Prozess, nm 16 28 28 28 28
Kernfläche, qm mm 314 601 601 398 561
Anzahl der Stream-Prozessoren 2560 3072 2816 2048 2880
Anzahl der Texturblöcke 160 192 176 128 240
Anzahl der Rendering-Einheiten 64 96 96 64 48
Kernfrequenz, MHz 1607-1733 1000-1075 1000-1075 1126-1216 875-926
Speicherbus, Bit 256 386 386 256 384
Speichertyp GDDR5X GDDR5 GDDR5 GDDR5 GDDR5
Speicherfrequenz, MHz 10010 7010 7010 7010 7010
Speicherkapazität, MB 8192 12288 6144 4096 3072
Unterstützte DirectX-Version 12.1 12.1 12.1 12.1 12.0
Schnittstelle PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 PCI-E 3.0
Kraft, W 180 250 250 165 250

Mittelklasse- und High-End-NVIDIA-Grafikkarten verwenden seit langem die GPU-Boost-Technologie, die die Frequenz der GPU erhöht, bis sie die thermischen oder Leistungsgrenzen überschreitet. Der Mindestwert für den 3D-Modus ist die Grundfrequenz, bei normaler Gaming-Last sind die Frequenzen jedoch oft immer höher. Die neue GeForce erhielt eine verbesserte GPU Boost 3.0-Technologie mit einem flexibleren Algorithmus zum Ändern der Frequenz abhängig von der Versorgungsspannung im Frequenzbeschleunigungsmodus. GPU Boost 2.0 hat einen festen Unterschied zwischen dem Basiswert und der Turbo-Frequenz. Mit GPU Boost 3.0 können Sie verschiedene Frequenzoffsets verwenden, um das Potenzial der GPU besser auszuschöpfen. Theoretisch ändert sich die Frequenz nichtlinear, wenn Parameter im Boost-Modus bei einer Erhöhung oder Verringerung der Spannung automatisch geändert werden. An einigen Stellen kann das Boost-Delta größer sein als bei der alten Version von GPU Boost. Den Benutzern stehen neue flexible Boost-Anpassungsoptionen zur Verfügung. Die neueste Version des EVGA Precision-Dienstprogramms unterstützt bereits die GeForce GTX 1080. Zu ihren Funktionen gehört ein automatischer Scanner mit Stabilitätstest, der eine nichtlineare Boost-Frequenzkurve für verschiedene Spannungen generieren kann. Durch den Übergang zu einem neuen technologischen Verfahren und die Optimierung der Kernstruktur konnte eine so deutliche Frequenzbeschleunigung erreicht werden, dass der maximale Boost im Vergleich zu den angegebenen Werten auf das Niveau von 2 GHz ansteigen kann.

Seit der Einführung von GDDR5 arbeitet NVIDIA an der nächsten Generation von Hochgeschwindigkeitsspeichern. Das Ergebnis der Interaktion mit Speicherentwicklern war die Entstehung von GDDR5X mit einer Datenübertragungsrate von 10 Gbit/s. Die Arbeit mit einem so schnellen Speicher stellt neue Anforderungen an das Layout elektrischer Schaltkreise. Daher wurden die Datenübertragungsleitungen zwischen GPU und Speicherchips neu gestaltet und die Struktur des Chips selbst geändert. All dies ermöglicht Ihnen ein effektives Arbeiten mit einem ultraschnellen Videopuffer. Zu den Vorteilen von GDDR5X gehört eine niedrigere Betriebsspannung von 1,35 V.

Bei einer effektiven Speicherfrequenz von 10.000 MHz beträgt die Steigerung der Bandbreite gegenüber den üblichen 7012 MHz der aktuellen Generation fast 43 %. Aber die Vorteile von Pascal enden hier nicht. GeForce unterstützt spezielle In-Memory-Datenkomprimierungsalgorithmen, wodurch Sie den Cache effizienter nutzen und mehr Daten bei gleicher Bandbreite übertragen können. Es werden mehrere Techniken unterstützt; je nach Datentyp wird ein anderer Komprimierungsalgorithmus ausgewählt. Eine wichtige Rolle spielt der Delta-Farbkomprimierungsalgorithmus. Dadurch wird nicht die Farbe jedes einzelnen Pixels kodiert, sondern der Unterschied zwischen den Pixeln bei der seriellen Datenübertragung. Für jedes Pixel dieser Kachel werden eine bestimmte durchschnittliche Kachelfarbe und Farbverschiebungsdaten berechnet.

Diese Komprimierung macht Maxwell hocheffizient, Pascal ist jedoch noch effizienter. Die GP104-GPU unterstützt außerdem neue Algorithmen mit noch stärkerer Komprimierung für Fälle, in denen der Farbunterschied minimal ist.

Als Beispiel nennt NVIDIA zwei Folien aus dem Spiel Project CARS. Die Kacheln, auf denen die Datenkomprimierung angewendet wurde, sind rosa gefärbt. Die obere Folie zeigt die Kompressionsarbeit an Maxwell, die untere Folie an Pascal.

Wie Sie sehen, wird die Komprimierung in Pascal auch auf die Zonen angewendet, in denen sie bei Maxwell nicht durchgeführt wird. Dadurch wurde fast der gesamte Rahmen komprimiert. Natürlich hängt die Wirksamkeit solcher Algorithmen von der jeweiligen Szene ab. Laut NVIDIA liegt der Unterschied in dieser Effizienz zwischen der GeForce GTX 1080 und der GeForce GTX 980 zwischen 11 % und 28 %. Wenn wir durchschnittlich 20 % annehmen, beträgt die resultierende Steigerung des Durchsatzes unter Berücksichtigung der Erhöhung der Speicherfrequenzen etwa 70 %.

Die neue GeForce-Generation unterstützt Async Compute mit einer verbesserten Nutzung von Rechenressourcen für verschiedene Arten von Aufgaben. In modernen Spielen kann die GPU neben dem Rendern von Bildern auch andere Aufgaben ausführen. Dies kann die Berechnung der Physik von Körpern, die Nachbearbeitung des Bildes und eine spezielle Technik der asynchronen Zeitverzerrung (Asynchronous Time Warp) für den Virtual-Reality-Modus sein. Verschiedene Aufgaben nutzen nicht immer alle Recheneinheiten und die Ausführung jeder Aufgabe kann unterschiedlich lange dauern. Wenn beispielsweise nicht-grafische Berechnungen länger dauern als grafische, dann wartet es immer noch auf den Abschluss jedes Prozesses, bevor es zu neuen Aufgaben wechselt. Gleichzeitig steht ein Teil der GPU-Ressourcen im Leerlauf. Pascal führt den dynamischen Lastausgleich ein. Wenn eine Aufgabe früher erledigt wird, werden die freigewordenen Ressourcen für die Erledigung einer anderen Aufgabe verwendet.

Dies vermeidet Ausfallzeiten und verbessert die Gesamtleistung unter kombinierter GPU-Last. Bei einer solchen Belastung spielt auch die Geschwindigkeit des Aufgabenwechsels eine wichtige Rolle. Pascal unterstützt Aufgabenunterbrechungen auf verschiedenen Ebenen für den schnellstmöglichen Wechsel. Wenn ein neuer Befehl empfangen wird, unterbricht der Prozessor Aufgaben auf der Pixel- und Thread-Verarbeitungsebene, speichert ihren Status für eine spätere Fertigstellung und die Recheneinheiten werden von der neuen Aufgabe übernommen. Pascal unterstützt das Unterbrechen auf der Ebene einzelner Befehle, Maxwell und Kepler nur auf Thread-Ebene.

Durch das Unterbrechen auf verschiedenen Ebenen können Sie den Zeitpunkt des Aufgabenwechsels genauer bestimmen. Dies ist wichtig für die Asynchronous Time Warp-Technik, die das bereits erstellte Bild vor der Ausgabe verzerrt, um es entsprechend der Position des Kopfes zu korrigieren. Bei Asynchronous Time Warp ist ein schneller Vorlauf zum Umschalten genau vor der Bildausgabe nötig, sonst sind Artefakte in Form von Bild-„Jitter“ möglich. Pascal macht diesen Job am besten.

Pascal verfügt jetzt über Hardware-Unterstützung für die Multiprojektionstechnologie, die es Ihnen ermöglicht, gleichzeitig mit verschiedenen Bildprojektionen zu arbeiten. Ein spezieller Simultaneous Multi-Projection-Block innerhalb der PolyMorph Engine ist für die Generierung unterschiedlicher Projektionen bei der Verarbeitung eines Geometriestreams verantwortlich. Dieser Block verarbeitet gleichzeitig Geometrie für 16 Projektionen mit einem oder zwei perspektivischen Zentren. Dies erfordert keine erneute Geometrieverarbeitung und ermöglicht die Replikation von Daten bis zu 32 Mal (16 Projektionen pro zwei Punkte).

Dank der Technologie können Sie bei Konfigurationen mit mehreren Monitoren das richtige Bild erhalten. Bei Verwendung von drei Monitoren wird das Bild für eine Projektion gerendert. Wenn die Randmonitore leicht gedreht werden, um einen Ambience-Effekt zu erzeugen, kommt es zu einer falschen Geometrie in den Seitenbereichen. Durch die Multiprojektion wird das richtige Bild erstellt und entsprechend dem Winkel des Monitors die richtige Projektion erstellt. Die einzige Bedingung für diesen Modus ist, dass die Anwendung selbst ein breites Sichtfeld unterstützt.

Diese Bildgebungstechnik ermöglicht die effizienteste Nutzung gebogener Panels und eröffnet auch die Möglichkeit einer korrekten Wiedergabe auf anderen Bildausgabegeräten, sogar auf einem sphärischen Bildschirm.

Diese Technologie erweitert Pascals Fähigkeiten im Bereich Stereobildgebung und Virtual-Reality-Systeme (VR). Im Stereomodus werden für jedes Auge zwei Bilder derselben Szene erstellt. Durch die Hardwareunterstützung für Simultaneous Multi-Projection können Sie jede Projektion für Ihr Auge mit einer einmaligen Geometrieverarbeitung mithilfe der Single Pass Stereo-Technologie erstellen. Und das beschleunigt die Arbeit in diesem Modus deutlich.

In VR-Systemen verwendet der Benutzer eine Brille mit speziellen Linsen, die bestimmte Verzerrungen hervorrufen. Zum Ausgleich wird das Bild an den Rändern leicht verformt und der Nutzer sieht letztlich ein durch das Objektiv korrigiertes Bild. Doch zunächst stellt die Grafikkarte das Bild in einer normalen Flachprojektion dar, dann verschwindet ein Teil des peripheren Bildes.

Die Lens Matched Shading-Technologie kann ein Bild in vier Quadranten aufteilen und dann die Pixel abtasten. Das heißt, das Bild wird zunächst auf mehrere Ebenen projiziert, die die gekrümmte Form der Linse simulieren.

Das endgültige Bild wird in einer niedrigeren Auflösung gerendert, unnötige Bereiche werden abgeschnitten. Anfänglich zeigt die Oculus Rift ein Bild mit 1,1 Megapixeln pro Auge an, die anfängliche flache Projektion rendert es jedoch mit einer Auflösung von 2,1 Megapixeln. Dank Lens Matched Shading beträgt das Ausgangsbild 1,4 Megapixel. Dadurch können Sie die Leistung im VR-Modus deutlich steigern.

Virtuelle Realität ist eine vielversprechende Richtung, die das Erlebnis der Interaktion mit der virtuellen Umgebung erweitert und den Spielern neue Eindrücke vermittelt. NVIDIA unterstützt aktiv die Entwicklung von VR. Einer der limitierenden Faktoren für die Popularisierung von VR-Systemen sind die hohen Leistungsanforderungen des Grafikbeschleunigers. Spezielle Technologien und Hardwareoptimierung tragen zu einer qualitativen Leistungssteigerung in dieser Richtung bei. Das Unternehmen veröffentlichte einen umfassenden Satz VRWorks aus speziellen APIs, Bibliotheken und Software-Engines. Es enthält Werkzeuge für die Arbeit mit Single Pass Stereo und Lens Matched Shading. Dazu gehört auch die MultiRes Shading-Technologie, mit der Sie beim VR-Rendering die Auflösung in den Seitenzonen ändern können, um die Belastung zu reduzieren.

Die Wirkung von Präsenz wird nicht nur mit visuellen Empfindungen, sondern auch mit anderen Sinnen in Verbindung gebracht. Auch der Ton spielt eine wichtige Rolle. Aus diesem Grund hat NVIDIA die VRWorks Audio-Technologie entwickelt, um realistischen Klang zu erzeugen, indem der Ort der Quelle der Schallwellen und deren Reflexion von Oberflächen berücksichtigt wird. Die Technologie nutzt die OptiX-Engine, die ursprünglich zur Berechnung der Beleuchtung mithilfe der Raytracing-Methode verwendet wurde. Der Weg der Schallstrahlen von der Quelle zu reflektierenden Oberflächen und zurück wird verfolgt. Mit dieser fortschrittlichen Methode können Sie einen realistischen Klang erzeugen, indem Sie die akustischen Eigenschaften eines virtuellen Raums berücksichtigen und reflektierte Klänge überlagern. Erfahren Sie mehr über NVIDIA VRWorks Audio im Video:

Der Immersionseffekt kann durch die Interaktion mit der virtuellen Umgebung verstärkt werden. Interaktivität wird jetzt durch Positionsverfolgung und Handsteuerungsverfolgung implementiert. Basierend auf PhysX wurde ein Mechanismus erstellt, der bestimmt, ob es bei virtuellem Kontakt mit einem bestimmten Objekt zu einer Interaktion kommt. Außerdem lassen sich mit PhysX physikalisch zuverlässige Effekte bei der Beeinflussung einer virtuellen Umgebung realisieren.

Die neue Grafikkartengeneration unterstützt jetzt VR SLI. Dieser Modus sieht vor, dass im VR-Modus für jedes Auge eine separate GPU die Bildverarbeitung übernimmt. Diese Methode eliminiert Verzögerungen beim Ausführen von SLI und sorgt für eine bessere Leistung. Die VR-SLI-Unterstützung wird in Unreal Engine 4 und Unity implementiert, was uns auf eine stärkere Popularisierung dieser Technologie mit zunehmender Verfügbarkeit von Virtual-Reality-Systemen hoffen lässt.

Auch die Simple-SLI-Technologie wurde aktualisiert. Ältere GeForce-Grafikkarten hatten immer zwei Anschlüsse für SLI-Brücken. Diese Brücken werden benötigt, um alle Grafikkarten im 3-Wege- und 4-Wege-SLI-Modus miteinander zu verbinden. Beim einfachen SLI können nun zwei Grafikkarten zwei Datenaustauschschnittstellen gleichzeitig nutzen, wodurch der Gesamtdurchsatz erhöht wird.

Die neue Switching-Methode erfordert neue Dual-SLI-HB-Brücken. Die Unterstützung des Joint-Modus bei der Verbindung über eine einfache Einzelbrücke bleibt erhalten. Für hohe Auflösungen – 4K-, 5K- und Multi-Monitor-Systeme – wird eine Dual Bridge empfohlen. Speedbridge wird auch bei 2K mit einem Monitor mit 120 Hz oder schneller empfohlen. In einfacheren Modi können Sie mit einer Brücke im alten Stil auskommen.

Die GeForce GTX 1080 hat die Geschwindigkeit der Schnittstelle selbst erhöht – von 400 MHz auf 650 MHz. Es kann mit neuen Bridges und mit einigen Versionen des alten Formats implementiert werden. Die Erhöhung der Datenübertragungsrate in SLI sorgt für reibungslosere Bildwechsel und eine gewisse Leistungssteigerung in schweren Modi.

Die Multi-GPU-Rendering-Funktionen von DirectX 12 wurden verbessert. Zwei Haupttypen der Arbeit mit solchen Konfigurationen werden unterstützt: Multi Display Adapter (MDA) und Linked Display Adapter (LDA). Die erste ermöglicht die Zusammenarbeit verschiedener GPUs, einschließlich der Kombination des Potenzials integrierter und externer Grafiken. LDA ist so konzipiert, dass ähnliche Lösungen gemeinsam verwendet werden können. Implizites LDA wird im Wesentlichen in SLI verwendet und bietet eine breite Anwendungskompatibilität auf Softwareebene. Explizites LDA und MDA geben Entwicklern mehr Macht, aber es liegt in ihrer Verantwortung, dieses Verhalten in jeder Anwendung sicherzustellen.

Erwähnenswert ist auch, dass die SLI-Unterstützung offiziell nur in einer Konfiguration mit zwei GeForce GTX 1080 angekündigt wird. Komplexere Konfigurationen sind theoretisch in den Modi Explicit LDA und MDA möglich. Interessanterweise bietet NVIDIA an, den 3-Wege- und 4-Wege-Modus mit einem speziellen Code für Enthusiasten freizuschalten. Dazu müssen Sie auf der Website des Unternehmens eine spezielle Anfrage mit der ID Ihrer GPU stellen.

Die GP104-GPU unterstützt jetzt Fast Sync. Diese Technologie ist eine Alternative zum Ein- oder Ausschalten von Vsync. Bei rasanten Spielen (insbesondere Multiplayer-Spielen) sorgen hohe Bildraten für maximale Reaktionsfähigkeit auf Benutzereingaben. Wird jedoch die Bildwiederholfrequenz des Monitors überschritten, sind Artefakte in Form von Bildrissen möglich. Dies wird durch die vertikale Synchronisation neutralisiert, die ebenfalls für einige Verzögerungen sorgt. Mit Fast Sync können Sie die maximale Anzahl an Frames ohne mögliches Tearing ausgeben. Dies wird durch Hardwareänderungen in der Bildausgabepipeline ermöglicht. Anstelle des herkömmlichen Doppelpuffers wird ein Dreifachpuffer verwendet und nur der vollständig gerenderte Frame wird ausgegeben.

Mit Fast Sync können Sie auf einem normalen Monitor mit 100–200 fps ohne visuelle Artefakte und mit minimalen Verzögerungen spielen, wie im normalen Modus mit deaktiviertem VSync. Nachfolgend finden Sie die Ergebnisse einer Studie zu Verzögerungen bei der Anzeige von Bildern in verschiedenen Modi im Spiel Counter-Strike: Global Offensive.

Wie Sie sehen, gibt es einen leichten Unterschied zwischen Fast Sync und deaktiviertem VSync, dieser ist jedoch nicht mit den Frame-Ausgabeverzögerungen bei aktivem VSync zu vergleichen.

Wenn es nicht um maximale Reaktionsfähigkeit, sondern um maximale Bildglätte geht, dann sorgt dafür die G-Sync-Technologie, die in Verbindung mit speziellen Monitoren umgesetzt wird. G-Sync gewährleistet eine vollständige Hardware-Synchronisierung der Ausgabebilder mit der Bildschirmaktualisierungsrate.

Die GeForce GTX 1080 kann Bilder über DVI, HDMI und DisplayPort ausgeben. DisplayPort 1.2 und HDMI 2.0b mit HDCP 2.2 werden unterstützt, die Grafikkarte ist aber auch für DisplayPort 1.3/1.4 vorbereitet. Bei letzterem ist die Ausgabe von 4K bei 120 Hz oder 8K (7680x4320) bei 60 Hz über zwei DisplayPort-1.3-Kabel möglich. Zum Vergleich ist zu beachten, dass die GeForce GTX 980 nur 5120 x 3200 ausgeben kann, wenn sie über zwei DisplayPort-Kabel angeschlossen ist.

Die GeForce GTX 1080 ist in der Standardversion mit drei DisplayPort-Anschlüssen, einem HDMI und einem Dual-Link-DVI ausgestattet.

Der GP104-Prozessor erhielt eine verbesserte Video-Dekodierungs-/Kodierungseinheit mit Unterstützung für den PlayReady 3.0 (SL3000)-Standard und HEVC-Hardware-Dekodierung mit Unterstützung für hochwertiges 4K/8K-Video. Die volle Leistungsfähigkeit der GeForce GTX 1080 im Vergleich zur GeForce GTX 980 ist in der folgenden Tabelle aufgeführt.

Zu den Neuerungen der GeForce GTX 1080 gehört unter anderem die Unterstützung von HDR-Inhalten und -Anzeigen. Dieser Standard stellt einen großen technologischen Durchbruch dar und bietet eine Abdeckung des sichtbaren Farbraums von 75 % anstelle von 33 % für RGB bei 10/12-Bit-Farbtiefe. Solche Displays stellen mehr Farben dar, haben eine höhere Helligkeit und einen stärkeren Kontrast, sodass Sie subtilere Farbnuancen erkennen können. Derzeit werden bereits Fernseher mit HDR-Unterstützung produziert, Monitore werden nächstes Jahr erwartet.

Zusätzlich zur HDR-Dekodierung wird auch Hardware-Kodierung unterstützt, mit der Sie Videos dieses Standards aufnehmen können. Und bald wird die Shield-Spielekonsole um eine HDR-Streaming-Funktion erweitert.

NVIDIA arbeitet mit Entwicklern zusammen, um HDR in das Segment zu bringen Computerspiele. Infolgedessen erhalten Rise of the Tomb Raide, Tom Clancy’s The Division, The Talos Principle, Paragon, der zweite Teil von Shadow Warrior und andere Spiele HDR-Unterstützung.

Modernes Gaming verändert sich, Spieler zeigen neue Interessen und den Wunsch, ihr Lieblingsspiel aus einem neuen Blickwinkel zu betrachten. Manchmal wird aus einem gewöhnlichen Screenshot mehr als nur ein einfacher Frame aus dem Spiel. Und mit NVIDIA Ansel kann jeder Screenshot außergewöhnlich werden. Dabei handelt es sich um eine neue Technologie zur Bildaufnahme mit einer Reihe besonderer Funktionen. Mit Ansel können Sie Filter anwenden, Bilder verbessern, die kostenlose Kamera verwenden und Panoramen erstellen. Für die volle Funktionalität ist Anwendungsunterstützung erforderlich. Ansel bietet hierfür eine einfache Integration. Um beispielsweise Ansel in The Witcher 3 zu integrieren, fügten die Entwickler nur 150 Zeilen Code hinzu, während das Logikspiel Witness 40 Zeilen Code benötigte.

Ansel unterbricht das Spiel und ermöglicht Ihnen dann die Durchführung verschiedener Vorgänge. Sie können beispielsweise die Kamera wechseln und einen beliebigen Blickwinkel wählen. Einige Einschränkungen sind nur möglich, wenn die Entwickler die Bewegung der freien Kamera bewusst einschränken.

Sie können das endgültige Bild hochskalieren und den LOD erhöhen, um sicherzustellen, dass jedes Detail so klar wie möglich ist. Die erhöhte Auflösung wird für eine bessere Wirkung mit zusätzlichem Anti-Aliasing kombiniert.

Darüber hinaus können Sie mit Ansel riesige Bilder mit bis zu 4,5 Gigapixeln erstellen. Solche Bilder werden aus einzelnen Fragmenten zusammengefügt, was auf Hardwareebene geschieht. Sie können auch verschiedene Nacheffekte auf das endgültige Bild anwenden. Das Bild kann im RAW-Format oder im EXR-Format mit 16-Bit-Farbkodierung gespeichert werden. Dies bietet zahlreiche Möglichkeiten für die spätere Arbeit damit.

Sie können Stereopanoramen und 360-Grad-Bilder erstellen, die dann mit einer Virtual-Reality-Brille betrachtet werden können.

Es gibt eine Vielzahl von Effekten, die auf das aufgenommene Bild angewendet werden können – Körnung, Bloom, Sepia, Linseneffekte und vieles mehr, sogar die Erstellung eines Bildes mit Fischaugeneffekt. Ansels breites Spektrum an Fähigkeiten ist erstaunlich. Der Spieler erhält Möglichkeiten, die es vorher einfach nicht gab.

Nachdem Sie die Architekturmerkmale und neuen Technologien untersucht haben, müssen Sie einen Blick auf die GeForce GTX 1080-Grafikkarte selbst werfen. Die Referenzversion ähnelt den Vorgängermodellen mit einem leicht aktualisierten Design und schärferen Konturen.

Die Rückseite ist durch zwei Platten geschützt, was an die „Panzerung“ der GeForce GTX 980 erinnert.

Das gesamte Kühldesign bleibt unverändert. Der Kühler arbeitet nach dem Prinzip einer Turbine. Es gibt eine große Basis, einen Lamellenkühler zur Kühlung der GPU und einen zusätzlichen Kühler im Bereich des Netzteils zur besseren Kühlung der Leistungselemente.

Auf alle weiteren Nuancen gehen wir in einem separaten Artikel ein und führen dort auch Vergleichstests durch. Wenn wir über vorläufige Schätzungen des Herstellers selbst sprechen, vergleicht NVIDIA das neue Produkt mit der GeForce GTX 980 und spricht von einem Vorsprung von etwa 70 % bei einfachen Spielen und einem Abstand von mehr als dem 2,5-fachen im VR-Modus. Der Unterschied zur GeForce GTX 980 Ti wird geringer ausfallen, über einige konkrete Werte können wir aber nach Praxistests sprechen.

Schlussfolgerungen

Es ist an der Zeit, unsere theoretische Bekanntschaft mit der GeForce GTX 1080 zusammenzufassen. Diese Grafikkarte ist derzeit das technologisch fortschrittlichste Produkt unter den Grafikbeschleunigern. Die GeForce GTX 1080 nutzt erstmals einen 16-nm-Prozessor mit Pascal-Architektur und neuen GDDR5X-Speicher. Die Architektur selbst ist eine Weiterentwicklung von Maxwell mit Optimierungen und neuen Funktionen für DirectX 12. Architekturverbesserungen werden durch deutliche Erhöhungen der GPU- und Speicherfrequenzen erheblich verstärkt. Sehr bedeutender Fortschritt im Bereich VR-Rendering dank neuer Technologien, die die Arbeit in diesem Modus beschleunigen. Eine fortschrittliche Innovation ist die Unterstützung von HDR-Displays und zugehörigen Inhalten. Dank der neuen Videoverarbeitungseinheit gibt es noch mehr Möglichkeiten zur Wiedergabe und Aufzeichnung hochauflösender Videos, einschließlich der Arbeit mit dem HDR-Format. Fans ultradynamischer Multiplayer-Spiele werden die Fast-Sync-Technologie zu schätzen wissen. Kenner virtueller Schönheit werden von den Fähigkeiten von Ansel begeistert sein. Mit dem Kauf einer GeForce GTX 1080 erhalten Sie am Ende nicht nur den derzeit schnellsten Videobeschleuniger, sondern auch den funktionellsten.

Offiziell wird dieses Modell ab dem 27. Mai für Kunden erhältlich sein. Das Referenzdesign der Founders Edition wird als erstes in den Handel kommen. Sie werden einen höheren Preis haben. Etwas später werden nicht standardmäßige Optionen veröffentlicht, deren Kosten um 100 US-Dollar niedriger sein werden. Nun, bis die GeForce GTX 1080 auf dem heimischen Markt erscheint, werden wir durch umfangreiche Tests versuchen, ihr Potenzial im Vergleich zu bestehenden Top-End-Grafikkarten voll auszuschöpfen.

Die GeForce GTX 1080 Ti-Grafikkarte verfügt über 11 GB GDDR5X-Speicher, eine GPU-Frequenz von 1583 MHz (übertaktbar auf 2000 MHz mit einem Standardkühlsystem), eine Speicherfrequenz von 11 GHz QDR und eine um 35 % bessere Leistung als die GeForce GTX 1080. Und das zu einem reduzierten Preis von 699 $.

Die neue Grafikkarte verdrängt die GeForce GTX 1080 von der Flaggschiffposition in der GeForce-Reihe und wird das schnellste Grafikkarte, die heute erhältlich ist, sowie die leistungsstärkste Karte, die auf der Pascal-Architektur basiert.

Die leistungsstärkste Gaming-Karte NVIDIA GeForce GTX 1080 Ti

NVIDIA GeForce GTX 1080 Ti ist ein Gamer-Traum, die endlich die neuesten AAA-Spiele genießen, in hochauflösenden Virtual-Reality-Headsets spielen und die Klarheit und Genauigkeit der Grafiken genießen können.

Die GTX 1080 Ti wurde als erste vollwertige Grafikkarte für 4K-Gaming konzipiert. Sie ist mit der neuesten und technologisch fortschrittlichsten Hardware ausgestattet, mit der heute keine andere Grafikkarte aufwarten kann.

Hier offizielle Präsentation NVIDIA GeForce GTX 1080 Ti

„Es ist Zeit für etwas Neues. Derjenige, der 35 % schneller ist als die GTX 1080. Derjenige, der schneller ist als die Titan X. Nennen wir ihn das Maximum...

Videospiele werden von Jahr zu Jahr immer schöner, deshalb stellen wir das Spitzenprodukt der neuen Generation vor, damit Sie die nächste Generation von Spielen genießen können.“

Jen-Xun

Eigenschaften der NVIDIA GeForce GTX 1080 Ti

NVIDIA hat bei der Hardware seiner neuen und extrem leistungsstarken Grafikkarte nicht gespart.

Es ist damit ausgestattet GPU Pascal GP102-GPU, identisch mit Titan X (P), dieser jedoch in allen Belangen überlegen.

Der Prozessor ist mit 12 Milliarden Transistoren ausgestattet und verfügt über sechs Cluster für die Grafikverarbeitung, von denen zwei gesperrt sind. Das ergibt insgesamt 28 Multithread-Prozessoren Jeweils 128 Kerne.

Somit verfügt die GeForce GTX 1080 Ti-Grafikkarte über 3584 CUDA-Kerne, 224 Texturanzeigeeinheiten und 88 ROP (Einheiten, die für Z-Puffer, Anti-Aliasing und die Aufzeichnung des endgültigen Bildes im Bildpuffer des Videospeichers verantwortlich sind).

Der Übertaktungsbereich reicht von 1582 MHz bis 2 GHz. Die Pascal-Architektur wurde in erster Linie für die Übertaktung in der Referenz und eine extremere Übertaktung in Nicht-Standard-Modellen entwickelt.

Die GeForce GTX 1080 Ti-Grafikkarte hat auch 11 GB GDDR5X-Speicher, der über einen 352-Bit-Bus betrieben wird. Das Flaggschiff verfügt außerdem über die bisher schnellste G5X-Lösung.

Mit dem neuen Komprimierungs- und Kachel-Caching-System kann der Durchsatz der GTX 1080 Ti-Grafikkarte auf 1200 GB/s gesteigert werden, was die Leistungen der AMD HBM2-Technologie übertrifft.

NVIDIA GeForce GTX 1080 Ti-Spezifikation:

Eigenschaften GTX Titan X Pascal GTX 1080 Ti GTX 1080
Technischer Prozess 16 nm 16 nm 16 nm
Transistoren 12 Milliarden 12 Milliarden 7,2 Milliarden
Kristallbereich 471 mm² 471 mm² 314mm²
Erinnerung 12 GB GDDR5X 11 GB GDDR5X 8 GB GDDR5X
Speichergeschwindigkeit 10 Gbit/s 11 Gbit/s 11 Gbit/s
Speicherschnittstelle 384-Bit 352-Bit 256-Bit
Bandbreite 480 GB/s 484 GB/s 320 GB/s
CUDA-Kerne 3584 3584 2560
Grundfrequenz 1417 1607
Übertaktungsfrequenz 1530 MHz 1583 MHz 1730 MHz
Rechenleistung 11 Teraflops 11,5 Teraflops 9 Teraflops
Wärmekraft 250W 250W 180W
Preis 1200$ 699 US-Dollar 499$

Kühlung der NVIDIA GeForce GTX 1080 Ti-Grafikkarte

Die GeForce GTX 1080 Ti Founders verfügt über eine neue Luftstromlösung, die eine bessere Kühlung der Platine ermöglicht und gleichzeitig leiser ist als frühere Designs. All dies ermöglicht es, die Grafikkarte weiter zu übertakten und noch höhere Geschwindigkeiten zu erreichen. Darüber hinaus wird die Kühleffizienz verbessert 7-Phasen-Stromversorgung mit 14 hocheffizienten DualFET-Transistoren.

Die GeForce GTX 1080 Ti verfügt über das neueste NVTTM-Design, das eine neue Vapor-Kühlkammer einführt, die über die doppelte Kühlfläche der Titan X(P) verfügt. Dieses neue thermische Design trägt zu einer optimalen Kühlung bei und ermöglicht der GPU der Grafikkarte mit der GPU Boost 3.0-Technologie eine Beschleunigung über die Spezifikation hinaus.

NVIDIA GeForce GTX 1080 Ti – der Traum eines jeden Übertakters

Was sollen wir also mit dieser beeindruckenden Grafikkartenleistung machen? Die Antwort liegt auf der Hand: Beschleunigen Sie bis zum Limit. Während der Veranstaltung demonstrierte NVIDIA das herausragende Übertaktungspotenzial seiner GTX 1080 Ti-Grafikkarte. Wir möchten Sie daran erinnern, dass es ihnen gelungen ist, eine Prozessorfrequenz von 2,03 GHz bei gesperrten 60 FPS zu erreichen.

Kommen wir zu einem weiteren Feature der GeForce GTX 1080, das dieses Modell zum ersten seiner Art machte – der Unterstützung von GDDR5X-Speicher. In dieser Eigenschaft wird die GTX 1080 noch einige Zeit das einzige Produkt auf dem Markt sein, da bereits bekannt ist, dass die GeForce GTX 1070 mit Standard-GDDR5-Chips ausgestattet sein wird. In Kombination mit neuen Farbkomprimierungsalgorithmen (mehr dazu später) ermöglicht die hohe Speicherbandbreite (Speicherbandbreite), dass der GP104 die verfügbaren Rechenressourcen effizienter verwalten kann, als es Produkte auf Basis der GM104- und GM200-Chips leisten könnten.

JEDEC hat die endgültigen Spezifikationen des neuen Standards erst im Januar dieses Jahres veröffentlicht, und der einzige Hersteller von GDDR5X ist derzeit Micron. 3DNews hat dieser Technologie keinen eigenen Artikel gewidmet, daher werden wir in diesem Test kurz die Neuerungen beschreiben, die GDDR5X mit sich bringt.

Das GDDR5X-Protokoll hat viele Gemeinsamkeiten mit GDDR5 (obwohl beide Chips elektrisch und physikalisch unterschiedlich sind) – im Gegensatz zu HBM-Speicher, bei dem es sich um einen grundlegend anderen Typ handelt, was eine Koexistenz mit der GDDR5(X)-Schnittstelle in derselben GPU praktisch unmöglich macht. Aus diesem Grund wird GDDR5X so genannt und nicht beispielsweise GDDR6.

Einer der Hauptunterschiede zwischen GDDR5X und GDDR5 ist die Fähigkeit, vier Datenbits pro Signalzyklus (QDR – Quad Data Rate) zu übertragen, im Gegensatz zu zwei Bits (DDR – Double Data Rate), wie es bei allen vorherigen Modifikationen von der Fall war DDR-SDRAM-Speicher. Die physikalischen Frequenzen der Speicherkerne und der Datenübertragungsschnittstelle liegen etwa im gleichen Bereich wie bei GDDR5-Chips.

Und um den erhöhten Durchsatz der Chips mit Daten zu sättigen, verwendet GDDR5X einen von 8n auf 16n erhöhten Daten-Prefetch. Bei einer 32-Bit-Schnittstelle eines separaten Chips bedeutet dies, dass der Controller in einem Speicherzugriffszyklus nicht 32, sondern 64 Byte Daten auswählt. Infolgedessen erreicht der resultierende Schnittstellendurchsatz 10–14 Gbit/s pro Kontakt bei einer CK-Frequenz (Befehlstakt) von 1250–1750 MHz – dies ist die Frequenz, die von Dienstprogrammen zur Überwachung und Übertaktung von Grafikkarten wie GPU-Z angezeigt wird . Zumindest sind solche Indikatoren mittlerweile im Standard enthalten, doch in Zukunft will Micron Zahlen bis zu 16 Gbit/s erreichen.

Der nächste Vorteil von GDDR5X ist die erhöhte Chipgröße – von 8 auf 16 Gbit. Die GeForce GTX 1080 ist mit acht 8-GB-Chips ausgestattet, aber in Zukunft können Grafikkartenhersteller die Menge an RAM verdoppeln, wenn mehr Chips verfügbar werden. GDDR5X ermöglicht wie GDDR5 den Einsatz von zwei Chips auf einem 32-Bit-Controller im sogenannten Clamshell-Modus, wodurch es möglich ist, 32 GB Speicher auf dem 256-Bit-GP104-Bus anzusprechen. Darüber hinaus beschreibt der GDDR5X-Standard neben gleichen Zweierpotenzen auch Chipgrößen von 6 und 12 Gbit, wodurch Sie die Gesamtgröße des integrierten Speichers von Grafikkarten „fraktioneller“ variieren können – zum Beispiel durch Ausstattung eine Karte mit einem 384-Bit-RAM-Bus mit Chips für insgesamt 9 GB.

Entgegen den Erwartungen, die mit den ersten öffentlich zugänglichen Informationen zu GDDR5X einhergingen, ist der Stromverbrauch des neuen Speichertyps mit dem von GDDR5 vergleichbar oder nur geringfügig höher. Um die erhöhte Leistung bei hohen Durchsatzwerten zu kompensieren, reduzierten die Erfinder des Standards die Versorgungsspannung der Kerne von 1,5 V, Standard für GDDR5, auf 1,35 V. Darüber hinaus führt der Standard als verbindliche Maßnahme eine Chipfrequenzsteuerung ein Abhängig von den Messwerten des Temperatursensors. Es ist noch nicht bekannt, inwieweit der neue Speicher tatsächlich von der Qualität des Kühlkörpers abhängt, aber es ist möglich, dass wir jetzt häufiger Kühlsysteme auf Grafikkarten sehen werden, die nicht nur die GPU, sondern auch RAM-Chips bedienen, während Hersteller von GDDR5-basierte Karten vernachlässigen diese Möglichkeit größtenteils.

Aufgrund der Ähnlichkeit dieser Technologien scheint der Übergang von GDDR5 zu GDDR5X für NVIDIA eine leichte Aufgabe zu sein. Darüber hinaus ist die GeForce GTX 1080 mit Speicher mit der niedrigsten, vom Standard definierten Bandbreite ausgestattet – 10 Gbit/s pro Kontakt. Allerdings ist die praktische Umsetzung der neuen Schnittstelle mit einer Reihe technischer Schwierigkeiten verbunden. Die Übertragung von Daten mit solch hohen Frequenzen erforderte eine sorgfältige Gestaltung der Datenbus-Topologie auf der Platine, um Störungen und Signaldämpfung in den Leitern zu minimieren.

Die resultierende 256-Bit-Busbandbreite in der GeForce GTX 1080 beträgt 320 GB/s und liegt damit nicht wesentlich unter der Geschwindigkeit von 336 GB/s der GeForce GTX 980 Ti (TITAN X) mit ihrem 384-Bit-GDDR5-Bus bei 7 Gbit /s pro Pin.

Jetzt kann PolyMorph Engine gleichzeitig bis zu 16 Projektionen (Ansichtsfenster) erstellen, die beliebig platziert und auf einen oder zwei Punkte fokussiert werden, die entlang der horizontalen Achse relativ zueinander verschoben sind. Diese Konvertierungen werden ausschließlich in der Hardware durchgeführt und verursachen keine Leistungseinbußen als solche.

Diese Technologie hat zwei durchaus vorhersehbare Anwendungen. Das erste sind VR-Headsets. Mit zwei Projektionszentren kann Pascal in einem Durchgang ein Stereobild erstellen (wir reden hier allerdings nur von Geometrie – die GPU muss noch doppelt so viel Arbeit leisten, um Texturen in zwei Frames zu rastern).

Darüber hinaus ermöglicht SMP auf Geometrieebene die Kompensation von Bildverzerrungen, die durch Helmlinsen verursacht werden. Dazu wird das Bild für jedes Auge durch vier separate Projektionen erzeugt, die dann mithilfe eines Nachbearbeitungsfilters zu einer Ebene zusammengefügt werden. Auf diese Weise wird nicht nur die geometrische Genauigkeit des endgültigen Bildes erreicht, sondern es entfällt auch die Notwendigkeit, 1/3 der Pixel zu verarbeiten, die andernfalls bei der endgültigen Korrektur der Standard-Flachprojektion an die Krümmung ohnehin verloren gegangen wären der Linsen.

Die einzige Optimierung für VR, die Maxwell vorgenommen hatte, bestand darin, dass die Randbereiche des Bildes, die für die Ausgabe durch Objektive am stärksten komprimiert werden, mit einer reduzierten Auflösung gerendert werden konnten, was zu einer Bandbreiteneinsparung von nur 10–15 % führte.

Der nächste Bereich, in dem die SMP-Funktion gefragt ist, sind Konfigurationen mit mehreren Monitoren. Ohne SMP ist das Bild auf mehreren angedockten Displays aus Sicht der GPU eine Ebene und sieht geometrisch korrekt aus, solange die Bildschirme vor dem Betrachter in einer Reihe stehen, aber das Andocken in einem Winkel sieht nicht mehr korrekt aus – als ob Sie es tun würden hatte einfach an mehreren Stellen ein großes Foto gefaltet. Ganz zu schweigen davon, dass der Betrachter ohnehin ein flaches Bild sieht und kein Fenster in die virtuelle Welt: Dreht man den Kopf zum seitlichen Bildschirm, bleiben die Objekte darin gestreckt, da die virtuelle Kamera stillsteht schaut auf den zentralen Punkt.

Mithilfe von SMP kann ein Grafikkartentreiber Informationen über die physische Position mehrerer Bildschirme erhalten, um für jeden von ihnen ein Bild über ein eigenes Ansichtsfenster zu projizieren, was letztendlich die Multi-Monitor-Anordnung funktionell näher an ein vollwertiges „Fenster“ bringt. .

Kurz gesagt besteht der Zweck der Dreifachpufferung darin, den Prozess des Renderns neuer Frames in der GPU-Pipeline vom Scannen des Bildes aus dem Frame-Puffer zu trennen, da die Grafikkarte neue Frames mit beliebig hoher Frequenz erstellen und in diese schreiben kann zwei alternierende Bildpuffer. In diesem Fall wird der Inhalt des allerletzten Frames mit einer Frequenz, die ein Vielfaches der Bildschirmaktualisierungsrate beträgt, in den dritten Puffer kopiert, von wo aus der Monitor ihn aufnehmen kann, ohne dass das Bild zerreißt. Somit enthält das Bild, das zu Beginn des Scans auf dem Bildschirm erscheint, immer die neuesten Informationen, die die GPU erzeugt hat.

Dreifache Pufferung ist am nützlichsten für Monitore mit einer Bildschirmaktualisierungsrate von 50–60 Hz. Bei Frequenzen von 120-144 Hz, wie wir bereits im Artikel über G-Sync geschrieben haben, erhöht die Aktivierung der vertikalen Synchronisierung die Latenz im Prinzip bereits unwesentlich, aber Fast Sync reduziert sie auf ein Minimum.

Wenn Sie sich fragen, wie Fast Sync im Vergleich zu G-Sync (und seinem AMD-Gegenstück Free Sync – dies ist jedoch eine rein theoretische Frage, da NVIDIA nur seine Variante unterstützt) abschneidet: G-Sync reduziert die Latenz in Situationen, in denen die GPU keine Zeit hat um zu Beginn des Scanvorgangs ein neues Bild zu erzeugen, während Fast Sync im Gegenteil die Latenz reduziert, wenn die Bildaktualisierungsrate in der Rendering-Pipeline höher als die Bildschirmaktualisierungsrate ist. Darüber hinaus können diese Technologien zusammenarbeiten.

GeForce GTX 1080 Founder's Edition:Design

Mittlerweile nennt sich dieser pompöse Name die Referenzversion der GeForce GTX 1080. Beginnend mit der GeForce GTX 690 legt NVIDIA großen Wert auf die Form, in der seine neuen Produkte auf den Markt kommen. Referenzmuster moderner Grafikkarten der Marke GeForce sind weit von ihren unscheinbaren Vorgängern entfernt, die mit relativ ineffektiven und lauten Kühlsystemen ausgestattet waren.

Die GeForce GTX 1080 Founder's Edition vereint die besten Designmerkmale der Kepler- und Maxwell-Grafikkarten: ein Aluminium-Turbinengehäuse, ein Kühlerlaufrad aus geräuscharmem Material und einen massiven Aluminiumrahmen, der der Struktur Steifigkeit verleiht und die Wärme vom RAM abführt Chips.


Die GTX 1080 enthält zwei Komponenten, die in NVIDIA-Referenzgrafikkarten regelmäßig auftauchen und verschwinden – einen GPU-Kühlkörper mit einer Verdampfungskammer und eine Rückplatte. Letzterer kann ohne Schraubenzieher teilweise entfernt werden, um im SLI-Modus für Luftzufuhr zum Kühler einer benachbarten Grafikkarte zu sorgen.

Zusätzlich zu seiner repräsentativen Funktion wird ein Referenzmuster einer Grafikkarte benötigt, damit die Endhersteller von Grafikkarten diese erwerben können – in diesem Fall von NVIDIA – und die Nachfrage befriedigen können, bis Geräte im Originaldesign auf derselben GPU fertig sind. Dieses Mal plant NVIDIA jedoch, die Referenzversion während der gesamten Lebensdauer des Modells im Verkauf zu halten und unter anderem über die offizielle Website zu vertreiben. Dies ist der Grund für den um 100 US-Dollar höheren Preis der GTX 1080 FE im Vergleich zu den empfohlenen 599 US-Dollar für alle anderen. Schließlich sieht die Founder's Edition nicht wie ein Billigprodukt aus und fühlt sich auch nicht so an.

Gleichzeitig verfügt die Grafikkarte über Referenzfrequenzen, unter die wie üblich kein Hersteller von Karten im Originaldesign gehen wird. Von einer GPU-Auswahl für die GTX 1080 FE nach Übertaktungspotenzial ist keine Rede. Daher kann es in der gesamten Masse der GeForce GTX 1080-Implementierungen teurere geben. Doch für einige Zeit wird die Founder’s Edition die vorherrschende und sogar einzige Version des Flaggschiffs Pascal sein, die automatisch ihre Kapazität erhöht Einzelhandelspreise 100 $ über der „Empfehlung“ von NVIDIA.

Das Jahr 2016 neigt sich bereits dem Ende zu, aber sein Beitrag zur Gaming-Branche wird uns noch lange begleiten. Erstens erhielten Grafikkarten aus dem roten Lager ein unerwartet erfolgreiches Update in der mittleren Preisklasse, und zweitens bewies NVIDIA erneut, dass es nicht umsonst 70 % des Marktes einnimmt. Die Maxwells waren gut, die GTX 970 galt zu Recht als eine der besten Karten für das Geld, aber bei Pascal war das eine ganz andere Sache.

Die neue Hardwaregeneration GTX 1080 und 1070 hat die Ergebnisse der letztjährigen Systeme und den Markt für Flaggschiff-Gebrauchthardware buchstäblich zunichte gemacht, während die „Junior“-Linien GTX 1060 und 1050 ihren Erfolg in günstigeren Segmenten festigten. Besitzer von GTX980Ti und anderen Titans weinen Krokodilstränen: Ihre Superwaffen für viele tausend Rubel haben auf einmal 50 % der Kosten und 100 % des Angebers verloren. NVIDIA selbst gibt an, dass die 1080 schneller ist als die letztjährige TitanX, die 1070 die 980Ti leicht überfordern wird und die relativ preisgünstige 1060 den Besitzern aller anderen Karten schaden wird.

Ist das so, woher kommen die Beine der hohen Produktivität und was man mit all dem am Vorabend der Feiertage und plötzlichen finanziellen Freuden anfangen kann, sowie was man sich genau vergnügen kann, erfahren Sie in diesem langen und etwas langweiligen Artikel Artikel.

Man kann Nvidia lieben oder ... nicht lieben, aber nur jemand aus einem alternativen Universum würde leugnen, dass es derzeit führend im Bereich der Grafikkartenherstellung ist. Da Vega von AMD noch nicht angekündigt wurde, haben wir die Flaggschiff-RXs auf Polaris noch nicht gesehen, und die R9 Fury mit ihren 4 GB experimentellem Speicher kann ehrlich gesagt nicht als vielversprechende Karte angesehen werden (VR und 4K werden jedoch etwas mehr wollen). , als sie hat) - wir haben, was wir haben. Während die 1080 Ti und die bedingten RX 490, RX Fury und RX 580 nur Gerüchte und Erwartungen sind, haben wir Zeit, die aktuelle NVIDIA-Reihe zu verstehen und zu sehen, was das Unternehmen in den letzten Jahren erreicht hat.

Das Chaos und die Entstehungsgeschichte von Pascal

NVIDIA nennt regelmäßig Gründe dafür, „sich selbst nicht zu lieben“. Die Geschichte mit der GTX 970 und ihren „3,5 GB Speicher“, „NVIDIA, Fuck you!“ von Linus Torvalds, völlige Pornografie in den Desktop-Grafiklinien, Verweigerung der Arbeit mit dem kostenlosen und viel weiter verbreiteten FreeSync-System zugunsten seines proprietären Systems... Generell gibt es genug Gründe. Eines der ärgerlichsten Dinge für mich persönlich ist, was mit den letzten beiden Generationen von Grafikkarten passiert ist. Wenn wir eine grobe Beschreibung nehmen, dann haben „moderne“ GPUs seit den Tagen der DX10-Unterstützung einen langen Weg zurückgelegt. Und wenn Sie heute nach dem „Großvater“ der 10. Serie suchen, dann wird der Beginn der modernen Architektur etwa bei der 400. Serie von Videobeschleunigern und der Fermi-Architektur liegen. Dort entstand schließlich die Idee eines „Block“-Designs aus dem sogenannten. „CUDA-Kerne“ in der NVIDIA-Terminologie.

Fermi

Wenn Grafikkarten der 8000er-, 9000er- und 200er-Serie die ersten Schritte zur Beherrschung des Konzepts der „modernen Architektur“ mit universellen Shader-Prozessoren (wie AMD, ja) waren, dann war die 400er-Serie dem, was wir bereits hatten, bereits so ähnlich wie möglich siehe einige 1070. Ja, Fermi hat immer noch eine kleine Legacy-Krücke aus früheren Generationen: Die Shader-Einheit arbeitete mit der doppelten Frequenz des Kerns, der für die Berechnung der Geometrie verantwortlich ist, aber das Gesamtbild einiger GTX 480 unterscheidet sich nicht wesentlich von einigen 780, SM-Multiprozessoren werden zu Clustern zusammengefasst, die Cluster kommunizieren über einen gemeinsamen Cache mit Speichercontrollern und die Ergebnisse der Arbeit werden von einer dem Cluster gemeinsamen Rasterisierungseinheit angezeigt:


Blockdiagramm des in der GTX 480 verwendeten GF100-Prozessors.

Die 500er-Serie hatte das gleiche Fermi, intern leicht verbessert und mit weniger Defekten, sodass die Top-Lösungen 512 CUDA-Kerne statt 480 in der Vorgängergeneration erhielten. Optisch scheinen die Flussdiagramme im Allgemeinen Zwillinge zu sein:


GF110 ist das Herzstück der GTX 580.

An einigen Stellen haben sie die Frequenzen erhöht, das Design des Chips selbst leicht verändert, aber es gab keine Revolution. Trotzdem 40-nm-Prozesstechnologie und 1,5 GB Videospeicher auf einem 384-Bit-Bus.

Kepler

Mit dem Aufkommen der Kepler-Architektur hat sich viel verändert. Wir können sagen, dass es diese Generation war, die NVIDIA-Grafikkarten den Entwicklungsvektor gab, der zur Entstehung aktueller Modelle führte. Nicht nur die GPU-Architektur hat sich verändert, sondern auch die Küche für die Entwicklung neuer Hardware innerhalb von NVIDIA. Wenn Fermi darauf abzielte, eine Lösung zu finden, die eine hohe Leistung bietet, dann verließ sich Kepler auf Energieeffizienz, vernünftigen Ressourceneinsatz, hohe Frequenzen und die einfache Optimierung der Spiel-Engine für die Fähigkeiten einer Hochleistungsarchitektur.

Am GPU-Design wurden wesentliche Änderungen vorgenommen: Es basierte nicht auf dem „Flaggschiff“ GF100 / GF110, sondern auf dem „Budget“ GF104 / GF114, das in einer der damals beliebtesten Karten – der GTX 460 – verwendet wurde.


Die gesamte Prozessorarchitektur ist durch die Verwendung von nur zwei großen Blöcken mit vier Unified-Shader-Multiprozessormodulen einfacher geworden. Das Layout der neuen Flaggschiffe sah in etwa so aus:


GK104 in GTX 680 verbaut.

Wie Sie sehen, hat jede der Recheneinheiten im Vergleich zur vorherigen Architektur deutlich an Gewicht gewonnen und wurde SMX genannt. Vergleichen Sie die Struktur des Blocks mit der oben im Fermi-Abschnitt gezeigten.


GK104 GPU SMX Multiprozessor

Die 600er-Serie verfügte nicht über Grafikkarten, sondern über einen vollwertigen Prozessor mit sechs Rechenmodulblöcken; das Flaggschiff war die GTX 680 mit installiertem GK104, und cooler als sie war nur die „doppelte“ 690, auf der es einfach war zwei Prozessoren mit der gesamten notwendigen Hardware und Speicher. Ein Jahr später wurde aus dem Flaggschiff GTX 680 mit geringfügigen Änderungen die GTX 770, und die Krone der Weiterentwicklung der Kepler-Architektur waren Grafikkarten auf Basis des GK110-Kristalls: GTX Titan und Titan Z, 780Ti und die reguläre 780. Im Inneren - die gleichen 28 Nanometer, die einzige qualitative Verbesserung (die NICHT für Consumer-Grafikkarten auf GK110-Basis gilt) - Leistung mit Operationen mit doppelter Präzision.

Maxwell

Die erste Grafikkarte, die auf der Maxwell-Architektur basierte, war... NVIDIA GTX 750Ti. Wenig später erschienen ihre Ausstattungsvarianten in Form der GTX 750 und 745 (die nur als integrierte Lösung geliefert wurden), und zum Zeitpunkt ihres Erscheinens wirbelten die Karten der unteren Preisklasse den Markt für preiswerte Videobeschleuniger wirklich auf. Die neue Architektur wurde auf dem GK107-Chip getestet: einem winzigen Teil zukünftiger Flaggschiffe mit riesigen Kühlkörpern und einem erschreckenden Preis. Es sah ungefähr so ​​aus:


Ja, es gibt nur eine Recheneinheit, aber um wie viel komplexer ist ihr Aufbau im Vergleich zum Vorgänger, vergleichen Sie selbst:


Anstelle des großen SMX-Blocks, der als grundlegender „Baustein“ verwendet wurde, werden bei der Erstellung von GPUs neue, kompaktere SMM-Blöcke verwendet. Keplers grundlegende Recheneinheiten waren gut, litten jedoch unter einer schlechten Kapazitätsauslastung – einem banalen Befehlshunger: Das System war nicht in der Lage, Anweisungen auf eine große Anzahl ausführender Elemente zu verteilen. Der Pentium 4 hatte ungefähr die gleichen Probleme: Der Strom war im Leerlauf und Fehler bei der Verzweigungsvorhersage waren sehr teuer. In Maxwell wurde jedes Rechenmodul in vier Teile unterteilt, wobei jedem von ihnen ein eigener Befehlspuffer und Warp-Scheduler zugewiesen wurde – ähnliche Operationen an einer Gruppe von Threads. Dadurch ist die Effizienz gestiegen, die Grafikprozessoren selbst sind flexibler geworden als ihre Vorgänger und vor allem haben sie auf Kosten von wenig Blut und einem recht einfachen Kristall eine neue Architektur entwickelt. Die Geschichte entwickelt sich spiralförmig, hehe.

Mobile Lösungen profitierten am meisten von den Neuerungen: Die Kristallfläche vergrößerte sich um ein Viertel, die Anzahl der Ausführungseinheiten von Multiprozessoren verdoppelte sich nahezu. Wie es der Zufall wollte, waren es die 700. und 800. Serien, die für den größten Schlamassel in der Wertung sorgten. Allein im 700 gab es Grafikkarten, die auf Kepler-, Maxwell- und sogar Fermi-Architekturen basierten! Aus diesem Grund erhielten Desktop-Maxwells, um sich von der Verwirrung früherer Generationen zu distanzieren, eine gemeinsame 900er-Serie, aus der später GTX 9xx M-Mobilkarten hervorgingen.

Pascal ist eine logische Weiterentwicklung der Maxwell-Architektur

Was in Kepler begonnen und in der Maxwell-Generation fortgesetzt wurde, blieb in Pascal bestehen: Die ersten Consumer-Grafikkarten wurden auf Basis des nicht sehr großen GP104-Chips veröffentlicht, der aus vier Grafikverarbeitungsclustern besteht. Der vollwertige GP100 mit sechs Clustern ging an eine teure semiprofessionelle GPU unter der Marke TITAN

Leistungsverbesserung

Grundlagen

Maxwell wurde zur Grundlage der neuen Architektur, das Diagramm vergleichbarer Prozessoren (GM104 und GP104) sieht fast gleich aus, der Hauptunterschied besteht in der Anzahl der in Clustern verpackten Multiprozessoren. In Kepler (700. Generation) gab es zwei große SMX-Multiprozessoren, die in Maxwell in jeweils 4 Teile geteilt wurden und für die notwendige Verkabelung sorgten (Namensänderung in SMM). In Pascal kamen zu den bisherigen acht im Block zwei weitere hinzu, so dass es nun 10 waren, zudem wurde die Abkürzung noch einmal geändert: Single-Multiprozessoren heißen jetzt wieder SM.


Ansonsten besteht völlige optische Ähnlichkeit. Zwar gab es im Inneren noch mehr Veränderungen.

Motor des Fortschritts

Es gibt unangemessen viele Änderungen innerhalb des Multiprozessorblocks. Um nicht zu langweilig ins Detail zu gehen, was neu gemacht wurde, wie es optimiert wurde und wie es vorher war, werde ich die Änderungen ganz kurz beschreiben, sonst gähnt manch einer schon.

Zunächst korrigierte Pascal den Teil, der für die geometrische Komponente des Bildes verantwortlich ist. Dies ist für Multi-Monitor-Konfigurationen und die Arbeit mit VR-Headsets erforderlich: Bei entsprechender Unterstützung durch die Game-Engine (und mit den Bemühungen von NVIDIA wird diese Unterstützung schnell verfügbar sein) kann die Grafikkarte die Geometrie einmal berechnen und für jeden mehrere Geometrieprojektionen empfangen Bildschirm. Dies reduziert die Belastung in VR nicht nur im Bereich der Arbeit mit Dreiecken (hier beträgt die Steigerung lediglich das Doppelte), sondern auch bei der Arbeit mit der Pixelkomponente deutlich.

Der herkömmliche 980Ti liest die Geometrie zweimal (für jedes Auge) und füllt sie dann mit Texturen und bearbeitet jedes Bild nach. Dabei werden insgesamt etwa 4,2 Millionen Punkte verarbeitet, von denen etwa 70 % tatsächlich verwendet werden Der Rest wird abgeschnitten oder fällt in den Bereich, der einfach nicht für jedes Auge angezeigt wird.

1080 verarbeitet die Geometrie einmal und Pixel, die nicht in das endgültige Bild fallen, werden einfach nicht berechnet.


Mit der Pixelkomponente ist eigentlich alles noch cooler. Da die Erhöhung der Speicherbandbreite nur an zwei Fronten (Erhöhung der Frequenz und Bandbreite pro Takt) erfolgen kann und beide Methoden Geld kosten, ist der „Hunger“ der GPU nach Speicher im Laufe der Jahre aufgrund der Erhöhung der Auflösung und immer ausgeprägter geworden Die Entwicklung von VR bleibt die Verbesserung „kostenloser“ Methoden zur Steigerung des Durchsatzes. Wenn Sie den Bus nicht erweitern und die Frequenz erhöhen können, müssen Sie die Daten komprimieren. In früheren Generationen wurde die Hardwarekomprimierung bereits eingeführt, in Pascal wurde sie jedoch auf ein neues Niveau gehoben. Verzichten wir noch einmal auf langweilige Mathematik und nehmen wir ein vorgefertigtes Beispiel von NVIDIA. Links – Maxwell, rechts – Pascal, gefüllt Rosa diejenigen Punkte, deren Farbanteil ohne Qualitätsverlust komprimiert wurde.


Anstatt bestimmte Kacheln mit 8x8 Punkten zu übertragen, werden die „durchschnittliche“ Farbe + die Abweichungsmatrix davon im Speicher gespeichert; diese Daten nehmen ½ bis ⅛ des ursprünglichen Volumens ein. Bei realen Aufgaben verringerte sich die Belastung des Speichersubsystems von 10 auf 30 %, abhängig von der Anzahl der Farbverläufe und der Gleichmäßigkeit der Füllungen in komplexen Szenen auf dem Bildschirm.


Den Ingenieuren schien dies nicht genug, und für die Flaggschiff-Grafikkarte (GTX 1080) wurde Speicher mit erhöhter Bandbreite verwendet: GDDR5X überträgt doppelt so viele Datenbits (keine Anweisungen) pro Taktzyklus und produziert mehr als 10 Gbit/s An seinem Höhepunkt. Die Übertragung von Daten mit solch einer wahnsinnigen Geschwindigkeit erforderte eine völlig neue Topologie des Speicherlayouts auf der Platine, und insgesamt stieg die Effizienz der Arbeit mit dem Speicher im Vergleich zu den Flaggschiffen der vorherigen Generation um 60–70 %.

Reduzieren Sie Verzögerungen und Kapazitätsausfälle

Grafikkarten sind längst nicht nur an der Grafikverarbeitung, sondern auch an damit verbundenen Berechnungen beteiligt. Die Physik ist oft an Animationsframes gebunden und bemerkenswert parallel, was bedeutet, dass sie auf der GPU viel effizienter ist. Doch der größte Problemverursacher war in letzter Zeit die VR-Branche. Viele Spiel-Engines, Entwicklungsmethoden und eine Reihe anderer Technologien, die für die Arbeit mit Grafiken verwendet werden, waren einfach nicht für VR konzipiert; der Fall, dass die Kamera bewegt oder die Position des Kopfes des Benutzers während des Renderns des Bildes geändert wurde, wurde einfach nicht verarbeitet. Wenn Sie alles so lassen, wie es ist, führt die Desynchronisation des Videostreams und Ihrer Bewegungen zu Reisekrankheitsanfällen und stört einfach das Eintauchen in die Spielwelt, was bedeutet, dass die „falschen“ Frames nach dem Rendern einfach weggeworfen werden müssen und Die Arbeit begann von vorne. Und das sind neue Verzögerungen bei der Darstellung von Bildern auf dem Display. Dies wirkt sich nicht positiv auf die Leistung aus.

Pascal berücksichtigte dieses Problem und führte einen dynamischen Lastausgleich und die Möglichkeit asynchroner Interrupts ein: Jetzt können Ausführungseinheiten entweder die aktuelle Aufgabe unterbrechen (die Ergebnisse der Arbeit im Cache speichern), um dringendere Aufgaben zu verarbeiten, oder einfach die Halbzeit zurücksetzen. Wechseln Sie zum gezeichneten Bild und beginnen Sie ein neues, wodurch Verzögerungen bei der Bilderzeugung erheblich reduziert werden. Der Hauptnutznießer hier sind natürlich VR und Spiele, aber diese Technologie kann auch bei allgemeinen Berechnungen helfen: Die Partikelkollisionssimulation erhielt eine Leistungssteigerung von 10–20 %.

Boost 3.0

NVIDIA-Grafikkarten erhielten schon vor langer Zeit, in der 700. Generation auf Basis der Kepler-Architektur, eine automatische Übertaktung. Bei Maxwell wurde die Übertaktung verbessert, war aber, gelinde gesagt, immer noch mittelmäßig: Ja, die Grafikkarte arbeitete etwas schneller, sofern das Wärmepaket dies zuließ, zusätzliche 20-30 Megahertz ab Werk fest verdrahtet für den Kern und 50-100 für den Speicher ergaben eine Steigerung, aber gering. Es hat ungefähr so ​​funktioniert:


Selbst wenn die GPU-Temperatur einen Spielraum hatte, stieg die Leistung nicht. Mit der Ankunft von Pascal wirbelten Ingenieure diesen staubigen Sumpf auf. Boost 3.0 funktioniert an drei Fronten: Temperaturanalyse, Erhöhung der Taktrate und Erhöhung der On-Chip-Spannung. Jetzt wird der gesamte Saft aus der GPU gepresst: Standard-NVIDIA-Treiber tun dies nicht, aber die Software des Anbieters ermöglicht es Ihnen, mit einem Klick eine Profilierungskurve zu erstellen, die die Qualität Ihrer speziellen Grafikkarte berücksichtigt.

EVGA war einer der Ersten auf diesem Gebiet; sein Dienstprogramm Precision

Fügen Sie hier einen neuen technischen Prozess, einen Hochgeschwindigkeitsspeicher, alle möglichen Optimierungen und eine Reduzierung des Wärmepakets der Chips hinzu, und das Ergebnis wird einfach unanständig sein. Von 1.500 „Basis“-MHz lässt sich die GTX 1060 auf über 2.000 MHz steigern, wenn man sich ein gutes Exemplar besorgt und der Anbieter die Kühlung nicht vermasselt.

Verbesserung der Bildqualität und Wahrnehmung der Spielwelt

Die Produktivität wurde an allen Fronten gesteigert, doch es gibt eine Reihe von Bereichen, in denen es seit mehreren Jahren keine qualitativen Veränderungen gibt: bei der Qualität des angezeigten Bildes. Dabei geht es nicht um grafische Effekte, diese werden von Spieleentwicklern bereitgestellt, sondern darum, was genau wir auf dem Monitor sehen und wie das Spiel für den Endverbraucher aussieht.

Schnelle vertikale Synchronisierung

Das wichtigste Merkmal von Pascal ist der dreifache Puffer für die Frame-Ausgabe, der gleichzeitig für extrem niedrige Rendering-Latenzen sorgt und die vertikale Synchronisation gewährleistet. Das Ausgabebild wird in einem Puffer gespeichert, das zuletzt gezeichnete Bild wird in einem anderen gespeichert und das aktuelle Bild wird im dritten Puffer gespeichert. Auf Wiedersehen horizontale Streifen und Risse, hallo Höchstleistung. Es gibt hier keine Verzögerungen wie beim klassischen V-Sync (da niemand die Leistung der Grafikkarte einschränkt und sie immer mit der höchstmöglichen Bildrate zeichnet) und es werden nur vollständig geformte Bilder an den Monitor gesendet. Ich denke, dass ich nach dem neuen Jahr einen separaten großen Beitrag über V-Sync, G-Sync, Free-Sync und diesen neuen schnellen Synchronisationsalgorithmus von Nvidia schreiben werde, da sind zu viele Details.

Normale Screenshots

Nein, die Screenshots, die es jetzt gibt, sind einfach nur schade. Fast alle Spiele verwenden eine Reihe von Technologien, um das Bild in Bewegung erstaunlich und atemberaubend zu machen, und Screenshots sind zu einem echten Albtraum geworden: Anstelle eines atemberaubend realistischen Bildes aus Animationen und Spezialeffekten, die die Besonderheiten des menschlichen Sehens ausnutzen, sieht man einige irgendwie eckiges, seltsames Ding mit seltsamen Farben und einem absolut leblosen Bild.

Die neue NVIDIA Ansel-Technologie löst das Problem mit Screenshots. Ja, seine Implementierung erfordert die Integration von speziellem Code von Spieleentwicklern, aber es gibt ein Minimum an echter Manipulation, aber der Gewinn ist enorm. Ansel kann das Spiel pausieren, die Kontrolle über die Kamera in Ihre Hände übertragen und schon ist Raum für Kreativität. Sie können einfach ein Foto ohne GUI und aus Ihrem Lieblingswinkel aufnehmen.


Sie können die vorhandene Szene in ultrahoher Auflösung rendern, 360-Grad-Panoramen aufnehmen, sie zu einer Ebene zusammenfügen oder sie in dreidimensionaler Form belassen, um sie in einem VR-Helm anzuzeigen. Machen Sie ein Foto mit 16 Bit pro Kanal, speichern Sie es in einer Art RAW-Datei und spielen Sie dann mit Belichtung, Weißabgleich und anderen Einstellungen, damit die Screenshots wieder attraktiv werden. Wir erwarten in ein oder zwei Jahren jede Menge coole Inhalte von Spielefans.

Audioverarbeitung auf einer Grafikkarte

Neue NVIDIA Gameworks-Bibliotheken bieten Entwicklern viele Funktionen. Sie zielen hauptsächlich auf VR und die Beschleunigung verschiedener Berechnungen sowie auf die Verbesserung der Bildqualität ab, aber eine der Funktionen ist die interessanteste und erwähnenswerteste. VRWorks Audio hebt die Arbeit mit Ton auf ein grundlegend neues Niveau, indem es den Klang nicht nach banalen Durchschnittsformeln abhängig von der Entfernung und Dicke des Hindernisses berechnet, sondern eine vollständige Nachverfolgung des Schallsignals mit allen Reflexionen aus der Umgebung, Nachhall und Schall durchführt Absorption in verschiedenen Materialien. NVIDIA hat ein gutes Videobeispiel dafür, wie diese Technologie funktioniert:


Besser mit Kopfhörern schauen

Rein theoretisch hindert Sie nichts daran, eine solche Simulation auf Maxwell durchzuführen, sondern eine Optimierung im Hinblick auf die asynchrone Ausführung von Anweisungen und neues System In Pascal integrierte Interrupts ermöglichen die Durchführung von Berechnungen ohne großen Einfluss auf die Bildrate.

Insgesamt Pascal

Tatsächlich gibt es sogar noch mehr Änderungen, und viele davon sind so tief in der Architektur verankert, dass über jede davon ein umfangreicher Artikel geschrieben werden könnte. Die wichtigsten Neuerungen sind das verbesserte Design der Chips selbst, eine Optimierung auf niedrigster Ebene in Bezug auf Geometrie und asynchronen Betrieb mit vollständiger Interrupt-Verarbeitung, viele Funktionen, die auf die Arbeit mit hohen Auflösungen und VR zugeschnitten sind, und natürlich wahnsinnige Frequenzen, die frühere Generationen übertrafen von Grafikkarten haben noch nie geträumt. Vor zwei Jahren überschritt die 780 Ti knapp die 1-GHz-Grenze, heute läuft die 1080 teilweise mit zwei: Und hier liegt der Verdienst nicht nur in der von 28 nm auf 16 oder 14 nm reduzierten Prozesstechnik: Vieles wird bei optimiert die unterste Ebene, angefangen beim Design der Transistoren bis hin zu ihrer Topologie und Verdrahtung im Chip selbst.

Für jeden Einzelfall

Die Reihe der NVIDIA-Grafikkarten der 10er-Serie erwies sich als wirklich ausgewogen und deckt alle Gaming-Anwendungsfälle recht gut ab, von der Option „Spielstrategie und Diablo“ bis hin zu „Ich möchte Top-Spiele in 4K“. Die Spieletests wurden nach einer einfachen Methode ausgewählt: mit der kleinstmöglichen Menge an Tests ein möglichst breites Testspektrum abzudecken. BF1 ist ein hervorragendes Beispiel für eine gute Optimierung und ermöglicht es Ihnen, die Leistung von DX11 mit der von DX12 unter denselben Bedingungen zu vergleichen. DOOM wurde aus dem gleichen Grund ausgewählt, nur dass es Ihnen ermöglicht, OpenGL und Vulkan zu vergleichen. Der dritte „Witcher“ fungiert hier als mittelmäßig optimiertes Spielzeug, bei dem die maximalen Grafikeinstellungen es ermöglichen, jedes Flaggschiff einfach aufgrund des beschissenen Codes zu vermasseln. Es verwendet das klassische DX11, das sich bei Treibern bewährt und gut entwickelt hat und Spieleherstellern vertraut ist. Overwatch hat bei allen „Turnier“-Spielen, bei denen der Code gut optimiert ist, die Nase vorn. Tatsächlich ist es interessant, weil die durchschnittlichen FPS in einem nicht sehr grafisch anspruchsvollen Spiel, das für die Funktion in der „durchschnittlichen“ Konfiguration konzipiert ist, hoch sind. auf der ganzen Welt verfügbar.

Ich möchte sofort einige allgemeine Kommentare abgeben: Vulkan ist in Bezug auf den Videospeicher sehr gefräßig, für ihn ist diese Eigenschaft einer der Hauptindikatoren, und Sie werden diese These in den Benchmarks widerspiegeln. DX12 auf AMD-Karten verhält sich deutlich besser als auf NVIDIA; wenn die „grünen“ im Durchschnitt einen FPS-Rückgang auf den neuen APIs zeigen, zeigen die „roten“ im Gegenteil einen Anstieg.

Juniorenabteilung

GTX 1050

Der jüngere NVIDIA (ohne die Buchstaben Ti) ist nicht so interessant wie seine aufgeladene Schwester mit den Buchstaben Ti. Seine Bestimmung ist eine Gaming-Lösung für MOBA-Spiele, Strategiespiele, Turnier-Shooter und andere Spiele, bei denen sich nur wenige Menschen für Details und Bildqualität interessieren und eine stabile Bildrate für minimales Geld genau das ist, was der Arzt verordnet hat.


Alle Bilder zeigen nicht die Kernfrequenz, da diese für jede Instanz individuell ist: 1050 ohne zusätzliche. Das Netzteil darf zwar nicht angesteuert werden, sein Schwestermodell mit 6-Pin-Anschluss nimmt aber problemlos die herkömmlichen 1,9 GHz auf. In Bezug auf Stromversorgung und Länge werden die gängigsten Optionen angezeigt; es gibt immer eine Grafikkarte mit einer anderen Schaltung oder einer anderen Kühlung, die nicht in die angegebenen „Standards“ passt.

DOOM 2016 (1080p, ULTRA): OpenGL – 68 FPS, Vulkan – 55 FPS;
Der Hexer 3: Wilde Jagd(1080p, MAX, HairWorks aus): DX11 – 38 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 49 FPS, DX12 – 40 FPS;
Overwatch (1080p, ULTRA): DX11 – 93 FPS;

Die GTX 1050 ist mit einem GP107-Grafikprozessor ausgestattet, der von der älteren Karte mit einer leichten Beschneidung der Funktionseinheiten übernommen wurde. Mit 2 GB Videospeicher können Sie sich nicht austoben, aber für E-Sport-Disziplinen und das Spielen einiger Panzer ist es perfekt, da der Preis für eine Low-End-Karte bei 9,5 Tausend Rubel beginnt. Es ist keine zusätzliche Stromversorgung erforderlich; die Grafikkarte benötigt lediglich 75 Watt, die vom Motherboard über den PCI-Express-Steckplatz bereitgestellt werden. Zwar gibt es in diesem Preissegment auch die AMD Radeon RX460, die mit den gleichen 2 GB Speicher weniger kostet und in der Arbeitsqualität fast genauso gut ist, und für etwa das gleiche Geld bekommt man eine RX460, allerdings in einem 4-GB-Version. Es ist nicht so, dass sie ihm viel geholfen hätten, sondern eine Art Reserve für die Zukunft. Die Wahl des Anbieters ist nicht so wichtig, Sie können nehmen, was verfügbar ist, und belasten Ihre Tasche nicht mit zusätzlichen tausend Rubel, die Sie besser für die begehrten Buchstaben Ti ausgeben würden.

GTX 1050 Ti

Ungefähr 10.000 für eine normale 1050 sind nicht schlecht, aber für eine aufgeladene (oder vollwertige, wie auch immer Sie es nennen wollen) Version verlangen sie nicht viel mehr (im Durchschnitt 1-1,5.000 mehr), aber die Füllung ist viel interessanter. Die gesamte 1050er-Serie entsteht übrigens nicht durch Beschneiden/Aussortieren von „großen“ Spänen, die nicht für den 1060 geeignet sind, sondern als völlig eigenständiges Produkt. Es verfügt über einen kleineren technischen Prozess (14 nm), eine andere Anlage (die Kristalle werden in der Samsung-Fabrik gezüchtet) und es gibt äußerst interessante Exemplare mit zusätzlichen Optionen. Netzteil: Das Wärmepaket und der Grundverbrauch liegen immer noch bei 75 W, aber das Übertaktungspotenzial und die Möglichkeit, über das Erlaubte hinauszugehen, sind völlig anders.


Wenn Sie weiterhin mit FullHD-Auflösung (1920 x 1080) spielen, kein Upgrade planen und Ihre verbleibende Hardware weniger als 3–5 Jahre alt ist, ist dies eine großartige Möglichkeit, die Leistung in Spielen mit geringen Kosten zu steigern. Hier sollte man auf Lösungen von ASUS und MSI mit zusätzlicher 6-Pin-Stromversorgung setzen; Optionen von Gigabyte sind gut, der Preis ist allerdings nicht so erfreulich.

DOOM 2016 (1080p, ULTRA): OpenGL – 83 FPS, Vulkan – 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks aus): DX11 – 44 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 58 FPS, DX12 – 50 FPS;
Overwatch (1080p, ULTRA): DX11 – 104 FPS.

Mittlere Division

Grafikkarten der 60er-Reihe gelten seit langem als optimale Wahl für alle, die nicht viel Geld ausgeben und gleichzeitig alles, was in den nächsten Jahren erscheint, mit hohen Grafikeinstellungen abspielen möchten. Dies begann bereits zu Zeiten der GTX 260, die zwei Versionen hatte (einfachere, 192 Stream-Prozessoren und dickere, 216 „Steine“), setzte sich in der 400., 500. und 700. Generation fort, und nun befand sich NVIDIA erneut in einer Krise nahezu perfekte Kombination aus Preis und Qualität. Von der „Mittelklasse“ sind wieder zwei Versionen verfügbar: GTX 1060 mit 3 und 6 GB Videospeicher, die sich nicht nur in der Menge des verfügbaren Arbeitsspeichers, sondern auch in der Leistung unterscheiden.

GTX 1060 3 GB

Königin des eSports. Moderater Preis, erstaunliche Leistung für FullHD (und im eSport werden selten höhere Auflösungen verwendet: dort sind Ergebnisse wichtiger als Schönheit), angemessene Speichermenge (3 GB waren für einen Moment im Flaggschiff GTX 780 Ti vor zwei Jahren, das obszönes Geld kosten). In puncto Leistung übertrifft die jüngere 1060 die letztjährige GTX 970 mit beachtlichen 3,5 GB Speicher deutlich und stellt das letztjährige Super-Flaggschiff 780 Ti deutlich in den Schatten.


DOOM 2016 (1080p, ULTRA): OpenGL – 117 FPS, Vulkan – 87 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks aus): DX11 – 70 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 92 FPS, DX12 – 85 FPS;
Overwatch (1080p, ULTRA): DX11 – 93 FPS.

Hier ist der unangefochtene Favorit in Sachen Preis und Abgasverhältnis die Version von MSI. Gute Frequenzen, leises Kühlsystem und angemessene Abmessungen. Sie verlangen überhaupt nichts, etwa 15.000 Rubel.

GTX 1060 6 GB

Die Sechs-Gigabyte-Version ist die preisgünstige Eintrittskarte zu VR und hohen Auflösungen. Es wird nicht an Speicher mangeln, es wird in allen Tests etwas schneller sein und die GTX 980 in Bereichen, in denen 4 GB Videospeicher für die letztjährige Grafikkarte nicht ausreichten, souverän übertreffen.


DOOM 2016 (1080p, ULTRA): OpenGL – 117 FPS, Vulkan – 121 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks aus): DX11 – 73 FPS;
Battlefield 1 (1080p, ULTRA): DX11 – 94 FPS, DX12 – 90 FPS;
Overwatch (1080p, ULTRA): DX11 – 166 FPS.

Ich möchte noch einmal auf das Verhalten von Grafikkarten bei Verwendung der Vulkan-API hinweisen. 1050 mit 2 GB Speicher – FPS-Einbruch. 1050 Ti mit 4 GB liegt fast gleichauf. 1060 3 GB - Inanspruchnahme. 1060 6 GB - Ergebniswachstum. Ich denke, der Trend ist klar: Vulkan benötigt 4+ GB Videospeicher.

Das Problem ist, dass beide 1060-Grafikkarten nicht klein sind. Es scheint, dass das Wärmepaket angemessen ist und die Platine wirklich klein ist, aber viele Anbieter haben sich entschieden, das Kühlsystem einfach zwischen 1080, 1070 und 1060 zu vereinheitlichen. Einige Grafikkarten sind 2 Steckplätze hoch, aber 28+ Zentimeter lang, andere haben sie hergestellt kürzer, aber dicker (2,5 Schlitze). Wähle mit Bedacht.

Leider kosten zusätzliche 3 GB Videospeicher und eine entsperrte Recheneinheit etwa 5-6.000 Rubel zusätzlich zum Preis der 3-GB-Version. In diesem Fall bietet Palit hinsichtlich Preis und Qualität die interessantesten Optionen. ASUS hat monströse 28-Zentimeter-Kühlsysteme herausgebracht, die es für 1080, 1070 und 1060 modelliert, und eine solche Grafikkarte passt nirgendwo hin, Versionen ohne werkseitige Übertaktung kosten fast das gleiche, und die Abgase sind geringer und dafür relativ kompakt MSI verlangen mehr als die Konkurrenz bei annähernd gleicher Qualität und werkseitiger Übertaktung.

Erste Liga

Es ist schwierig, im Jahr 2016 um alles Geld zu spielen. Ja, der 1080 ist wahnsinnig cool, aber Perfektionisten und Hardware-Fans wissen, dass NVIDIA die Existenz des Super-Flaggschiffs 1080 Ti verbirgt, der unglaublich cool sein sollte. Die ersten Spezifikationen sind bereits online durchgesickert, und es ist klar, dass die Grünen auf einen Schritt von den Rot-Weißen warten: eine Art Überwaffe, die vom neuen König der 3D-Grafiken, dem neuen König der 3D-Grafik, sofort eingesetzt werden kann tolle und mächtige GTX 1080 Ti. Nun, im Moment haben wir, was wir haben.

GTX 1070

Die letztjährigen Abenteuer der mega-populären GTX 970 und ihres nicht ganz ehrlichen 4-Gigabyte-Speichers wurden im gesamten Internet rege diskutiert und diskutiert. Dies hinderte sie jedoch nicht daran, die beliebteste Gaming-Grafikkarte der Welt zu werden. Vor dem Jahreswechsel belegt es den ersten Platz in der Steam-Hardware- und Software-Umfrage. Das ist verständlich: Die Kombination aus Preis und Leistung war einfach ideal. Und wenn Sie das Upgrade vom letzten Jahr übersprungen haben und Ihnen die 1060 nicht cool genug erscheint, ist die GTX 1070 Ihre Wahl.

Die Grafikkarte bewältigt Auflösungen von 2560 x 1440 und 3840 x 2160 mit Bravour. Das Boost 3.0-Übertaktungssystem versucht, Kraftstoff hinzuzufügen, wenn die Belastung der GPU zunimmt (d. h. in den schwierigsten Szenen, wenn die FPS unter dem Ansturm von Spezialeffekten sinken), und beschleunigt den Grafikkartenprozessor auf unglaubliche 2100+ MHz. Der Speicher erreicht problemlos 15–18 % effektive Frequenz über den Werkseinstellungen. Ungeheuerliche Sache.


Achtung, alle Tests wurden in 2,5k (2560x1440) durchgeführt:

DOOM 2016 (1440p, ULTRA): OpenGL – 91 FPS, Vulkan – 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks aus): DX11 – 73 FPS;
Battlefield 1 (1440p, ULTRA): DX11 – 91 FPS, DX12 – 83 FPS;
Overwatch (1440p, ULTRA): DX11 – 142 FPS.

Es ist klar, dass weder diese Karte noch 1080 Ultra-Einstellungen in 4K erreichen und nie unter 60 Bilder pro Sekunde fallen können, aber Sie können mit den bedingten „hohen“ Einstellungen spielen und die leistungshungrigsten Funktionen in voller Auflösung deaktivieren oder leicht reduzieren. Und was die tatsächliche Leistung betrifft, schlägt die Grafikkarte sogar die 980 Ti des Vorjahres, die fast doppelt so viel kostete, deutlich. Gigabyte hat die interessanteste Option: Sie haben es geschafft, einen vollwertigen 1070 in ein ITX-Standardgehäuse zu stopfen. Dank des bescheidenen Wärmepakets und des energieeffizienten Designs. Die Preise für Karten beginnen bei 29.000 bis 30.000 Rubel für leckere Optionen.

GTX 1080

Ja, das Flaggschiff trägt nicht die Buchstaben Ti. Ja, es wird nicht die größte von NVIDIA verfügbare GPU verwendet. Ja, es gibt keinen coolen HBM 2-Speicher und die Grafikkarte sieht nicht aus wie der Todesstern oder im Extremfall wie ein Kreuzer der Imperial Star Destroyer-Klasse. Und ja, das ist die coolste Gaming-Grafikkarte, die derzeit erhältlich ist. Man nimmt DOOM in 5k3k-Auflösung mit 60 Bildern pro Sekunde und Ultra-Einstellungen auf und führt es aus. Alle neuen Spielzeuge unterliegen ihm, und in den nächsten ein oder zwei Jahren wird es keine Probleme geben: solange die in Pascal eingebetteten neuen Technologien weit verbreitet sind, solange Spiel-Engines lernen, verfügbare Ressourcen effizient zu laden... Ja, in In ein paar Jahren werden wir sagen: „Sehen Sie sich die GTX 1260 an, vor ein paar Jahren brauchten Sie ein Flaggschiff, um mit diesen Einstellungen zu spielen“, aber vorerst sind die besten Grafikkarten noch vor dem neuen Jahr erhältlich ein sehr vernünftiger Preis.


Achtung, alle Tests wurden in 4k (3840x2160) durchgeführt:

DOOM 2016 (2160p, ULTRA): OpenGL – 54 FPS, Vulkan – 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks aus): DX11 – 55 FPS;
Battlefield 1 (2160p, ULTRA): DX11 – 65 FPS, DX12 – 59 FPS;
Overwatch (2160p, ULTRA): DX11 – 93 FPS.

Sie müssen sich nur noch entscheiden: Sie brauchen es, oder Sie können Geld sparen und 1070 nehmen. Das Spielen mit „Ultra“- oder „Hoch“-Einstellungen macht keinen großen Unterschied, da moderne Engines auch bei hoher Auflösung ein Bild perfekt zeichnen Mittlere Einstellungen: Letztendlich sind wir keine Seifenkonsolen, die nicht genug Leistung für ehrliches 4K und stabile 60 Bilder pro Sekunde bieten können.

Wenn wir die günstigsten Optionen verwerfen, wird die beste Kombination aus Preis und Qualität wieder bei Palit in der GameRock-Version (ca. 43-45.000 Rubel) liegen: Ja, das Kühlsystem ist „dick“, 2,5 Steckplätze, aber das Video Die Karte ist kürzer als die der Konkurrenz, und ein paar 1080er werden selten verbaut. SLI stirbt langsam, und selbst eine lebensspendende Injektion von Hochgeschwindigkeitsbrücken hilft ihm nicht wirklich. Die ASUS ROG-Option ist nicht schlecht, wenn Sie viele Extras installiert haben. Geräte und Sie möchten keine zusätzlichen Erweiterungssteckplätze blockieren: Ihre Grafikkarte ist genau 2 Steckplätze dick, benötigt aber 29 Zentimeter freien Platz von der Rückwand bis zum Festplattenkäfig. Ich frage mich, ob Gigabyte es schaffen wird, dieses Monster im ITX-Format zu veröffentlichen?

Ergebnisse

Neue NVIDIA-Grafikkarten haben den Markt für gebrauchte Hardware einfach begraben. Darauf ist nur noch die GTX 970 erhalten, die für 10-12.000 Rubel zu ergattern ist. Potenzielle Käufer von gebrauchten 7970 und R9 280 haben oft keine Möglichkeit, sie abzustellen und können sie einfach nicht füttern, und viele Optionen auf dem Zweitmarkt sind einfach aussichtslos und taugen nicht als billiges Upgrade für ein paar Jahre in der Zukunft: Es gibt sie wenig Speicher, neue Technologien werden nicht unterstützt. Das Schöne an der neuen Generation von Grafikkarten ist gerade, dass selbst Spiele, die nicht dafür optimiert sind, viel leistungsstärker laufen als auf Veteranen der GPU-Charts der vergangenen Jahre, und es ist schwer vorstellbar, was in einem Jahr passieren wird, in dem Game-Engines dazulernen die volle Kraft neuer Technologien zu nutzen.

GTX 1050 und 1050Ti

Leider kann ich den Kauf des günstigsten Pascal nicht empfehlen. Die RX 460 wird in der Regel ein oder zwei Tausend Euro günstiger verkauft, und wenn Ihr Budget so begrenzt ist, dass Sie eine „Last-Minute“-Grafikkarte kaufen, dann ist die Radeon objektiv gesehen eine interessantere Investition. Andererseits ist die 1050 etwas schneller, und wenn die Preise für diese beiden Grafikkarten in Ihrer Stadt fast gleich sind, nehmen Sie sie.

Der 1050Ti wiederum ist eine hervorragende Option für diejenigen, denen Story und Gameplay wichtiger sind als Schnickschnack und realistische Nasenhaare. Es gibt keinen Engpass in Form von 2 GB Videospeicher, der auch in einem Jahr nicht aufgebraucht sein wird. Sie können Geld dafür bereitstellen – tun Sie es. The Witcher auf hohen Einstellungen, GTA V, DOOM, BF 1 – kein Problem. Ja, Sie müssen auf eine Reihe von Verbesserungen verzichten, wie z. B. superlange Schatten, komplexe Tessellation oder die „teure“ Berechnung der Selbstschattierung von Modellen mit eingeschränkter Raytracing-Funktion, aber im Eifer des Gefechts werden Sie diese Schönheiten vergessen Nach 10 Minuten Spielzeit ergeben stabile 50-60 Bilder pro Sekunde einen viel immersiveren Effekt als die nervösen Sprünge von 25 auf 40, allerdings mit den Einstellungen auf „Maximum“.

Wenn Sie Radeon 7850-, GTX 760- oder jüngere Grafikkarten mit 2 GB Videospeicher oder weniger haben, können Sie diese bedenkenlos austauschen.

GTX 1060

Die jüngere 1060 wird diejenigen erfreuen, denen eine Bildrate von 100 FPS wichtiger ist als grafischer Schnickschnack. Gleichzeitig ermöglicht es Ihnen, alle veröffentlichten Spielzeuge bequem in FullHD-Auflösung mit hohen oder maximalen Einstellungen und stabilen 60 Bildern pro Sekunde abzuspielen, und der Preis unterscheidet sich stark von allem, was danach kommt. Die ältere 1060 mit 6 Gigabyte Speicher ist eine kompromisslose Lösung für FullHD mit ein bis zwei Jahren Leistungsreserve, Vertrautheit mit VR und ein durchaus akzeptabler Kandidat für das Spielen in hohen Auflösungen bei mittleren Einstellungen.

Es macht keinen Sinn, die GTX 970 gegen eine GTX 1060 auszutauschen, das dauert noch ein Jahr. Aber die langweiligen 960, 770, 780, R9 280X und älteren Einheiten können bedenkenlos auf 1060 aufgerüstet werden.

Top-Segment: GTX 1070 und 1080

Es ist unwahrscheinlich, dass die 1070 so beliebt wird wie die GTX 970 (dennoch haben die meisten Benutzer alle zwei Jahre einen Hardware-Update-Zyklus), aber im Hinblick auf das Preis-Leistungs-Verhältnis ist sie sicherlich eine würdige Fortsetzung der 70er-Reihe. Es schleift Spiele einfach mit der gängigen 1080p-Auflösung, kommt problemlos mit 2560 x 1440 zurecht, übersteht die Strapazen unoptimierter 21 zu 9 und ist durchaus in der Lage, 4k darzustellen, wenn auch nicht bei maximalen Einstellungen.


Ja, SLI kann so sein.

Wir verabschieden uns von allen 780 Ti, R9 390X und anderen 980ern aus dem letzten Jahr, insbesondere wenn wir in hoher Auflösung spielen möchten. Und ja, das ist es Die beste Option für alle, die gerne eine Höllenkiste im Mini-ITX-Format bauen und Gäste mit 4K-Spielen auf einem 60-70-Zoll-Fernseher erschrecken, der auf einem Computer in der Größe einer Kaffeemaschine läuft.
GTX 1050 Geschichte der Grafikkarten Tags hinzufügen

ParameterBedeutung
Chip-CodenameGP104
Produktionstechnologie16-nm-FinFET
Anzahl der Transistoren7,2 Milliarden
Kernbereich314 mm²
Die Architektur
DirectX-Hardwareunterstützung
Speicherbus
1607 (1733) MHz
Rechenblöcke20 Streaming-Multiprozessoren, darunter 2560 Skalar-ALUs für Gleitkommaberechnungen im Rahmen des IEEE 754-2008-Standards;
Texturierungsblöcke160 Texturadressierungs- und Filtereinheiten mit Unterstützung für FP16- und FP32-Komponenten in Texturen und Unterstützung für trilineare und anisotrope Filterung für alle Texturformate
Monitorunterstützung
Spezifikationen der GeForce GTX 1080 Referenz-Grafikkarte
ParameterBedeutung
Kernfrequenz1607 (1733) MHz
2560
Anzahl der Texturblöcke160
Anzahl der Mischblöcke64
Effektive Speicherfrequenz10000 (4×2500) MHz
SpeichertypGDDR5X
Speicherbus256-Bit
Erinnerung8 GB
320 GB/s
etwa 9 Teraflops
103 Gigapixel/s
257 Gigatexel/s
ReifenPCI Express 3.0
Anschlüsse
Energieverbrauchbis zu 180 W
Zusätzliches EssenEin 8-poliger Stecker
2
Empfohlener Preis599–699 $ (USA), 54.990 RUB (Russland)

Das neue Modell der Grafikkarte GeForce GTX 1080 hat einen Namen erhalten, der für die erste Lösung der neuen GeForce-Serie logisch ist – es unterscheidet sich von seinem direkten Vorgänger lediglich durch die geänderte Generationsnummer. Das neue Produkt ersetzt nicht nur die Top-Lösungen der aktuellen Produktlinie des Unternehmens, sondern wurde für einige Zeit auch zum Flaggschiff der neuen Serie, bis Titan X mit einer noch leistungsstärkeren GPU auf den Markt kam. Darunter befindet sich in der Hierarchie auch das bereits angekündigte Modell GeForce GTX 1070, das auf einer abgespeckten Version des GP104-Chips basiert und auf das wir im Folgenden eingehen werden.

Die empfohlenen Preise für die neue Nvidia-Grafikkarte liegen bei 599 US-Dollar bzw. 699 US-Dollar für die reguläre Version und die spezielle Founders Edition (siehe unten). Dies ist ein ziemlich gutes Angebot, wenn man bedenkt, dass die GTX 1080 nicht nur vor der GTX 980 Ti liegt , aber auch die Titan Bisher gibt es für die GeForce GTX 1080 praktisch keinen Konkurrenten von AMD, sodass Nvidia einen für sie passenden Preis festlegen konnte.

Die betreffende Grafikkarte basiert auf dem GP104-Chip, der über einen 256-Bit-Speicherbus verfügt, der neue GDDR5X-Speichertyp läuft jedoch mit einer sehr hohen effektiven Frequenz von 10 GHz, was eine hohe Spitzenbandbreite von 320 GB/s ergibt - was fast auf dem Niveau der GTX 980 Ti mit 384-Bit-Bus liegt. Das auf einer Grafikkarte mit einem solchen Bus installierte Speichervolumen könnte 4 oder 8 GB betragen, aber die Installation eines kleineren Volumens für eine so leistungsstarke Lösung unter modernen Bedingungen wäre dumm, sodass die GTX 1080 logischerweise 8 GB Speicher erhielt , und dieses Volumen reicht aus, um mehrere Jahre lang beliebige 3D-Spiele und -Anwendungen mit beliebigen Qualitätseinstellungen auszuführen.

Die GeForce GTX 1080-Platine unterscheidet sich aus offensichtlichen Gründen deutlich von den bisherigen Platinen des Unternehmens. Der typische Stromverbrauch des neuen Produkts liegt bei 180 W – das ist etwas höher als bei der GTX 980, aber spürbar niedriger als bei den weniger produktiven Titan X und GTX 980 Ti. Das Referenzboard verfügt über die üblichen Anschlüsse zum Anschluss von Bildausgabegeräten: einen Dual-Link-DVI, einen HDMI und drei DisplayPort.

Referenzdesign der Founders Edition

Bereits bei der Ankündigung der GeForce GTX 1080 Anfang Mai wurde eine Sonderedition der Grafikkarte namens Founders Edition angekündigt, die im Vergleich zu regulären Grafikkarten der Partner des Unternehmens einen höheren Preis hatte. Im Wesentlichen handelt es sich bei dieser Edition um ein Referenzdesign der Karte und des Kühlsystems, das von Nvidia selbst hergestellt wird. Man kann zu solchen Grafikkartenoptionen unterschiedliche Einstellungen haben, aber das von den Ingenieuren des Unternehmens entwickelte und aus hochwertigen Komponenten hergestellte Referenzdesign hat seine Fans.

Aber ob sie für eine Grafikkarte von Nvidia selbst mehrere tausend Rubel mehr bezahlen, ist eine Frage, die nur durch Übung beantwortet werden kann. Auf jeden Fall werden zunächst die Referenz-Grafikkarten von Nvidia zu einem erhöhten Preis in den Handel kommen, und die Auswahl ist nicht groß – das passiert bei jeder Ankündigung, aber die Referenz-GeForce GTX 1080 ist darin anders Es ist geplant, es in dieser Form über die gesamte Lebensdauer bis zur Veröffentlichung der nächsten Generation von Lösungen zu verkaufen.

Nvidia ist davon überzeugt, dass diese Veröffentlichung sogar gegenüber den besten Werken seiner Partner Vorzüge hat. Das Dual-Slot-Design des Kühlers ermöglicht beispielsweise den einfachen Aufbau auf Basis dieser leistungsstarken Grafikkarte sowohl Gaming-PCs mit relativ kleinem Formfaktor als auch Multi-Chip-Videosysteme (auch trotz Drei- und Vier-Chip-Modus). Betrieb, der vom Unternehmen nicht empfohlen wird). Die GeForce GTX 1080 Founders Edition bietet einige Vorteile in Form eines effizienten Kühlers mit einer Dampfkammer und einem Lüfter, der erhitzte Luft aus dem Gehäuse drückt – dies ist Nvidias erste derartige Lösung, die weniger als 250 W Strom verbraucht.

Im Vergleich zu den früheren Referenzproduktdesigns des Unternehmens wurde der Stromkreis von vierphasig auf fünfphasig aufgerüstet. Nvidia spricht auch von verbesserten Komponenten, auf denen das neue Produkt basiert; auch das elektrische Rauschen wurde reduziert, was eine verbesserte Spannungsstabilität und Übertaktungspotenzial ermöglicht. Durch alle Verbesserungen ist die Energieeffizienz des Referenzboards im Vergleich zur GeForce GTX 980 um 6 % gestiegen.

Und um sich optisch von den „normalen“ GeForce GTX 1080-Modellen abzuheben, wurde für die Founders Edition ein ungewöhnliches „chopped“ Gehäusedesign entwickelt. Was allerdings vermutlich auch zu einer komplizierteren Form der Verdampfungskammer und des Kühlers führte (siehe Foto), was einer der Gründe dafür gewesen sein könnte, für eine solche Sonderedition 100 US-Dollar extra zu zahlen. Das wiederholen wir zu Beginn des Verkaufs besondere Wahl Käufer werden es nicht haben, aber in Zukunft wird es möglich sein, entweder eine Lösung mit eigenem Design von einem der Partner des Unternehmens oder eine von Nvidia selbst hergestellte Lösung zu wählen.

Neue Generation der Pascal-Grafikarchitektur

Die Grafikkarte GeForce GTX 1080 war die erste Lösung des Unternehmens, die auf dem GP104-Chip basierte, der zur neuen Generation der Pascal-Grafikarchitektur von Nvidia gehört. Obwohl die neue Architektur auf bei Maxwell entwickelten Lösungen basiert, weist sie auch wichtige funktionale Unterschiede auf, über die wir später schreiben werden. Die wichtigste Veränderung aus globaler Sicht war der neue technologische Prozess, mit dem der neue Grafikprozessor hergestellt wurde.

Durch den Einsatz des 16-nm-FinFET-Prozesses bei der Produktion von GP104-Grafikprozessoren in den Fabriken des taiwanesischen Unternehmens TSMC konnte die Komplexität des Chips bei relativ geringer Fläche und Kosten deutlich gesteigert werden. Vergleichen Sie die Anzahl der Transistoren und die Fläche der GP104- und GM204-Chips – sie sind flächenmäßig ähnlich (der Kristall des neuen Produkts ist physisch sogar etwas kleiner), aber der Chip mit Pascal-Architektur hat eine deutlich größere Anzahl von Transistoren und , dementsprechend Ausführungseinheiten, einschließlich solcher, die neue Funktionen bereitstellen.

Aus architektonischer Sicht ist der erste Gaming-Pascal ähnlichen Lösungen der Maxwell-Architektur sehr ähnlich, obwohl es einige Unterschiede gibt. Wie Maxwell verfügen Pascal-Prozessoren über unterschiedliche Konfigurationen von Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) und Speichercontrollern. Der SM-Multiprozessor ist ein hochparalleler Multiprozessor, der Warps (Gruppen von 32 Befehlsthreads) auf CUDA-Kernen und anderen Ausführungseinheiten im Multiprozessor plant und ausführt. Detaillierte Informationen zum Design all dieser Blöcke finden Sie in unseren Testberichten zu früheren Nvidia-Lösungen.

Jeder der SM-Multiprozessoren ist mit einer PolyMorph Engine gepaart, die Textursampling, Tessellation, Transformation, Einstellung von Scheitelpunktattributen und Perspektivenkorrektur übernimmt. Im Gegensatz zu früheren Lösungen des Unternehmens enthält die PolyMorph Engine im GP104-Chip auch eine neue Multiprojektionseinheit, Simultaneous Multi-Projection, über die wir im Folgenden sprechen werden. Die Kombination eines SM-Multiprozessors mit einer Polymorph Engine wird traditionell als TPC – Texture Processor Cluster für Nvidia bezeichnet.

Insgesamt enthält der GP104-Chip in der GeForce GTX 1080 vier GPC-Cluster und 20 SM-Multiprozessoren sowie acht Speichercontroller kombiniert mit 64 ROP-Einheiten. Jeder GPC-Cluster verfügt über eine eigene Rasterisierungs-Engine und umfasst fünf SM-Multiprozessoren. Jeder Multiprozessor wiederum besteht aus 128 CUDA-Kernen, einer 256 KB großen Registerdatei, 96 KB Shared Memory, 48 KB L1-Cache und acht TMU-Textureinheiten. Das heißt, insgesamt enthält der GP104 2560 CUDA-Kerne und 160 TMU-Einheiten.

Außerdem enthält der Grafikprozessor, auf dem die GeForce GTX 1080 basiert, acht 32-Bit-Speichercontroller (im Gegensatz zu den zuvor verwendeten 64-Bit-Speichercontrollern), wodurch wir einen endgültigen 256-Bit-Speicherbus erhalten. Jeder Speichercontroller verfügt über acht ROP-Blöcke und 256 KB L2-Cache. Das heißt, insgesamt enthält der GP104-Chip 64 ROP-Blöcke und 2048 KB Second-Level-Cache.

Dank Architekturoptimierungen und einer neuen Prozesstechnologie wurde der erste Gaming-Pascal zur energieeffizientesten GPU aller Zeiten. Darüber hinaus tragen dazu sowohl einer der fortschrittlichsten 16-nm-FinFET-Technologieprozesse als auch die in Pascal im Vergleich zu Maxwell durchgeführten Architekturoptimierungen bei. Nvidia konnte bei der Umstellung auf eine neue Prozesstechnologie die Taktfrequenz noch stärker steigern als erwartet. Der GP104 arbeitet mit einer höheren Frequenz als ein hypothetischer GM204, der im 16-nm-Verfahren hergestellt wurde. Dazu mussten die Nvidia-Ingenieure alle Engpässe bisheriger Lösungen, die eine Beschleunigung über einen bestimmten Schwellenwert verhinderten, sorgfältig prüfen und optimieren. Ergebend, neues Modell Die GeForce GTX 1080 arbeitet mit einer um mehr als 40 % höheren Frequenz als die GeForce GTX 980. Dies sind jedoch nicht alle Änderungen, die mit der GPU-Betriebsfrequenz verbunden sind.

GPU Boost 3.0-Technologie

Wie wir von früheren Nvidia-Grafikkarten wissen, verwenden sie in ihren Grafikprozessoren die GPU-Boost-Hardwaretechnologie, die darauf ausgelegt ist, die Betriebstaktrate der GPU in Modi zu erhöhen, in denen sie die Grenzen des Stromverbrauchs und der Wärmeableitung noch nicht erreicht hat. Im Laufe der Jahre hat dieser Algorithmus viele Änderungen erfahren, und der Videochip mit Pascal-Architektur verwendet bereits die dritte Generation dieser Technologie – GPU Boost 3.0, dessen wichtigste Neuerung eine feinere Einstellung der Turbofrequenzen je nach Spannung ist.

Wenn Sie sich an das Funktionsprinzip früherer Versionen der Technologie erinnern, wurde der Unterschied zwischen der Basisfrequenz (der garantierte Mindestfrequenzwert, unter den die GPU zumindest in Spielen nicht fällt) und der Turbofrequenz behoben. Das heißt, die Turbofrequenz war immer um eine bestimmte Anzahl Megahertz höher als die Basisfrequenz. In GPU Boost 3.0 wurde es möglich, Turbo-Frequenz-Offsets für jede Spannung separat einzustellen. Der einfachste Weg, dies zu verstehen, ist eine Veranschaulichung:

Links ist die zweite Version von GPU Boost zu sehen, rechts die dritte Version, die in Pascal erschienen ist. Der feste Unterschied zwischen Basis- und Turbofrequenz ermöglichte es nicht, die volle Leistungsfähigkeit der GPU auszuschöpfen; in einigen Fällen konnten GPUs früherer Generationen bei der eingestellten Spannung schneller arbeiten, ein fester Überschuss der Turbofrequenz ließ dies jedoch nicht zu getan werden. Mit GPU Boost 3.0 ist diese Funktion nun verfügbar und die Turbo-Frequenz kann für jeden einzelnen Spannungswert eingestellt werden, wodurch der GPU komplett der Saft entzogen wird.

Um die Übertaktung zu steuern und die Turbo-Frequenzkurve einzustellen, sind praktische Dienstprogramme erforderlich. Nvidia selbst tut dies nicht, sondern hilft seinen Partnern bei der Entwicklung ähnlicher Dienstprogramme, um das Übertakten zu erleichtern (natürlich innerhalb angemessener Grenzen). Beispielsweise wurde die neue Funktionalität von GPU Boost 3.0 bereits in EVGA Precision Leistungs- und Stabilitätstest. Als Ergebnis erhält der Benutzer eine Turbo-Frequenzkurve, die perfekt zu den Fähigkeiten eines bestimmten Chips passt. Was darüber hinaus beliebig manuell geändert werden kann.

Wie Sie im Screenshot des Dienstprogramms sehen können, gibt es neben Informationen zur GPU und zum System auch Einstellungen zum Übertakten: Power Target (definiert den typischen Stromverbrauch beim Übertakten, als Prozentsatz des Standards), GPU Temp Target ( maximal zulässige Kerntemperatur), GPU-Taktoffset (Überschreiten der Basisfrequenz für alle Spannungswerte), Speicheroffset (Überschreiten der Videospeicherfrequenz über dem Standardwert), Überspannung (zusätzliche Möglichkeit, die Spannung zu erhöhen).

Das Dienstprogramm Precision XOC umfasst drei Übertaktungsmodi: Basic, Linear und Manual. Im Hauptmodus können Sie wie bei früheren GPUs einen einzelnen Wert für die Überschussfrequenz (feste Turbofrequenz) über dem Basiswert festlegen. Im Linearmodus können Sie eine lineare Frequenzänderung vom minimalen zum maximalen Spannungswert für die GPU einstellen. Nun, im manuellen Modus können Sie für jeden Spannungspunkt im Diagramm eindeutige GPU-Frequenzwerte festlegen.

Das Dienstprogramm enthält außerdem einen speziellen Scanner zum automatischen Übertakten. Sie können entweder Ihre eigenen Frequenzpegel festlegen oder Precision XOC die GPU bei allen Spannungen scannen lassen und völlig automatisch die stabilsten Frequenzen für jeden Punkt auf der Spannungs- und Frequenzkurve finden. Während des Scanvorgangs erhöht Precision

Dieser Scanner kann an Ihre eigenen Anforderungen angepasst werden, indem Sie den Zeitraum zum Testen jedes Spannungswerts, die minimale und maximale zu testende Frequenz und seinen Schritt festlegen. Es ist klar, dass es zur Erzielung stabiler Ergebnisse besser wäre, einen kleinen Schritt und eine angemessene Testdauer festzulegen. Während des Testvorgangs kann ein instabiler Betrieb des Grafiktreibers und des Systems beobachtet werden. Wenn der Scanner jedoch nicht einfriert, stellt er den Betrieb wieder her und sucht weiterhin nach optimalen Frequenzen.

Neuer GDDR5X-Videospeichertyp und verbesserte Komprimierung

Die Leistung der GPU ist also erheblich gestiegen, aber der Speicherbus bleibt nur 256-Bit – wird die Speicherbandbreite die Gesamtleistung einschränken und was kann man dagegen tun? Es scheint, dass die Herstellung des vielversprechenden HBM-Speichers der zweiten Generation immer noch zu teuer ist, sodass wir nach anderen Optionen suchen mussten. Seit der Einführung des GDDR5-Speichers im Jahr 2009 erforschen Nvidia-Ingenieure die Möglichkeiten des Einsatzes neuer Speichertypen. Infolgedessen führten die Entwicklungen zur Einführung eines neuen Speicherstandards, GDDR5X – dem bisher komplexesten und fortschrittlichsten Standard, der eine Übertragungsgeschwindigkeit von 10 Gbit/s bietet.

Nvidia liefert ein interessantes Beispiel dafür, wie schnell das ist. Zwischen den übertragenen Bits vergehen nur 100 Pikosekunden – in dieser Zeit legt ein Lichtstrahl nur eine Strecke von einem Zoll (ca. 2,5 cm) zurück. Und bei der Verwendung von GDDR5X-Speicher müssen die Datenübertragungs- und Empfangsschaltungen den Wert des übertragenen Bits in weniger als der Hälfte dieser Zeit auswählen, bevor das nächste gesendet wird – nur damit Sie verstehen, wozu die moderne Technologie gekommen ist.

Um diese Geschwindigkeit zu erreichen, war die Entwicklung einer neuen Architektur für das Dateneingabe-/-ausgabesystem erforderlich, was mehrere Jahre dauerte. Gemeinsame Entwicklung mit Speicherchip-Herstellern. Neben der erhöhten Datenübertragungsgeschwindigkeit ist auch die Energieeffizienz gestiegen – GDDR5X-Speicherchips nutzen eine niedrigere Spannung von 1,35 V und werden mit neuen Technologien hergestellt, was zu einem gleichen Energieverbrauch bei einer um 43 % höheren Frequenz führt.

Die Ingenieure des Unternehmens mussten die Datenleitungen zwischen dem GPU-Kern und den Speicherchips überarbeiten und dabei stärker darauf achten, Signalverluste und -verschlechterungen auf dem gesamten Weg vom Speicher zur GPU und zurück zu verhindern. Daher zeigt die obige Abbildung das erfasste Signal in Form eines großen symmetrischen „Auges“, was auf eine gute Optimierung der gesamten Schaltung und die relative einfache Erfassung von Daten aus dem Signal hinweist. Darüber hinaus führten die oben beschriebenen Änderungen nicht nur zu der Möglichkeit, GDDR5X mit 10 GHz zu verwenden, sondern sollten auch dazu beitragen, bei zukünftigen Produkten, die konventionelleren GDDR5-Speicher verwenden, eine hohe Speicherbandbreite zu erreichen.

Nun, durch den Einsatz des neuen Speichers konnten wir die Bandbreite um mehr als 40 % steigern. Aber ist das nicht genug? Um die Effizienz der Speicherbandbreite weiter zu steigern, hat Nvidia die in früheren Architekturen eingeführte erweiterte Datenkomprimierung weiter verbessert. Das Speichersubsystem der GeForce GTX 1080 nutzt verbesserte und mehrere neue verlustfreie Datenkomprimierungstechniken, die den Bandbreitenbedarf reduzieren sollen – dies ist die vierte Generation der On-Chip-Komprimierung.

In-Memory-Datenkomprimierungsalgorithmen bringen mehrere positive Aspekte mit sich. Durch die Komprimierung wird die in den Speicher geschriebene Datenmenge reduziert. Gleiches gilt für Daten, die vom Videospeicher an den Second-Level-Cache gesendet werden, was die Effizienz der Verwendung des L2-Cache verbessert, da eine komprimierte Kachel (ein Block aus mehreren Framebuffer-Pixeln) kleiner ist als ein unkomprimiertes. Es reduziert auch die Datenmenge, die zwischen verschiedenen Punkten wie der TMU und dem Framebuffer gesendet wird.

Die Datenkomprimierungspipeline in der GPU verwendet mehrere Algorithmen, die abhängig von der „Komprimierbarkeit“ der Daten bestimmt werden – für sie wird der beste verfügbare Algorithmus ausgewählt. Einer der wichtigsten ist der Delta-Farbkomprimierungsalgorithmus. Diese Komprimierungstechnik kodiert Daten als Differenz zwischen aufeinanderfolgenden Werten und nicht als Daten selbst. Die GPU berechnet den Unterschied in den Farbwerten zwischen Pixeln in einem Block (Kachel) und speichert den Block als durchschnittliche Farbe für den gesamten Block plus Daten über den Unterschied in den Werten für jedes Pixel. Für Grafikdaten ist diese Methode meist gut geeignet, da sich die Farbe innerhalb kleiner Kacheln für alle Pixel oft nicht allzu stark unterscheidet.

Der GP104-Grafikprozessor in der GeForce GTX 1080 unterstützt im Vergleich zu früheren Chips mit Maxwell-Architektur mehr Komprimierungsalgorithmen. Dadurch ist der 2:1-Komprimierungsalgorithmus effizienter geworden, und zusätzlich sind zwei neue Algorithmen erschienen: ein 4:1-Komprimierungsmodus, der für Fälle geeignet ist, in denen der Unterschied im Farbwert der Blockpixel sehr gering ist, und einen 8:1-Modus, der eine 4:1-Komprimierung von 2x2-Pixelblöcken mit konstantem Algorithmus mit einer 2x-Deltakomprimierung zwischen Blöcken kombiniert. Wenn eine Komprimierung völlig unmöglich ist, wird sie nicht verwendet.

Letzteres kommt in der Realität jedoch sehr selten vor. Dies lässt sich anhand der Beispiel-Screenshots aus dem Project CARS-Spiel erkennen, die Nvidia zur Veranschaulichung der erhöhten Komprimierungsrate in Pascal bereitgestellt hat. In den Abbildungen sind die Framebuffer-Kacheln, die von der GPU komprimiert werden konnten, lila eingefärbt, während diejenigen, die nicht verlustfrei komprimiert werden können, in der Originalfarbe bleiben (oben – Maxwell, unten – Pascal).

Wie Sie sehen, funktionieren die neuen Komprimierungsalgorithmen in GP104 wirklich viel besser als in Maxwell. Obwohl die alte Architektur auch die meisten Kacheln in der Szene komprimieren konnte, große Menge Gras und Bäume an den Rändern sowie Maschinenteile unterliegen keinen veralteten Komprimierungsalgorithmen. Aber als wir neue Techniken in Pascal einsetzten, blieben nur sehr wenige Bereiche des Bildes unkomprimiert – die verbesserte Effizienz ist offensichtlich.

Durch Verbesserungen bei der Datenkomprimierung ist die GeForce GTX 1080 in der Lage, die pro Frame gesendete Datenmenge deutlich zu reduzieren. In Zahlen ausgedrückt spart eine verbesserte Komprimierung zusätzlich 20 % der effektiven Speicherbandbreite. Zusätzlich zu der mehr als 40 % höheren Speicherbandbreite der GeForce GTX 1080 im Vergleich zur GTX 980 aufgrund der Verwendung von GDDR5X-Speicher ergibt dies insgesamt eine etwa 70 % höhere effektive Bandbreite im Vergleich zum Modell der Vorgängergeneration.

Unterstützung für asynchrones Computing Async Compute

Die meisten modernen Spiele verwenden neben Grafiken auch komplexe Berechnungen. Beispielsweise können Berechnungen bei der Berechnung des Verhaltens physikalischer Körper nicht vor oder nach grafischen Berechnungen, sondern gleichzeitig mit diesen durchgeführt werden, da sie nicht miteinander in Beziehung stehen und innerhalb eines Rahmens nicht voneinander abhängen. Ein weiteres Beispiel ist die Nachbearbeitung bereits gerenderter Frames und die Verarbeitung von Audiodaten, die auch parallel zum Rendern erfolgen kann.

Ein weiteres prominentes Beispiel für die Nutzung der Funktionalität ist die Technik der asynchronen Zeitverzerrung (Asynchronous Time Warp), die in Virtual-Reality-Systemen verwendet wird, um das Ausgabebild entsprechend der Kopfbewegung des Spielers unmittelbar vor der Ausgabe zu ändern und so das Rendern zu unterbrechen des nächsten. Eine solche asynchrone Belastung der GPU-Leistung ermöglicht es, die Effizienz der Nutzung ihrer Ausführungseinheiten zu steigern.

Solche Arbeitslasten schaffen zwei neue Szenarien für die Verwendung von GPUs. Bei der ersten davon handelt es sich um überlappende Lasten, da viele Arten von Aufgaben die Fähigkeiten der GPUs nicht vollständig nutzen und einige Ressourcen ungenutzt sind. In solchen Fällen können Sie einfach zwei verschiedene Aufgaben auf derselben GPU ausführen und deren Ausführungseinheiten für eine effizientere Nutzung trennen – zum Beispiel die Ausführung von PhysX-Effekten in Verbindung mit 3D-Frame-Rendering.

Um dieses Szenario zu verbessern, führte die Pascal-Architektur einen dynamischen Lastausgleich ein. In der vorherigen Maxwell-Architektur wurden überlappende Arbeitslasten durch statische Verteilung der GPU-Ressourcen zwischen Grafik und Rechenleistung implementiert. Dieser Ansatz ist effektiv, sofern das Gleichgewicht zwischen den beiden Arbeitslasten in etwa der Ressourcenaufteilung entspricht und die Aufgaben in der gleichen Zeit erledigt werden. Wenn nicht-grafische Berechnungen länger dauern als grafische und beide auf den Abschluss warten allgemeine Arbeit, dann bleibt ein Teil der GPU für die verbleibende Zeit im Leerlauf, was zu einer Verringerung der Gesamtleistung führt und alle Vorteile zunichte macht. Durch den dynamischen Hardware-Lastausgleich können Sie freigewordene GPU-Ressourcen nutzen, sobald diese verfügbar sind – zum Verständnis stellen wir Ihnen eine Illustration zur Verfügung.

Es gibt auch Aufgaben, die für die Ausführungszeit entscheidend sind. Dies ist das zweite Szenario des asynchronen Rechnens. Beispielsweise muss der asynchrone Zeitverzerrungsalgorithmus in VR vor dem Ausscannen abgeschlossen sein, sonst wird der Frame verworfen. In diesem Fall muss die GPU eine sehr schnelle Aufgabenunterbrechung und den Wechsel zu einer anderen unterstützen, um eine weniger kritische Aufgabe aus der Ausführung auf der GPU zu entfernen und ihre Ressourcen für kritische Aufgaben freizugeben – dies wird als Preemption bezeichnet.

Ein einzelner Renderbefehl von einer Spiel-Engine kann Hunderte von Draw-Aufrufen enthalten, wobei jeder Draw-Aufruf wiederum Hunderte von zu verarbeitenden Dreiecken enthält, von denen jedes Hunderte von Pixeln enthält, die berechnet und gezeichnet werden müssen. Der herkömmliche GPU-Ansatz verwendet Aufgabenunterbrechungen nur bei hohes Level, und die Grafikpipeline muss warten, bis all diese Arbeiten abgeschlossen sind, bevor sie die Aufgaben wechselt, was zu sehr hohen Latenzen führt.

Um dies zu korrigieren, führte die Pascal-Architektur erstmals die Möglichkeit ein, eine Aufgabe auf Pixelebene zu unterbrechen – Pixel Level Preemption. Pascal-GPU-Ausführungseinheiten können den Fortschritt von Rendering-Aufgaben kontinuierlich überwachen. Wenn ein Interrupt angefordert wird, können sie die Ausführung stoppen, den Kontext für die weitere Fertigstellung beibehalten und schnell zu einer anderen Aufgabe wechseln.

Die Unterbrechung und Umschaltung auf Thread-Ebene für Rechenvorgänge funktioniert ähnlich wie die Unterbrechung auf Pixelebene für Grafik-Computing. Rechenarbeitslasten bestehen aus mehreren Rastern, die jeweils mehrere Threads enthalten. Wenn eine Interrupt-Anfrage empfangen wird, beenden Threads, die auf dem Multiprozessor laufen, die Ausführung. Andere Blöcke speichern ihren eigenen Zustand, um in Zukunft an derselben Stelle fortzufahren, und die GPU wechselt zu einer anderen Aufgabe. Der gesamte Taskwechselvorgang dauert weniger als 100 Mikrosekunden, nachdem die laufenden Threads beendet wurden.

Bei Gaming-Workloads bietet die Kombination aus Interrupts auf Pixelebene für Grafik-Workloads und Unterbrechungen auf Thread-Ebene für Rechen-Workloads Pascal-GPUs die Möglichkeit, schnell zwischen Aufgaben mit minimaler Ausfallzeit zu wechseln. Und für Rechenaufgaben auf CUDA ist auch eine Unterbrechung mit minimaler Granularität möglich – auf Befehlsebene. In diesem Modus stoppen alle Threads die Ausführung auf einmal und wechseln sofort zu einer anderen Aufgabe. Dieser Ansatz erfordert das Speichern von mehr Informationen über den Status aller Register jedes Threads, ist jedoch in einigen nichtgrafischen Rechenfällen durchaus gerechtfertigt.

Die Pascal-Architektur wurde um die Verwendung schneller Unterbrechungen und Aufgabenwechsel bei Grafik- und Rechenlasten erweitert, sodass Grafik- und Nicht-Grafikaufgaben auf der Ebene einzelner Anweisungen und nicht ganzer Threads unterbrochen werden konnten, wie es bei Maxwell und Kepler der Fall war . Diese Technologien können die asynchrone Ausführung verschiedener GPU-Workloads verbessern und die Reaktionsfähigkeit bei der gleichzeitigen Ausführung mehrerer Aufgaben verbessern. Auf der Nvidia-Veranstaltung zeigten sie eine Demonstration des asynchronen Rechnens am Beispiel der Berechnung physikalischer Effekte. Lag die Leistung ohne asynchrone Berechnung bei 77–79 FPS, so stieg die Bildrate unter Einbeziehung dieser Funktionen auf 93–94 FPS.

Ein Beispiel für die Einsatzmöglichkeiten dieser Funktionalität in Spielen haben wir bereits in Form der asynchronen Zeitverzerrung in VR gegeben. Die Abbildung zeigt die Funktionsweise dieser Technologie mit einer herkömmlichen Unterbrechung (Preemption) und mit einer schnellen. Im ersten Fall versuchen sie, den Prozess der asynchronen Zeitverzerrung so spät wie möglich durchzuführen, jedoch bevor mit der Aktualisierung des Bildes auf dem Display begonnen wird. Die Arbeit des Algorithmus muss jedoch einige Millisekunden früher zur Ausführung an die GPU gesendet werden, da es ohne einen schnellen Interrupt keine Möglichkeit gibt, die Arbeit im richtigen Moment genau auszuführen, und die GPU einige Zeit im Leerlauf ist.

Im Fall einer pixel- und threadgenauen Unterbrechung (siehe rechts) ermöglicht diese Funktion eine genauere Bestimmung des Zeitpunkts der Unterbrechung, und asynchrones Time Warping kann viel später gestartet werden, mit der Gewissheit, dass der Job abgeschlossen ist, bevor die Anzeige beginnt Aktualisierung. Und die GPU, die im ersten Fall einige Zeit im Leerlauf ist, kann mit zusätzlicher Grafikarbeit belastet werden.

Simultane Multiprojektionstechnologie

Die neue GP104-GPU unterstützt jetzt die neue Simultaneous Multi-Projection (SMP)-Technologie, wodurch die GPU Daten auf modernen Anzeigesystemen effizienter rendern kann. SMP ermöglicht dem Videochip die gleichzeitige Ausgabe von Daten in mehreren Projektionen, was die Einführung eines neuen Hardwareblocks in der GPU als Teil der PolyMorph-Engine am Ende der Geometriepipeline vor der Rasterisierungseinheit erforderte. Dieser Block ist für die Arbeit mit mehreren Projektionen für einen einzelnen Geometriestrom verantwortlich.

Die Multiprojektions-Engine verarbeitet gleichzeitig geometrische Daten für 16 vorkonfigurierte Projektionen, die den Projektionspunkt (Kamera) kombinieren. Diese Projektionen können unabhängig voneinander gedreht oder geneigt werden. Da jedes Geometrieprimitiv in mehreren Ansichten gleichzeitig angezeigt werden kann, stellt die SMP-Engine diese Funktionalität bereit, indem sie es der Anwendung ermöglicht, die GPU anzuweisen, die Geometrie bis zu 32 Mal (16 Ansichten in zwei Projektionszentren) ohne zusätzliche Verarbeitung zu replizieren.

Der gesamte Verarbeitungsprozess ist hardwarebeschleunigt, und da die Multiprojektion nach der Geometrie-Engine arbeitet, müssen nicht alle Geometrieverarbeitungsschritte mehrmals wiederholt werden. Die Ressourceneinsparungen sind wichtig, wenn die Rendering-Geschwindigkeit durch die Leistung der Geometrieverarbeitung begrenzt ist, wie z. B. bei der Tessellation, bei der dieselbe geometrische Arbeit für jede Projektion mehrmals ausgeführt wird. Dementsprechend kann die Multiprojektion im Spitzenfall den Bedarf an Geometrieverarbeitung um das bis zu 32-fache reduzieren.

Aber warum ist das alles nötig? Es gibt einige gute Beispiele, bei denen Multiprojektionstechnologie nützlich sein kann. Zum Beispiel ein Multi-Monitor-System aus drei schräg zueinander installierten Displays ganz nah am Benutzer (Surround-Konfiguration). In einer typischen Situation wird die Szene in einer Projektion gerendert, was zu geometrischen Verzerrungen und einer falschen Geometriewiedergabe führt. Der richtige Weg besteht darin, für jeden Monitor drei verschiedene Projektionen zu haben, je nachdem, in welchem ​​Winkel sie positioniert sind.

Mithilfe einer Grafikkarte auf einem Chip mit Pascal-Architektur kann dies in einem einzigen Geometriedurchgang erfolgen, wobei drei verschiedene Projektionen für jeweils einen eigenen Monitor festgelegt werden. Und der Benutzer kann so den Winkel, in dem die Monitore zueinander stehen, nicht nur physisch, sondern auch virtuell ändern, indem er die Projektionen für die seitlichen Monitore dreht, um die richtige Perspektive in der 3D-Szene mit einem spürbar größeren Betrachtungswinkel zu erhalten (FOV). Allerdings gibt es hier eine Einschränkung: Für eine solche Unterstützung muss die Anwendung in der Lage sein, die Szene mit einem breiten Sichtfeld zu rendern und spezielle SMP-API-Aufrufe zu verwenden, um es festzulegen. Das heißt, man kann das nicht in jedem Spiel machen, man braucht spezielle Unterstützung.

In jedem Fall sind die Zeiten einer einzelnen Projektion auf einen einzelnen Flachbildschirm vorbei, und es sind inzwischen viele Konfigurationen mit mehreren Monitoren und gebogenen Displays verfügbar, die diese Technologie ebenfalls nutzen können. Ganz zu schweigen von Virtual-Reality-Systemen, die spezielle Linsen zwischen den Bildschirmen und den Augen des Benutzers verwenden, was neue Techniken zur Projektion eines 3D-Bildes in ein 2D-Bild erfordert. Viele dieser Technologien und Techniken befinden sich noch in einem frühen Entwicklungsstadium. Die Hauptsache ist, dass ältere GPUs nicht effektiv mehr als eine Ebenenansicht nutzen können. Sie erfordern mehrere Rendering-Durchgänge, wiederholte Verarbeitung derselben Geometrie usw.

Chips mit Maxwell-Architektur unterstützten Multi-Resolution nur begrenzt, um die Effizienz zu verbessern, aber Pascals SMP kann noch viel mehr. Maxwell konnte die Projektion um 90 Grad drehen, um eine Würfelzuordnung oder unterschiedliche Projektionsauflösungen zu ermöglichen. Dies war jedoch nur in begrenzten Anwendungen wie VXGI nützlich.

Weitere Einsatzmöglichkeiten von SMP sind Multi-Resolution-Rendering und Single-Pass-Stereo-Rendering. Beispielsweise kann Multi-Res Shading in Spielen zur Leistungsoptimierung eingesetzt werden. Bei Anwendung wird in der Bildmitte eine höhere Auflösung verwendet und am Rand reduziert, um eine höhere Rendergeschwindigkeit zu erzielen.

In VR wird Single-Pass-Stereo-Rendering verwendet, das bereits zum VRWorks-Paket hinzugefügt wurde, und nutzt Multiprojektionsfunktionen, um den beim VR-Rendering erforderlichen geometrischen Aufwand zu reduzieren. Wenn diese Funktion verwendet wird, verarbeitet die GeForce GTX 1080 GPU die Szenengeometrie nur einmal und generiert gleichzeitig zwei Projektionen für jedes Auge, was die geometrische Belastung der GPU halbiert und auch Verluste durch Treiber- und Betriebssystembetrieb reduziert.

Eine noch fortschrittlichere Methode zur Steigerung der Effizienz des VR-Renderings ist Lens Matched Shading, das mehrere Projektionen verwendet, um die beim VR-Rendering erforderlichen geometrischen Verzerrungen zu simulieren. Diese Methode verwendet Multiprojektion, um eine 3D-Szene auf eine Oberfläche zu rendern, die dem linsenkorrigierten Rendering für die VR-Headset-Ausgabe nahekommt, und vermeidet so das Zeichnen vieler zusätzlicher Pixel am Rand, die verworfen werden. Das Wesentliche der Methode lässt sich am einfachsten anhand der Abbildung verstehen: Vor jedem Auge werden vier leicht erweiterte Projektionen verwendet (bei Pascal können Sie 16 Projektionen für jedes Auge verwenden – für eine genauere Nachahmung einer gebogenen Linse) statt eins:

Dieser Ansatz kann erhebliche Leistungseinsparungen ermöglichen. Somit beträgt ein typisches Oculus Rift-Bild für jedes Auge 1,1 Megapixel. Aufgrund der unterschiedlichen Projektionen wird jedoch ein Quellbild mit 2,1 Megapixeln zum Rendern verwendet – 86 % größer als nötig! Durch die Verwendung der in der Pascal-Architektur implementierten Multiprojektion können Sie die Auflösung des gerenderten Bildes auf 1,4 Megapixel reduzieren, wodurch eine Eineinhalbfache Einsparung bei der Perzielt und außerdem Speicherbandbreite gespart wird.

Und neben einer zweifachen Einsparung der Geomedurch Single-Pass-Stereo-Rendering ist die GeForce GTX 1080-Grafikkarte in der Lage, die VR-Rendering-Leistung deutlich zu steigern, was sowohl hinsichtlich der Geomeals auch selbst sehr anspruchsvoll ist mehr noch bei der Pixelverarbeitung.

Verbesserungen bei Videoausgabe- und Verarbeitungseinheiten

Zusätzlich zur Leistung und den neuen Funktionen, die mit dem 3D-Rendering verbunden sind, ist es notwendig, ein gutes Niveau an Bildausgabefunktionen sowie Videodekodierung und -kodierung aufrechtzuerhalten. Und die erste GPU mit Pascal-Architektur enttäuschte nicht – sie unterstützt alle modernen Standards in diesem Sinne, einschließlich der Hardware-Dekodierung des HEVC-Formats, die zum Ansehen von 4K-Videos auf einem PC erforderlich ist. Auch zukünftige Besitzer von GeForce GTX 1080-Grafikkarten können bald 4K-Videostreaming von Netflix und anderen Anbietern auf ihren Systemen abspielen.

Was die Displayausgabe angeht, unterstützt die GeForce GTX 1080 HDMI 2.0b mit HDCP 2.2 sowie DisplayPort. Bisher wurde die DP 1.2-Version zertifiziert, aber die GPU ist bereit für die Zertifizierung für die neueren Versionen des Standards: DP 1.3 Ready und DP 1.4 Ready. Letzteres ermöglicht die Ausgabe von 4K-Displays mit einer Bildwiederholfrequenz von 120 Hz und den Betrieb von 5K- und 8K-Displays mit 60 Hz über ein Paar DisplayPort 1.3-Kabel. Während bei der GTX 980 die maximal unterstützte Auflösung 5120 x 3200 bei 60 Hz betrug, stieg sie beim neuen GTX 1080-Modell auf 7680 x 4320 bei denselben 60 Hz. Die Referenz GeForce GTX 1080 verfügt über drei DisplayPort-Ausgänge, einen HDMI 2.0b und einen digitalen Dual-Link DVI.

Das neue Nvidia-Grafikkartenmodell erhielt außerdem eine verbesserte Einheit zur Dekodierung und Kodierung von Videodaten. Somit erfüllt der GP104-Chip die hohen Standards von PlayReady 3.0 (SL3000) für die Video-Streaming-Wiedergabe, sodass Sie sicher sein können, dass die Wiedergabe hochwertiger Inhalte von namhaften Anbietern wie Netflix so hochwertig und energieeffizient wie möglich ist. Einzelheiten zur Unterstützung verschiedener Videoformate beim Kodieren und Dekodieren finden Sie in der Tabelle. Das neue Produkt unterscheidet sich deutlich von den bisherigen Lösungen zum Besseren:

Eine noch interessantere Neuerung ist jedoch die Unterstützung sogenannter High Dynamic Range (HDR)-Displays, die sich bald auf dem Markt durchsetzen werden. Im Jahr 2016 werden bereits Fernseher verkauft (und es wird erwartet, dass in nur einem Jahr vier Millionen HDR-Fernseher verkauft werden), im nächsten Jahr auch Monitore. HDR ist der größte Durchbruch in der Display-Technologie seit Jahren. Das Format bietet doppelt so viele Farbtöne (75 % des sichtbaren Spektrums, im Gegensatz zu 33 % bei RGB), hellere Displays (1000 Nits) mit größerem Kontrast (10.000:1) und satte Farben.

Die zunehmende Möglichkeit, Inhalte mit größeren Helligkeitsunterschieden und satteren und gesättigteren Farben wiederzugeben, wird das Bild auf dem Bildschirm näher an die Realität bringen, Schwarztöne werden tiefer und helles Licht wird wie in der realen Welt blendend wirken. Dementsprechend sehen Benutzer im Vergleich zu Standardmonitoren und -fernsehern mehr Details in den hellen und dunklen Bildbereichen.

Um HDR-Displays zu unterstützen, verfügt die GeForce GTX 1080 über alles, was Sie brauchen – die Möglichkeit zur Ausgabe von 12-Bit-Farben, Unterstützung für die Standards BT.2020 und SMPTE 2084 sowie die Ausgabe gemäß HDMI 2.0b 10/12-Bit Standard für HDR in 4K-Auflösung, was auch bei Maxwell der Fall war. Darüber hinaus unterstützt Pascal jetzt die Dekodierung des HEVC-Formats in 4K-Auflösung bei 60 Hz und 10- oder 12-Bit-Farbe, das für HDR-Videos verwendet wird, sowie die Kodierung desselben Formats mit denselben Parametern, jedoch nur in 10 -Bit für HDR-Videoaufzeichnung oder -Streaming. Das neue Produkt ist außerdem bereit, DisplayPort 1.4 für die Übertragung von HDR-Daten über diesen Anschluss zu standardisieren.

Übrigens könnte in Zukunft eine HDR-Videokodierung erforderlich sein, um solche Daten von einem Heim-PC auf eine SHIELD-Spielekonsole zu übertragen, die 10-Bit-HEVC abspielen kann. Das heißt, der Benutzer kann das Spiel von einem PC im HDR-Format übertragen. Moment, wo kann ich Spiele mit einer solchen Unterstützung bekommen? Nvidia arbeitet kontinuierlich mit Spieleentwicklern zusammen, um diese Unterstützung zu implementieren, und stellt ihnen alles zur Verfügung, was sie benötigen (Treiberunterstützung, Codebeispiele usw.), um HDR-Bilder korrekt mit vorhandenen Displays kompatibel darzustellen.

Zum Zeitpunkt der Veröffentlichung der Grafikkarte GeForce GTX 1080 waren Spiele wie Obduction, The Witness, Lawbreakers, Rise of das Grab Raider, Paragon, The Talos Principle und Shadow Warrior 2. Es wird jedoch erwartet, dass diese Liste in naher Zukunft ergänzt wird.

Änderungen am SLI-Multi-Chip-Rendering

Es gab auch einige Änderungen im Zusammenhang mit der proprietären SLI-Multi-Chip-Rendering-Technologie, obwohl niemand damit gerechnet hatte. SLI wird von PC-Gaming-Enthusiasten verwendet, um die Leistung entweder durch die Kombination leistungsstarker Einzelchip-Grafikkarten auf ein extremes Niveau zu bringen oder um sehr hohe Bildraten zu erzielen, indem sie sich auf einige Mittelklasse-Lösungen beschränken, die manchmal günstiger sind als eine Top-Lösung -end (Die Entscheidung ist umstritten, aber sie machen es so). Bei 4K-Monitoren bleibt Spielern fast keine andere Wahl, als ein paar Grafikkarten zu installieren, da selbst Topmodelle unter solchen Bedingungen oft kein komfortables Spielen mit maximalen Einstellungen ermöglichen.

Eine der wichtigen Komponenten von Nvidia SLI sind Bridges, die Grafikkarten zu einem gemeinsamen Video-Subsystem verbinden und dazu dienen, einen digitalen Kanal für die Datenübertragung zwischen ihnen zu organisieren. GeForce-Grafikkarten verfügten traditionell über zwei SLI-Anschlüsse, die zum Anschluss von zwei oder vier Grafikkarten in 3-Wege- und 4-Wege-SLI-Konfigurationen dienten. Jede der Grafikkarten musste mit jeder einzelnen verbunden werden, da alle GPUs die von ihnen gerenderten Frames an die Haupt-GPU sendeten, weshalb auf jeder der Karten zwei Schnittstellen benötigt wurden.

Beginnend mit der GeForce GTX 1080 verbinden alle Nvidia-Grafikkarten, die auf der Pascal-Architektur basieren, zwei SLI-Schnittstellen miteinander, um die Übertragungsleistung zwischen GPUs zu verbessern, und dieser neue Dual-Link-SLI-Modus verbessert die Leistung und das visuelle Erlebnis auf Displays mit sehr hoher Auflösung Multi-Monitor-Systeme.

Dieser Modus erforderte auch neue Brücken, SLI HB genannt. Sie kombinieren ein Paar GeForce GTX 1080-Grafikkarten über zwei SLI-Kanäle gleichzeitig, obwohl die neuen Grafikkarten auch mit älteren Bridges kompatibel sind. Für Auflösungen von 1920×1080 und 2560×1440 Pixel bei einer Bildwiederholfrequenz von 60 Hz können Sie Standard-Bridges verwenden, in anspruchsvolleren Modi (4K-, 5K- und Multi-Monitor-Systeme) liefern jedoch nur neue Bridges die besten Ergebnisse Was die Glätte des Rahmens betrifft, werden die alten zwar funktionieren, aber etwas schlechter.

Außerdem arbeitet die Datenübertragungsschnittstelle der GeForce GTX 1080 bei Verwendung von SLI-HB-Brücken mit 650 MHz, verglichen mit 400 MHz bei herkömmlichen SLI-Brücken auf älteren GPUs. Darüber hinaus ist für einige der starren alten Brücken auch eine höhere Datenübertragungsfrequenz mit Videochips der Pascal-Architektur verfügbar. Durch eine Erhöhung der Datenübertragungsrate zwischen GPUs über eine doppelte SLI-Schnittstelle mit erhöhter Betriebsfrequenz wird im Vergleich zu bisherigen Lösungen eine flüssigere Bildausgabe auf dem Bildschirm gewährleistet:

Es ist auch zu beachten, dass die Unterstützung für Multi-Chip-Rendering in DirectX 12 etwas anders ist als bisher üblich. IN letzte Version Mit der Grafik-API hat Microsoft viele Änderungen im Zusammenhang mit dem Betrieb solcher Videosysteme vorgenommen. Für Softwareentwickler bietet DX12 zwei Optionen für die Verwendung mehrerer GPUs: die Modi Multi Display Adapter (MDA) und Linked Display Adapter (LDA).

Darüber hinaus gibt es den LDA-Modus in zwei Formen: Implizites LDA (das Nvidia für SLI verwendet) und Explizites LDA (wenn der Spieleentwickler die Aufgabe übernimmt, das Multi-Chip-Rendering zu verwalten). Die Modi MDA und Explizite LDA wurden der Reihe nach in DirectX 12 eingeführt um Spieleentwicklern mehr Freiheiten und Möglichkeiten beim Einsatz von Multi-Chip-Videosystemen zu geben. Der Unterschied zwischen den Modi ist in der folgenden Tabelle deutlich sichtbar:

Im LDA-Modus kann der Speicher jeder GPU mit dem Speicher einer anderen verknüpft und als großes Gesamtvolumen angezeigt werden, natürlich mit allen Leistungseinschränkungen, wenn Daten aus „fremden“ Speicher entnommen werden. Im MDA-Modus arbeitet der Speicher jeder GPU separat und verschiedene GPUs können nicht direkt auf Daten aus dem Speicher einer anderen GPU zugreifen. Der LDA-Modus ist für Multi-Chip-Systeme mit ähnlicher Leistung konzipiert, während der MDA-Modus weniger Einschränkungen aufweist und zwischen diskreten und integrierten GPUs oder diskreten Lösungen mit Chips verschiedener Hersteller zusammenarbeiten kann. Dieser Modus erfordert jedoch auch mehr Überlegungen und Arbeit von Entwicklern bei der Programmierung, um zusammenzuarbeiten, damit die GPUs miteinander kommunizieren können.

Standardmäßig unterstützt ein SLI-System auf Basis von GeForce GTX 1080-Boards nur zwei GPUs, und Konfigurationen mit drei und vier Chips werden offiziell nicht für den Einsatz empfohlen, da es in modernen Spielen immer schwieriger wird, Leistungssteigerungen durch das Hinzufügen einer dritten und dritten GPU zu erzielen vierte GPU. Beispielsweise kommt es bei vielen Spielen auf Möglichkeiten an zentraler Prozessor Systeme beim Betrieb von Multi-Chip-Videosystemen; außerdem verwenden neue Spiele zunehmend zeitliche Techniken, die Daten aus vorherigen Frames verwenden, bei denen der effektive Betrieb mehrerer GPUs gleichzeitig schlichtweg unmöglich ist.

Der Betrieb von Systemen in anderen (Nicht-SLI-)Multi-Chip-Systemen bleibt jedoch möglich, etwa im MDA- oder LDA-Explicit-Modus in DirectX 12 oder einem Dual-Chip-SLI-System mit einer dedizierten dritten GPU für physikalische PhysX-Effekte. Wie sieht es mit den Rekorden in Benchmarks aus? Verzichtet Nvidia wirklich komplett darauf? Nein, natürlich, aber da solche Systeme weltweit von fast wenigen Benutzern nachgefragt werden, haben sie für solche Ultra-Enthusiasten einen speziellen Enthusiast Key entwickelt, der auf der Nvidia-Website heruntergeladen werden kann und diese Funktion freischaltet. Dazu müssen Sie zunächst eine eindeutige GPU-Kennung erhalten, indem Sie eine spezielle Anwendung ausführen, dann den Enthusiast Key auf der Website anfordern und nach dem Herunterladen den Schlüssel im System installieren und so 3-Wege- und 4-Wege-SLI-Konfigurationen freischalten .

Fast-Sync-Technologie

Bei der Synchronisierungstechnologie bei der Anzeige von Informationen wurden einige Änderungen vorgenommen. Mit Blick auf die Zukunft gibt es bei G-Sync weder etwas Neues, noch wird die Adaptive-Sync-Technologie unterstützt. Nvidia hat sich jedoch entschieden, die flüssige Ausgabe und Synchronisierung für Spiele zu verbessern, die eine sehr hohe Leistung zeigen, wenn die Bildrate deutlich höher ist als die Bildwiederholfrequenz des Monitors. Dies ist besonders wichtig für Spiele, die minimale Latenz und schnelle Reaktion erfordern und in denen Multiplayer-Schlachten und -Wettbewerbe stattfinden.

Fast Sync ist eine neue Alternative zur vertikalen Synchronisierung, die keine visuellen Artefakte wie Bildrisse aufweist und nicht an eine feste Bildwiederholfrequenz gebunden ist, was die Latenz erhöht. Was ist das Problem mit Vsync in Spielen wie Counter-Strike: Global Offensive? Dieses Spiel läuft auf leistungsstarken modernen GPUs mit mehreren hundert Bildern pro Sekunde und der Spieler hat die Wahl, ob er V-Sync aktiviert oder nicht.

Bei Multiplayer-Spielen streben Nutzer meist nach minimaler Latenz und deaktivieren VSync, was zu deutlich sichtbaren Bildrissen führt, die selbst bei hohen Bildraten äußerst unangenehm sind. Wenn Sie die vertikale Synchronisierung aktivieren, kommt es beim Spieler zu einer erheblichen Zunahme der Verzögerungen zwischen seinen Aktionen und dem Bild auf dem Bildschirm, wenn die Grafikpipeline auf die Bildwiederholfrequenz des Monitors verlangsamt wird.

So funktioniert ein herkömmliches Förderband. Nvidia hat sich jedoch entschieden, den Prozess des Renderns und Anzeigens von Bildern auf dem Bildschirm mithilfe der Fast-Sync-Technologie zu trennen. Dadurch kann der Teil der GPU, der Frames rendert, so effizient wie möglich mit voller Geschwindigkeit weiterarbeiten und diese Frames in einem speziellen temporären Puffer, dem Last Rendered Buffer, speichern.

Mit dieser Methode können Sie die Art und Weise ändern, wie Sie den Bildschirm anzeigen, und das Beste aus den Modi „VSync On“ und „VSync Off“ nutzen, um eine geringe Latenz, aber keine Bildartefakte zu erzielen. Bei Fast Sync gibt es keine Frame-Flow-Kontrolle, die Spiel-Engine läuft im Modus „Synchronisierung deaktiviert“ und wird nicht angewiesen, mit dem Rendern des nächsten Frames zu warten, sodass die Latenzen fast so niedrig sind wie im VSync Off-Modus. Da Fast Sync jedoch selbstständig einen Puffer für die Ausgabe auf dem Bildschirm auswählt und das gesamte Bild anzeigt, kommt es zu keinen Bildunterbrechungen.

Fast Sync verwendet drei verschiedene Puffer, von denen die ersten beiden ähnlich wie die doppelte Pufferung in einer klassischen Pipeline funktionieren. Der primäre Puffer (Front Buffer – FB) ist der Puffer, aus dem Informationen auf dem Display angezeigt werden, ein vollständig gerenderter Frame. Der sekundäre Puffer (Back Buffer – BB) ist ein Puffer, der während des Renderns Informationen empfängt.

Bei Verwendung der vertikalen Synchronisierung bei hohen Bildraten wartet das Spiel, bis das Aktualisierungsintervall erreicht ist, um den primären Puffer mit dem sekundären Puffer auszutauschen, um das gesamte Bild auf dem Bildschirm anzuzeigen. Dies verlangsamt den Prozess und das Hinzufügen zusätzlicher Puffer wie die herkömmliche Dreifachpufferung erhöht die Verzögerung nur.

Mit Fast Sync wird ein dritter Puffer hinzugefügt, der Last Rendered Buffer (LRB), der zum Speichern aller gerade gerenderten Frames im sekundären Puffer verwendet wird. Der Name des Puffers spricht für sich; er enthält eine Kopie des letzten vollständig gerenderten Frames. Und wenn es an der Zeit ist, den primären Puffer zu aktualisieren, wird dieser LRB-Puffer als Ganzes auf den primären Puffer kopiert und nicht in Teilen, wie vom sekundären Puffer, wenn die vertikale Synchronisierung deaktiviert ist. Da das Kopieren von Informationen aus Puffern wirkungslos ist, werden sie einfach ausgetauscht (oder umbenannt, wie es einfacher zu verstehen ist), und die neue Logik zum Austauschen von Puffern, die in GP104 erschien, verwaltet diesen Prozess.

In der Praxis führt die Aktivierung der neuen Synchronisationsmethode Fast Sync immer noch zu einer etwas höheren Verzögerung im Vergleich zur vollständigen Deaktivierung der vertikalen Synchronisation – im Durchschnitt 8 ms mehr, aber es zeigt Frames in ihrer Gesamtheit auf dem Monitor an, ohne unangenehme Artefakte auf dem Bildschirm, die das Bild zerreißen Bild. Die neue Methode kann über die Grafikeinstellungen der Nvidia-Systemsteuerung im Abschnitt Vsync-Steuerung aktiviert werden. Der Standardwert bleibt jedoch die Anwendungskontrolle, und es besteht einfach keine Notwendigkeit, Fast Sync in allen 3D-Anwendungen zu aktivieren; es ist besser, diese Methode speziell für Spiele mit hohen FPS zu wählen.

Virtual-Reality-Technologien Nvidia VRWorks

Wir haben das heiße Thema der virtuellen Realität in dem Artikel mehr als einmal angesprochen, aber hauptsächlich haben wir über die Erhöhung der Bildraten und die Gewährleistung niedriger Latenzzeiten gesprochen, die für VR sehr wichtig sind. All dies ist sehr wichtig und es werden tatsächlich Fortschritte gemacht, aber bisher sehen VR-Spiele bei weitem nicht so beeindruckend aus wie die besten „normalen“ modernen 3D-Spiele. Dies liegt nicht nur daran, dass sich führende Spieleentwickler noch nicht besonders mit VR-Anwendungen beschäftigen, sondern auch, weil VR höhere Anforderungen an die Bildraten stellt, was den Einsatz vieler üblicher Techniken in solchen Spielen aufgrund ihrer hohen Anforderungen verhindert.

Um den Qualitätsunterschied zwischen VR-Spielen und regulären Spielen zu verringern, hat Nvidia beschlossen, ein ganzes Paket relevanter VRWorks-Technologien zu veröffentlichen, das eine große Anzahl von APIs, Bibliotheken, Engines und Technologien umfasst, die sowohl die Qualität als auch die Leistung erheblich verbessern können VR-Spiele. Anwendungen. Was hat das mit der Ankündigung der ersten Gaming-Lösung auf Pascal-Basis zu tun? Es ist ganz einfach: Es wurden einige Technologien eingeführt, um die Produktivität zu steigern und die Qualität zu verbessern, und wir haben bereits darüber geschrieben.

Und obwohl es nicht nur um Grafiken geht, werden wir zunächst ein wenig darüber sprechen. Zu den VRWorks Graphics-Technologien gehören bereits erwähnte Technologien wie Lens Matched Shading, das die Multiprojektionsfunktion der GeForce GTX 1080 nutzt. Das neue Produkt ermöglicht Ihnen eine Leistungssteigerung um das 1,5- bis 2-fache im Vergleich zu Lösungen die keine solche Unterstützung haben. Wir haben auch andere Technologien erwähnt, wie zum Beispiel MultiRes Shading, das für das Rendern mit unterschiedlichen Auflösungen in der Bildmitte und an der Peripherie konzipiert ist.

Viel unerwarteter war jedoch die Ankündigung der VRWorks Audio-Technologie, die für die hochwertige Verarbeitung von Audiodaten in 3D-Szenen entwickelt wurde, was besonders in Virtual-Reality-Systemen wichtig ist. Bei herkömmlichen Motoren wird die Positionierung von Schallquellen in einer virtuellen Umgebung recht korrekt berechnet: Wenn der Feind von rechts schießt, ist der Ton auf dieser Seite des Audiosystems lauter, und eine solche Berechnung stellt keine allzu großen Anforderungen an die Rechenleistung .

Aber in Wirklichkeit gehen Geräusche nicht nur zum Spieler, sondern in alle Richtungen und werden von ihm reflektiert Verschiedene Materialien, ähnlich wie Lichtstrahlen reflektiert werden. Und in Wirklichkeit hören wir diese Reflexionen, wenn auch nicht so deutlich wie direkte Schallwellen. Diese indirekten Schallreflexionen werden normalerweise durch spezielle Halleffekte simuliert, dies ist jedoch eine sehr primitive Herangehensweise an die Aufgabe.

VRWorks Audio verwendet Schallwellen-Rendering ähnlich dem Raytracing beim Rendering, bei dem der Weg der Lichtstrahlen auf mehrere Reflexionen von Objekten in einer virtuellen Szene zurückgeführt wird. VRWorks Audio simuliert auch die Ausbreitung von Schallwellen in der Umgebung, indem es direkte und reflektierte Wellen abhängig von ihrem Einfallswinkel und den Eigenschaften reflektierender Materialien verfolgt. VRWorks Audio verwendet bei seiner Arbeit die leistungsstarke Nvidia OptiX-Engine, die für Grafikaufgaben bekannt ist und für Raytracing entwickelt wurde. OptiX kann für eine Vielzahl von Aufgaben verwendet werden, wie zum Beispiel die Berechnung indirekter Beleuchtung und die Erstellung von Lichtkarten, und jetzt auch für die Schallwellenverfolgung in VRWorks Audio.

Nvidia hat in seiner VR Funhouse-Demo präzise Schallwellenberechnungen eingebaut, die mehrere tausend Strahlen nutzen und bis zu 12 Reflexionen von Objekten berechnen. Und um die Vorteile der Technologie anhand eines anschaulichen Beispiels zu verstehen, laden wir Sie ein, sich ein Video über die Funktionsweise der Technologie auf Russisch anzusehen:

Es ist wichtig, dass sich Nvidias Ansatz von herkömmlichen Sound-Engines unterscheidet, einschließlich der Hardware, die mithilfe eines speziellen Blocks in der GPU-Methode seines Hauptkonkurrenten beschleunigt wird. Alle diese Methoden ermöglichen nur eine genaue Positionierung von Schallquellen, berechnen jedoch nicht die Reflexion von Schallwellen von Objekten in einer 3D-Szene, obwohl sie dies mithilfe des Nachhalleffekts simulieren können. Dennoch kann der Einsatz der Raytracing-Technologie viel realistischer sein, da nur dieser Ansatz eine genaue Simulation verschiedener Geräusche unter Berücksichtigung der Größe, Form und Materialien der Objekte in der Szene ermöglicht. Es ist schwer zu sagen, ob eine solche Rechengenauigkeit für einen typischen Spieler erforderlich ist, aber eines ist sicher: In VR kann es den Benutzern genau den Realismus verleihen, der in regulären Spielen noch fehlt.

Nun, alles, worüber wir noch reden müssen, ist die VR-SLI-Technologie, die sowohl in OpenGL als auch in DirectX funktioniert. Das Prinzip ist äußerst einfach: Ein Dual-Prozessor-Videosystem in einer VR-Anwendung funktioniert so, dass jedem Auge eine separate GPU zugewiesen wird, im Gegensatz zum AFR-Rendering, das bei SLI-Konfigurationen üblich ist. Dadurch wird die für Virtual-Reality-Systeme so wichtige Gesamtleistung deutlich verbessert. Theoretisch können auch mehr GPUs verwendet werden, allerdings muss deren Anzahl gerade sein.

Dieser Ansatz war erforderlich, da AFR für VR nicht gut geeignet ist, da mit seiner Hilfe die erste GPU einen geraden Rahmen für beide Augen zeichnet und der zweite einen ungeraden, was die Latenz nicht verringert, was für Virtual-Reality-Systeme von entscheidender Bedeutung ist . Allerdings wird die Bildrate recht hoch sein. Bei VR SLI wird die Arbeit an jedem Frame also auf zwei GPUs aufgeteilt – eine arbeitet an einem Teil des Frames für das linke Auge, die zweite – für das rechte, und dann werden diese Hälften des Frames zu einem Ganzen kombiniert.

Diese Arbeitsteilung zwischen zwei GPUs führt zu fast zweifachen Leistungssteigerungen und ermöglicht höhere Bildraten und geringere Latenzzeiten als Systeme mit einer GPU. Allerdings erfordert die Verwendung von VR SLI eine besondere Unterstützung der Anwendung, um diese Skalierungsmethode nutzen zu können. Aber die VR-SLI-Technologie ist bereits in VR-Demoanwendungen wie Valves The Lab und ILMxLABs Trials on Tatooine integriert, und das ist erst der Anfang – Nvidia verspricht, dass bald weitere Anwendungen erscheinen werden, ebenso wie die Implementierung der Technologie in die Game-Engines Unreal Engine 4 , Unity und MaxPlay.

Ansel-Gaming-Screenshot-Plattform

Eine der interessantesten Ankündigungen im Zusammenhang mit Software war die Veröffentlichung einer Technologie zur Aufnahme hochwertiger Screenshots in Spieleanwendungen, benannt nach einem berühmten Fotografen – Ansel. Spiele sind längst nicht nur Spiele, sondern auch ein Ort für den Einsatz spielerischer Hände für verschiedene kreative Menschen. Manche Leute ändern Skripte für Spiele, manche veröffentlichen hochwertige Textursätze für Spiele und manche machen wunderschöne Screenshots.

Nvidia beschloss, letzterem zu helfen, indem es eine neue Plattform zum Erstellen (und Erstellen, da dies kein so einfacher Prozess) hochwertiger Bilder aus Spielen einführte. Sie glauben, dass Ansel dazu beitragen kann, eine neue Art zeitgenössischer Kunst zu schaffen. Schließlich gibt es bereits eine ganze Reihe von Künstlern, die den größten Teil ihres Lebens am PC verbringen und wunderschöne Screenshots von Spielen erstellen, und sie hatten dafür noch kein praktisches Tool.

Mit Ansel können Sie nicht nur ein Bild in einem Spiel erfassen, sondern es auch nach Bedarf des Erstellers ändern. Mit dieser Technologie können Sie die Kamera um die Szene herum bewegen, drehen und in jede Richtung neigen, um die gewünschte Bildkomposition zu erhalten. Beispielsweise kann man in Spielen wie Ego-Shootern nur den Spieler bewegen, sonst kann man eigentlich nichts ändern, sodass die ganzen Screenshots recht eintönig ausfallen. Mit der kostenlosen Kamera in Ansel können Sie weit über die Grenzen der Wildkamera hinausgehen und den Winkel wählen, der für ein gelungenes Bild erforderlich ist, oder sogar ein vollständiges 360-Grad-Stereobild vom gewünschten Punkt aus aufnehmen, und das in hoher Auflösung spätere Betrachtung in einem VR-Helm.

Ansel funktioniert ganz einfach – mithilfe einer speziellen Bibliothek von Nvidia wird diese Plattform in den Spielcode implementiert. Dazu muss der Entwickler seinem Projekt nur einen kleinen Code hinzufügen, damit der Nvidia-Grafiktreiber Puffer- und Shader-Daten abfangen kann. Der Arbeitsaufwand ist sehr gering; die Implementierung von Ansel in das Spiel dauert weniger als einen Tag. Die Aktivierung dieser Funktion in The Witness erforderte etwa 40 Codezeilen und in The Witcher 3 etwa 150 Codezeilen.

Ansel wird mit einem Open-Source-SDK geliefert. Die Hauptsache ist, dass der Benutzer damit einen Standardsatz an Einstellungen erhält, mit dem er die Position und den Winkel der Kamera ändern, Effekte hinzufügen usw. kann. Die Ansel-Plattform funktioniert folgendermaßen: Sie pausiert das Spiel und schaltet die kostenlose Kamera ein und ermöglicht es Ihnen, den Rahmen in die gewünschte Ansicht zu ändern und das Ergebnis in Form eines normalen Screenshots, eines 360-Grad-Bildes, eines Stereopaars oder einfach eines Panoramas mit großer Auflösung aufzuzeichnen.

Die einzige Einschränkung besteht darin, dass nicht alle Spiele alle Funktionen der Ansel-Spiele-Screenshot-Plattform unterstützen. Einige Spieleentwickler möchten aus dem einen oder anderen Grund keine völlig kostenlose Kamera in ihren Spielen aktivieren – zum Beispiel wegen der Möglichkeit, dass Betrüger diese Funktionalität nutzen. Oder sie wollen aus demselben Grund die Änderung des Blickwinkels begrenzen – damit sich niemand einen unfairen Vorteil verschafft. Na ja, zumindest damit die Benutzer die armen Sprites im Hintergrund nicht sehen. All dies sind völlig normale Wünsche von Spieleentwicklern.

Eine der interessantesten Funktionen von Ansel ist die Erstellung von Screenshots mit einfach enormer Auflösung. Dabei spielt es keine Rolle, dass das Spiel beispielsweise Auflösungen bis zu 4K unterstützt und der Monitor des Nutzers Full HD ist. Mit der Screenshot-Plattform können Sie ein Bild mit viel höherer Qualität aufnehmen, was eher durch die Kapazität und Leistung des Laufwerks begrenzt ist. Die Plattform erfasst problemlos Screenshots mit einer Auflösung von bis zu 4,5 Gigapixeln und fügt sie aus 3600 Teilen zusammen!

Es ist klar, dass man in solchen Bildern alle Details erkennen kann, bis hin zum Text auf in der Ferne liegenden Zeitungen, wenn ein solcher Detaillierungsgrad im Spiel grundsätzlich vorgesehen ist – Ansel kann den Detaillierungsgrad auch steuern, Stellen Sie die maximale Stufe ein, um die beste Bildqualität zu erzielen. Sie können aber auch Supersampling aktivieren. All dies ermöglicht es Ihnen, Bilder von Spielen zu erstellen, die Sie sicher auf große Banner drucken können und von deren Qualität überzeugt sind.

Interessanterweise wird zum Zusammenfügen großer Bilder ein spezieller hardwarebeschleunigter Code auf Basis von CUDA verwendet. Schließlich kann keine Grafikkarte ein Multi-Gigapixel-Bild als Ganzes rendern, wohl aber in Teilen, die später einfach zusammengefügt werden müssen, unter Berücksichtigung möglicher Unterschiede in Beleuchtung, Farbe usw.

Nach dem Zusammenfügen solcher Panoramen erfolgt eine spezielle Nachbearbeitung für das gesamte Bild, ebenfalls beschleunigt auf der GPU. Und um Bilder mit erhöhtem Dynamikumfang aufzunehmen, können Sie ein spezielles Bildformat verwenden – EXR, einen offenen Standard von Industrial Light and Magic, dessen Farbwerte im 16-Bit-Gleitkommaformat (FP16) aufgezeichnet werden jeden Kanal.

Mit diesem Format können Sie die Helligkeit und den Dynamikbereich des Bildes durch Nachbearbeitung ändern und es für jede spezifische Anzeige auf das gewünschte Niveau bringen, genau wie dies bei RAW-Formaten von Kameras der Fall ist. Und für die spätere Verwendung von Nachbearbeitungsfiltern in Bildbearbeitungsprogrammen ist dieses Format sehr nützlich, da es viel mehr Daten enthält als herkömmliche Bildformate.

Aber die Ansel-Plattform selbst enthält viele Nachbearbeitungsfilter, was besonders wichtig ist, da sie nicht nur Zugriff auf das endgültige Bild, sondern auch auf alle vom Spiel beim Rendern verwendeten Puffer hat, die für sehr interessante Effekte verwendet werden können , wie Tiefenschärfe. Ansel verfügt hierfür über eine spezielle Nachbearbeitungs-API und alle Effekte können in ein Spiel integriert werden, das diese Plattform unterstützt.

Ansel-Postfilter umfassen die folgenden Filter: Farbkurven, Farbraum, Transformation, Entsättigung, Helligkeit/Kontrast, Filmkörnung, Bloom, Lens Flare, anamorphotische Blendung, Verzerrung, Heathaze, Fisheye, Farbaberration, Tone Mapping, Linsenverschmutzung, Lichtwellen, Vignette, Gammakorrektur, Faltung, Schärfung, Kantenerkennung, Unschärfe, Sepia, Rauschunterdrückung, FXAA und andere.

Was das Erscheinen der Ansel-Unterstützung in Spielen betrifft, müssen Sie etwas warten, bis die Entwickler sie implementieren und testen. Aber Nvidia verspricht das baldige Erscheinen einer solchen Unterstützung in so berühmten Spielen wie The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament und anderen.

Der neue 16-nm-FinFET-Technologieprozess und die Architekturoptimierung ermöglichten es der GeForce GTX 1080-Grafikkarte, die auf dem GP104-Grafikprozessor basiert, bereits in der Referenzform eine hohe Taktfrequenz von 1,6 bis 1,7 GHz zu erreichen, und die neue Generation garantiert den Betrieb am höchstmögliche Frequenzen in Spielen GPU-Boost-Technologie. Zusammen mit der erhöhten Anzahl an Ausführungseinheiten machten diese Verbesserungen das neue Produkt nicht nur zur leistungsstärksten Single-Chip-Grafikkarte aller Zeiten, sondern auch zur energieeffizientesten Lösung auf dem Markt.

Das Modell GeForce GTX 1080 war die erste Grafikkarte, die über einen neuen Grafikspeichertyp GDDR5X verfügte – eine neue Generation von Hochgeschwindigkeitschips, die sehr hohe Datenübertragungsraten ermöglichte. Bei der GeForce GTX 1080-Modifikation arbeitet dieser Speichertyp mit einer effektiven Frequenz von 10 GHz. In Kombination mit verbesserten Inforim Framebuffer führte dies zu einer Steigerung der effektiven Speicherbandbreite dieses Grafikprozessors um das 1,7-fache im Vergleich zu seinem direkten Vorgänger, der GeForce GTX 980.

Nvidia hat sich klugerweise entschieden, keine radikal neue Architektur auf einem völlig neuen technologischen Prozess zu veröffentlichen, um bei der Entwicklung und Produktion nicht auf unnötige Probleme zu stoßen. Stattdessen haben sie die bereits gute und sehr effiziente Maxwell-Architektur erheblich verbessert und einige Funktionen hinzugefügt. Damit ist bei der Produktion neuer GPUs alles in Ordnung und beim Modell GeForce GTX 1080 haben die Ingenieure ein sehr hohes Frequenzpotenzial erreicht – in übertakteten Versionen von Partnern werden GPU-Frequenzen von bis zu 2 GHz erwartet! Eine solch beeindruckende Frequenz wurde dank des perfekten technischen Prozesses und der sorgfältigen Arbeit der Nvidia-Ingenieure bei der Entwicklung der Pascal-GPU möglich.

Und obwohl Pascal ein direkter Nachfolger von Maxwell wurde und sich diese Grafikarchitekturen nicht grundlegend voneinander unterscheiden, hat Nvidia viele Änderungen und Verbesserungen eingeführt, darunter die Möglichkeit, Bilder auf Displays anzuzeigen, die Video-Kodierungs- und -Dekodierungs-Engine sowie eine verbesserte Asynchronität Ausführung verschiedener Arten von Berechnungen auf der GPU, nahm Änderungen am Multi-Chip-Rendering vor und führte eine neue Synchronisationsmethode ein, Fast Sync.

Es ist unmöglich, die Multiprojektionstechnologie Simultaneous Multi-Projection nicht hervorzuheben, die dazu beiträgt, die Leistung in Virtual-Reality-Systemen zu verbessern, eine korrektere Darstellung von Szenen auf Multi-Monitor-Systemen zu erreichen und neue Techniken zur Leistungsoptimierung einzuführen. Den größten Geschwindigkeitszuwachs erhalten VR-Anwendungen jedoch, wenn sie die Multiprojektionstechnologie unterstützen, wodurch GPU-Ressourcen bei der Verarbeitung geometrischer Daten um die Hälfte und bei pixelweisen Berechnungen um das Eineinhalbfache eingespart werden können.

Unter den reinen Softwareänderungen sticht die Plattform zum Erstellen von Screenshots in Spielen namens Ansel hervor – nicht nur für diejenigen, die viel spielen, sondern auch für diejenigen, die sich einfach für hochwertige 3D-Grafiken interessieren, wird es interessant sein, sie auszuprobieren. Mit dem neuen Produkt können Sie die Kunst des Erstellens und Retuschierens von Screenshots auf ein neues Niveau heben. Nun, Nvidia verbessert seine Pakete für Spieleentwickler wie GameWorks und VRWorks einfach Schritt für Schritt weiter – letzteres verfügt beispielsweise über eine interessante Funktion für hochwertige Klangverarbeitung, die zahlreiche Reflexionen von Schallwellen mithilfe von Hardware-Ray berücksichtigt Nachverfolgung.

Generell ist mit der Grafikkarte Nvidia GeForce GTX 1080 ein echter Spitzenreiter auf den Markt gekommen, der alle dafür notwendigen Qualitäten mitbringt: hohe Leistung und breite Funktionalität sowie Unterstützung neuer Features und Algorithmen. Die ersten Käufer dieser Grafikkarte werden viele der genannten Vorteile sofort zu schätzen wissen, und andere Möglichkeiten der Lösung werden etwas später enthüllt, wenn breite Unterstützung von ihnen vorhanden ist Software. Die Hauptsache ist, dass sich die GeForce GTX 1080 als sehr schnell und effizient erwiesen hat, und wir hoffen wirklich, dass es den Nvidia-Ingenieuren gelungen ist, einige der Problembereiche (die gleichen asynchronen Berechnungen) zu beheben.

Grafikbeschleuniger GeForce GTX 1070

ParameterBedeutung
Chip-CodenameGP104
Produktionstechnologie16-nm-FinFET
Anzahl der Transistoren7,2 Milliarden
Kernbereich314 mm²
Die ArchitekturEinheitlich, mit einer Reihe gemeinsamer Prozessoren für die Stream-Verarbeitung zahlreicher Datentypen: Eckpunkte, Pixel usw.
DirectX-HardwareunterstützungDirectX 12, mit Unterstützung für Feature Level 12_1
Speicherbus256-Bit: Acht unabhängige 32-Bit-Speichercontroller, die GDDR5- und GDDR5X-Speicher unterstützen
GPU-Frequenz1506 (1683) MHz
Rechenblöcke15 aktive (von 20 im Chip) Streaming-Multiprozessoren, darunter 1920 (von 2560) skalare ALUs für Gleitkommaberechnungen im Rahmen des IEEE 754-2008-Standards;
Texturierungsblöcke120 aktive (von 160 auf dem Chip) Texturadressierungs- und Filtereinheiten mit Unterstützung für FP16- und FP32-Komponenten in Texturen und Unterstützung für trilineare und anisotrope Filterung für alle Texturformate
Rasteroperationsblöcke (ROPs)8 breite ROP-Blöcke (64 Pixel) mit Unterstützung für verschiedene Anti-Aliasing-Modi, einschließlich programmierbar und mit FP16- oder FP32-Framebufferformat. Die Blöcke bestehen aus einem Array konfigurierbarer ALUs und sind für Tiefengenerierung und -vergleich, Multisampling und Blending verantwortlich
MonitorunterstützungIntegrierte Unterstützung für bis zu vier Monitore, die über die Schnittstellen Dual Link DVI, HDMI 2.0b und DisplayPort 1.2 (1.3/1.4 Ready) angeschlossen sind

Spezifikationen der Referenzgrafikkarte GeForce GTX 1070
ParameterBedeutung
Kernfrequenz1506 (1683) MHz
Anzahl der Universalprozessoren1920
Anzahl der Texturblöcke120
Anzahl der Mischblöcke64
Effektive Speicherfrequenz8000 (4×2000) MHz
SpeichertypGDDR5
Speicherbus256-Bit
Erinnerung8 GB
Speicherbandbreite256 GB/s
Rechenleistung (FP32)etwa 6,5 ​​Teraflops
Theoretisch maximale Geschwindigkeit Schattierung96 Gigapixel/s
Theoretische Textur-Sampling-Rate181 Gigatexel/s
ReifenPCI Express 3.0
AnschlüsseEin Dual Link DVI, ein HDMI und drei DisplayPorts
Energieverbrauchbis zu 150 W
Zusätzliches EssenEin 8-poliger Stecker
Anzahl der belegten Steckplätze im Systemgehäuse2
Empfohlener Preis379-449 $ (USA), 34.990 (Russland)

Auch die Grafikkarte GeForce GTX 1070 erhielt einen logischen Namen, ähnlich der gleichen Lösung aus der vorherigen GeForce-Serie. Vom direkten Vorgänger GeForce GTX 970 unterscheidet sie sich lediglich durch die geänderte Generationsnummer. Das neue Produkt in der aktuellen Produktlinie des Unternehmens ist eine Stufe niedriger als die aktuelle Top-End-Lösung GeForce GTX 1080, die bis zur Veröffentlichung von Lösungen für GPUs mit noch größerer Leistung zum vorübergehenden Flaggschiff der neuen Serie geworden ist.

Die empfohlenen Preise für Nvidias neue Top-End-Grafikkarte liegen bei 379 US-Dollar bzw. 449 US-Dollar für die reguläre Nvidia-Partnerversion und die spezielle Founders Edition. Im Vergleich zum Topmodell ist das ein sehr guter Preis, wenn man bedenkt, dass die GTX 1070 im schlechtesten Fall etwa 25 % dahinter liegt. Und zum Zeitpunkt der Ankündigung und Veröffentlichung ist die GTX 1070 die leistungsstärkste Lösung ihrer Klasse. Wie die GeForce GTX 1080 hat auch die GTX 1070 keine direkten Konkurrenten von AMD und kann nur mit der Radeon R9 390X und Fury verglichen werden.

Der GP104-Grafikprozessor in der GeForce GTX 1070-Modifikation hat sich dafür entschieden, einen vollständigen 256-Bit-Speicherbus zu belassen, obwohl er nicht den neuen Typ von GDDR5X-Speicher verwendet, sondern den sehr schnellen GDDR5, der mit einer hohen effektiven Frequenz von 8 GHz arbeitet. Der auf einer Grafikkarte mit einem solchen Bus installierte Speicher kann 4 oder 8 GB betragen. Um die maximale Leistung der neuen Lösung bei hohen Einstellungen und Rendering-Auflösungen zu gewährleisten, wurde das Grafikkartenmodell GeForce GTX 1070 auch mit 8 GB ausgestattet Videospeicher, wie seine ältere Schwester. Dieses Volumen reicht aus, um beliebige 3D-Anwendungen mehrere Jahre lang mit maximalen Qualitätseinstellungen auszuführen.

Sonderedition GeForce GTX 1070 Founders Edition

Als die GeForce GTX 1080 Anfang Mai angekündigt wurde, wurde eine Sonderedition der Grafikkarte namens Founders Edition angekündigt, die im Vergleich zu regulären Grafikkarten der Partner des Unternehmens einen höheren Preis hatte. Gleiches gilt für das neue Produkt. In diesem Artikel werden wir erneut über eine Sonderedition der GeForce GTX 1070-Grafikkarte namens Founders Edition sprechen. Wie beim älteren Modell hat sich Nvidia entschieden, diese Version der Referenz-Grafikkarte des Herstellers zu einem höheren Preis herauszubringen. Sie argumentieren, dass viele Gamer und Enthusiasten, die teure High-End-Grafikkarten kaufen, ein Produkt mit einem angemessen „Premium“-Look und -Feeling wünschen.

Dementsprechend wird für solche Benutzer die Grafikkarte GeForce GTX 1070 Founders Edition auf den Markt gebracht, die von Nvidia-Ingenieuren aus hochwertigen Materialien und Komponenten entworfen und hergestellt wird, wie beispielsweise der Aluminiumabdeckung der GeForce GTX 1070 Founders Edition als flache Rückplatte, die die Rückseite der Leiterplatte abdeckt und bei Enthusiasten sehr beliebt ist.

Wie Sie auf den Fotos des Boards sehen können, hat die GeForce GTX 1070 Founders Edition genau das gleiche Industriedesign geerbt, das der Referenz GeForce GTX 1080 Founders Edition innewohnt. Beide Modelle verwenden einen Radiallüfter, der erwärmte Luft nach außen abführt, was sowohl in kleinen Gehäusen als auch in Multi-Chip-SLI-Konfigurationen mit begrenztem Platzbedarf sehr nützlich ist. Das Blasen erhitzter Luft nach außen, anstatt sie innerhalb des Gehäuses zu zirkulieren, reduziert die thermische Belastung, verbessert die Übertaktungsergebnisse und verlängert die Lebensdauer der Systemkomponenten.

Unter der Abdeckung des Referenzkühlsystems der GeForce GTX 1070 befindet sich ein speziell geformter Aluminiumkühler mit drei integrierten Kupfer-Heatpipes, die die Wärme von der GPU selbst abführen. Die von den Heatpipes abgeführte Wärme wird dann von einem Aluminium-Kühlkörper abgeführt. Nun, die flache Metallplatte auf der Rückseite der Platine ist auch darauf ausgelegt, bessere Temperatureigenschaften zu bieten. Es verfügt außerdem über einen einziehbaren Abschnitt für eine bessere Luftzirkulation zwischen mehreren Grafikkarten in SLI-Konfigurationen.

Was das Stromversorgungssystem des Boards betrifft, verfügt die GeForce GTX 1070 Founders Edition über ein vierphasiges Stromversorgungssystem, das für eine stabile Energieversorgung optimiert ist. Nvidia behauptet, dass die Verwendung spezieller Komponenten in der GTX 1070 Founders Edition im Vergleich zur GeForce GTX 970 zu einer verbesserten Energieeffizienz, Stabilität und Zuverlässigkeit geführt hat und eine bessere Übertaktungsleistung ermöglicht. In firmeneigenen Tests übertrafen GeForce-GTX-1070-GPUs deutlich die 1,9-GHz-Marke, was nahe an den Ergebnissen des älteren GTX-1080-Modells liegt.

Die Grafikkarte Nvidia GeForce GTX 1070 wird ab dem 10. Juni im Einzelhandel erhältlich sein. Die empfohlenen Preise für die GeForce GTX 1070 Founders Edition und Partnerlösungen unterscheiden sich, und das ist die wichtigste Frage für diese Sonderedition. Wenn Nvidias Partner ihre GeForce GTX 1070-Grafikkarten ab 379 US-Dollar (auf dem US-Markt) verkaufen, kostet die Founders Edition von Nvidias Referenzdesign 449 US-Dollar. Gibt es viele Enthusiasten, die bereit sind, für die zweifelhaften Vorteile der Referenzversion zu viel zu bezahlen? Die Zeit wird es zeigen, aber wir glauben, dass das Referenzboard als Kaufoption zu Beginn des Verkaufs interessanter ist und später der Zeitpunkt des Kaufs (und sogar zu einem höheren Preis!) bereits auf Null reduziert ist.

Es bleibt hinzuzufügen, dass die Leiterplatte der Referenz-GeForce GTX 1070 der der älteren Grafikkarte ähnelt und sich beide vom Design der vorherigen Platinen des Unternehmens unterscheiden. Der typische Stromverbrauch des neuen Produkts beträgt 150 W, was fast 20 % weniger als der Wert der GTX 1080 ist und nahe am Stromverbrauch der Grafikkarte der vorherigen Generation GeForce GTX 970 liegt. Das Nvidia-Referenzboard verfügt über einen bekannten Satz Anzahl der Anschlüsse zum Anschluss von Bildausgabegeräten: ein Dual-Link-DVI, ein HDMI und drei DisplayPort. Darüber hinaus gibt es Unterstützung für neue Versionen von HDMI und DisplayPort, über die wir oben im Test des GTX 1080-Modells geschrieben haben.

Architektonische Veränderungen

Die GeForce GTX 1070-Grafikkarte basiert auf dem GP104-Chip, dem Erstgeborenen der neuen Generation der Pascal-Grafikarchitektur von Nvidia. Diese Architektur basiert auf bei Maxwell entwickelten Lösungen, weist aber auch einige funktionale Unterschiede auf, über die wir oben ausführlich geschrieben haben – in dem Teil, der der Top-End-Grafikkarte GeForce GTX 1080 gewidmet ist.

Die wichtigste Änderung in der neuen Architektur war der technologische Prozess, nach dem alle neuen GPUs hergestellt werden. Durch den Einsatz des 16-nm-FinFET-Prozesses bei der Herstellung des GP104 konnte die Komplexität des Chips bei relativ geringer Fläche und Kosten erheblich gesteigert werden, und der erste Chip mit Pascal-Architektur verfügt über eine deutlich größere Anzahl von Ausführungseinheiten, einschließlich dieser Bereitstellung neuer Funktionen im Vergleich zu Maxwell-Chips mit ähnlicher Positionierung.

Das Design des GP104-Videochips ähnelt ähnlichen Maxwell-Architekturlösungen. Detaillierte Informationen zum Design moderner GPUs finden Sie in unseren Testberichten zu früheren Nvidia-Lösungen. Wie frühere GPUs werden die Chips mit neuer Architektur über unterschiedliche Konfigurationen von Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) und Speichercontrollern verfügen, und die GeForce GTX 1070 hat bereits einige Änderungen erfahren – ein Teil des Chips wurde gesperrt und inaktiv ( grau hervorgehoben):

Obwohl die GP104-GPU über vier GPC-Cluster und 20 SM-Multiprozessoren verfügt, erhielt sie in der Version für die GeForce GTX 1070 eine abgespeckte Modifikation mit einem hardwaremäßig deaktivierten GPC-Cluster. Da jeder GPC-Cluster über eine eigene Rasterisierungs-Engine verfügt und fünf SM-Multiprozessoren umfasst und jeder Multiprozessor aus 128 CUDA-Kernen und acht TMUs besteht, verfügt diese Version von GP104 über 1920 CUDA-Kerne und 120 aktive TMUs von 2560 Stream-Prozessoren und 160 physisch verfügbaren Texturblöcken .

Der Grafikprozessor, auf dem die GeForce GTX 1070 basiert, enthält acht 32-Bit-Speichercontroller, was einen insgesamt 256-Bit-Speicherbus ergibt – genau derselbe wie beim älteren GTX 1080-Modell. Das Speichersubsystem wurde nicht gekürzt, um dies bereitzustellen Speicher mit ausreichend hoher Bandbreite unter der Bedingung, dass GDDR5-Speicher in der GeForce GTX 1070 verwendet wird. Jedem der Speichercontroller sind acht ROP-Blöcke und 256 KB Second-Level-Cache zugeordnet, sodass der GP104-Chip in dieser Modifikation auch 64 ROP-Blöcke enthält 2048 KB Cache-Ebene der zweiten Ebene.

Dank Architekturoptimierungen und einer neuen Prozesstechnologie ist die GP104-GPU die bislang energieeffizienteste GPU. Die Nvidia-Ingenieure konnten die Taktrate bei der Umstellung auf eine neue Prozesstechnologie stärker steigern als erwartet, wofür sie hart arbeiten mussten, um alle Engpässe früherer Lösungen, die es ihnen nicht erlaubten, mit höheren Frequenzen zu arbeiten, sorgfältig zu prüfen und zu optimieren. Dementsprechend arbeitet auch die GeForce GTX 1070 mit einer sehr hohen Taktung, mehr als 40 % höher als der Referenzwert der GeForce GTX 970.

Da es sich bei dem GeForce GTX 1070-Modell im Wesentlichen um eine etwas schwächere GTX 1080 mit GDDR5-Speicher handelt, unterstützt es absolut alle Technologien, die wir im vorherigen Abschnitt beschrieben haben. Um mehr über die Pascal-Architektur und die von ihr unterstützten Technologien zu erfahren, wie z. B. verbesserte Videoausgabe- und Verarbeitungseinheiten, Async Compute-Unterstützung, Simultaneous Multi-Projection-Technologie, Änderungen am SLI-Multi-Chip-Rendering und den neuen Fast Sync-Typ, Es lohnt sich, einen Blick auf den Abschnitt über die GTX 1080 zu werfen.

Leistungsstarker GDDR5-Speicher und seine effiziente Nutzung

Wir haben oben über Änderungen im Speichersubsystem des GP104-Grafikprozessors geschrieben, auf dem die GeForce GTX 1080 und GTX 1070 basieren – die in dieser GPU enthaltenen Speichercontroller unterstützen sowohl den neuen Typ des GDDR5X-Videospeichers, der ausführlich in beschrieben wird der GTX 1080-Test und der gute alte GDDR5-Speicher, den wir schon seit einigen Jahren kennen.

Um beim jüngeren GTX 1070-Modell im Vergleich zur älteren GTX 1080 nicht zu viel Speicherbandbreite einzubüßen, ließ es alle acht 32-Bit-Speichercontroller aktiv und erhielt so eine vollständige 256-Bit-Common-Video-Speicherschnittstelle. Darüber hinaus war die Grafikkarte mit dem schnellsten GDDR5-Speicher ausgestattet, der auf dem Markt erhältlich war – mit einer effektiven Betriebsfrequenz von 8 GHz. All dies ermöglichte eine Speicherbandbreite von 256 GB/s, im Gegensatz zu 320 GB/s bei der älteren Lösung – auch die Rechenleistung wurde um etwa den gleichen Betrag reduziert, so dass das Gleichgewicht gewahrt blieb.

Vergessen Sie nicht, dass der theoretische Spitzendurchsatz zwar wichtig für die GPU-Leistung ist, Sie aber auch darauf achten müssen, wie effizient er genutzt wird. Während des Rendervorgangs können viele verschiedene Engpässe die Gesamtleistung einschränken und verhindern, dass die gesamte verfügbare Bandbreite genutzt wird. Um diese Engpässe zu minimieren, verwenden GPUs eine spezielle verlustfreie Komprimierung, um die Effizienz von Datenlese- und -schreibvorgängen zu verbessern.

Die Pascal-Architektur hat bereits die vierte Generation der Delta-Komprimierung von Pufferinformationen eingeführt, wodurch die GPU die verfügbaren Funktionen des Videospeicherbusses effizienter nutzen kann. Das Speichersubsystem der GeForce GTX 1070 und GTX 1080 nutzt verbesserte alte und mehrere neue verlustfreie Datenkomprimierungstechniken, um den Bandbreitenbedarf zu reduzieren. Dadurch wird die in den Speicher geschriebene Datenmenge reduziert, die L2-Cache-Effizienz verbessert und die Datenmenge reduziert, die zwischen verschiedenen Punkten auf der GPU, wie der TMU und dem Framebuffer, gesendet wird.

GPU Boost 3.0 und Übertaktungsfunktionen

Die meisten Nvidia-Partner haben bereits werkseitig übertaktete Lösungen auf Basis der GeForce GTX 1080 und GTX 1070 angekündigt. Und viele Grafikkartenhersteller entwickeln auch spezielle Übertaktungsprogramme, mit denen Sie die neue Funktionalität der GPU Boost 3.0-Technologie nutzen können. Ein Beispiel für solche Dienstprogramme ist EVGA Precision . Diese Kurve kann jedoch manuell geändert werden.

Wir kennen die GPU-Boost-Technologie gut von früheren Nvidia-Grafikkarten. In ihren GPUs nutzen sie diese Hardwarefunktion, die darauf ausgelegt ist, die Betriebstaktrate der GPU in Modi zu erhöhen, in denen sie die Grenzen des Stromverbrauchs und der Wärmeableitung noch nicht erreicht hat. Bei Pascal-GPUs hat dieser Algorithmus mehrere Änderungen erfahren, von denen die wichtigste eine feinere Einstellung der Turbofrequenzen je nach Spannung war.

Wenn zuvor die Differenz zwischen der Grundfrequenz und der Turbofrequenz festgelegt war, ist es in GPU Boost 3.0 möglich, Turbofrequenz-Offsets für jede Spannung separat einzustellen. Jetzt kann die Turbofrequenz für jeden einzelnen Spannungswert eingestellt werden, wodurch Sie alle Übertaktungsfähigkeiten der GPU voll ausschöpfen können. Wir haben in unserem GeForce GTX 1080-Test ausführlich über diese Funktion geschrieben, und Sie können dazu die Dienstprogramme EVGA Precision XOC und MSI Afterburner verwenden.

Da sich mit der Veröffentlichung von Grafikkarten, die GPU Boost 3.0 unterstützen, einige Details in der Übertaktungsmethodik geändert haben, musste Nvidia in den Anweisungen zum Übertakten neuer Produkte zusätzliche Erläuterungen vornehmen. Es gibt verschiedene Übertaktungstechniken mit unterschiedlichen Variablen, die das Endergebnis beeinflussen. Eine bestimmte Methode mag für jedes spezifische System besser geeignet sein, aber die Grundlagen sind immer ungefähr die gleichen.

Viele Übertakter verwenden den Unigine Heaven 4.0-Benchmark zur Überprüfung der Systemstabilität, der die GPU perfekt mit Arbeit auslastet, über flexible Einstellungen verfügt und im Fenstermodus zusammen mit einem Übertaktungs- und Überwachungsdienstprogramm in der Nähe gestartet werden kann, z. B. EVGA Precision oder MSI Afterburner. Allerdings reicht eine solche Prüfung nur für erste Einschätzungen aus, und um die Stabilität der Übertaktung sicher zu bestätigen, muss sie in mehreren Gaming-Anwendungen überprüft werden, denn verschiedene Spiele bedeuten eine unterschiedliche Belastung verschiedener GPU-Funktionsblöcke: mathematisch, texturiert, geometrisch. Der Heaven 4.0-Benchmark eignet sich auch für Übertaktungsaufgaben, da er über einen Schleifenmodus verfügt, in dem Übertaktungseinstellungen bequem geändert werden können und ein Benchmark zur Beurteilung der Geschwindigkeitssteigerung vorhanden ist.

Nvidia empfiehlt, beim Übertakten der neuen GeForce GTX 1080- und GTX 1070-Grafikkarten Heaven 4.0 und EVGA Precision XOC zusammen auszuführen. Zunächst empfiehlt es sich, die Lüftergeschwindigkeit sofort zu erhöhen. Und für ernsthaftes Übertakten können Sie den Geschwindigkeitswert sofort auf 100 % setzen, wodurch die Grafikkarte sehr laut wird, aber die GPU und andere Komponenten der Grafikkarte so weit wie möglich gekühlt werden, wodurch die Temperatur auf das niedrigstmögliche Niveau gesenkt wird , um eine Drosselung zu verhindern (ein Rückgang der Frequenzen aufgrund eines Anstiegs der GPU-Temperatur über einen bestimmten Wert).

Als nächstes müssen Sie auch das Leistungsziel auf Maximum einstellen. Diese Einstellung stellt der GPU die maximale Leistung zur Verfügung und erhöht den Stromverbrauch und das GPU-Temp-Ziel. Für einige Zwecke kann der zweite Wert von der Power Target-Änderung getrennt werden und diese Einstellungen dann individuell angepasst werden – um beispielsweise eine geringere Erwärmung des Videochips zu erreichen.

Der nächste Schritt besteht darin, den Wert der Videochip-Frequenzerhöhung (GPU Clock Offset) zu erhöhen – er bedeutet, um wie viel höher die Turbofrequenz während des Betriebs sein wird. Dieser Wert erhöht die Frequenz für alle Spannungen und führt zu einer besseren Leistung. Wie immer müssen Sie beim Übertakten die Stabilität überprüfen, indem Sie die GPU-Frequenz in kleinen Schritten erhöhen – von 10 MHz auf 50 MHz pro Schritt, bevor Sie Stottern, Treiber- oder Anwendungsfehler oder sogar visuelle Artefakte bemerken. Wenn diese Grenze erreicht ist, sollten Sie den Frequenzwert um eine Stufe reduzieren und noch einmal die Stabilität und Leistung beim Übertakten überprüfen.

Zusätzlich zur GPU-Frequenz können Sie auch die Videospeicherfrequenz erhöhen (Memory Clock Offset), was besonders bei der GeForce GTX 1070 wichtig ist, die mit GDDR5-Speicher ausgestattet ist und normalerweise gut übertaktet. Der Vorgang bei der Speicherbetriebsfrequenz wiederholt sich genau wie bei der Suche nach einer stabilen GPU-Frequenz. Der einzige Unterschied besteht darin, dass die Schritte größer gemacht werden können – indem 50–100 MHz auf einmal zur Grundfrequenz hinzugefügt werden.

Zusätzlich zu den oben beschriebenen Schritten können Sie auch die Spannungsgrenze (Überspannung) erhöhen, da höhere GPU-Frequenzen häufig bei höheren Spannungen erreicht werden, wenn instabile Teile der GPU zusätzliche Leistung erhalten. Ein potenzieller Nachteil der Erhöhung dieses Werts ist zwar die Möglichkeit einer Beschädigung des Videochips und eines beschleunigten Ausfalls, daher müssen Sie bei der Erhöhung der Spannung äußerste Vorsicht walten lassen.

Übertaktungsbegeisterte verwenden leicht unterschiedliche Techniken und ändern Parameter in unterschiedlicher Reihenfolge. Einige Übertakter experimentieren beispielsweise damit, eine stabile Frequenz von GPU und Speicher zu finden, damit sie sich nicht gegenseitig stören, und testen dann die kombinierte Übertaktung sowohl des Videochips als auch der Speicherchips, aber das sind unbedeutende Details einer Person Ansatz.

Den Meinungen in Foren und Kommentaren zu Artikeln nach zu urteilen, gefiel einigen Benutzern der neue Betriebsalgorithmus von GPU Boost 3.0 nicht, wenn die GPU-Frequenz zunächst sehr hoch ansteigt, oft über die Turbofrequenz, dann aber unter dem Einfluss steigender GPU-Temperaturen oder erhöhtem Stromverbrauch über den eingestellten Grenzwert hinaus, kann dieser auf deutlich niedrigere Werte absinken. Dies sind nur die Besonderheiten des aktualisierten Algorithmus; Sie müssen sich an das neue Verhalten der sich dynamisch ändernden GPU-Frequenz gewöhnen, aber es hat keine negativen Folgen.

Die GeForce GTX 1070-Grafikkarte ist nach der GTX 1080 das zweite Modell in Nvidias neuer Linie, die auf der Pascal-Grafikprozessorfamilie basiert. Die neue 16-nm-FinFET-Prozesstechnologie und Architekturoptimierungen ermöglichten es der vorgestellten Grafikkarte, hohe Taktraten zu erreichen, was auch durch die neue Generation der GPU-Boost-Technologie unterstützt wird. Trotz der reduzierten Anzahl an Funktionseinheiten in Form von Stream-Prozessoren und Texturmodulen reicht deren Anzahl immer noch aus, um die GTX 1070 zur profitabelsten und energieeffizientesten Lösung zu machen.

Die Installation von GDDR5-Speicher auf dem jüngeren der beiden veröffentlichten Nvidia-Grafikkartenmodelle auf dem GP104-Chip hindert sie im Gegensatz zum neuen GDDR5X-Typ, der die GTX 1080 auszeichnet, nicht daran, hohe Leistungsindikatoren zu erreichen. Erstens hat Nvidia beschlossen, den Speicherbus des GeForce GTX 1070-Modells nicht zu kürzen, und zweitens hat es den schnellsten GDDR5-Speicher mit einer effektiven Frequenz von 8 GHz verbaut, was nur geringfügig unter den 10 GHz des GDDR5X des älteren Modells liegt Modell. Unter Berücksichtigung der verbesserten Delta-Komprimierungsalgorithmen ist die effektive Speicherbandbreite der GPU höher geworden als die des ähnlichen Modells der GeForce GTX 970 der vorherigen Generation.

Die GeForce GTX 1070 ist gut, weil sie im Vergleich zum etwas früher angekündigten älteren Modell eine sehr hohe Leistung und Unterstützung für neue Features und Algorithmen zu einem deutlich günstigeren Preis bietet. Wenn es sich nur wenige Enthusiasten leisten können, eine GTX 1080 für 55.000 zu kaufen, dann kann ein viel größerer Kreis potenzieller Käufer 35.000 für eine nur ein Viertel weniger produktive Lösung mit genau den gleichen Fähigkeiten bezahlen. Es war die Kombination aus relativ niedrigem Preis und hoher Leistung, die die GeForce GTX 1070 zum Zeitpunkt ihrer Veröffentlichung zum vielleicht profitabelsten Kauf machte.

Grafikbeschleuniger GeForce GTX 1060

ParameterBedeutung
Chip-CodenameGP106
Produktionstechnologie16-nm-FinFET
Anzahl der Transistoren4,4 Milliarden
Kernbereich200 mm²
Die ArchitekturEinheitlich, mit einer Reihe gemeinsamer Prozessoren für die Stream-Verarbeitung zahlreicher Datentypen: Eckpunkte, Pixel usw.
DirectX-HardwareunterstützungDirectX 12, mit Unterstützung für Feature Level 12_1
Speicherbus192-Bit: sechs unabhängige 32-Bit-Speichercontroller, die GDDR5-Speicher unterstützen
GPU-Frequenz1506 (1708) MHz
Rechenblöcke10 Streaming-Multiprozessoren, darunter 1280 Skalar-ALUs für Gleitkommaberechnungen im Rahmen des IEEE 754-2008-Standards;
Texturierungsblöcke80 Texturadressierungs- und Filtereinheiten mit Unterstützung für FP16- und FP32-Komponenten in Texturen und Unterstützung für trilineare und anisotrope Filterung für alle Texturformate
Rasteroperationsblöcke (ROPs)6 breite ROP-Blöcke (48 Pixel) mit Unterstützung für verschiedene Anti-Aliasing-Modi, einschließlich programmierbar und mit FP16- oder FP32-Framebufferformat. Die Blöcke bestehen aus einem Array konfigurierbarer ALUs und sind für Tiefengenerierung und -vergleich, Multisampling und Blending verantwortlich
MonitorunterstützungIntegrierte Unterstützung für bis zu vier Monitore, die über die Schnittstellen Dual Link DVI, HDMI 2.0b und DisplayPort 1.2 (1.3/1.4 Ready) angeschlossen sind

Spezifikationen der GeForce GTX 1060 Referenz-Grafikkarte
ParameterBedeutung
Kernfrequenz1506 (1708) MHz
Anzahl der Universalprozessoren1280
Anzahl der Texturblöcke80
Anzahl der Mischblöcke48
Effektive Speicherfrequenz8000 (4×2000) MHz
SpeichertypGDDR5
Speicherbus192-Bit
Erinnerung6 GB
Speicherbandbreite192 GB/s
Rechenleistung (FP32)etwa 4 Teraflops
Theoretische maximale Füllrate72 Gigapixel/s
Theoretische Textur-Sampling-Rate121 Gigatexel/s
ReifenPCI Express 3.0
AnschlüsseEin Dual Link DVI, ein HDMI und drei DisplayPorts
Typischer Stromverbrauch120 W
Zusätzliches EssenEin 6-poliger Stecker
Anzahl der belegten Steckplätze im Systemgehäuse2
Empfohlener Preis249 US-Dollar (299 US-Dollar) in den USA und 18.990 US-Dollar in Russland

Auch die Grafikkarte GeForce GTX 1060 erhielt einen Namen, der der gleichen Lösung aus der vorherigen GeForce-Serie ähnelt und sich vom Namen ihres direkten Vorgängers GeForce GTX 960 nur durch die geänderte erste Ziffer der Generation unterscheidet. Das neue Produkt in der aktuellen Produktreihe des Unternehmens ist eine Stufe niedriger als die zuvor veröffentlichte GeForce GTX 1070-Lösung, die in der neuen Serie eine durchschnittliche Geschwindigkeit aufweist.

Die empfohlenen Preise für Nvidias neue Grafikkarte liegen bei 249 US-Dollar bzw. 299 US-Dollar für die regulären Versionen der Partner des Unternehmens bzw. für die spezielle Founder's Edition. Im Vergleich zu den beiden älteren Modellen ist dies ein sehr günstiger Preis, da das neue GTX 1060-Modell den Top-Boards zwar unterlegen, aber bei weitem nicht so viel günstiger ist. Zum Zeitpunkt der Ankündigung war das neue Produkt definitiv die leistungsstärkste Lösung seiner Klasse und eines der vorteilhaftesten Angebote in dieser Preisklasse.

Dieses Modell der Grafikkarte der Pascal-Familie von Nvidia wurde herausgebracht, um der neuen Lösung des Konkurrenzunternehmens AMD entgegenzuwirken, das etwas früher die Radeon RX 480 auf den Markt gebracht hatte. Es ist möglich, das neue Nvidia-Produkt mit dieser Grafikkarte zu vergleichen, wenn auch nicht ganz direkt, da sie sich preislich immer noch deutlich unterscheiden. Die GeForce GTX 1060 ist teurer (249–299 US-Dollar gegenüber 199–229 US-Dollar), aber auch deutlich schneller als ihr Konkurrent.

Der GP106-Grafikprozessor verfügt über einen 192-Bit-Speicherbus, sodass die auf einer Grafikkarte mit einem solchen Bus installierte Speichermenge 3 oder 6 GB betragen kann. Ein kleinerer Wert reicht unter modernen Bedingungen offen gesagt nicht aus, und bei vielen Spieleprojekten, selbst in Full-HD-Auflösung, mangelt es an Videospeicher, was die flüssige Wiedergabe erheblich beeinträchtigt. Um die maximale Leistung der neuen Lösung bei hohen Einstellungen zu gewährleisten, wurde das Grafikkartenmodell GeForce GTX 1060 mit 6 GB Videospeicher ausgestattet, was ausreicht, um beliebige 3D-Anwendungen mit beliebigen Qualitätseinstellungen auszuführen. Darüber hinaus gibt es heute einfach keinen Unterschied zwischen 6 und 8 GB und eine solche Lösung spart etwas Geld.

Der typische Stromverbrauch für das neue Produkt beträgt 120 W, was 20 % weniger als der Wert für die GTX 1070 ist und dem Stromverbrauch der GeForce GTX 960-Grafikkarte der vorherigen Generation entspricht, die über viel geringere Leistung und Fähigkeiten verfügt. Das Referenzboard verfügt über die üblichen Anschlüsse zum Anschluss von Bildausgabegeräten: einen Dual-Link-DVI, einen HDMI und drei DisplayPort. Darüber hinaus gibt es Unterstützung für neue Versionen von HDMI und DisplayPort, worüber wir im Testbericht zum GTX 1080-Modell geschrieben haben.

Die Länge des GeForce GTX 1060-Referenzboards beträgt 9,8 Zoll (25 cm), und unter den Unterschieden zu älteren Versionen weisen wir gesondert darauf hin, dass die GeForce GTX 1060 die SLI-Multi-Chip-Rendering-Konfiguration nicht unterstützt und nicht über eine spezielle verfügt Anschluss dafür. Da das Board weniger Strom verbraucht als ältere Modelle, wurde für zusätzliche Stromversorgung ein 6-poliger externer PCI-E-Stromanschluss auf dem Board installiert.

GeForce GTX 1060-Grafikkarten sind seit dem Tag der Ankündigung in Form von Produkten der Partner des Unternehmens auf dem Markt: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. In begrenzter Stückzahl erscheint außerdem eine von Nvidia selbst produzierte Sonderedition der GeForce GTX 1060 Founder’s Edition, die zum Preis von 299 US-Dollar exklusiv auf der Nvidia-Website verkauft und in Russland nicht offiziell vorgestellt wird. Die Founder's Edition verfügt über hochwertige Materialien und Komponenten, darunter ein Aluminiumgehäuse, ein effizientes Kühlsystem, niederohmige Stromkreise und speziell entwickelte Spannungsregler.

Architektonische Veränderungen

Die Grafikkarte GeForce GTX 1060 basiert auf einem völlig neuen Grafikprozessormodell GP106, das sich funktionell nicht vom Erstgeborenen der Pascal-Architektur in Form des GP104-Chips unterscheidet, auf dem die oben beschriebenen Modelle GeForce GTX 1080 und GTX 1070 basieren Diese Architektur basiert auf Lösungen, die bereits in Maxwell entwickelt wurden, weist jedoch auch einige funktionale Unterschiede auf, über die wir zuvor ausführlich geschrieben haben.

Der GP106-Videochip ähnelt im Design dem Top-End-Pascal-Chip und ähnlichen Maxwell-Architekturlösungen. Detaillierte Informationen zum Design moderner GPUs finden Sie in unseren Testberichten zu früheren Nvidia-Lösungen. Wie frühere GPUs verfügen die Chips mit neuer Architektur über unterschiedliche Konfigurationen von Graphics Processing Cluster (GPC)-Rechenclustern, Streaming-Multiprozessoren (SM) und Speichercontrollern:

Der GP106-Grafikprozessor umfasst zwei GPC-Cluster bestehend aus 10 Streaming-Multiprozessoren (Streaming Multiprocessor – SM), also genau der Hälfte dessen, was im GP104 verfügbar ist. Wie bei der älteren GPU enthält jeder Multiprozessor 128 Rechenkerne, 8 TMU-Textureinheiten, 256 KB Registerspeicher, 96 KB gemeinsam genutzten Speicher und 48 KB First-Level-Cache. Dadurch verfügt die GeForce GTX 1060 über insgesamt 1280 Rechenkerne und 80 Textureinheiten – halb so viele wie die GTX 1080.

Allerdings wurde das Speichersubsystem der GeForce GTX 1060 im Vergleich zur Spitzenlösung nicht halbiert; es enthält sechs 32-Bit-Speichercontroller, was einen endgültigen 192-Bit-Speicherbus ergibt. Bei einer effektiven Frequenz des GDDR5-Videospeichers für die GeForce GTX 1060 von 8 GHz erreicht die Bandbreite 192 GB/s, was für eine Lösung in diesem Preissegment recht gut ist, insbesondere angesichts der hohen Effizienz der Nutzung in Pascal. Jedem Speichercontroller sind acht ROP-Blöcke und 256 KB L2-Cache zugeordnet, sodass die Vollversion der GP106-GPU insgesamt 48 ROP-Blöcke und 1536 KB L2-Cache enthält.

Um die Anforderungen an die Speicherbandbreite zu reduzieren und die Pascal-Architektur effizienter zu nutzen, wurde die verlustfreie Komprimierung auf dem Chip weiter verbessert, sodass Daten in Puffern komprimiert werden können, um Effizienz und Leistung zu steigern. Insbesondere wurden die Chips der neuen Familie um neue Delta-Komprimierungsverfahren mit einem Verhältnis von 4:1 und 8:1 erweitert, was im Vergleich zu früheren Lösungen der Maxwell-Familie eine zusätzliche Bandbreiteneffizienz von 20 % ermöglicht.

Die Basisfrequenz der neuen GPU liegt bei 1506 MHz – diese Marke sollte grundsätzlich nicht unterschritten werden. Die typische Turbofrequenz (Boost Clock) ist viel höher und beträgt 1708 MHz – das ist der Durchschnittswert der realen Frequenz, mit der der GeForce GTX 1060-Grafikchip in einer Vielzahl von Spielen und 3D-Anwendungen arbeitet. Die tatsächliche Boost-Frequenz hängt vom Spiel und den Testbedingungen ab.

Wie der Rest der Pascal-Familie arbeitet die GeForce GTX 1060 nicht nur mit einer hohen Taktrate und bietet so eine hohe Leistung, sondern verfügt auch über einen ordentlichen Übertaktungsspielraum. Erste Experimente deuten auf die Möglichkeit hin, Frequenzen von etwa 2 GHz zu erreichen. Es überrascht nicht, dass die Partner des Unternehmens auch werkseitig übertaktete Versionen der GTX 1060-Grafikkarte vorbereiten.

Die wichtigste Änderung in der neuen Architektur war also der 16-nm-FinFET-Technologieprozess, dessen Einsatz bei der Herstellung von GP106 es ermöglichte, die Komplexität des Chips deutlich zu erhöhen und gleichzeitig eine relativ geringe Fläche von 200 mm² beizubehalten Dieser Chip mit Pascal-Architektur verfügt über eine deutlich größere Anzahl an Ausführungseinheiten im Vergleich zu einem Maxwell-Chip mit ähnlicher Positionierung, der mit der 28-nm-Prozesstechnologie hergestellt wurde.

Hatte die GM206 (GTX 960) mit einer Fläche von 227 mm² 3 Milliarden Transistoren und 1024 ALUs, 64 TMUs, 32 ROPs und einen 128-Bit-Bus, dann enthielt die neue GPU 4,4 Milliarden Transistoren, 1280 ALUs auf 200 mm². 80 TMUs und 48 ROPs mit einem 192-Bit-Bus. Darüber hinaus bei fast eineinhalbfach höherer Frequenz: 1506 (1708) gegenüber 1126 (1178) MHz. Und das bei gleicher Leistungsaufnahme von 120 W! Dadurch wurde die GP106-GPU neben der GP104 zu einer der energieeffizientesten GPUs.

Neue Nvidia-Technologien

Eine der interessantesten Technologien des Unternehmens, die von der GeForce GTX 1060 und anderen Lösungen der Pascal-Familie unterstützt wird, ist die Technologie Nvidia Simultane Multiprojektion. Über diese Technologie haben wir bereits in unserem Test zur GeForce GTX 1080 geschrieben; sie ermöglicht den Einsatz mehrerer neuer Techniken zur Optimierung des Renderings. Insbesondere die gleichzeitige Projektion eines VR-Bildes für beide Augen gleichzeitig, wodurch die Effizienz der GPU-Nutzung in der virtuellen Realität erheblich gesteigert wird.

Um SMP zu unterstützen, verfügen alle GPUs der Pascal-Familie über eine spezielle Engine, die sich in der PolyMorph Engine am Ende der Geometriepipeline vor der Rasterisierungseinheit befindet. Mit seiner Hilfe kann die GPU ein geometrisches Grundelement gleichzeitig von einem einzigen Punkt aus auf mehrere Projektionen projizieren, und diese Projektionen können stereoskopisch sein (d. h. bis zu 16 oder 32 Projektionen werden gleichzeitig unterstützt). Mit dieser Funktion können Pascal-GPUs gekrümmte Oberflächen für das VR-Rendering präzise reproduzieren und auf Systemen mit mehreren Monitoren korrekt anzeigen.

Es ist wichtig, dass die Simultaneous Multi-Projection-Technologie bereits in beliebte Game-Engines (Unreal Engine und Unity) und Spiele integriert wird und bis heute Technologieunterstützung für mehr als 30 Spiele in der Entwicklung angekündigt wurde, darunter so bekannte Projekte wie Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft und Rohdaten. Obwohl Unreal Tournament kein VR-Spiel ist, nutzt es interessanterweise SMP, um eine höhere Bildqualität zu erzielen und die Leistung zu verbessern.

Eine weitere lang erwartete Technologie ist ein leistungsstarkes Tool zum Erstellen von Screenshots in Spielen. Nvidia Ansel. Mit diesem Tool können Sie ungewöhnliche und sehr hochwertige Screenshots von Spielen mit bisher nicht verfügbaren Funktionen erstellen, diese in sehr hoher Auflösung speichern und mit verschiedenen Effekten ergänzen und Ihre Kreationen teilen. Mit Ansel können Sie einen Screenshot im wahrsten Sinne des Wortes so erstellen, wie es der Künstler möchte. So können Sie eine Kamera mit beliebigen Parametern an einer beliebigen Stelle in der Szene installieren, leistungsstarke Nachfilter auf das Bild anwenden oder sogar ein 360-Grad-Foto zur Ansicht in einem aufnehmen Virtual-Reality-Helm.

Nvidia hat die Integration der Ansel-Benutzeroberfläche in Spiele standardisiert, und es ist so einfach wie das Hinzufügen einiger Codezeilen. Sie müssen nicht warten, bis diese Funktion in Spielen erscheint; Sie können Ansels Fähigkeiten jetzt im Spiel Mirror’s Edge: Catalyst testen und etwas später wird sie in Witcher 3: Wild Hunt verfügbar sein. Darüber hinaus befinden sich mit Ansel-Unterstützung zahlreiche Spieleprojekte in der Entwicklung, darunter Spiele wie Fortnite, Paragon und Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy’s The Division, No Man’s Sky und andere.

Auch die neue GeForce GTX 1060 GPU unterstützt das Toolkit Nvidia VRWorks, das Entwicklern hilft, beeindruckende Virtual-Reality-Projekte zu erstellen. Dieses Paket enthält zahlreiche Dienstprogramme und Tools für Entwickler, darunter VRWorks Audio, mit dem Sie mithilfe von Raytracing auf der GPU sehr genaue Berechnungen von Schallwellenreflexionen von Objekten in der Szene durchführen können. Das Paket umfasst auch die Integration physikalischer Effekte in VR und PhysX, um das physikalisch korrekte Verhalten von Objekten in der Szene sicherzustellen.

Eines der aufregendsten VR-Spiele, die von VRWorks profitieren, ist VR Funhouse, Nvidias eigenes Virtual-Reality-Spiel, das kostenlos über den Steam-Dienst von Valve erhältlich ist. Dieses Spiel basiert auf der Unreal Engine 4 (Epic Games) und läuft auf GeForce GTX 1080-, 1070- und 1060-Grafikkarten in Verbindung mit HTC Vive VR-Headsets. Darüber hinaus wird der Quellcode dieses Spiels öffentlich verfügbar sein, was es anderen Entwicklern ermöglicht, vorgefertigte Ideen und Codes in ihren VR-Attraktionen zu verwenden. Glauben Sie uns, dies ist eine der beeindruckendsten Demonstrationen der Leistungsfähigkeit der virtuellen Realität.

Auch dank SMP- und VRWorks-Technologien ist der Einsatz des GeForce GTX 1060-Grafikprozessors in VR-Anwendungen reichlich möglich Einstiegslevel Virtual-Reality-Leistung, und die betreffende GPU erfüllt das erforderliche Mindesthardwareniveau, auch für SteamVR, und wird damit zu einer der erfolgreichsten Anschaffungen für den Einsatz in Systemen mit offizieller VR-Unterstützung.

Da das GeForce GTX 1060-Modell auf dem GP106-Chip basiert, der in seinen Fähigkeiten dem GP104-Grafikprozessor, der die Basis für ältere Modifikationen wurde, in nichts nachsteht, unterstützt es absolut alle oben beschriebenen Technologien.

Die GeForce GTX 1060-Grafikkarte ist das dritte Modell in Nvidias neuer Linie, die auf der Pascal-Grafikprozessorfamilie basiert. Der neue 16-nm-FinFET-Technologieprozess und die Architekturoptimierungen ermöglichten es allen neuen Grafikkarten, im Vergleich zu Videochips der vorherigen Generation hohe Taktraten zu erreichen und eine größere Anzahl von Funktionseinheiten in Form von Stream-Prozessoren, Texturmodulen und anderen in der GPU unterzubringen. Deshalb hat sich das GTX 1060-Modell zur profitabelsten und energieeffizientesten Lösung seiner Klasse und überhaupt entwickelt.

Besonders wichtig ist, dass die GeForce GTX 1060 im Vergleich zu älteren GP104-Lösungen eine recht hohe Leistung und Unterstützung für neue Features und Algorithmen zu einem deutlich günstigeren Preis bietet. Der GP106-Grafikchip des neuen Modells bietet erstklassige Leistung und Energieeffizienz. Das GeForce GTX 1060-Modell wurde speziell entwickelt und eignet sich perfekt für alle modernen Spiele bei hohen und maximalen Grafikeinstellungen bei einer Auflösung von 1920 x 1080 und sogar mit aktiviertem Vollbild-Anti-Aliasing mit verschiedenen Methoden (FXAA, MFAA oder MSAA).

Und für alle, die noch mehr Leistung mit ultrahochauflösenden Displays wünschen, bietet Nvidia die Top-End-Grafikkarten GeForce GTX 1070 und GTX 1080 an, die ebenfalls sehr gut in Leistung und Energieeffizienz sind. Dennoch unterscheidet sich die GeForce GTX 1060 durch die Kombination aus niedrigem Preis und ausreichender Leistung von älteren Lösungen. Im Vergleich zur konkurrierenden Radeon RX 480 ist die Lösung von Nvidia etwas schneller, weist weniger Komplexität und weniger GPU-Footprint auf und weist eine deutlich bessere Energieeffizienz auf. Es stimmt, es wird etwas teurer verkauft, sodass jede Grafikkarte ihre eigene Nische hat.

mob_info