Veröffentlicht inTests

Nvidia GeForce RTX (Hardware) – GeForce RTX 3070

Die GeForce RTX 3080 haben wir schon besprochen. Jetzt schickt mit der GeForce RTX 3070 die nächste Grafikkarte ins Rennen, die aufgrund der Lieferprobleme aber leicht später als ursprünglich geplant erscheint. Wir haben die rund 500 Euro teure Grafikkarte im Test unter die Lupe genommen. Dabei wurde schnell klar, dass sich das alte Flaggschiff, die RTX 2080 Ti, warm anziehen muss…

© Nvidia / Nvidia

Hintergründe: Die GPU

Die GPU wurde im 8-Nanometer-Verfahren (Turing: 12 nm) produziert und umfasst 17,4 Mrd. Transistoren (RTX 3080: 28 Mrd. Transistoren). Sie besteht aus drei Bereichen: der Streaming-Prozessor (CUDA) für die „normalen“ und häufig anfallenden Rechenoperationen im Grafiksektor, die RT-Kerne für die Hardware-beschleunigte Berechnung von Raytracing in Echtzeit sowie die Tensor-Kerne, die vor allem bei KI-Anwendungen auf Basis von neuronalen Netzwerken zum Einsatz kommen sollen. Nvidias „Deep Learning Super Sampling“ (DLSS) nutzt z.B. diese Tensor-Kerne: Das ist eine wirklich beeindruckende, KI-gestützte Methode zur Hochskalierung von Grafiken mit einem beträchtlichen Zugewinn bei der Bildwiederholrate ohne große optische Abstriche. Stellenweise schafft es DLSS sogar, die Schärfe und die Qualität der Grafik paradoxerweise zu erhöhen, obwohl die Grafik ja im eigentlichen Sinne hochskaliert und mit KI nachgeschärft wird.

Nvidia will im Vergleich zu Turing die Anzahl der normalen Berechnungen (programmierbare Shader) um den Faktor Zwei gesteigert haben, gerade im Bereich der 32-Bit-Fließkommaoperationen, die vor allem beim Raytracing-Rendering und bei aufwändigen Shadern erforderlich sind (RTX 2070: 7,9 Shader TFLOPS; RTX 3070: 20,3 Shader TFLOPS). Die zweite Generation der RT-Kerne sollen die mehrstufigen Raytracing-Operationen 1,7 Mal so schnell wie beim Vorgänger berechnen können (RTX 2070: 23,8 RT TFLOPS; RTX 3070: 39,7 RT TFLOPS). Die dritte Generation des Tensor-Cores verspricht ebenfalls eine Leistungssteigerung um mehr als das Zweifache, da automatisch weniger wichtiger Elemente entfernt und „Sparse Networks“ schneller berechnet werden können (RTX 2070: 63,0 Tensor-TFLOPS; RTX 3070: 162,6 Shader Tensor-TFLOPS; bei „Sparse Networks“).

RAM-Austattung, Anschlüsse und RTX I/O-Zukunft

Die RTX 3070 verfügt über drei Display-Port-Anschlüsse (1.4a) und einen HDMI-2.1-Ausgang. Auch AV1 Decode (AOMedia Video 1) wird unterstützt.

8 GB GDDR6-Grafikspeicher kommen zum Einsatz (Bandbreite: 256-bit; theoretische Übertragung: 448 GB pro Sekunde). In der RTX 3080 wurde der schnellere GDDR6X-Speicher verbaut (Bandbreite: 320-bit; theoretische Übertragung: 760 GB pro Sekunde). Auch wenn der Grafikspeicher in unseren Testläufen ausreichte, kann es sein, dass 8 GB für 4K-Gaming mit maximalen Qualitätseinstellungen (z.B. bei Texturen) in Zukunft etwas knapp werden könnte.

[GUI_STATICIMAGE(setid=89639,id=92627719)]
© 4P/Screenshot

Es kann davon ausgegangen werden, dass der Videospeicherbedarf in den nächsten Jahren steigen wird. Zumal mit RTX I/O und anderen Technologien auch das Laden bzw. Nachladen von neuen Daten enorm beschleunigt werden kann – und deswegen es viel schneller möglich sein wird, neue Daten in den Grafikspeicher abzulegen.  Für diejenigen, die eine NVMe-SSD mit einer RTX-3000er-Karte nutzen, dürfte RTX I/O auch dafür sorgen, dass Videospeicher kein stark limitierender Faktor für die Leistung sein wird – allerdings muss zunächst die Software-Schnittstelle (DirectStorage) die entsprechenden Technologien unterstützen und das kann noch bis zu ein Jahr dauern (Quelle).
 
Temperatur, Lautstärke und Strom/Watt

Die Grafikkarte erwärmt sich bei maximaler Auslastung stark und wurde im Testverlauf bis zu 72 °C warm. Die RTX 2080 Ti und RTX 3080 wurden etwas heißer. Die zwei (oben) auf der Founders Edition platzierten Lüfter waren bei Intensiv-Betrieb hörbar. Im Idle-Bereich, also z.B. im Desktop- oder Office-Betrieb, war die RTX 3070 völlig unauffällig und leise. Der maximale Gesamtstromverbrauch (TGP) bzw. die Leistungsaufnahme der Grafikkarte liegt bei 220 Watt, weswegen ein 650 Watt Netzteil empfohlen wird. Laut Angaben von Nvidia soll die Ampere-Generation im Vergleich zu Turing effizienter bei gleicher Performance arbeiten (Faktor 1,9; höhere fps-Rate pro Watt). Für die Stromversorgung an der Seite der Grafikkarte ist ein neuer 12-poliger Anschuss vorgesehen. In der Founders Edition liegt ein Adapter bei, der einen PCIe 8-poligen Stecker auf den neuen 12-poligen Anschluss bringt. Laut Igor’s Lab ist die RTX 3070 auch effizienter, leise und „relativ kühl“ im Vergleich zu den bisherigen Modellen.

[GUI_STATICIMAGE(setid=89639,id=92627713)]
Die RTX 3070 in der Founders Edition von Nvidia im Vordergrund. © 4P/Screenshot

Nvidia Reflex, Studio und Broadcast  

Zu den Neuerungen, die mit der 3000er-Reihe eingeführt werden, gehört ebenfalls Nvidia Reflex zur Senkung der Systemlatenz in kompetitiven eSports-Titeln, sofern die Spiele den Low-Latency Mode nutzen (Apex Legends, Call of Duty: Warzone, Fortnite und Valorant). Laut Hersteller wird die Latenz um bis zu 50 Prozent reduziert, dieser Aspekt soll an dieser Stelle nur erwähnt werden. Getestet haben wir Nvidia Reflex nicht, auch mangels vergleichbaren Messmethoden. Des Weiteren verspricht die RTX-30-Serie eine Zeitersparnis bei Multi-App-Workflows, 8K-HDR-Videobearbeitung und der Arbeit mit großen 3D-Modellen – sowie bei der Anwendung von Raytracing. Live-Streamer sollen von Nvidia Broadcast profitieren, z.B. von der automatischen Entfernung von Störgeräuschen, Hintergrundeffekte und einen virtuellen Kameramann. Nvidia Broadcast läuft übrigens auf jeder RTX-GPU.


  1. Leon-x hat geschrieben: 28.10.2020 14:34 Gibt noch mal Spezial-Test bei PCGH der zeigt dass die 8GB Vram dann doch irgendwann zum Problem werden:
    https://www.pcgameshardware.de/Geforce- ... s-1360672/
    Auch dass es nicht immer in Verlust der Performance sich bemerkbar macht sondern auch Visuell.
    danke für diesen augenöffner. man hat ja doch iwie öfter das gefühl, dass manche tests gekauft sind (ich meine hier absolut nich 4p!!! sondern die üblichen hardware-experten) - als hardware-experte, sollte man diese szenarien eigentlich ausm hut zaubern können - sofern man das denn will... ich habe seit etlichen jahren immer noch und immer wieder meine 8GB drinne und wollte aber ganz sicher mal nicht wieder auf 8GB upgraden. 10GB sind hier, in meinen augen auch nur deren wischerei^^
    dann wird nochmal gaaanz entspannt auf 16GB gewartet - ob es dann AMD wird, wird sich zeigen. ich habe schon sehr lange keine ATI mehr drinne (HD5870), weil ich den treiber damals zum schreien fand - aber vll geb ich denen auch nochmal ne chance. NV wird für mich immer linker und linker - wenn die einem hier ne karte für 1000€ verticken wollen, auf der dann ein ps5 port nicht in WQHD läuft, dann muss man kein menschenkenner sein um hier ein "gschmäckle" zu wittern...

  2. Angriff mit 3GB weniger Vram. So was schafft auch nur Nvidia zu vermarkten.
    Man kann für den Markt nur hoffen, dass die kommenden AMD Karten einschlagen, die nicht mit Vram geizen (16GB).
    Gesund ist der Grafikkartenmarkt schon seit einigen Jahren nicht mehr.

  3. Also Big Navi hat paar nette Konter zu Nvidia nach der offiziellen Vorstellung.
    649,- für die 6800XT und 999,- für 6900er die um die RTX 3090 mithält, nicht schlecht. Alles mit 16GB Vram.
    Unter 600,- noch die normale 6800.

Hinterlassen Sie bitte einen Kommentar.

Seite 1