Veröffentlicht inTests

Nvidia GeForce RTX (Hardware) – GeForce RTX 3070

Die GeForce RTX 3080 haben wir schon besprochen. Jetzt schickt mit der GeForce RTX 3070 die nächste Grafikkarte ins Rennen, die aufgrund der Lieferprobleme aber leicht später als ursprünglich geplant erscheint. Wir haben die rund 500 Euro teure Grafikkarte im Test unter die Lupe genommen. Dabei wurde schnell klar, dass sich das alte Flaggschiff, die RTX 2080 Ti, warm anziehen muss…

© Nvidia / Nvidia

Benchmark-Ergebnisse für Spiele ohne RTX-Funktionen

World War Z

Szene: Ingame-Benchmark in 4K (maximale Grafikqualität)
3080: 116 fps (Min: 89; Max: 160)
3070: 91 fps (Min: 77; Max: 120)
2080 Ti: 84 fps (Min: 71; Max: 114)

Hitman 2


Szene: Ingame-Benchmark in 4K (maximale Grafikqualität)
3080: 67,92 fps
3070: 55,22 fps
2080 Ti: 51,13 fps

Anno 1800

Szene: Ingame-Benchmark Sequenz #1 in 4K (maximale Grafikqualität)
3080: 71,19 fps
3070: 57,57 fps
2080 Ti: 48,07 fps

Anno 1800

Szene: Ingame-Benchmark Sequenz #2 in 4K (maximale Grafikqualität)
3080: 56,36 fps
3070: 45,71 fps
2080 Ti: 40,42 fps

Anno 1800

Szene: Ingame-Benchmark Sequenz #3 in 4K (maximale Grafikqualität)
3080: 52,65 fps
3070: 44,04 fps
2080 Ti: 39,04 fps

The Division 2

Szene: Ingame-Benchmark in 4K (maximale Grafikqualität)
3080: 62 fps
3070: 50 fps
2080 Ti: 50 fps

Ghost Recon Breakpoint


Szene: Ingame-Benchmark in 4K (maximale Grafikqualität)
3080: 93 fps
3070: 75 fps
2080 Ti: 58 fps

!function(){„use strict“;window.addEventListener(„message“,(function(a){if(void 0!==a.data[„datawrapper-height“])for(var e in a.data[„datawrapper-height“]){var t=document.getElementById(„datawrapper-chart-„+e)||document.querySelector(„iframe[src*='“+e+“‚]“);t&&(t.style.height=a.data[„datawrapper-height“][e]+“px“)}}))}();

!function(){„use strict“;window.addEventListener(„message“,(function(a){if(void 0!==a.data[„datawrapper-height“])for(var e in a.data[„datawrapper-height“]){var t=document.getElementById(„datawrapper-chart-„+e)||document.querySelector(„iframe[src*='“+e+“‚]“);t&&(t.style.height=a.data[„datawrapper-height“][e]+“px“)}}))}();

!function(){„use strict“;window.addEventListener(„message“,(function(a){if(void 0!==a.data[„datawrapper-height“])for(var e in a.data[„datawrapper-height“]){var t=document.getElementById(„datawrapper-chart-„+e)||document.querySelector(„iframe[src*='“+e+“‚]“);t&&(t.style.height=a.data[„datawrapper-height“][e]+“px“)}}))}();

!function(){„use strict“;window.addEventListener(„message“,(function(a){if(void 0!==a.data[„datawrapper-height“])for(var e in a.data[„datawrapper-height“]){var t=document.getElementById(„datawrapper-chart-„+e)||document.querySelector(„iframe[src*='“+e+“‚]“);t&&(t.style.height=a.data[„datawrapper-height“][e]+“px“)}}))}();

Testsystem: Die Grafikkartentests wurden auf einem (schon etwas betagtem) PC-System durchgeführt: i7-4790K @ 4,00 GHz mit 16 GB RAM (DDR3-2400). Es wurden vorwiegend Spiele für Benchmarks ausgewählt, bei denen die CPU nicht als entscheidender Flaschenhals fungiert (Symptome: maximale CPU-Last; GPU nicht ausgelastet), daher wurden Death Stranding und Assassin’s Creed Odyssey auch nicht getestet. Die RTX 3070 fungiert als Nachfolger der RTX 2070/Super. In unseren Benchmarks tritt die RTX 3070 gegen die RTX 2080 Ti (das Grafikkarten-Flaggschiff der vorherigen Generation) und die RTX 3080 an (aktuelle High-End-Karte), aber mangels Vielfalt bei der uns vorliegenden Testhardware konnten wir keine weiteren Tests mit anderen GPUs durchführen. Die Vorgehensweise bei den Benchmarks und dem Vergleich hatten wir im Test der RTX 3080 ausführlich dargelegt (zur Erklärung).

  1. Leon-x hat geschrieben: 28.10.2020 14:34 Gibt noch mal Spezial-Test bei PCGH der zeigt dass die 8GB Vram dann doch irgendwann zum Problem werden:
    https://www.pcgameshardware.de/Geforce- ... s-1360672/
    Auch dass es nicht immer in Verlust der Performance sich bemerkbar macht sondern auch Visuell.
    danke für diesen augenöffner. man hat ja doch iwie öfter das gefühl, dass manche tests gekauft sind (ich meine hier absolut nich 4p!!! sondern die üblichen hardware-experten) - als hardware-experte, sollte man diese szenarien eigentlich ausm hut zaubern können - sofern man das denn will... ich habe seit etlichen jahren immer noch und immer wieder meine 8GB drinne und wollte aber ganz sicher mal nicht wieder auf 8GB upgraden. 10GB sind hier, in meinen augen auch nur deren wischerei^^
    dann wird nochmal gaaanz entspannt auf 16GB gewartet - ob es dann AMD wird, wird sich zeigen. ich habe schon sehr lange keine ATI mehr drinne (HD5870), weil ich den treiber damals zum schreien fand - aber vll geb ich denen auch nochmal ne chance. NV wird für mich immer linker und linker - wenn die einem hier ne karte für 1000€ verticken wollen, auf der dann ein ps5 port nicht in WQHD läuft, dann muss man kein menschenkenner sein um hier ein "gschmäckle" zu wittern...

  2. Angriff mit 3GB weniger Vram. So was schafft auch nur Nvidia zu vermarkten.
    Man kann für den Markt nur hoffen, dass die kommenden AMD Karten einschlagen, die nicht mit Vram geizen (16GB).
    Gesund ist der Grafikkartenmarkt schon seit einigen Jahren nicht mehr.

  3. Also Big Navi hat paar nette Konter zu Nvidia nach der offiziellen Vorstellung.
    649,- für die 6800XT und 999,- für 6900er die um die RTX 3090 mithält, nicht schlecht. Alles mit 16GB Vram.
    Unter 600,- noch die normale 6800.

Hinterlassen Sie bitte einen Kommentar.

Seite 1