Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP

Replay86 schrieb:
Die 8 GB sind der totale Abtürn.
Da würde ich eher zu einer gebrauchten 2080 Ti greifen. Die Kompromisse bei Nvidia werden langsam richtig widerlich.

...dann sind praktisch alle neuen karten Abtürn ! ;)

5700xt , 2070s usw, ja ?
 
Ist doch alles Hühner-Voodoo.

Nvidias Karten sind bisher nur in homöopathischen Dosen verfügbar.
AMDs Karten sind noch nicht mal vorgestellt.
Und was die neuen Konsolen am Ende wirklich können weiß auch noch kein Verbraucher genau.

Ab.
War.
Ten.
 
HighDefinist schrieb:
Ja, nur haette ich vorher eher sogar die 6800xt hinter der 3070 eingeschaetzt... wenn man nun bedenkt, dass in "normalen" Raytracing-Titeln das Raytracen ja nur einen Teil der Gesamtleistung ausmacht, werden die AMD-Karten wohl beim Zuschalten von Raytracing nur sehr wenig gegenueber Nvidia verlieren.
Der Unterschied ist halt, dass RT ohne DLSS, insbesondere bei höheren Auflösungen, kein Spaß machen wird. Und das ist eben der Knackpunkt bei AMD.
Schau dir bitte mal Benchmarks ohne DLSS an und beurteile dann nochmal.
z.B: Control
1603810961301.png

Und dann ordne hier die 6800XT mit einer Leistung ähnlich der 3080 jedoch RT eher auf 2080ti Niveau ein. Und das ganze ohne DLSS.
 
  • Gefällt mir
Reaktionen: ZeroStrat
foo_1337 schrieb:
Ach.... mit DLSS hat das dann trotzdem wenig zu tun.
:rolleyes: Oh Mann, ich hatte dir zugestimmt. Die API ist die Basis für diese Art des KI-Upscalings, ob und wie genau das dann umgesetzt wird, muss man abwarten.
 
  • Gefällt mir
Reaktionen: foo_1337
Man würde praktisch alle GPU´s obsolet machen (5700XT , 2070S usw,) und das kann sich kein Spieleentwickler leisten.
Nicht so tragisch sehen mit den 8GB ! ;)

Klar, so eine bärenstarke GPU hätte mehr verdient, but that´s life.
 
  • Gefällt mir
Reaktionen: CaptainPiett und Hawk1980
HerrRossi schrieb:
:rolleyes: Oh Mann, ich hatte dir zugestimmt. Die API ist die Basis für diese Art des KI-Upscalings, ob und wie genau das dann umgesetzt wird, muss man abwarten.
Sorry, bei dem ganzen 'gehate' hier falsch verstanden :)
 
  • Gefällt mir
Reaktionen: HerrRossi
HighDefinist schrieb:
Ja, aber die RT-Kerne der 3000er Serie sollten ja eigentlich doppelt so schnell pro Kern sein, wie die der 2000er Serie - bei einem effektiven Verhaeltnis von 92 zu 68 wuerde man also eigentlich mehr erwarten.

Wird wahrscheinlich Implementierungssache sein. Man geht ja doch immer vom langsamsten Teil aus. Alle Spiele bisher haben die 1st Gen Technik implementiert. Da skaliert womöglich noch nicht mal irgendwas. Kann mir vorstellen dass das bei zukünftigen auf die neue Hardware erprobten Spiele durchaus der Fall sein kann das dann das Verhältnis auch passt. Ist ja doch noch eine relativ junge Technik.
 
cleric.de schrieb:
Mir reicht eigentlich schon ein Blick auf die Speicherausstattung.

2016? GeForce 1070 FE mit 8GB für 499 Euro
2020? GeForce 3070 FE mit 8GB für 499 Euro

Welch ein Fortschritt. Entweder war die 1070 besonders zukunftssicher, oder die 3070 ist es nicht. Imho.

Joar dieser Blick ist ja schon recht kurzsichtig. Technischen Fortschritt nur an der VRAM Menge ausmachen ist Quatsch. Weißte sicher.
Weil dann könntest du auch ne alte Polaris RX570 mit 8 GB einbeziehen.

Die GPU ist schon stark. Der Preis auch okay. Aber die 8 GB sind durchaus ein Kritikpunkt, muss man sagen. Aber sicher kein Show Stopper.

Es kommt, wie immer darauf an, was man zockt und was man jetzt schon hat.
 
  • Gefällt mir
Reaktionen: Alex1966, JackA und KlaasKersting
ToKnight schrieb:
Ich finde das neue nVidia-Lineup nicht sonderlich Netzteil-freundlich. Warum nicht einfach den 3 Cent teureren 2x8-Pin auf 12Pin Adapter beilegen statt nur 1x8 Pin? Können dann ja die Kunden auswählen ob sie 2 Stecker und damit eine zusätzliche 12V-Leitung anstecken, aber dieses laufen außerhalb der Spezifikation kann doch auf Dauer nicht gut sein. Vielleicht zeigt die mit zwei 12V-Leitungen dann auch nicht schon ab 74Mhz extra Abstürze.

Beim OC älterer Karten, die nicht den Verbrauch pro Konnektor überwachen, konnte man auch problemlos über 300 Watt über einen 6+2 PIN Stecker schieben.

Der PCIe-Standard ist einfach nur extrem konservativ ausgelegt, weil er theoretisch auch dünne 20 AWG Adern zulässt, obwohl kein ansatzweise brauchbares Netzteil sowas nutzt. Beim 8 PIN EPS stört es auch niemanden, über 4 statt 3 12V Adern mehrere hundert Watt durchzujagen.

Mit OC hat das gar nichts zu tun, der VRM-Bereich der Karte wird so oder so genau gleich versorgt, ob da in dem Adapter jetzt 2x 6+2 oder 1x 6+2 PIN drin steckt, spielt keine Rolle.
 
matty2580 schrieb:
Vergessen sollte man auch nicht, dass eine GTX 970 vor nicht so langer Zeit ~320€ gekostet hat, also viel weniger als die 3070 heute.

Es ist einfach nur ein Name XX70. Ist der Preis für dich plötzlich angemessener, wenn wir die Karte RTX 3080 LE nennen? Wenn man sich an Namensbezeichnungen und die damit verbundenen selbst geschaffenen Kategorien aufhängt, zahlt man am Ende nur drauf. Für 320 € bekommst du aktuell knapp eine RX 5700. Das ist alles andere als ein direkter Konkurrent.

Fazit: Für vorgesehene 500 € bekommst du irgendeine Karte ABC, die X % schneller und Y % teurer ist als das nächste Konkurrenzmodell - aber bis morgen kann man ja noch abwarten.
 
foo_1337 schrieb:
Der Unterschied ist halt, dass RT ohne DLSS, insbesondere bei höheren Auflösungen, kein Spaß machen wird. Und das ist eben der Knackpunkt bei AMD.
...das heißt aber noch nicht, dass die Raytracing-Lösung bei AMD genau so viel Leistung frisst wie bei NV.
...aber auch nicht ob es besser/schlechter ausschaut.

Die AMD Lösung für Raytracing/DSSL ist für mich das spannendste am Release die Woche.
 
Che-Tah schrieb:
Die AMD Lösung für Raytracing/DSSL ist für mich das spannendste am Release die Woche.
AMD Grafikkarten bieten kein DLSS.
 
Ich frage mich warum so auf DLSS rumgeritten wird. DirectX Ultimate bietet alle nötigen Werkzeuge um ein effektives Upscaling ohne Tensor-Cores ermöglichen zu können. Und es wird auch eine von DirectX unabhängige Lösung kommen. Die neuen Konsolen bieten schließlich eine Rohleistung des Grafikchips von maximal 12TFLOP und sollen auf Jahre hin 4K-TVs bespielen.
 
Danke für den tollen Test!
Insgesamt sicherlich eine interessante GPU, als potenzieller Nachfolger für meine GTX 1080 in WQHD.
Aber erst mal abwarten was AMD so treibt. :-)
 
@NguyenV3:
Nein, es zeigt dass Nvidia den Preis heftig nach Oben gezogen hat, und AMD sich mit Navi bisher einfach angepasst hat.

Bei deiner Argumentation würde Technik immer teurer werden, und der Endkunde partizipiert nicht am technischen Fortschritt.

Abgesehen davon sieht man ja gut an den Margen, Gewinnen, und Umsatz von Nvidia, wo dass Geld der Endkunden bleibt. Nvidia kann das auch nur machen, weil sie über 80% des weltweiten Marktes an dGPUs halten können seit vielen Jahren.

So ein Oligopol hat schon seine Vorteile. ^^
 
Zuletzt bearbeitet von einem Moderator:
Schöner Test, danke dafür :)
Witziger Zufall, eben hab ich die Versandbestätigung für meine RTX 3080 bekommen freu :)

vg Chris
 
  • Gefällt mir
Reaktionen: foo_1337
J3rs3y schrieb:
Danke für den tollen Test!
Insgesamt sicherlich eine interessante GPU, als potenzieller Nachfolger für meine GTX 1080 in WQHD.
Aber erst mal abwarten was AMD so treibt. :-)

Ich würde sagen das Upgrade lohnt sich ! ;)

Um fast 100% schneller, da kann man nicht meckern.

Screenshot_2020-10-27 Nvidia GeForce RTX 3070 im Test Taktraten, Benchmarks in Full HD, WQHD, ...png
 
  • Gefällt mir
Reaktionen: J3rs3y
sialickiz schrieb:
Man würde praktisch alle GPU´s obsolet machen (5700XT , 2070S usw,) und das kann sich kein Spieleentwickler leisten.
Wieso? Es gibt doch noch den "instant optimize Slider" mit dem man das Spiel in 0,nix auf VRAM-Krüppel optimieren kann. Einfach die Texturen runterstellen Richtung "Minecraft-Emulator" und schon läufts ;-)
 
HerrRossi schrieb:
AMD Grafikkarten bieten kein DLSS.
Willst du darauf hinaus, dass DLSS die NV Bezeichnung für KI Upsamling ist, oder darauf, dass AMD kein KI Upsampling bieten wird?
...je nachdem wieviel Leistung AMD-Raytracing fressen wird werden sie um eine KI Upsamling Lösung nicht herumkommen.
 
Die Karte ist viel zu teuer mit ihren 8 GigabyteCHEN 🤣
Kauft lieber die 3080 :evillol:
 
Zurück
Oben