Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP

Mit etwas UV und OC sollte die Karte mit ca. 200 Watt und knapp 2000MHz GPU betrieben werden können. Schöne Karte mit schöner Performance. Dann brauch ich wenigstens kein neues Netzteil.

@GerryB also 550W Netzeil für ne Stock 3080 ist schon mega riskant. Evtl. für ne undervoltete mit undervolteter CPU.
 
foo_1337 schrieb:
Ja, dann hast du eine API. Und dann? Die Api wird dann vom Developer Konsumiert.

... sagt ein Youtuber...
Warum?
Hoffentlich kann AMD etwas umsetzen, was NV nur für DLSS 3.0 lt YTern evtl. irgendwann mal versprochen hat.
Es gibt hoffentlich genug freie AC-Power, um unabhängig vom Dev einen Upscaler in den Treiber zu integrieren.
 
  • Gefällt mir
Reaktionen: Benji18
  • Gefällt mir
Reaktionen: Solavidos und Benji18
HessenAyatollah schrieb:
wird die Karte wirklich ausreichend vorhanden sein zum Start? Ich hoffe es, wollte meinem Sohn eine zum Birthday kaufen.
Ampere Launch.png


Bei der 3080 gab es ja auch eine böse Überraschung. Wenn du unbedingt sofort eine 3070 kaufen willst, dann solltest du beim Launch übermorgen schon auf die Sekunde bereit sein um zuzuschlagen, bevor die auch ausverkauft ist.

Aber morgen stellt ja erstmal AMD seine neuen Grafikkarten vor, vielleicht willst du dann gar keine RTX mehr...
 
  • Gefällt mir
Reaktionen: konkretor und Mcr-King
CR4NK schrieb:
@GerryB also 550W Netzeil für ne Stock 3080 ist schon mega riskant. Evtl. für ne undervoltete mit undervolteter CPU.
Igor meinte ja auch die 3070.
Beim pcgh-forum gibts aber nen User mit Ryzen 3600 der seine 3080 stark UVtet hat,
mit 550W-NT.(ca. 800..825mV sollten dann passen, Takt je nach Chipgüte)
Je stärker man UVtet umso näher kommt man in den interessanten Bereich, wo der Chip net mehr das PL ausschöpft.
Das manche 3090er mit 0,85V immer noch die 350W nehmen, je nach Game@4k@Rt ist natürlich ein Zeichen
das Kurven bis 1,081V eigentlich sinnlos sind.(gehen eh nur unter Teillast; siehe CTD-Diskussion)

edit: deady@3080 hat mal seine W in HEAVEN notiert
NVIDIA Ampere Laberthread | Seite 21 | Die Hardware-Community für PC-Spieler - PCGH Extreme
(abzgl. 2..3x 15MHz für härtere Games@RT kann man sich mal so orientieren)
Das UVen von YTern würde ich net ernst nehmen, da meist nur ein light Game, sprich net worst Case
hinsichtlich Stabilität.

btw.
Beim AB ist übrigens ne Diskrepanz zw. warmer und kalter Kurve von 15MHz aufgefallen.
Also da net wundern wenn die warme Kurve nach nem kalten Start auf einmal 15MHz höher liegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
GerryB schrieb:
Warum?
Hoffentlich kann AMD etwas umsetzen, was NV nur für DLSS 3.0 lt YTern evtl. irgendwann mal versprochen hat.
Es gibt hoffentlich genug freie AC-Power, um unabhängig vom Dev einen Upscaler in den Treiber zu integrieren.
Ein x-beliebiger Upscaler ist kein Problem. Es geht aber um Upsampling und das wird nicht möglich sein.
 
Apple ][ schrieb:
Wir werden sehen ... Wenn AMD mit ihren Preisen gleichauf oder sogar darunter liegt, muss Nvidia nachziehen bzw korrigieren.
Mussten die noch nie bei ähnlicher Leistung zieht der Nvidia Bonus 7970, 290x hatten alle mehr Speicher ähnlichen besseren Preis als auch Leistung, man kann aber auch sagen viele haben den Strom mitgerechnet 😉
 
HerrRossi schrieb:
@Benji18 man wird sehen, wie das umgesetzt wird. Bei DLSS läuft das Training des neuronalen Netzes über Nvidias Supercomputer. Wer übernimmt das Training dann mit DirectML und was wird das kosten? Sind die Spielehersteller bereit, diese Kosten zu tragen? Ich kann mir vorstellen, dass sie für das DLSS-Training nichts zahlen müssen, weil Nvidia dann damit werben kann.

ich sag nur das in den Markt drücken von closed source hat in der vergangenheit nicht funktioniert und wird auch absehbar jetzt nicht klappen stand jetzt 9 spiele für DLSS 2.0 das ist kaum relevant. Wenn AMD eine Lösung findet die einfacher ist ähnliche Ergebnisse erzielt und dabei über eine open API ansteuerbar ist wird das über kurz pd. lange DLSS aus dem Markt drücken siehe Freesync als bsp.

Als kunde kann man mit so einen gebaren nur verlieren 🤷🏻‍♂️ was daran nicht zu verstehen ist erschließt sich mir nicht.
Ergänzung ()

GerryB schrieb:
Warum?
Hoffentlich kann AMD etwas umsetzen, was NV nur für DLSS 3.0 lt YTern evtl. irgendwann mal versprochen hat.
Es gibt hoffentlich genug freie AC-Power, um unabhängig vom Dev einen Upscaler in den Treiber zu integrieren.

MS mit Azure kann das locker bewerkstelligen als bsp.
 
  • Gefällt mir
Reaktionen: Tornavida und Mcr-King
9?

Cyberpunk 2077
Call of Duty: Black ops – Cold War
Fortnite
Death Stranding
F1 2020
Minecraft
Bright Memory
Mechwarrior V: Mercenaries
Deliver Us The Moon
Control
Wolfenstein : Youngblood
Anthem
Metro Exodus
Battlefield V
Shadow of the Tomb Raider
Final Fantasy XV
Monster Hunter: World

Dazu dann noch vor einigen Tagen für die nächsten Wochen announced:
Ghostrunner
Pumpkin Jack
Xuan-Yuan Sword VII
Enlisted
Ready or Not

Und gestern wurde noch das remastered War Thunder angekündigt. DLSS 2.0 gibt es seit Ende März 2020. Ja, scheint ein echter Rohrkrepierer zu sein.
 
sialickiz schrieb:
Für die Leistung die diese GPU bietet ist das schon beachtlich.

50Watt weniger als die gleichstarke RTX2080Ti

Finde das ehrlich gesagt nicht so außergewöhnlich. Schließlich wird die 3070 ja auch in einer neuern Node gefertigt und hat ein schmaleres Speicherinterface an dem weniger VRAM hängt als bei der 2080ti.

Nur im Vergleich zur 3080 sieht die Effizienzsteigerung gut aus. Liegt aber auch eher daran, das die 3080 kaum effizienter als die Turing Karten ist.
 
  • Gefällt mir
Reaktionen: Obvision
foo_1337 schrieb:
Ein x-beliebiger Upscaler ist kein Problem. Es geht aber um Upsampling und das wird nicht möglich sein.

ja klar nur weil es jetzt nur DLSS gibt ist es unmöglich eine ähnlich Lösung zu bieten? Tellerand? was erwartest du eigentlich das MS, Sony, AMD nicht in der Lange sind eine alternative zu bieten die vielleicht besser ist (weil weniger Aufwändig bei näheren ergebnissen)? Weil man closed source so cool findet? Eine einheitliche Schnittstelle muss her damit es auch weiter verbreitet wird ansonsten wird der Markt nur gespalten und das kann man nicht wollen ....

Außer man ist ein FANBOY
 
  • Gefällt mir
Reaktionen: Solavidos und daknoll
Benji18 schrieb:
ja klar nur weil es jetzt nur DLSS gibt ist es unmöglich eine ähnlich Lösung zu bieten? Tellerand? was erwartest du eigentlich das MS, Sony, AMD nicht in der Lange sind eine alternative zu bieten die vielleicht besser ist (weil weniger Aufwändig bei näheren ergebnissen)?
Sony wird demnächst eine eigene Alternative veröffentlichen (closed und nicht von den anderen mitverwendbar). Und was du als open-source bezeichnest ist nichts als eine API und hat mit open-source sowieso nichts zu tun. Jeder Linux User wird dich wegen DirectX Lobhudeleien auslachen. DLSS können letztere übrigens nutzen im Gegensatz zu DirectX. Soviel zum Thema "open".
 
  • Gefällt mir
Reaktionen: ZeroStrat
Benji18 schrieb:
Wenn AMD eine Lösung findet die einfacher ist ähnliche Ergebnisse erzielt und dabei über eine open API ansteuerbar ist ...
Diese API gibt es schon, heißt DirectML, damit hast du aber noch keinen DLSS-Konkurrenten. Der muss programmiert, implementiert und trainiert werden.
 
  • Gefällt mir
Reaktionen: foo_1337
foo_1337 schrieb:
DLSS verdoppelt halt einfach mal auf geschmeidige 60-70fps. Und mit DLSS Quality sind es immer noch 50fps.

Das DLSS in dem Video in den Einstellungen "Performance" und "Ultra Performance" kann man sich schenken. Das macht das 4K Erlebnis ja wieder sichtbar schlechter. Sieht an vielen Stellen sehr verwaschen aus.
Die Einstellung "Qualität" sieht hingegen ganz gut aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Solavidos
foo_1337 schrieb:
Ein x-beliebiger Upscaler ist kein Problem. Es geht aber um Upsampling und das wird nicht möglich sein.

Warum wer sagt sowas NV cool siehe PS4 PRO seht auch gut aus dafür dass es nur CPU basiert ist.

Bei der PS5 wird dass nochmal verbessert Sony schläft auch nicht. DSSL wird immer wie der heilige Kral dar gestellt ist er aber nicht grade im Low bis untere Mittelklasse wo es praktisch wäre ist es nicht Präsent (GTX16er)

Also die Brot und Butter GPUs von 100-250€ wau dann lieber PS5 die ist richtig klasse. ;)
 
  • Gefällt mir
Reaktionen: Benji18 und Tornavida
Sorry, mir fehlt da jedes Verständnis.

Auch wenn der Test sogar halbwegs neutral gehalten ist und immerhin Hinweise im Fazit eingestreut werden, ja werden mussten, ist mir das dennoch bei weitem zu wenig.

Kein hinterfragen warum Nvidia die Karten am Limit betreibt, auch noch der süffisante Hinweis das die Karte ja keine 1.000 Euro, sondern "nur" 500 Euro kosten wird. Quasi der Apple Move, nur dumm das es eigentlich krank ist für das Geld ein Smartphone oder eine Grafikkarte zu kaufen, wenn man für viel weniger bereits mehr als gute Geräte bekommt und selbst diese noch massiv überteuert sind.

Der VRAM ist hier der absoute Killer der Nvidia, sonst hätte ich sogar mal in den sauren Apfel gebissen und mir so eine Karte gekauft, da ich auf WQHD aufrüsten möchte, aber da schon morgen das AMD Event zu den Radeon ist gilt es das wirkich abzuwarten - aber auch so - bis Nivida wieder eine Super oder dergleichen mit mehr VRAM bringt und die Preise weiter sinken werde ich das Zeug nicht kaufen.

Übrigens bleibt hier abzuwarten ob mittelfristig nicht nur der zu geringe VRAM, sondern auch noch die lahmere Anbindung im Vergleich zu den Top Modellen ein großer Nachteil sein wird. Denn es ist entscheidend wie schnell der VRAM voll gemacht und geleert werden kann...

Solche Hersteller wie Nivida gehören eh nicht gefördert und seien wir mal ehrlich - es gibt fast keine nativen PC Games - solche Grafikkarten machen bereits kaum bis wenig Sinn. Nur schön das die Industrie das Marketing mit der Auflösung gefunden hat, dabei macht 4k Gaming und Co. überhaupt keinen Sinn.
Aber das muss man erst mal einem normalen Menschen erzählen das dafür nicht mal eine 500 Euro Karte (ist ja nur ein Teil des Computers) dafür überhaupt reicht ohne massiv Einstellungen zu reduzieren.
Mehr noch, selbst WQHD ist bereits bei Release nicht ohne Einschränkungen möglich mit RT und Ultra, wie ist das dann erst in einem Jahr oder noch später?

Sind sich hier manche überhaupt bewusst was für ein Geld verbrennen das ist?

Ich habe Geld ohne Ende und das ist bei mir nicht der Faktor, es geht ums Prinzip und weder RT, noch die Auflösungen hauen mich um und schon gar nicht hole ich mir eine Karte, die bereits jetzt SICHTBAR keine Zukunft besitzt.
 
  • Gefällt mir
Reaktionen: Solavidos, issenia, Arkada und 3 andere
DannyA4 schrieb:
Das DLSS in dem Video inden Einstellungen "Performance" und "Ultra Performance" kann man sich schenken. Das macht das 4K Erlebnis ja wieder sichtbar schlechter.
Die Einstellung "Qualität" sieht hingegen ganz gut aus.
Das ganze Spiel sieht leider nicht so geil aus, wie man es erwarten würde. Ubisoft halt ;)
Aber die RT sieht schon cool aus.
 
  • Gefällt mir
Reaktionen: DannyA4
schöne karte nur ob es die auch zu kaufen gibt 🤣
 
  • Gefällt mir
Reaktionen: Mcr-King
HerrRossi schrieb:
1% schneller ist schon "zerreißen" :confused_alt:

hab mir die benchmarks von igors lab angesehen. dort wird die 2080ti klar geschlagen...
 
  • Gefällt mir
Reaktionen: Solavidos und Mcr-King
foo_1337 schrieb:
Und gestern wurde noch das remastered War Thunder angekündigt. DLSS 2.0 gibt es seit Ende März 2020. Ja, scheint ein echter Rohrkrepierer zu sein.

Ja es macht die Game unnötig Teuer aufwendiger und alles verspätet sich siehe Cyber-Punk 2077 und DSSL gibt es seit Turing Punkt und dass sind über 2 Jahre egal ob es 2.0 1.0 oder wie auch immer heißt um Grunde immer dass selbe und wie viele RT und DSSL Games haben wir die beides nutzen bis jetzt. ;)
 
  • Gefällt mir
Reaktionen: Solavidos, Benji18, simosh und eine weitere Person
Zurück
Oben