Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP

  • Gefällt mir
Reaktionen: hongkongfui, Wanderwisser, Toprallog und 5 andere
foo_1337 schrieb:
Nein, wird es nicht. Dann wird DLSS über eben diese API angesprochen, so wie es auch bei RT und DXR ist. Langsam nervt es, seit Tagen versuchst du mit Dingen, die du offensichtlich nicht verstehst, zu argumentieren. Eine API alleine hilft nicht.

offensichtlich verstehst du nicht auf was ich hinaus will 🤷🏻‍♂️ aber hauptsache gleich mal wieder untergrffig werden 🙄

dann nicht per über closed source integriert wird sondern über die API wie du schon gesagt hast auf das wollte ich raus ;-) dann wird es eine schnitstellennamen haben DLSS ansich wird dann kein „alleinstellungsmerkmal“ mehr wenn das nicht passiert wird es irgendwann verschwinden und dafür gibt es schon genug andere Lösungen von Nvidia die zu grabe getragen wurden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wirklich eine tolle "runde" Karte zu einem endlich mal wieder guten Preis. Effizienz auch gut und wiegt auch keine 1,5kilo...

Morgen werden wir dann wissen, ob wir dies alles AMD zu verdanken haben weil deren Karten schnell und günstig sind, oder ob NVIDIA die Konkurrenz einfach endgültig begraben will. Super spannende Zeit gerade!
 
  • Gefällt mir
Reaktionen: Haffke
  • Gefällt mir
Reaktionen: Mcr-King
Ja, dann hast du eine API. Und dann? Die Api wird dann vom Developer Konsumiert. Aber irgendwo muss auch das Backend dieser API sein. Und im Nvidia Case wird dies eben DLSS sein. Wieso sollte DLSS verschwinden, wenn es eine generische API gibt?
Verschwanden denn die RT Cores, als DXR kam?


GerryB schrieb:
AMD soll wohl erst später (Dez/Jan) irgendwas bringen.
... sagt ein Youtuber...
 
Tolle Karte ohne Frage. Bei Tripple A Titeln wie Cyberpunk einfach DLSS und Raytracing aktivieren und schon ist das Ram kein Problem mehr. Und für nicht Tripple A Titel reicht die Karte sowieso locker aus.
 
  • Gefällt mir
Reaktionen: foo_1337
Der Nachbar schrieb:
Ein AMD Encoder auf nvidia Niveau wäre auch eine deutliche Verbesserung.
Fully signed! Dies wäre mir auch sehr, sehr wichtig.
 
zonq schrieb:
Ja, bei der 3080 mach ich mir da garkeine Hoffnungen mehr. Sollte ich mir eine 3080 kaufen, werd ich mir auch ein neues NT holen. Die Frage bezog sich jetzt eher auf die 3070 und ob für diese mein 500W NT weiterhin reicht :) Oder hat Igor da auch schon Tests dazu?
Jo, wird reichen. Beim Gaming werden wohl maximal 350-360~ Watt etwa aus der Wand gezogen.
Mit nem guten 500w Netzteil würde ich da kein neues kaufen, völlig unnötig. Selbst ne 3080 würde ich noch damit betreiben, allerdings würde ich diese dann eher spürbar undervolten. Aber das würde ich eh immer
 
Wolfgang schrieb:
Preise im Vergleich

Nvidia hat für die GeForce RTX 3070 FE einen UVP von 499 Euro angesetzt. Das liegt 140 Euro unter dem Preis, der ursprünglich für die GeForce RTX 2070 Super aufgerufen wurde, und immer noch 30 Euro unter dem UVP der GeForce RTX 2070 von Ende 2018.
wenn man die preisangaben des texts ausrechnet, unterscheiden sie sich von den angaben der tabelle im artikel. sie stimmen auch nicht mit den UVP angaben vom testartikel der 2070 Super vom 2.7.19 überein.

ModellUVP TextUVP TabelleUVP 2019
RTX 2070 Super FE639 Euro529 Euro529 Euro
RTX 2070 FE529 Euro629 Euro639 Euro
RTX 3070 FE499 Euro499 Euro-
 
  • Gefällt mir
Reaktionen: Obvision
@Benji18 man wird sehen, wie das umgesetzt wird. Bei DLSS läuft das Training des neuronalen Netzes über Nvidias Supercomputer. Wer übernimmt das Training dann mit DirectML und was wird das kosten? Sind die Spielehersteller bereit, diese Kosten zu tragen? Ich kann mir vorstellen, dass sie für das DLSS-Training nichts zahlen müssen, weil Nvidia dann damit werben kann.
 
  • Gefällt mir
Reaktionen: foo_1337
Darkseth88 schrieb:
Ich kann z.B. Grafiksettings nutzen, um nicht auf 30 oder 60 fps beschränkt zu sein. Oder um für mich selbst nen Sweet spot zu haben zwischen Grafikqualität und fps.

Eben,ausser mehr FPS sehe ich in Bezug auf Gaming jetzt keinen grossen Vorteil bei der 3070,dafür aber Vieles was für die Konsole spricht,wie z.B. dass alles garantiert bis zur nächsten Gen in akzeptabler Qualität laufen wird etc...
 
HerrRossi schrieb:
1% schneller ist schon "zerreißen" :confused_alt:

Von zerreißen kann man wie ich finde erst ab 60% sprechen.

...muss weg, melde mich morgen noch mal wieder wenn es die Zeit zulässt.

Vorrausage :
AMD wird mit RDNA2 "sehr" überzeugen ! :schluck:
 
Moep89 schrieb:
Ohne OC dürften 500W reichen, aber unter absoluter Volllast ist es dann auch gut ausgelastet.

Mich würde brennend UV bei der 3070 interessieren. Da die GPU ja anscheinend auch am Limit läuft, dürfte da in Sachen Effizienz noch einiges gehen wenn man den Takt nur minimal senkt und dann die Spannung weitestmöglich runterzieht.
Darkseth88 schrieb:
Da geh ich mit. Gerne auch mit etwas stärkerem UV.
Beispielsweise, mal auf 0,800 Volt, oder 0,850 Volt etwa, und Takt eben das, was damit stabil läuft.
Anscheinend ist der GA104 etwas besser in der Qualität als der GA102.
Daher würde ich mich an den 3090ern orientieren. Dort gibts sehr gute UVing-Erfahrungen:
[Sammelthread] - Nvidia Ampere [Sammelthread] | Seite 171 | Hardwareluxx
 
  • Gefällt mir
Reaktionen: Darkseth88
Watchdogs Legion mit ner 3090.... yeah, 30fps ohne mit RT DLSS. AMD you'll rock that shit :D

DLSS verdoppelt halt einfach mal auf geschmeidige 60-70fps. Und mit DLSS Quality sind es immer noch 50fps.
 
Tornavida schrieb:
Eben,ausser mehr FPS sehe ich in Bezug auf Gaming jetzt keinen grossen Vorteil bei der 3070,dafür aber Vieles was für die Konsole spricht,wie z.B. dass alles garantiert bis zur nächsten Gen in akzeptabler Qualität laufen wird etc...
Für Konsolen sprechen aber nicht die 69 Euro pro Spiel die bei manchen Publishern doch auf 79 Euro zu Release erhöht werden und die Abo gebühr nur um Online spielen zu können. Und die können sich 4k schenken wenn es nur auf 30 FPS läuft. Ich finde Konsolen sind dafür gemacht um die Benutzer zu melken.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: McFritte und calippo
cypeak schrieb:
rein vom verbrauch her dürfte ein 500w nt reichen - ABER die 3080 zieht in der spitze weit mehr leistung, so dass ich nicht mit einem stabilen betrieb rechen würde.
igor von igorslab hat dazu einiges veröffentlicht (und auch gemessen und dokumentiert), so dass ich seine aussagen für wesentlich belastbarer halte, als die meinungen von usern der marke "ohne oc wird es schon gehen.."...
Igor sagt 350W für Peaks. --> Gesamt wohl eher 550W-NT dann safe für die GPU@Stock.(je nach CPU)
Man darf net vergessen, das high FPS in WQHD mehr W gesamt ziehen als 4k60fps, weil die CPU mehr ackern muss.
 
  • Gefällt mir
Reaktionen: Blade0479
Planänderung, statt 3080 gibts jetzt ne 3070. Aber die Liefersituation wird doch genauso mies sein.
 
Vielen Dank für den Test. Ich bin gespannt, wie es um die Verfügbarkeit stehen wird.

Für mich selber aber ist sie nichts, da wird es wohl die 3090 FTW3.
 
Zurück
Oben