Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP

Ein würdiger 2080Ti Nachfolger. Leider geizt NV mal wieder am Vram.
Für mich zu wenig und für alle anderen..., wer jetzt keinen weiteren Tag mehr warten kann, dem ist auch nicht zu helfen :mussweg: 😛
 
  • Gefällt mir
Reaktionen: fox40phil, Philanthrop, Ralle321 und eine weitere Person
Irgendwie kann ich die benchergenisse gar nicht nachvollziehen. Vergleicht man in den alten tests, beispielsweise die 1080 ti mit der 3090, ist der prozentuale unterschied in full hd 40 Prozent. Aber vergleicht man den Unterschied hier zwischen einer 1080 ti und der 3090, soll der unterschied bei satten 72% liegen.

Benötige Aufklärung.
 
Puh, ich seh ja jetzt erst den Stromanschluss... das geht ja gar nicht. Schöne gesleevte Kabel und dann so ein hässlichen Adapter dran, so dämlich platziert dass er mitten im Blickfeld liegt, und dann noch weit jenseits der Spezifikationen läuft? Sehr, sehr unschön. Da eh ein Wakü-Block drauf kommt nehme ich eigentlich am liebsten das Referenzdesign, da günstiger und garantiert kompatibel, aber das ist ein fetter Minuspunkt. Also muss man definitiv eine AIB kaufen und dann den Aufpreis mit einrechnen, wodurch man dann doch deutlich mehr zahlt. Puh, ich hoffe AMD liefert morgen.
 
Tolle Karte mit zeitgemäßem Verbrauch. Die größeren Karten sind mir zu heftig im Verbrauch und im Erscheinungsbild.
Zu dieser 8GB Thematik: bis auf wenige Ausnahmen wird der Speicherausbau länger ausreichen als bis neue Karten angekündigt werden. Das Speicherargument ist ja nicht neu und am Ende hat es sich für viele nicht wirklich gelohnt für die "Zukunft" zu investieren. Ist die Zukunft da, hat man wieder was Neues. ;-)
 
  • Gefällt mir
Reaktionen: Alex1966, Crax, psychotoxic und eine weitere Person
Nahrungsmittel schrieb:
Die 8GB bei der "billo" RX 570 haben aber auch nicht viel gebracht weil einfach die Rohleistung fehlt. Bis die 8GB mal knapp werden in FULL HD bei der RX 570 wird die aufgrund der geringen Rohleistung ganz andere Probleme haben als zu wenig Speicher.

Aber du hast schon Recht. Nvidia geht Recht sparsam damit um was den Speicherausbau betrifft. Die RTX 3070 hätte mindestens 10GB haben müssen. Dann wäre das eine feine Sache gewesen.
das stimmt doch garnicht
die 1060 mit 6gb hat in dem ein oder anderen titel probleme gemacht hatte selbst wärend die rx 580 (zumindest diese hatte ich) keine mikroruckler hatte
wurde aber in gewissen spielen von computerbase erwähnt
 
  • Gefällt mir
Reaktionen: ShiftyBro, Zwirbelkatz, eXe777 und eine weitere Person
Demnach wäre eine gebrauchte 2080Ti, sofern man sie für einen vergleichbaren Preis abstaubt, der bessere Deal.
 
  • Gefällt mir
Reaktionen: Floppes, dideldei, jdiv und 3 andere
Apple ][ schrieb:
Mit der neuen AMD Phalanx wird die 3070 dann doch nicht mehr so attraktiv sein. Preise am Markt werden dies dann regeln müssen.
Mein Spekulatius sagt Nvidia und andere Händler müssen da eigentlich nichts regeln. Da die Leistung der Karte der der Konkurrenz entspricht diese nur mehr Speicher haben wird. Diesen Aufpreis wird die breite Maße schon zahlen...
 
Bierliebhaber schrieb:
Die Auflösung lässt nicht automatisch auf den VRAM-Verbrauch schließen. Und deshalb ist viel VRAM != 4K eben völlig richtig.
Habe doch auch nicht das gegenteil gesagt? Denoch muss eine GPU mit 8GB doch nicht expliziet für 4k ausreichen? Steht das irgendwo geschrieben? Wem der Vram zuwenig ist kauft eine die mehr hat. Die 3070 ist trotz ihrer "nur" 8GB eine gute Karte für 499€. Wem die Leistung/Vram nicht reicht kauf eine 3080/3090/Bignavi.
 
nato44 schrieb:
Ich hab meine GTX 1070 Custom für effektiv 350€ nach Ebay-Aktion über Mediamarkt und anschließendem Verkauf des Gears 5 Codes bekommen.
Mehr sehe ich irgendwie nicht ein, für ein "70er" Modell zu bezahlen.
Dafür spiele ich einfach zu selten, als dass ich da einfach mal +200€/500€ für eine RTX 3070/3080 ausgeben kann (eher: will).
Heißt wohl wieder "abwarten". Einerseits auf AMD und die Benchmarks aller neuen GPUs mit Cyberpunk.
Würde mich auch interessieren!
 
Ben81 schrieb:
Wie schon oft gesagt spielen sehr wenige in 4k, und die 3070 wird ja auch nicht dafür Beworben. Also darf sie ruhig 8GB haben, wenn einen 8GB zuwenig sind geht auf die nächst größe ist doch ganz einfach. ;)
Und das wäre dann eine Karte mit 10GB...
Zum Glück hat AMD verstanden, dass das 2020 nicht mehr zeitgemäß ist. Wozu kauft man sich denn dann eine 500€+ Grafikkarte? Für fullhd reicht eine 5700xt für 350€ auch ...
 
  • Gefällt mir
Reaktionen: Aquilid und O.J. Minay
Die ideale Grafikkarte für den geneigten E-Sport Spieler, der nebenbei AAA-Titel in 1080p @ high details zocken möchte. Da reichen die 8 GB noch aus.
 
  • Gefällt mir
Reaktionen: aklaa
Nobbi56 schrieb:
Für 350 € bekommt man derzeit die preiswerteste 5700 XT. Du meinst also, nVidia sollte eine lt. CB um (bei WQHD) knapp 50% schnellere Karte für 0 % Aufpreis verkaufen :freak:

Ganz Unrecht hast du nicht, aber für 380€ bekomme ich laut Idealo auch eine brandneue GTX 780. Mit einer neuen Generation sollte sich das Preis/Leistungsverhältnis immer deutlich verbessern. Und 48% mehr Leistung für 43% mehr Geld ist kein besonders toller Fortschritt, wenn du mich fragst.
 
  • Gefällt mir
Reaktionen: ShiftyBro, Cpt.Willard, fox40phil und 7 andere
... Wie das Consumer-Flaggschiff nutzt auch die GeForce RTX 3070 die GPU aber nicht voll aus, denn physikalisch sind 48 SMs (6.144 ALUs) vorhanden.

Wahrscheinlich um eine bessere Ausbeute zu bekommen.
 
tvm15 schrieb:
Bin von den 8 GB VRAM echt enttäuscht, vor allem weil ich nebenbei noch Videorendering betreibe. Zum Spielen reicht sie natürlich aus, alles andere wird schwierig.
Wenn Du Videorendering betreiben willst, ist das wohl kaum Deine Preisklasse. :freak:
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und stevefrogs
Robby1234 schrieb:
Zum Glück hat AMD verstanden, dass das 2020 nicht mehr zeitgemäß ist. Wozu kauft man sich denn dann eine
Ja haben sie siehe Radeon VII 16GB die nach 6 Monaten (?) wieder EOL war. :daumen:
 
NVIDIA hätte mal drüber nachdenken sollen langsamere Karten rauszuhauen, dafür mit mehr VRAM. VRAM scheint ja neuerdings der Kaufgrund schlechthin zu sein - wen interessiert es schon wie schnell eine Karte ist :)
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, Alex1966, Blueline56 und 8 andere
rumpel01 schrieb:
Das ist dann wohl der berühmte Wink mit dem Zaunpfahl, oder mit allen Pfählen und Zäunen der Welt.
Und mit dem Kommentar von dir dazu winken nun wohl auch alle eventuellen Zäune im Rest des Multiversums mit :D
 
sethdiabolos schrieb:
Für Videorendering fällt der VRam aber nicht wirklich ins Gewicht. Oder meinst Du eher 3D-Rendering wie bei Blender?

Ja genau, unter anderem war damit auch Blender gemeint. "Videorendering" ist da vielleicht etwas zu allgemein formuliert. Mir ist schon klar, dass die Karten gar nicht für diesen Markt gedacht sind. Nur halt schade, wenn man genau das als Spieler nebenbei machen möchte.
 
Zurück
Oben