Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP

Willi-Fi schrieb:
AMDs 5000er und die 2080Ti sind kaum zu kaufen.

Die 5700 XT als einzige Karte im P/L-Diagramm ist doch problemlos zu kriegen oder was meinst du?
 
  • Gefällt mir
Reaktionen: MindofRafi, g0dy und O.J. Minay
Hallo @Wolfgang
wo ist der Test für Premiere Pro geblieben?
bei der 3080 und 3090 war er noch dabei klick

finde ich sehr sehr schade...
 
  • Gefällt mir
Reaktionen: Solavidos, fox40phil, KarlsruheArgus und 2 andere
Punktlandung, hat Jensen mal nicht zu viel versprochen im Gegensatz zur 3080 (performance twice as 2080)
 
  • Gefällt mir
Reaktionen: .Sentinel. und Esenel
ufopizza schrieb:
Also der Preis versalzt leider die Suppe. Bei 350 Euro wäre sie mMn dort wo sie hin gehört.

Für 350 € bekommt man derzeit die preiswerteste 5700 XT. Du meinst also, nVidia sollte eine lt. CB um (bei WQHD) knapp 50% schnellere Karte für 0 % Aufpreis verkaufen :freak:

Na, der Chef des Unternehmens, bei dem du später mal Finanzchef wirst, möchte ich nicht sein...:p

Und wenn du glauben/hoffen solltest, AMD würde morgen Karten, die auf RTX 3070/3080-Niveau liegen, für lau verscherbeln, wirst du morgen mächtig Trauer tragen! So, wie sie sich bei Zen 3 fein säuberlich am Konkurrenten Intel und dessen aktuellem P/L-Gefüge orientiert haben, werden sie es auch bei den Grafikkarten mit nVidia halten - alles andere wäre auch betriebswirtschaftlicher Schwachsinn (ein "Preiskrieg" nutzt KEINEM Hersteller und führt nur zu ruinösem Wettbewerb!)

LG N.
 
  • Gefällt mir
Reaktionen: or2k, Crax, Balikon und 21 andere
Hier wäre 2x 3070 im SLI gegen 1x 3090 spannend geworden, schade dass SLI nicht mehr möglich ist (oder irre ich mich?) zumal dann 16GB VRAM zur Verfügung stehen würden, wenn auch durch 2x 8GB
 
Ich hab meine GTX 1070 Custom zu Release für effektiv 350€ nach Ebay-Aktion über Mediamarkt und anschließendem Verkauf des Gears 5 Codes bekommen.
Mehr sehe ich irgendwie nicht ein, für ein "70er" Modell zu bezahlen.
Dafür spiele ich einfach zu selten, als dass ich da einfach mal +200€/500€ für eine RTX 3070/3080 ausgeben kann (eher: will).
Heißt wohl wieder "abwarten". Einerseits auf AMD und die Benchmarks aller neuen GPUs mit Cyberpunk.
 
Zuletzt bearbeitet:
Ich hab mir erst vor knapp 2 Jahren eine MSI 2070 gekauft die auch mit 225W angegeben ist (keine Super, Standard wären laut NVIDA bei 2070 nur 175W) und die kommt zwar mit x 8-pol Anschlüssen aber die meisten Netzteile haben ja nur das schöne Y-Kabel, d.h. auch hier werden mehr als 150W über ein Kabel geschickt und es wurde damals nie in den Tests erwähnt.

Ich weiß nicht, aber so richtig schmeckt mir die 3070 nicht. Der Leistungszuwachs ist mir zu gering. Mir kommt die Karte auch ungewöhnlich klein vor im Vergleich zu meiner 2070 (vorher 1070 genau so groß). Verbrauch ist wohl identisch zu jetzt, d.h. beim Zocken zieht mein NT 300W aus der Steckdose (ist ein 500W NT das ich nicht tauschen möchte). Die 3080 braucht 100W mehr und das würde ja angeblich mein Netzteil sprengen, bietet aber für (theoretisch) 200 Euro deutlich mehr Leistung und hat auch mehr VRAM. Also ich hätte zwar schon gerne mehr Leistung aber die 3070 lohnt sich einfach nicht wenn man von der 2070 kommt. Die 3080 ist dann schon wieder zu krass, dazwischen wäre echt noch Platz für eine 600 Euro Karte mit 10GB VRAM und 250-270W. Das würde mein Netzteil packen und wäre der Sweetspot. Naja vielleicht kann AMD das ja liefern, aber ich glaubs kaum. Muss ich halt weiter warten. Sehr ärgerlich.
 
Ben81 schrieb:
Wie schon oft gesagt spielen sehr wenige in 4k, und die 3070 wird ja auch nicht dafür Beworben. Also darf sie ruhig 8GB haben, wenn einen 8GB zuwenig sind geht auf die nächst größe ist doch ganz einfach. ;)


Aber er hat einfach Recht. Nicht nur mit 4K kann man mehr als 8GB gebrauchen. Wenn man seine Karte länger behalten will z.B. ist ehr nett. Mit maximalen Texturen wird man auch in geringeren Auflösungen die 8GB bald voll bekommen. Mit Mods erst Recht.
Die Auflösung lässt nicht automatisch auf den VRAM-Verbrauch schließen. Und deshalb ist viel VRAM != 4K eben völlig richtig.

Mir ist das, trotz 1080p, erstmal zu wenig VRAM. Ich will meine nächste Karte im Optimalfall wieder 5 Jahre+ nutzen, wie meine 290X, und da darf es gerne mehr sein. Falls AMD enttäuscht behalte ich die 3070 im Auge, ansonsten wird es definitiv Big Navi.
 
  • Gefällt mir
Reaktionen: schneeland, derSafran, MindofRafi und 4 andere
Also Ghost Recon Breakpoint 4k als schlimmster Fall, 0.2% Perzentil 18% weniger Leistung im Vergleich zur 2080TI, Durchschnitts FPS hingegen nur 6% weniger.

Ja, mehr Speicher wäre schön, aber ganz nüchtern, bei UWQHD brauchts weniger VRAM, bei WQHD noch weniger. Eine Speicherfresser Option auf Hoch statt Ultra setzen, und das Thema hat sich erledigt. Das Drama das darum gemacht wird ist viel zu groß.

Die 3070 hat 10-20% mehr Rohleistung als eine 2080 Super, die 8 GB oder später 10 GB Ti Version ist voll okay.
 
  • Gefällt mir
Reaktionen: Alex1966, Blueline56, RotesWeinLaub und 2 andere
Sinnvoll wäre eigentlich meiner Meinung nach gewesen

RTX 3090 24GB
RTX 3080 TI 16GB
RTX 3080 12GB
RTX 3070 10GB
RTX 3060 8GB
RTX 3050 6GB

Und fertig wäre ein übersichtliches und meiner Meinung nach sinnvolles Line Up.
 
  • Gefällt mir
Reaktionen: Crankson, Joshua2go, BurgbachJ und 29 andere
Hmm für 499€ schon mal keine schlechte Karte, in Anbetracht der Tatsache was man bis vor einigen Tagen noch für eine 2080s zahlen sollte....

Status jetzt ... keine crap mehr für 450€+ kaufen, sondern diese.

Da bin ich ja jetzt gespannt auf morgen :D :D :D ...

Was für ein Hardware (lese) - fest... denn so wie es bisher läuft bekommt man nur mit viel Aufwand die echte Hardware... :/


Confidential schrieb:
Hier wäre 2x 3070 im SLI gegen 1x 3090 spannend geworden, schade dass SLI nicht mehr möglich ist (oder irre ich mich?) zumal dann 16GB VRAM zur Verfügung stehen würden, wenn auch durch 2x 8GB
Bringt doch nix, mit der Power will man dann 4k Ultra, woran verkackt man dann? Richtig an den 8GB pro Karte, denn einfach den Speicher verdoppeln funktioniert, soweit ich mich erinnern kann, nicht bei SLI...

Von der ganzen Microrucklersch... wollen wir gar nicht reden :freak:
 
  • Gefällt mir
Reaktionen: Wow4ikRU und DannyA4
Scheint eine gute Karte zu sein, setzt sich ja förmlich ab von dem Elektroschrott den die 3000er Serie sonst so bietet bis jetzt.
 
Danke für den Test!
bei meiner GPU 1070 ist die einfach am Limit, obwohl genug VRAM da ist. Finde 3070 ist sehr gelungen als Full HD Karte ist die GPU schnell genug für aktuelle Titel. Kritikpunkt ist nur Energieverbrauch, aber was solls ist eine GÜNSTIGE 2080Ti Leistung satt :D:):daumen: Als 2080Ti User muss man sich damit abfinden ;)
 
  • Gefällt mir
Reaktionen: Cohen
maxik schrieb:
Ich kann es nur wiederholen. Die Positionierung des Stromanschlusses ist Sowas von sch...schlecht. Wurde denn mal gesagt warum dieser mittig an der Front zu finden ist und nicht rechts richtung Vorderseite? In Zeiten von modularen Kabel und ordentlichen Kabelführungen ist dieses Design ja eine Katastrophe!
Rechts geht nicht, Luefter im Weg und kein PCB mehr um die Buchsen automatisiert zu loeten. Hoechstens ganz links (Einbaulage).
 
Liebe @Redaktion

Könnt ihr bitte noch die Effizienz bei einem Powertarget von 95/90/85% messen?

Mich würde interessieren ob man bei 85% auf 180 Watt kommt und maximal 10% Leistung verliert.
 
  • Gefällt mir
Reaktionen: fox40phil, Cohen, Veitograf und 4 andere
Ich weiß gar nicht, was ihr alle habt, ich würde die sehr gerne nehmen. Für die 1, 2 Spiele, die nicht mit 8GB perfekt laufen...

Mein Problem ist einzig der Preis und die (für mich) hohen 220W Verbrauch. Da warte ich noch auf eine 3060 (non-TI), eine 3050 oder auf die AMD-Karten :)

Aber Hut ab über die Leistung, so gut hätte ich sie gar nicht eingeschätzt. Insbesondere in der W/L ist sie sehr überzeugend. Man sieht, dass es Sinn macht, unterschiedliche GPU Chips zu entwickeln für die unterschiedlichen Leistungsstufen, anstatt alles zu beschneiden :)
 
Nahrungsmittel schrieb:
Die RTX 3070 hätte mindestens 10GB haben müssen.

Die möglichen/sinnvollen VRAM-Größen hängen von der Breite des Speicherinterfaces ab. Durch die 256Bit der GA104-GPU ergeben sich Schritte von 4, 8, 16 GB usw.
Für 10GB bräuchte es ein 320Bit-SI. Sowas wäre also wohl nur mit einer beschnittenen GA102-GPU möglich, eventuell als "3070Ti".

Oder Nvidia müsste wieder auf solche Tricks zurückgreifen, wie Teile des VRAMs langsamer anzubinden. (GTX 970)
 
  • Gefällt mir
Reaktionen: Crankson, fox40phil, Vitche und 6 andere
Also die Karte ist prinzipiell für FullHD/WQHD interessant, schade eigentlich, weil die Leistung auch für UWQHD und sogar UHD teilweise massig reicht, nur leider macht dann der VRAM einen Strich durch die Rechnung, siehe Ghost Recon, Avengers, Horizon und co. und das werden sicher im Laufe der nächsten Jahre immer mehr Spiele, bei denen 8 GB sehr sehr knapp werden.
 
  • Gefällt mir
Reaktionen: O.J. Minay
Zurück
Oben