Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Korrekt, die Grafik wird immer besser und die Hardwareanforderungen steigen also sinken die FPS
denn leider bleibt die Leistung deiner jetzigen Grafikkarte gleich also musst du später zwangsläufig
von Ultra Abstand nehmen, es sei denn du willst mit 30 FPS rumruckeln und schon reicht der VRam.

PS: FHD 2 Millionen Pixel hat nur wenig mit WQHD 3,7 Millionen oder UHD 8 Millionen Pixel zu tun.
 
Wenn du dann aber nur wegen dem VRAM runterschalten musst, aber ansonsten die Grafikkarte genug power hat, wäre das eben ein Knackpunkt.
 
Hätte, wäre, wenn ... war es denn in der Vergangenheit jemals so ? Selbst bei der ach so schlechten
GTX970 mit nur "echten" 3,5GB hatte es gereicht weil die GPU nicht mal den Umbruch von Full HD
auf WQHD mit brauchbaren Frameraten geschafft hat. Jetzt bei WQHD auf UHD das gleiche Spiel.
 
Auf welchen Qualitäts-Einstellung war Raytracing in den Spielebenchmarks jeweils aktiviert? Konnte das nirgends erwähnt finden.
 
  • Gefällt mir
Reaktionen: whippersnapper
Und falls sich jemand fragt, ob sein Ryzen 5 3600 gepaart mit 3080-er limitieren wird...Hier die Antwort
 
Die Grafikkarte gibt es nun seit 3 Monaten... und nach wie vor nicht lieferbar.

Was denkt sich eigentlich ein Hersteller, wenn er sowas auf den Markt bringt?
 
  • Gefällt mir
Reaktionen: ALDeeN1982
Magl schrieb:
Was denkt sich eigentlich ein Hersteller, wenn er sowas auf den Markt bringt?
Die Alternative wäre: Die Karte wäre noch nicht auf dem Markt, sondern nur in den Lagern auf den Verkaufsstart wartend. Und das kann sich kein Hersteller leisten
 
  • Gefällt mir
Reaktionen: Asghan
So, wie im 5000er Ryzen CPU Thread zugesagt, auch hier falls es jemanden interessiert.
Benches meiner 1080 in CUDA und OptiX aus dem Blender Benchmark, sowie meine neue 3080 mit Stock PT (320W) und 80% PT (~270W)

Zuerst die 1080:
CUDA:
Blender_Benchmark_GPU_CUDA_1080_2.90.jpg


OptiX:
Blender_Benchmark_GPU_Optix_1080_2.90.jpg



Und die 3080 Stock:
CUDA:
Blender_Benchmark_GPU_CUDA_3080_320W_2.90.jpg


OptiX:
Blender_Benchmark_GPU_Optix_3080_320W_2.90.jpg


Und mit 80% PT:
CUDA:
Blender_Benchmark_GPU_CUDA_3080_270W_2.90.jpg


OptiX:
Blender_Benchmark_GPU_Optix_3080_270W_2.90.jpg



Der Performanceunterschied ist minimal und das bei knapp 50W weniger Verbrauch. Von Temperaturen und den nicht hörbaren GPU Lüftern ganz abgesehen
 
  • Gefällt mir
Reaktionen: Thorque
VelleX schrieb:
Da ist es kein Wunder wenn die Lüfter so aufheulen wenn die Speicher Temperatur so hoch ist.

Es handelt sich um die Referenzkarte aus der Signatur? Hat Igor auch schon als Ranzkarte geoutet! Da hilft WL-Pad zwischen Speicherrückseite und Backplate zu verbauen.

Das erinnert mich aber an den Defekt meiner Gainward 2080GLH, die bei ~73°C GPU die Lüfter auf 3500 1/min gestellt hat. Nur hat die anscheinend keinen per HW-Info auslesbaren Sensor am Speicher, zumindest die 2080S hat da keinen.
 
  • Gefällt mir
Reaktionen: Asghan
Banger schrieb:
Nur hat die anscheinend keinen per HW-Info auslesbaren Sensor am Speicher, zumindest die 2080S hat da keinen.
Das geht auch erst seit der neuesten HWInfo version.
Der GDDR6X soll halt echt heiß werden. Hab das Video von Igor schon gesehen. Ist halt nervig wenn eben GPU Temperatur ok ist, und Lüfter nur wegen Speicher so hochdrehen.
 
Ich würde da ein Pad verbauen. Referenz gegen ein vernünftig Speicher-gekühltes Partnerdesign zu tauschen ist wohl eher nicht drin bei der Nichtverfügbarkeit von Karten.

Eigentlich ist das schon peinlich und Grund genug, keine Referenz zu kaufen, aber wenn man halt keine andere bekommt, muss man dann die doch nehmen, wenn ausgerechnet nur da ein Exemplar unter kommt. Bei Nvidia kennt man sich doch mit Fehltritten schon aus, wenn man an die Speicheranbindung der 970 denkt.
 
Zuletzt bearbeitet:
Wenn die RTX 4080 wirklich ein TGP von 450 Watt hat, dann wären das 40 % mehr als bei der RTX 3080, die 320 Watt hatte. Da aber gleichermaßen mit jeder Generation ja auch die Effizienz pro Watt gesteigert wird, würde ich nicht weniger als eine Leistungssteigerung von mindestens 80 % erwarten. Aber wir wissen doch alle, dass es so nicht kommen wird. Meistens gibt es nur ein Leistungsplus von 40 bis 50 % zur nächsthöheren Generation. Sollte es wieder so kommen, wäre die neue Generation eine kleine Mogelpackung.
 
Aktuell geht man eher von 650W aus, das nur nebenbei.

Edit: du hast ja 4080 geschrieben, somit eher 450W.
 
  • Gefällt mir
Reaktionen: Mcr-King
Naja stört mich schon aber wenn die Effizienz stark steigen sollte, nur noch halb so schlimm, außerdem wird die eh wieder mit extremen UV betrieben, wie meine 3090 zurzeit.
 
  • Gefällt mir
Reaktionen: Mcr-King
irgendwann muss man dann die Karte so weit einbremsen mit UV das sie so schnell ist wie die vorherige Gen xD
 
  • Gefällt mir
Reaktionen: Mcr-King, Novocain und Tornavida
Darken00 schrieb:
Wenn die RTX 4080 wirklich ein TGP von 450 Watt hat, dann wären das 40 % mehr als bei der RTX 3080, die 320 Watt hatte. Da aber gleichermaßen mit jeder Generation ja auch die Effizienz pro Watt gesteigert wird, würde ich nicht weniger als eine Leistungssteigerung von mindestens 80 % erwarten. Aber wir wissen doch alle, dass es so nicht kommen wird. Meistens gibt es nur ein Leistungsplus von 40 bis 50 % zur nächsthöheren Generation. Sollte es wieder so kommen, wäre die neue Generation eine kleine Mogelpackung.
RTX 4080 450 Watt
RTX 4090 550 Watt
Das sind die TDP Angaben, die von Tests nachgewiesen, schon bei RTX 3080 bis 50 % in Spitzen übertroffen werden.
Drum ist bei RTX 3080 mit 320 ein 700 Watt Netzteil Pflicht.
Bei 4080 sollte es schon 1000 Watt sein.
Nvidias Empfehlungen sind noch höher.

Schon mit meiner Vega56 UV die bei ca 200 Watt liegt wird es im Gaming nach 1 Stunde warm unter dem Tisch.
Wie soll es da erst mit 500 Watt werden? Darf wohl nur noch ohne Socken zocken...

So wird nVidia mich nicht als Käufer gewinnen. Ich wünschte alle Gamer würden es so sehen.
 
  • Gefällt mir
Reaktionen: Ernie75, Mcr-King, Czk666 und eine weitere Person
@LencoX2 deine Vega is 500€ wert, noch...
 
  • Gefällt mir
Reaktionen: Mcr-King
Bekommen die Netzteile beide Stromanschlussstandards? Weil irgendwann möchte ich mir dann doch mal eine neue Grafikkarte holen. Aber für den Fall, falls die fefekt geht, soll auch meine Notfallkarte benutzbar bleiben, die den alten Standard hat. Andernfalls müsste man noch das alte Netzteil behalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@LencoX2
Mh habe 3080 tis mit meinem alten Corsair rm650x verwendet. Problemlos.

Wenn du nicht gerade cinebench r23 + Furmark parallel laufen lässt, erreichst du auch keine Gesamtsystemlast von 650w.

Die Graka liegt dann bei max. 350 und die CPU dümpelt in Games bei 80-150w je nach Modell rum. Und das restliche System bedient sich mit weniger.

Will nicht sagen, dass man sich 650w kaufen soll.

Aber 850w sollten schon noch paar Jahre reichen.
 
Zurück
Oben