Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Wie ist die Leistungsaufnahme des gesamten Systems? da wurde nur die einfache Leistung der Grafikkarte gemessen.

Die würde bei euren System doch die 700 Watt ankratzen?
 
sialickiz schrieb:
Niemand hat NV gezwungen die karte mit dem Speicherinterface zu veröffentlichen bzw. zu bauen.

...wäre AMD stärker hätte die GPU sicherlich mehr als 8GB oder bist du da anderer Meinung ? Du wahrscheinlich ja.

Sicher, sie hätten dafür das Speicherinterface auch auf 256 Bit zusammenstauchen können um den Chip ins Bandbreitenlimit rennen zu lassen oder beim Chip auf ein teures 512 Bit Speicherinterface setzen könnnen ohne es zu beschneiden, jetzt rate mal warum sie diese Wege nicht gegangen sind.

Was du scheinbar nicht verstanden hast ist dass der Speicherausbau von der Breite des Speicherinterfaces und der verfügbaren Speicherchips abhängt.
Ein weiterer Punkt ist das keine bestimmte Rechenleistung für einen größeren Speicherausbau erforderlich ist, der Speicherausbau verhindert lediglich den Einbruch beim Speicherüberlauf, welche idR. vor allem durch hoch auflösende Texturen ausgelöst wird für die keine Rechenleistung erforderlich ist. Der Speicherbedarf für den Frambuffer hält sich auch bei hohen Auflösungen eher in Grenzen.
 
Reziel schrieb:
Naja DLSS ist für mich wie Alkoholfreies Bier.
Alkoholfreies Bier = Leber verarsche
DLSS = Augenkrebs

Da hat sich einer mit dem Thema DLSS beschäftigt...NICHT, setzen 6 und vielleicht schaust dir das nochmal an ;)
 
  • Gefällt mir
Reaktionen: tomasvittek, icetom, McFritte und 2 andere
Da lacht mein Herz wenn so mancher Nutzer das Netzteil für die Grafikkarte upgraden muss und deshalb den Stromverbrauch als SEHR HOCH bezeichnet.

Schön 699€ blechen und nochmal 100€+ für nen gescheites Netzteil -> Preisvorteil hinüber xDD
 
  • Gefällt mir
Reaktionen: Holindarn, Clutch04 und Monstranz
Adzz schrieb:
Die mit Abstand beste GPU der Welt Kostet im Moment 699 Euro. Das gab es schon lange nicht mehr. Wenn einer Anfang des Jahres gesagt hätte das die 3080 sogar die 2080 ti um 30% schlägt und nur die Hälfte kosten wird, hätte es niemand geglaubt und die Person verspottet. Jetzt ist es aber für manche plötzlich nicht gut genug mehr. Neid ist die 6te Todsünde nur so nebenbei.

Bis zum 24ten dann nicht mehr ^^ :king: :daumen:
 
Wenn RTX2080 16Gb hätte, würde niemand mehr auf VII warten und so ähnlich verhält es sich mit RTX3070/80 und RDNA2.
Warum warten wohl "viele" auf RDNA2 ?
Gibt es hier wirklich User die denken das die Karte schneller wird als RTX3080, ernsthaft ?
Nein, die GPU wird "etwas" langsamer und mehr Vram bieten ! Thats all.
Preiskampf ? Forget it ! Die Zeiten ändern sich.
WIN-WIN Situation für AMD und NV !

Edit :
Wie gesagt, fakt ist das sich AMD an einer fast vier jahren GTX1080Ti die Zähne ausbeist, siehe Bild :



Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Benchmarks in Full HD, WQHD und Ultra...png



RTX3080 ist um fast 50% schneller als AMD stärkste GPU !

Der einzige Vorteil ist das die Karten relativ zeitnah erscheinen, so ein Disaster wie bei Vega wirds daher nicht mehr geben.

Zwei jahre haben die User auf AMDs antwort gewartet und was hat AMD geliefert ? Richtig (siehe unten)

Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Benchmarks in Full HD, WQHD und Ultra...png


Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png




Man sollte schon auf den Teppich bleiben bzw. den bezug zur realität nicht verlieren.
Wenn ich lese RDNA 2 wird locker an RTX2080Ti vorbeiziehen etc. ! OMG

Was meint ihr mit locker, 10% ?
Ja, das ist realistisch, schaut euch zudem an wann RTX2080Ti released wurde.
 
Kenjiii schrieb:
Eine Grafikkarte, die vor Kurzem noch 1200€ gekostet hat, wird jetzt um 30% geschlagen und war dazu noch 70% teurer...............und du verstehst es nicht? Hmmm

Für die Meinung muss man schlicht zu jung sein.^^
 
  • Gefällt mir
Reaktionen: maxpayne80
Auf den ersten Blick vielleicht beeindruckend, bei genauer Betrachung eher enttäuschend. Sicher ist die Leistungssteigerung innerhalb des Namensschemas an den Generationssprung von Maxwell zu Pascal erinnernd. Allerdings ging der Leistungssprung damals mit einer deutlich geringeren Leistungssaufnahme einher. Hier findet selbst bei der 80er Variante bereits der Big Chip Verwendung, um den vorherigen leistungsseitig zu distanzieren und das ganze geht dann mit einem deutlichen Mehrverbrauch einher, was das Performance/Watt Verhältnis klar belegt.
 
acmilan1899 schrieb:
Mal eine andere Frage. Die Custom Designs werden ja dann noch einen höheren Stromverbraucht haben oder
Denke schon, aber NV hat
sialickiz schrieb:
Unnötig langes Zitat durch Moderator entfernt
Doppelte Shader, plus Oprtimierung, da denke ich eher die 3080 hat nicht umsonst den NV untypischen Preis.
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderator entfernt)
  • Gefällt mir
Reaktionen: Clutch04
RAMSoße schrieb:
tabelle.png
Diese Tabelle finde ich super informativ. Sehr geehrtes CB-Team. Bitte mehr davon. Auch von AMD. Das wäre klasse!

die tabelle ist gut, aber auch ein bisschen irreführend, denn der chip steht nicht dabei.

die 980 war der 04er chip, die 980 ti der 02er chip, die 1080 der 04er chip, die 1080ti der 02er chip, die 2080 der 04er chip, die 2080 ti der 02er chip ABER die 3080 ist der 02er chip und die 3090 ebenfalls der 02er chip.

wenn man jetzt die 3080 mit der 2080 vergleicht, kommt ein enormes leistungsplus raus. das einzige, was an der 3080 eine richtige "80"er ist, ist erfreulicherweise der preis. der chip ist aber der große 02er, der in den vergangen generationen nur in den 80ti und titan karten zum einsatz kam.

daher muss man für einen richtigen generationenvergleich die 3080 eigentlich mit der 2080ti vergleichen - beides mal die leicht beschnittene "non titan" version des 02er chips.

dann sieht die performance mit grob 30% nicht mehr so viel besser aus als mit turing - aber der preis ist trotzdem gut.
 
  • Gefällt mir
Reaktionen: fox40phil, TopKak, Sun-Berg und 2 andere
Andregee schrieb:
Auf den ersten Blick vielleicht beeindruckend, bei genauer Betrachung eher enttäuschend. Sicher ist die Leistungssteigerung innerhalb des Namensschemas an den Generationssprung von Maxwell zu Pascal erinnernd. Allerdings ging der Leistungssprung damals mit einer deutlich geringeren Leistungssaufnahme einher. Hier findet selbst bei der 80er Variante bereits der Big Chip Verwendung, um den vorherigen leistungsseitig zu distanzieren und das ganze geht dann mit einem deutlichen Mehrverbrauch einher, was das Performance/Watt Verhältnis klar belegt.
Ähm, aber das Performance / Watt Verhältnis ist besser, also was wird dort klar belegt?
 
GrooveXT schrieb:
Also sind 30% Abstand zwischen der 3070 und 3080 unwahrscheinlich? Zuletzt ging dieser Abstand noch als neue Generation durch.

Ja unwahrscheinlich, ganz recht!
Die 3070 hat 5.888 Shader bei ner Speicherbandbreite von 256Bit gegenüber 320Bit der 3080 und 8.704 Shader! Boost-Takt ist nahezu identisch! Das Shader-Verhältnis entspricht nur 67% bei der 3070 im Vergleich zur 3080! Dazu kommt noch das die 3070 nur DDR6 und nicht den neuen schnelleren DDR6X der 3080 verbaut bekommt. Und von nur 8GB VRAM möchte ich noch gar nicht mal anfangen zu reden.....
Ich würde mein letztes Hemd drauf verwetten das die 3070 auf keinen Fall annähernd so schnell wie 2080Ti ist! Kannst mich ja gerne nochmal zitieren wenn es nicht stimmt!
 
eRacoon schrieb:
Unnötig langes Zitat durch Moderator entfernt
Wenn es so warm ist verbringe ich den tag draußen und zocke nicht 4h. Aber jedem das seine..


Zurück zum Test.

Schöner Test und danke an CB dafür.
Ich sag ja immer, es wird nie so heiß gegessen wie gekocht wird.
Find die Ergebnisse in Anbetracht der Rohrleistung ohne RT und co. ernüchternd und freue mich was AMD zu bieten hat
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderator entfernt)
Toller Test, vielen Dank! Deshalb bin ich gerne hier, eure Tests sind unschlagbar.

Doppelt so schnell (ziemlich) wie meine 2070 Gaming Z. Dennoch warte ich glaube ich noch auf das Refresh. Dieses Mal soll die GPU 4 Jahre im PC bleiben und selbst wenn 10GiB jetzt im Parcours reichen, nehme ich an dass es nächstes Jahr arg anzieht was die Anforderungen angeht (Next Gen Konsolen).

Bin gespannt wie AMD jetzt performt und ob sie in Sachen RT und DeepLearning in der Generation eine Rolle spielen. No Bash.
 
bad_sign schrieb:
Das will ich sehen, wie du mit einer schnellern CPU 25% im GPU Limit (UHD) rausholst^^

Deswegen spreche ich ja von CPU Limit, wie beispielsweise Anno, wo man in UHD noch 20% durch die CPU rausholen kann. ;)
 
  • Gefällt mir
Reaktionen: fox40phil und therealcola
sialickiz schrieb:
...

Edit :
Wie gesagt, fakt ist das sich AMD an einer fast vier jahren GTX1080Ti die Zähne ausbeist, siehe Bild :



Anhang anzeigen 967362


RTX3080 ist um fast 50% schneller als AMD stärkste GPU !

...

Bei mir sind das eigentlich 100% (also doppelt so viel), nicht fast 50% ;)
 
  • Gefällt mir
Reaktionen: Larnak
Warum die einen jetzt noch bis zum 24. warten lassen versteh ich nicht.
Fänd ich viel besser wenn gleich beide Karten getestet werden könnten.
 
  • Gefällt mir
Reaktionen: fox40phil, SPECIALIZED- und Cpt.Willard
sialickiz schrieb:
Wenn RTX2080 16Gb hätte, würde niemand mehr auf VII warten und so ähnlich verhält es sich mit RTX3070/80 und RDNA2.
Warum warten wohl "viele" auf RDNA2 ?
....

Ich vermute, inzwischen hat auch der Letzte hier verstanden, was du über AMD-GPUs denkst, sei doch bitte so nett und lass es jetzt mal gut sein - das ist hier nicht das Thema und erspart interessierten Lesern viel Scrollerei, Danke!

Schöne Karte mit Ausnahme des Stromverbrauchs für die verschmerzbaren 4 % Extra-Leistung. Für alle non-Turing-Besitzer endlich mal eine sinnvolle Aufrüstoption. Ich hoffe auf gute Verfügbarkeit und keinen weiteren Mining-Boom!
 
Zurück
Oben