Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

t3chn0 schrieb:
Hier müsste man wirklich mit einem 10900K von Esenel testen. Mit 5.2Ghz und 4133er Speicher CL16 oder was auch immer.

Ich kann nachvollziehen, das du es so gerne hättest, aber das wäre weniger repräsentativ als der Test bei CB. Schätze mal bitte, wieviele hier im Forum so einen Mords-PC auf Kante geprügelt laufen haben.
CB-Setup ist da viel realistischer und leichter zu bauen (also kein krasser Custom-Loop am Start kombiniert mit RAM-Timings, die man nur nach mühseliger und stundenlanger "Arbeit" stabil hinbekommt).
Sollte der nicht so ein System besitzen, dann kannste meinen Kommentar berechtigt kritisieren.
Wenn meine Erinnerung mich nicht täuscht, dann hat er ein krasses Intel-System am Start.

Lösung wäre: Esenel testet eine 3080 FE auf seinem System und postet einen Test mit gleichen Spiele-Settings wie im CB-Test um mal einen passenden Vergleich anzustellen.
 
  • Gefällt mir
Reaktionen: Mcr-King und stevefrogs
engineer123 schrieb:
Die 3090 kann nur jemand sinnvoll verwenden mit nem UHD Display.

Naja, ich bin in einem Forum und stelle eine Frage ob der aktuellen Lage der Benchmarkanalysen, warum also nicht nachvollziehbar?

Deine Ausführung ist mir schon klar - allerdings geht es hier ja nun darum das bereits die 3080, teilweise gar in UHD ins CPU Limit rennt - und zwar in ein CPU Limit das von der 3090 ja dann noch bedeutend früher erreicht wird.

De Facto ist ein nicht zu vernachlässigbarer Teil der Benchmarks somit nicht aussagekräftig zur endgültigen Performance. So sehe ich eben schon die nächsten Forenkämpfe auf uns zukommen wo es denn heißt: "Die 3090 ist nur 5% schneller als die 3080!".

In Anwendungsbenchmarks die auf die GPU ausgelegt sind, gibt es so nun auch Benchmarks die ein ganz anderes Bild der 3080 Performancepotentiale liefern und teilweise mehr als zweifache Leistung einer 2080 erreichen.

Also ist es nicht so ganz einfach wie du darstellst. Die bessere Karte für UHD in Zukunft ist sicher die 3090, gepaart mit bedeutend schnelleren CPU´s. So könnte es gar passieren das AKTUELL die 3090 in der nächsten Woche nahezu gleiche Performancewerte aufzeigt. Das würde bedeuten: Kaufst du eine 3090, rechne auch gleich mit einer neuen CPU.
 
gr1nd schrieb:
Ich würde es als alter Fan AMD ja wirklich wünschen, aber das wird sich leider nicht bewahrheiten.

Why not? Besserer 7nm Prozess, ewig zeit und die 5700xt war ganz nah dran an der 2000er Nvidia Serie was Energieffizienz angeht.
 
  • Gefällt mir
Reaktionen: Mcr-King
KlaraElfer schrieb:
Ja kann man auch gerne als 4K bewerben. Das ändert auch nichts an der Tatsache, dass man mit der Karte nur in WQHD mit hohen FPS Spielen kann und eine Radeon 5700XT häufig nicht mal 60 FPS @ max generiert.
Und das ist auch gut so, denn die BQ ist mit höheren FPS meist wesentlich besser, weshalb sich UHD eh nicht lohnt.
Wieso ist dir die CPU dann zu langsam im Test? Wenn du wissen willst wie groß der Vorsprung der 3080 ist, schau 4K an. In deiner Kinder Auflösung wird der Vorsprung bei einer unendlich schnellen CPU maximal so groß werden wie eben im 4K maxed out. Dauert halt ggf noch 3 CPU Gens.

Ich schau bei GPU Tests immer nur die höchste Auflösung an. Dahin geht die Reise, selbst wenn ich auf kleiner Auflösung spiele.
 
  • Gefällt mir
Reaktionen: Matthias80
5hred schrieb:
Ich kann nachvollziehen, das du es so gerne hättest, aber das wäre weniger repräsentativ als der Test bei CB. Schätze mal bitte, wieviele hier im Forum so einen Mords-PC auf Kante geprügelt laufen haben.
CB-Setup ist da viel realistischer und leichter zu bauen (also kein krasser Custom-Loop am Start kombiniert mit RAM-Timings, die man nur nach mühseliger und stundenlanger "Arbeit" stabil hinbekommt).
Sollte der nicht so ein System besitzen, dann kannste meinen Kommentar berechtigt kritisieren.
Wenn meine Erinnerung mich nicht täuscht, dann hat er ein krasses Intel-System am Start.

Wir können auch PCGH und Cbase vergleichen, Pcgh hat mit dem so ziemlich schnellsten Ryzen den es so gibt getestet. Der Unterschied ist auch da.
 
gr3if schrieb:
Why not? Besserer 7nm Prozess, ewig zeit und die 5700xt war ganz nah dran an der 2000er Nvidia Serie was Energieffizienz angeht.
Ganz nah dran eben nicht an der 2000er Serie (dazu gehört auch 2080(s)(ti)), sondern "nur" an der 2070s. Dafür auch mit 10w mehr TDP und ein paar % weniger Performance. Hier geht es um die xx80.
 
Krautmaster schrieb:
4K maxed out. Dauert halt ggf noch 3 CPU Gens.
und bis das alles soweit ist in 5-8 jahren ist 4k schon fast wieder veraltet (bzw mainstream) und 8k steht in den startlöchern ...und es wird erste tests zu 16k geben :D
 
  • Gefällt mir
Reaktionen: fox40phil
gr1nd schrieb:
Diesen Mythos liest man ständig hier. Wahrer wird er trotzdem nicht. Einfach mal die (detaillierten) Specs von PS5 und Series X lesen, dann wird vielleicht auch klar, weshalb
Dieser "Mythos" wurde jede Generation zuvor bestätigt...... Meine Güte Jungs... Das ist hier ja wieder wie in den Jahren als man euch erklären musste dass das menschliche Auge mehr als 24 FPS sieht...
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, McTheRipper, Setting und 2 andere
Ach Schade, das Ding ist ja gemittelt nur ca. 25% schneller als meine 1080 (Leistung pro Watt). Sorry, aber die Karte ist ein Säufer und ich kann mich an Zeiten erinnern in denen das mehr abgestraft wurde. Oder wird das jetzt der neue Trend, GPU Leistung durch zu viel Stromverbrauch?
 
  • Gefällt mir
Reaktionen: 4to cka3al
Nette Karte. Für eine "FE" ein wirklich gutes Produkt. Ich könnte mir vorstellen das in Zukunft der Performance-Unterschied zwischen 2080ti und 3080 noch etwas wächst mit optimierten Treibern
 
Krautmaster schrieb:
Ich schau bei GPU Tests immer nur die höchste Auflösung an. Dahin geht die Reise, selbst wenn ich auf kleiner Auflösung spiele.
Das hatten wir doch bereits, in niedrigeren Auflösungen kann die GPU Leistung durch weit mehr beeinflusst werden als durch ein CPU Limit.
Deshalb ist es ja so wichtig, dieses möglichst auszuschließen, damit man sehen kann, ob die Karte unlimitiert auch in niedrigerer Auflösung die gleiche Mehrperformance ggü einer anderen Karte bringen kann, oder ob sie sich durch gewisse Architektureigenheiten nur in 4K so weit absetzen kann.
 
Dai6oro schrieb:
Nun ich messe das Unternehmen daran wie es sein Produkt bewirbt..

Ja, und sie bewerben das Produkt ja offensichtlich als 60 FPS 4K Karte, was den 100+ FPS Spielern in WQHD ja nicht hilft.
Dai6oro schrieb:
und ob es das Versprechen halten kann. Was du persönlich siehst oder nicht ist mir egal.

Warum ist es dir dann wichtig, wie ein Unternehmen ihre Karte sieht? Wenn die Karte als 4K Karte beworben wird, gilt das ganz offenkundig nicht für 144 Hertz in 4K.

Dai6oro schrieb:
Und was AMD hier verloren hat erschließt sich mir auch nicht...
Dai6oro schrieb:
Doof nur dass Nvidia diese als solche bewirbt.

Was hat Nvidia dann da verloren? Jeder benutzt die Karte so wie er es für richtig hält.
240 Hertz 1080p, 144 Hertz 1440p oder 60 Hertz 2160p, je nach dem dann auch mit niedrigeren Details in UHD, damit es wenigstens flüssig ist.
Die 3080 ist für mich auch keine 4K Karte, jetzt wo RTRT kommt, ist es für mich eher eine Full HD bis WQHD Karte.
 
eden89 schrieb:
O...M...G... leute wie viel offtopic gestreite es hier gibt, kann man bitte mal endlich akzeptieren dass intel besser ist wenn man nicht gerade ne cpu zum rendern mit 12 kernen braucht ? also für so ziemlich fast jeden! und weider auf die 3080 fe zurückkommen?
Taxxor schrieb:
Nicht, wenn vorher beide GPUs limitiert wurden und die 2080Ti dann durch die schnellere CPU in mehr Spielen zu 100% ausgelastet werden kann, während die 3080 weiterhin limitiert wird.

Wechsel einfach auf Intel und gut ist. Dann haste Alles an FPS was geht.

Ich sehe das Problem einfach nicht,es war schon immer klar das die Intel CPUs in Gaming leicht schneller sind als die AMD Pendants.
Wer nur zocken möchte auf FullHD und WQHD vlt. und die maximalen FPS haben will,holt sich ein Intel.

Wer Wert auf PCIe4.0,Multicore,Verbrauch und mehr Kerne legt,der einen AMD. Und selbst mit einem AMD lässt sich jedes Game wunderbar zocken.

Ich gehe soweit zu behaupten,das du nicht merken wirst,ob in deinem Rechner ein AMD oder ein Intel steckt.
 
  • Gefällt mir
Reaktionen: Miuwa, Setting, stevefrogs und eine weitere Person
cookie_dent schrieb:
Was hindert Dich dran die Karte zu undervolten?

Du hast mein Argument ignoriert. Wenn man erst einen Schalter umlegen muss um die Effizienz zu steigern ist das was anderes als wenn man einen Schalter umlegen muss um mehr Leistung zu erhalten. Denn es ist nun mal so, dass die meisten Verbraucher ein Produkt nur so verwenden wie es aus der Verpackung kommt. Aus dem Grund sind Öko-Programme bei Waschmaschine, Spülmaschine usw vorausgewählt. Leider gibt es im IT-Sektor kaum solche Vorgaben. Igor hatte das hier mal thematisiert:
https://www.igorslab.de/erp-netzteil-mainboard/

2019 ist von der California Energy Comission endlich mal was neues gekommen, was aber ebenfalls (außerhalb von Kalifornien) wohl nicht standardmäßig aktiv ist (zumindest mein Gigabyte Board hatte es deaktiviert). Aber immerhin gibt es jetzt mal was für eingeschaltete Mainboards:
https://www.techpowerup.com/249605/...nt-new-california-energy-commission-standards

Ich meine brauchen wir wirklich noch 80 Plus oder 80 Plus Bronze Netzteile? Weg damit. Und bei CPU und GPU könnte man eine Richtlinie einführen, die es verbietet die Effizienz am Sweet Spot um X % zu untersteigen. Dh wenn die GPU für 100 Gflops 100 Watt verbraucht und sie dort am effizientesten läuft, dann darf es nicht sein, dass sie für 110 Gflops zB 150 Watt verbraucht.
 
  • Gefällt mir
Reaktionen: McTheRipper
eden89 schrieb:
die 6800 soll die 3070 nicht schlagen können aber mehr ram bieten. wenn du denkst das vram das maß der dinge ist hat ati klar gewonnen xD
Wäre gut wenn du schreibst, dass das deine Meinung ist. Liest sich fast schon so, als ob du beide Karten unabhängig getestet hast. Oder zu viele Youtube Videos mit vagen Interpretationen geschaut hast :P. Meine Meinung ist auch, dass Big Navi nicht so der Brüller wird. Abwarten und Tee trinken.
 
Taxxor schrieb:
in niedrigeren Auflösungen kann die GPU Leistung durch weit mehr beeinflusst werden als durch ein CPU Limit.
Was wäre das.
 
Zurück
Oben