Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Dai6oro schrieb:
Doof nur dass Nvidia diese als solche bewirbt.
Und? AMD bewirbt die 5700XT auch als 1440p Karte, was auch nur stimmt, wenn 60fps der Anspruch ist oder man die Regler direkt nach dem Kauf bereits runterdreht.

Diese 60fps schafft die 5700XT hier im Test nicht mal in Borderlands 3, oder in Control, oder in Gear Tactics, oder in Ghost Recon Breakpoint, oder in Metro Exodus, oder in.... naja der Punkte sollte klar sein^^
 
  • Gefällt mir
Reaktionen: adAstra, akuji13, Ben81 und 3 andere
Krass, wieder 20 Seiten mehr. :daumen:


Rock Lee schrieb:
Die Frage ist ja, ob Nvidia überhaupt ein Interesse daran hat ;)
Das denke ich schon, aber natürlich weiß ich das nicht.

Rock Lee schrieb:
Die FE scheint mehr ein Lockvogelangebot zu sein...
Im Sinne einer "Heimtücke" glaube ich das nicht.

Natürlich wird NVidia damit die "Speichelproduktion" grundsätzlich anlaufen lassen wollen. Und ich erwarte auch, dass der Status im NVidia-Shop schnell auf "Aktuell nicht verfügbar" wechseln wird. Aber das läuft bei mir während der Markteinführung unter der Rubrik aus der Not (zu geringe Anzahl an Einheiten zu Verkaufsstart) eine Tugend machen (seht nur, alle wollen die 3080).
Die Partner - insbesondere die engen und langjährigen - werden wie immer ihren Anteil am Kuchen erhalten. Aber saldiert zählen die Anzahl der verkauften Chips. Daher werden die FE-Versionen nach einem anfänglichen Übernachfrage-bedingten Engpass ganz sicher und dauerhaft verfügbar sein.
 
danyundsahne schrieb:
Aber jetzt wird sich AMD schön die Tests ansehen und an ihren RX6900 Karten schrauben und schauen, was hier Leistungs- und Effizenztechnisch machbar ist, und dann kommen sicher die ein oder anderen Leaks!

Das wird bei Big Navi nicht mehr groß möglich sein, da Big Navi in knapp 6 Wochen vorgestellt wird. Allenfalls über das Bios der Karten kann man noch leicht was drehen, was Taktverhalten und Powerlimit betrifft. Also wie bei der RX 5600XT, als man in allerletzter Sekunde mehr Takt freigegeben hatte. Aber so spät, das die Firmware der Karten von den Kunden selber geflashed werden mußten.

Ansonsten gute Leistung der RTX 3080. Aber den absoluten Überflieger sehe ich nun ganz und gar nicht. Für die gebotene Leistung ist der VRAM defenitiv zu klein. Da wird Nvidia sich die 3080Ti/Super später wieder fürstlich bezahlen lassen. Ansonsten ist die 3080 eine an die Kotzgrenze geprügelte Karte mit übler Leistungsaufnahme. AMD wäre dafür in der Luft zerrissen worden. Für den Shrink von 12 auf 8nm ist das eigentlich eher eine Entäuschung. Die gestiegene Leistung wird trotz Shrink mit deutlich mehr Leistungsaufnahme erkauft.

Selbst wenn Big Navi ein paar Prozent unter der 3080 liegen sollte, aber dafür weniger Energie benötigt, 16 GB VRAM besitzt und 650€ als UVP mit auf den Weg bekommt, dann wäre das die deutlich attraktivere Karte.
Mehr muß AMD eigentlich gar nicht erreichen. Und das sollte durchaus machbar sein.
 
  • Gefällt mir
Reaktionen: nikky, fox40phil, Setting und 6 andere
SPECIALIZED- schrieb:
Die 50W mehr machen es ja auch am Ende bei dem gesamten System ... :rolleyes:

Naja die spitzen und der Verbrauch am PCie Slot sind mir zu krass. 😉
 
Taxxor schrieb:
Und? AMD bewirbt die 5700XT auch als 1440p Karte, was auch nur stimmt, wenn 60fps der Anspruch ist.

Und diese 60fps schafft die 5700XT hier im Test nicht mal in Borderlands 3, oder in Control, oder in Gear Tactics, oder in Ghost Recon Breakpoint, oder in Metro Exodus, oder in.... naja der Punkte sollte klar sein^^
Nun ich messe das Unternehmen daran wie es sein Produkt bewirbt und ob es das Versprechen halten kann. Was du persönlich siehst oder nicht ist mir egal. Und was AMD hier verloren hat erschließt sich mir auch nicht oder ist das ein .. aber aber AMD hat auch... Argument dann lass es lieber.
 
  • Gefällt mir
Reaktionen: McTheRipper und Mcr-King
DaBas schrieb:
Selbst wenn Big Navi ein paar Prozent unter der 3080 liegen sollte, aber dafür weniger Energie benötigt, 16 GB VRAM besitzt und 650€ als UVP mit auf den Weg bekommt, dann wäre das die deutlich attraktivere Karte.
Mehr muß AMD eigentlich gar nicht erreichen. Und das sollte durchaus machbar sein.
Das wäre wünschenswert, ist aber eher unrealistisch.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Taxxor schrieb:
Weil die CPU nun mal limitiert? Warum sollte man nicht vom CPU Limit reden?

Hier nur mal drei Beispiele

Ich kaufe mir also eine 3080 und habe mit dem Ryzen in Borderlands 3 exakt so viele FPS wie mit der 2080Ti, tolle Wurst.

Hier habe ich in 1440p mit dem Ryzen sogar trotz 3080 weniger FPS als der Kollege mit dem Intel und eine 2080, noch besser^^
Puh sag mal machst du das mit Absicht? sind ja alles Cherry Picked Beispiele!! aus dem von dir zitierten Test.

https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/

AC gleich auf.
Control gleich auf.
Death Stranding gleich auf.
Detroid gleich auf.
Doom gleich auf.
Hitman gleich auf.
SoTtR ah gleich auf.
Jedi wieder gleich auf.
Witcher gleich AAAAUUUUUUFFFFFF.
bei dem Rest sind es nur wenige %.

Gleich auf manchmal "positiv" für Intel gewertet... weil manchmal war der 3900XT sogar leicht vorne!

Boah du hast dich gerade so Krass unglaubwürdig gemacht.
Dachte eigentlich da ist nen bissel Schmalz da... was man so manchmal gelesen hat.
Aber das ist ja Bildzeitungsniveau!
de demmmmmmmmmmmmmm

Next Taxxor pls.
 
  • Gefällt mir
Reaktionen: McTheRipper, Kenjiii und Mcr-King
sialickiz schrieb:
Du musst dir immer alles zurechtbiegen, hmm ? :rolleyes::confused_alt: Unbegreiflich, was bringt dir das ?
Mich interessieren Gaming und Compute, besser gesesagt diverse BOINC Projekte und da war selbst der knappe Speicher der Fury kein Problem. Bei den für mich interessanten Projekten zersägte das Teil so manche deutlich teurere Geforce. Hier war dann auch die mitgelieferte WaKü ein Segen denn die Abwärme ging direkt aus dem Gehäuse.
 
  • Gefällt mir
Reaktionen: eXe777 und Mcr-King
Dai6oro schrieb:
Und was AMD hier verloren hat erschließt sich mir auch nicht oder ist das ein .. aber aber AMD hat auch... Argument dann lass es lieber.
Wieso? Es ist genau das gleiche Spiel, wenn ein Hersteller sagt, es ist eine 4K Karte, dann weiß man, dass es ne gute 1440p Karte ist, ob das nun Nvidia oder AMD ist.

Genauso wie die 3090 ne recht ordentliche 4K Karte sein wird, das sieht man daran, dass sie als 8K KArte beworben wird^^
 
  • Gefällt mir
Reaktionen: KlaraElfer
oemmes schrieb:
Ist ja auch egal. Jedenfalls sind die aktuell schnellsten CPUs offensichtlich nicht in der Lage die 3080 komplett zu befeuern.
Mal sehen, ob RAM ocen bisschen hilft.
Ganz egal ist es nicht und ich verstehe auch den Einwand.
Für beides gibt's für und wider. Im Prinzip wird ein optimiertes 10900k System den Abstand zwischen 3080 und dem Rest des Geldes vergrößern.
Deswegen wird heute auch meist der Abstand 2080 zu 1080 größer sein als zum damaligen CPU Stand.

Die Tester mussten hier aber quasi möglichst viel realitätsnahe abbilden und da sind 20% Vorsprung sicher Mal in 720p und ggf auch 1080p möglich aber eher die Ausnahme und wenig relevant für so ne starke Karte.

Man hat sich im Regelfall für die AMD Variante entschieden und ich kann es nachvollziehen.
 
  • Gefällt mir
Reaktionen: Matthias80
DaBas schrieb:
Selbst wenn Big Navi ein paar Prozent unter der 3080 liegen sollte, aber dafür weniger Energie benötigt, 16 GB VRAM besitzt und 650€ als UVP mit auf den Weg bekommt, dann wäre das die deutlich attraktivere Karte.
Mehr muß AMD eigentlich gar nicht erreichen. Und das sollte durchaus machbar sein.
Da träumt aber einer :)
Mein Tipp ist eher: 10-15% weniger Leistung, 300 Watt Verbrauch (somit ineffizienter), etwas mehr VRAM (der aber auch so gut wie nichts bringt) und der Preis wird wohl 599€ sein.
Also alles in allem, ein Fail, nur der Preis ist besser, aber das P/L Verhältnis is dennoch fast gleich. :)
 
aeri0r schrieb:
In Anbetracht dessen, das die GPU immer wieder mal ins CPU Limit rennt, stellt sich mir die Frage ob eine 3090 überhaupt die vermuteten 20% mehr noch erreichen kann? Prognosen hierzu? :o Hatte mit der eigentlich geliebäugelt, aber irgendwie erscheint mir das langsam sinnloser :(

Ich kann solche Nachfragen nicht ganz nachvollziehen, willst Du weiter auf 1080p
spielen, brauchst Du keine 30er GPU und schon gar nicht die 3090.
Spielst Du weiter auf 2560x1440p, kauf Dir ebenfalls nicht die 3090.
Die erste Auflösung wo vlt. mehr GPU Limits auftreten als CPU limitierte Spiele ist
3440x1440p, und selbst diese Auflösung ist Pixelanzahl mäßig noch ca. 40% von UHD entfernt.

Die 3090 kann nur jemand sinnvoll verwenden mit nem UHD Display.

Es macht umgekehrt keinen Sinn sich darüber zu beschweren, dass die 30er Karten in 1080p nicht allzu
große Zuwächse haben, Schuld sind nicht die Karten,
Schuld sind die CPUs und das Rest-System, die da nicht mehr FPS durch die Leitung drücken können.
 
Matthias80 schrieb:
Puh sag mal machst du das mit Absicht? sind ja alles Cherry Picked Beispiele!!
Und wo ist das Problem, wenn die Aussage war, dass die CPU immer genug FPS liefert egal in welcher Auflösung?

Da reicht ein einziges Spiel und die Aussage ist falsch, ich hab drei geliefert und sogar extra Anno 1800 nicht dazugekommen^^

Und am Ende über alle Spiele stehen in 1440p immer noch +7% für den 10900K, man wollte aber lieber die 0,5% durch PCIe 4.0 mitnehmen mit dem Ryzen.

Und wie schon gesagt, selbst wenn es am Ende nur 2-3% mehr gewesen wären, wäre es immer noch die bessere Wahl fürs GPU Testrig.
 
  • Gefällt mir
Reaktionen: voalirus, KlaraElfer, gartenriese und 2 andere
Pizza! schrieb:
@Windell
Bisher gab es in 4K nur sehr selten ein CPU Limit, da ja die Grafikkarte logischweise die heftige Arbeit hat und früh im Limit ist.
Aber nun trittt das CPU Limit deutlich stärker auf, weil die 3080 so stark ist, was momentan eine kleine Überraschung ist, denn sogar Intels 5 GHz 10900K Klopper macht da nur wenig Unterschied.

Ja ein Limit gibts immer.

Danke für die Erklärung,jetzt ist es mir verständlicher was die Meisten meinen. :)

Aber es könnte genauso gut an der Treiberoptimierung liegen vlt. ?
 
Zuletzt bearbeitet:
Ich finde es gut das die Raytracing Performance besser geworden ist. Bei den Vorgänger generation war es nicht so überzeugend aber die jetzige wird wohl mein 1080 ablösen es wird auch mehr Games geben mit der Technik und auch wegen den kommenden Generation an Konsolen denke ich.
 
Krautmaster schrieb:
Die Tester mussten hier aber quasi möglichst viel realitätsnahe abbilden
Aber was willste machen? Um die Realitätsnähe zu behalten mußt du eben mit "genormten" Werten/CPUs/RAM testen.

Mit ner CPU unter Wasser und oced, übertaktetem RAM und ner 3080 unter Wasser geht bestimmt noch was.
(Wenn man nen 1.000W Netzteil hat ;) )
 
  • Gefällt mir
Reaktionen: fox40phil, Mcr-King und Rockstar85
Taxxor schrieb:
Und? AMD bewirbt die 5700XT auch als 1440p Karte, was auch nur stimmt, wenn 60fps der Anspruch ist oder man die Regler direkt nach dem Kauf bereits runterdreht.
Sehe ich aber ähnlich.. die 1080Ti war auch keine 4K Karte, sondern eher 1440p.. Man muss aber dabei die Spiele und die Engine betrachten.. Was ich regelrecht beeindruckend finde, dass der RTX Einbruch nicht so heftig wie bei der 20er Serie ist. Nichts desto Trotz muss ein 2080S Nutzer sich nun keine neue Karte kaufen.

https://www.3dcenter.org/news/gefor...ltate-zur-ultrahd4k-performance-im-ueberblick

gr1nd schrieb:
Das wäre wünschenswert, ist aber eher unrealistisch.
Sag niemals nie.. Nvidia hat die Karte nicht ohne Grund auf 320W TDP gesetzt, obwohl es in fast keinem Leistungssprung resultiert.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben