Test GeForce RTX 3080 FE im Test: Nvidia Ampere lĂ€sst Turing alt aussehen

Kommt mal wieder runter und wartet auch Cyberpunk soll zumindest dasd erste DX i/o Api Game sein dann sehen wir wo die Reise hin geht mit den i100er. 😉
 
Taxxor schrieb:
Und am Ende ĂŒber alle Spiele stehen immer noch +7% fĂŒr den 10900K, man wollte aber lieber die 0,5% durch PCIe 4.0 mitnehmen mit dem Ryzen^^
Ja aber was bedeutet das fĂŒr den Test?

Im Zweifelsfall staucht die limitierende CPU das Feld um 7% zusammen. Die 3080 wird dabei kaum um 1:1 denselben Prozentsatz profitieren wÀhrend alle andere GPU stehen bleiben.
Heißt aus 30% Vorsprung zur 2080 TI werden dann halt 32% und das war's.
 
  • GefĂ€llt mir
Reaktionen: Wintermute
Harsiesis schrieb:
3080 = 4K Karte - bei 4K spielt es keine Rolle ob 10900K oder AMD 3900XT

Eure Wahrnehmung ist wirklich speziell und eklatant selektiv.
Das sind satte 11% in Full HD, 8% in WQHD und 2% in UHD, also quasi in Full HD das 22 fache was PCIE 4.0 bringt, in WQHD das 14 fache was PCIe 4.0 bringt und in UHD das 4 fache was PCIE 4.0 bringt. (Ich beziehe mich hier auf die Messungen bei Computerbase).

Fakten: 3900XT bremst Performance aus.
AMD Fans: Lasst mal den AMD Prozessor nehmen wegen PCIE 4.0, ganz wichtig!
Neutrale: Testet mal lieber beides und entscheidet euch dann fĂŒr die schnellere CPU.
Intel Fans: Ja.

Krautmaster schrieb:
Naja, bei nem GPU Test macht das wie gesagt allenfalls in 720p und 1080p einen Unterschied. Und ob ich deswegen auf quasi veraltete Schnittstellen und weniger Threads setzen wĂŒrde. Vermutlich nicht.

Wie bereits gezeigt ist das falsch, selbst in WQHD sind die Unterschiede deutlich.
Es wĂ€re schön, wenn zumindest Teile des Forums das unaufgeregt zur Kenntnis nehmen wĂŒrden.
PCie 4.0 ist schön, Big Navi wird allerdings mit einem 10900K und PCIE 3.0 besser performen, es sei denn, irgendetwas unerwartetes passiert.
 
  • GefĂ€llt mir
Reaktionen: Esenel und oemmes
DaBas schrieb:
Das wird bei Big Navi nicht mehr groß möglich sein, da Big Navi in knapp 6 Wochen vorgestellt wird. Allenfalls ĂŒber das Bios der Karten kann man noch leicht was drehen, was Taktverhalten und Powerlimit betrifft. Also wie bei der RX 5600XT, als man in allerletzter Sekunde mehr Takt freigegeben hatte. Aber so spĂ€t, das die Firmware der Karten von den Kunden selber geflashed werden mußten.
Ja, das ist mir schon bewusst, dass es hier nur noch um BIOS Einstellungen wie Takt und entsprechende Vcore dazu geht um hier einen möglich guten Schlag gegen Ampere zu starten. Architekturbedingt Ă€ndert sich da natĂŒrlich nichts mehr. :)
Aber da es noch eine Weile bis AIBs ihre Karten bauen dĂŒrfen, kann hier AMD schon noch etwas an ihrem Ref Design BIOS rumschrauben wie sie wollen....und natĂŒrlich die Marketing Folien fĂŒr den 28.10. vorbereiten ;)
 
  • GefĂ€llt mir
Reaktionen: Mcr-King
oemmes schrieb:
Aber was willste machen? Um die RealitĂ€tsnĂ€he zu behalten mußt du eben mit "genormten" Werten/CPUs/RAM testen.

Mit ner CPU unter Wasser und oced, ĂŒbertaktetem RAM und ner 3080 unter Wasser geht bestimmt noch was.
(Wenn man nen 1.000W Netzteil hat ;) )

Im Grunde ganz einfach: In den GPU Tests nimmt man Stock GPUs und stellt ne ĂŒbertaktete und optimierte CPU zur Seite und in den CPU Test nimmt man Stock CPUs und stellt ne ĂŒbertaktete und optimierte GPU zur Seite.

Dann hast du fĂŒr beide Komponenten die Stock Werte die möglichst frei von anderen EinflĂŒssen sind.
 
  • GefĂ€llt mir
Reaktionen: KlaraElfer, Dowinder, .Sentinel. und 3 andere
Rockstar85 schrieb:
Sehe ich aber Àhnlich.. die 1080Ti war auch keine 4K Karte, sondern eher 1440p.. Man muss aber dabei die Spiele und die Engine betrachten.. Was ich regelrecht beeindruckend finde, dass der RTX Einbruch nicht so heftig wie bei der 20er Serie ist. Nichts desto Trotz muss ein 2080S Nutzer sich nun keine neue Karte kaufen.


Sag niemals nie.. Nvidia hat die Karte nicht ohne Grund auf 320W TDP gesetzt, obwohl es in fast keinem Leistungssprung resultiert.

Dass liegt an der Watt und Power Teilung der Turnig Karten konnte die karte RTX musste Rasterirung und DSSL was ein bussen. 😉

Der Igor hat dazu einen schönen Artikel.
 
  • GefĂ€llt mir
Reaktionen: Rockstar85
oemmes schrieb:
Aber was willste machen? Um die RealitĂ€tsnĂ€he zu behalten mußt du eben mit "genormten" Werten/CPUs/RAM testen.
Das tut CB ja nicht, Subtimings usw optimieren ist naheliegendes Optimizing das jeder betrieben kann. Man wird sich kaum mit LN 2 und 5 GHz RAM testen.

Mir ging's da eher drum dass es ne solide realitĂ€tsnahe Basis fĂŒr ne 3080 ist die auch PCIe 4 kann.
 
  • GefĂ€llt mir
Reaktionen: Mcr-King
gr1nd schrieb:
Das wĂ€re wĂŒnschenswert, ist aber eher unrealistisch.

Liest hier einer auch Mal genau das Fazit von Computerbase ?

Dass die neuen Radeons aber an die GeForce RTX 3080 heran reichen werden, auch dazu liegen noch keine gesicherten Informationen vor. Einen Hinweis darauf liefert ausgerechnet Nvidia mit Leistung und Preis der GeForce RTX 3080.

Wieso sollte Nvidia eine Karte am Rande des machbaren takten (50 Watt mehr bei 4% mehr FPS), das erschließt sich doch nur ĂŒber einem Respekt zur kommende AMD Karte. Die beiden wissen doch vorher schon mehr voneinander ĂŒber diverse Quellen als unser einer.

CB hat das doch fĂŒr mich mt dem oben genannten Zitat indirekt bestĂ€tigt.

Nivida hat doch immer mit Effizienz gepunktet, wenn sie nicht gezwungen waren viel Leistung per Brechstange zu liefern siehe Fermi.

Wenn die jetzt so einen Schritt gehen, hohe TDP mit einem guten LĂŒfter kombinieren um kein Thermi zu werden, sieht es doch fĂŒr mich so aus als hĂ€tte AMD wirklich etwas in petto.

Ich wĂŒrde sogar soweit gehen, dass die neue 6900 gleichschnell ist dabei weniger verbraucht und gĂŒnstiger wird. Nvidia nur ĂŒber Features Punkten kann und mit einer 1500 € Karte 20 % mehr liefert.
 
  • GefĂ€llt mir
Reaktionen: Colindo und Rockstar85
Taxxor schrieb:
Dann hast du fĂŒr beide Komponenten die Stock Werte die möglichst frei von anderen EinflĂŒssen sind.
Ja, aber nicht hier und heute. Was sollen die Jungs denn noch alles in der kurzen Zeit machen?

Wenn Wolfgang das liest, haut er dir die 3080 auf die Birne, aber der pennt sich bestimmt grade aus. ;)
 
  • GefĂ€llt mir
Reaktionen: medsommer
Also wenn ich mir mal im Schnitt die Ergebnisse von Techpowerup angucke, dann komme ich zum Entschluss, dass der 3900XT hier bei weitem nicht die korrekte Leistung der Karte ausspucken kann.

Teilweise sind wir noch bei 4K im CPU-Limit. Bei Techpowerup liegt die 3080 mit einem 9900K, 10900K teilweise 20-40 FPS! vor dem gleichen System mit 3900XT. Da rĂŒckt die 2080Ti natĂŒrlich viel nĂ€her ran.

Mit einem 9900K, 10900K kann man auf die hier aufgefĂŒhrten Ergebnisse quasi nochmal 10-15% Vorsprung "on Top" addieren, dann wird es realistisch.

Mit der 3090 wird das noch brutaler. Die lĂ€uft ja noch frĂŒher ins CPU Limit. Da wo die 3080 bereits im CPU Limit ist, liegt die 3090 erst recht im CPU Limit und kann sich kaum merklich von der 3080 absetzen.

Hier mĂŒsste man wirklich mit einem 10900K von Esenel testen. Mit 5.2Ghz und 4133er Speicher CL16 oder was auch immer.

So ist es total klar, dass hier die 3080 zerredet wird. Die AMD-"Bros" verstehen einfach noch immer nicht, das Intel da eine komplett andere Liga ist. Noch immer und dass mit dieser alten Architektur. Da kann man als 7nm Fanboy lachen wie man will. Intel deklassiert hier einfach alles.
 
  • GefĂ€llt mir
Reaktionen: CrustiCroc, gesperrter_User und gartenriese
falon schrieb:
Ich finde es gut das die Raytracing Performance besser geworden ist. Bei den VorgĂ€nger generation war es nicht so ĂŒberzeugend aber die jetzige wird wohl mein 1080 ablösen es wird auch mehr Games geben mit der Technik und auch wegen den kommenden Generation an Konsolen denke ich.

Nein da diese immer noch Teuer ist und die Konsolen es anders machen wurde im Vorfeld aber schon gesagt. 😉
 
KlaraElfer schrieb:
Fakten: 3900XT bremst Performance aus.
Ja aber nochmal. Was bedeutete das fĂŒr die zahlen im GPU Test hier? Wie gesagt, im Idealfall ist die 3080 dadurch nochmal 2% schneller als der Rest vom Feld.
 
  • GefĂ€llt mir
Reaktionen: Wintermute
Matthias80 schrieb:
Boah ist das ĂŒbel... das ja quasi Trump Stile wenn der beim lĂŒgen erwischt wird kommt auch sowas...
Ist die 3080 mit 10900K im Mittel schneller als mit dem 3900XT? Ja, wo siehst du eine LĂŒge?

Ist die Aussage, dass beide CPUs immer genug FPS fĂŒr die GPU liefern können falsch? Ja, wo siehst du eine LĂŒge?

oemmes schrieb:
Ja, aber nicht hier und heute. Was sollen die Jungs denn noch alles in der kurzen Zeit machen?
Nein, nicht hier und heute sondern vor einem Monat, als das Testsystem umgestellt wurde.
 
  • GefĂ€llt mir
Reaktionen: adAstra, KlaraElfer, .Sentinel. und 2 andere
@Taxxor Na dann musste dir einen Zen3 holen oder auf Intel wechseln wenn du 1080p oder WQHD spielst.

Ich wĂŒrde erstmal kommende Spiele abwarten,denn die werden sicherlich optimiert sein.
 
Krautmaster schrieb:
Ja aber nochmal. Was bedeutete das fĂŒr die zahlen im GPU Test hier? Wie gesagt, im Idealfall ist die 3080 dadurch nochmal 2% schneller als der Rest vom Feld.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/26.html

1080p: 9%
1440p: 7%
2160p: 2%

Windell schrieb:
@Taxxor Na dann musste dir einen Zen3 holen oder auf Intel wechseln wenn du 1080p oder WQHD spielst.
Werde ich auch, aber wohl erst nach der GPU^^
 
  • GefĂ€llt mir
Reaktionen: voalirus, KlaraElfer, .Sentinel. und 4 andere
Also, wenn die Big Navi fĂŒr 700€ mit 16GB VRAM zu haben wĂ€re, dann wĂŒsste ich welche GPU ich nehmen wĂŒrde, sollte die Karte Ă€hnlich schnell sein wie eine 3080. Mal das kommende Bethesda Mega-RPG nehmen und einige Mods dazupacken und schon sollte man höchstwahrscheinlich die 10GB-Grenze sprengen...

DLSS ist aber schon ein Killer-Feature und mehrere Blockbuster-Spiele werden das unterstĂŒtzen. Die Mehrleistung bei vergleichbarer - wenn nicht sogar besserer - BildqualitĂ€t wĂ€re nicht zu verachten. Daher bin ich da zwiegespalten. Ich denke, aktuell wĂ€re es noch safe, sich eine AMD-Karte ohne DLSS-Ă€hnlichem feature zu holen. Sollte in Zukunft DLSS in deutlich mehr Spielen implementiert werden, dann wĂ€re das ein Killer-Argument fĂŒr eine NV-Karte. Zur Zeit sehe ich das noch gelassen und kann in den paar Spielen darauf verzichten, wenn auch COD: Cold War schon eine geile Performance damit abliefern wird.
 
t3chn0 schrieb:
Also wenn ich mir mal im Schnitt die Ergebnisse von Techpowerup angucke, dann komme ich zum Entschluss, dass der 3900XT hier bei weitem nicht die korrekte Leistung der Karte ausspucken kann.

Teilweise sind wir noch bei 4K im CPU-Limit. Bei Techpowerup liegt die 3080 mit einem 9900K, 10900K teilweise 20-40 FPS! vor dem gleichen System mit 3900XT. Da rĂŒckt die 2080Ti natĂŒrlich viel nĂ€her ran.

Mit einem 9900K, 10900K kann man auf die hier aufgefĂŒhrten Ergebnisse quasi nochmal 10-15% Vorsprung "on Top" addieren, dann wird es realistisch.

Nichts gegen PowerTechup, aber die i9 werden da ohne PLO Limit betrieben und dĂŒrfen Fressen was sie wollen.

Naja zumindest 1000 Watt NTs sind wieder in. 😉
 
  • GefĂ€llt mir
Reaktionen: Wintermute
spamer schrieb:
Liest hier einer auch Mal genau das Fazit von Computerbase ?
Du interpretierst zu viel in die Aussage. Der Move von nVidia war gegen die Next Gen Konsolen. Und damit der Preis passt und eine AdÀquate Performance kommt, musste halt Samsung mit 8nm her. Und da ist die von den KÀufern erwartete Leistungssteigerung eben nur so möglich.
 
ZurĂŒck
Oben