Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Test GeForce RTX 3080 FE im Test: Nvidia Ampere lÀsst Turing alt aussehen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: GeForce RTX 3080 FE im Test: Nvidia Ampere lÀsst Turing alt aussehen
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- BeitrÀge
- 24.326
Ja aber was bedeutet das fĂŒr den Test?Taxxor schrieb:Und am Ende ĂŒber alle Spiele stehen immer noch +7% fĂŒr den 10900K, man wollte aber lieber die 0,5% durch PCIe 4.0 mitnehmen mit dem Ryzen^^
Im Zweifelsfall staucht die limitierende CPU das Feld um 7% zusammen. Die 3080 wird dabei kaum um 1:1 denselben Prozentsatz profitieren wÀhrend alle andere GPU stehen bleiben.
HeiĂt aus 30% Vorsprung zur 2080 TI werden dann halt 32% und das war's.
K
KlaraElfer
Gast
Harsiesis schrieb:3080 = 4K Karte - bei 4K spielt es keine Rolle ob 10900K oder AMD 3900XT
Eure Wahrnehmung ist wirklich speziell und eklatant selektiv.
Das sind satte 11% in Full HD, 8% in WQHD und 2% in UHD, also quasi in Full HD das 22 fache was PCIE 4.0 bringt, in WQHD das 14 fache was PCIe 4.0 bringt und in UHD das 4 fache was PCIE 4.0 bringt. (Ich beziehe mich hier auf die Messungen bei Computerbase).
Fakten: 3900XT bremst Performance aus.
AMD Fans: Lasst mal den AMD Prozessor nehmen wegen PCIE 4.0, ganz wichtig!
Neutrale: Testet mal lieber beides und entscheidet euch dann fĂŒr die schnellere CPU.
Intel Fans: Ja.
Krautmaster schrieb:Naja, bei nem GPU Test macht das wie gesagt allenfalls in 720p und 1080p einen Unterschied. Und ob ich deswegen auf quasi veraltete Schnittstellen und weniger Threads setzen wĂŒrde. Vermutlich nicht.
Wie bereits gezeigt ist das falsch, selbst in WQHD sind die Unterschiede deutlich.
Es wĂ€re schön, wenn zumindest Teile des Forums das unaufgeregt zur Kenntnis nehmen wĂŒrden.
PCie 4.0 ist schön, Big Navi wird allerdings mit einem 10900K und PCIE 3.0 besser performen, es sei denn, irgendetwas unerwartetes passiert.
danyundsahne
Commodore
- Registriert
- Okt. 2007
- BeitrÀge
- 4.506
Ja, das ist mir schon bewusst, dass es hier nur noch um BIOS Einstellungen wie Takt und entsprechende Vcore dazu geht um hier einen möglich guten Schlag gegen Ampere zu starten. Architekturbedingt Ă€ndert sich da natĂŒrlich nichts mehr.DaBas schrieb:Das wird bei Big Navi nicht mehr groĂ möglich sein, da Big Navi in knapp 6 Wochen vorgestellt wird. Allenfalls ĂŒber das Bios der Karten kann man noch leicht was drehen, was Taktverhalten und Powerlimit betrifft. Also wie bei der RX 5600XT, als man in allerletzter Sekunde mehr Takt freigegeben hatte. Aber so spĂ€t, das die Firmware der Karten von den Kunden selber geflashed werden muĂten.
![LĂ€cheln :) :)](/forum/styles/smilies/smile.gif)
Aber da es noch eine Weile bis AIBs ihre Karten bauen dĂŒrfen, kann hier AMD schon noch etwas an ihrem Ref Design BIOS rumschrauben wie sie wollen....und natĂŒrlich die Marketing Folien fĂŒr den 28.10. vorbereiten
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
- Registriert
- Mai 2011
- BeitrÀge
- 21.391
oemmes schrieb:Aber was willste machen? Um die RealitĂ€tsnĂ€he zu behalten muĂt du eben mit "genormten" Werten/CPUs/RAM testen.
Mit ner CPU unter Wasser und oced, ĂŒbertaktetem RAM und ner 3080 unter Wasser geht bestimmt noch was.
(Wenn man nen 1.000W Netzteil hat)
Im Grunde ganz einfach: In den GPU Tests nimmt man Stock GPUs und stellt ne ĂŒbertaktete und optimierte CPU zur Seite und in den CPU Test nimmt man Stock CPUs und stellt ne ĂŒbertaktete und optimierte GPU zur Seite.
Dann hast du fĂŒr beide Komponenten die Stock Werte die möglichst frei von anderen EinflĂŒssen sind.
Mcr-King
Admiral
- Registriert
- Juli 2016
- BeitrÀge
- 7.267
Rockstar85 schrieb:Sehe ich aber Àhnlich.. die 1080Ti war auch keine 4K Karte, sondern eher 1440p.. Man muss aber dabei die Spiele und die Engine betrachten.. Was ich regelrecht beeindruckend finde, dass der RTX Einbruch nicht so heftig wie bei der 20er Serie ist. Nichts desto Trotz muss ein 2080S Nutzer sich nun keine neue Karte kaufen.
Sag niemals nie.. Nvidia hat die Karte nicht ohne Grund auf 320W TDP gesetzt, obwohl es in fast keinem Leistungssprung resultiert.
Dass liegt an der Watt und Power Teilung der Turnig Karten konnte die karte RTX musste Rasterirung und DSSL was ein bussen. đ
Der Igor hat dazu einen schönen Artikel.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- BeitrÀge
- 24.326
Das tut CB ja nicht, Subtimings usw optimieren ist naheliegendes Optimizing das jeder betrieben kann. Man wird sich kaum mit LN 2 und 5 GHz RAM testen.oemmes schrieb:Aber was willste machen? Um die RealitĂ€tsnĂ€he zu behalten muĂt du eben mit "genormten" Werten/CPUs/RAM testen.
Mir ging's da eher drum dass es ne solide realitĂ€tsnahe Basis fĂŒr ne 3080 ist die auch PCIe 4 kann.
eLw00d
Lieutenant
- Registriert
- Dez. 2005
- BeitrÀge
- 1.007
CloudConnected schrieb:Wann kommen die Customtests![]()
Morgen ab 15 uhr, soweit ich weiĂ
Darkscream
Fleet Admiral
- Registriert
- Feb. 2010
- BeitrÀge
- 17.542
Dummerweise ist das kein richtiges undervolting, so was macht man mit dem Curve Editor und verliert nicht mal annÀhernd so viel Leistung.RNG_AGESA schrieb:undervolting um -70W ca. 8-12% weniger FPS
gr1nd schrieb:Das wĂ€re wĂŒnschenswert, ist aber eher unrealistisch.
Liest hier einer auch Mal genau das Fazit von Computerbase ?
Dass die neuen Radeons aber an die GeForce RTX 3080 heran reichen werden, auch dazu liegen noch keine gesicherten Informationen vor. Einen Hinweis darauf liefert ausgerechnet Nvidia mit Leistung und Preis der GeForce RTX 3080.
Wieso sollte Nvidia eine Karte am Rande des machbaren takten (50 Watt mehr bei 4% mehr FPS), das erschlieĂt sich doch nur ĂŒber einem Respekt zur kommende AMD Karte. Die beiden wissen doch vorher schon mehr voneinander ĂŒber diverse Quellen als unser einer.
CB hat das doch fĂŒr mich mt dem oben genannten Zitat indirekt bestĂ€tigt.
Nivida hat doch immer mit Effizienz gepunktet, wenn sie nicht gezwungen waren viel Leistung per Brechstange zu liefern siehe Fermi.
Wenn die jetzt so einen Schritt gehen, hohe TDP mit einem guten LĂŒfter kombinieren um kein Thermi zu werden, sieht es doch fĂŒr mich so aus als hĂ€tte AMD wirklich etwas in petto.
Ich wĂŒrde sogar soweit gehen, dass die neue 6900 gleichschnell ist dabei weniger verbraucht und gĂŒnstiger wird. Nvidia nur ĂŒber Features Punkten kann und mit einer 1500 ⏠Karte 20 % mehr liefert.
O
oemmes
Gast
Ja, aber nicht hier und heute. Was sollen die Jungs denn noch alles in der kurzen Zeit machen?Taxxor schrieb:Dann hast du fĂŒr beide Komponenten die Stock Werte die möglichst frei von anderen EinflĂŒssen sind.
Wenn Wolfgang das liest, haut er dir die 3080 auf die Birne, aber der pennt sich bestimmt grade aus.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Also wenn ich mir mal im Schnitt die Ergebnisse von Techpowerup angucke, dann komme ich zum Entschluss, dass der 3900XT hier bei weitem nicht die korrekte Leistung der Karte ausspucken kann.
Teilweise sind wir noch bei 4K im CPU-Limit. Bei Techpowerup liegt die 3080 mit einem 9900K, 10900K teilweise 20-40 FPS! vor dem gleichen System mit 3900XT. Da rĂŒckt die 2080Ti natĂŒrlich viel nĂ€her ran.
Mit einem 9900K, 10900K kann man auf die hier aufgefĂŒhrten Ergebnisse quasi nochmal 10-15% Vorsprung "on Top" addieren, dann wird es realistisch.
Mit der 3090 wird das noch brutaler. Die lĂ€uft ja noch frĂŒher ins CPU Limit. Da wo die 3080 bereits im CPU Limit ist, liegt die 3090 erst recht im CPU Limit und kann sich kaum merklich von der 3080 absetzen.
Hier mĂŒsste man wirklich mit einem 10900K von Esenel testen. Mit 5.2Ghz und 4133er Speicher CL16 oder was auch immer.
So ist es total klar, dass hier die 3080 zerredet wird. Die AMD-"Bros" verstehen einfach noch immer nicht, das Intel da eine komplett andere Liga ist. Noch immer und dass mit dieser alten Architektur. Da kann man als 7nm Fanboy lachen wie man will. Intel deklassiert hier einfach alles.
Teilweise sind wir noch bei 4K im CPU-Limit. Bei Techpowerup liegt die 3080 mit einem 9900K, 10900K teilweise 20-40 FPS! vor dem gleichen System mit 3900XT. Da rĂŒckt die 2080Ti natĂŒrlich viel nĂ€her ran.
Mit einem 9900K, 10900K kann man auf die hier aufgefĂŒhrten Ergebnisse quasi nochmal 10-15% Vorsprung "on Top" addieren, dann wird es realistisch.
Mit der 3090 wird das noch brutaler. Die lĂ€uft ja noch frĂŒher ins CPU Limit. Da wo die 3080 bereits im CPU Limit ist, liegt die 3090 erst recht im CPU Limit und kann sich kaum merklich von der 3080 absetzen.
Hier mĂŒsste man wirklich mit einem 10900K von Esenel testen. Mit 5.2Ghz und 4133er Speicher CL16 oder was auch immer.
So ist es total klar, dass hier die 3080 zerredet wird. Die AMD-"Bros" verstehen einfach noch immer nicht, das Intel da eine komplett andere Liga ist. Noch immer und dass mit dieser alten Architektur. Da kann man als 7nm Fanboy lachen wie man will. Intel deklassiert hier einfach alles.
Mcr-King
Admiral
- Registriert
- Juli 2016
- BeitrÀge
- 7.267
falon schrieb:Ich finde es gut das die Raytracing Performance besser geworden ist. Bei den VorgĂ€nger generation war es nicht so ĂŒberzeugend aber die jetzige wird wohl mein 1080 ablösen es wird auch mehr Games geben mit der Technik und auch wegen den kommenden Generation an Konsolen denke ich.
Nein da diese immer noch Teuer ist und die Konsolen es anders machen wurde im Vorfeld aber schon gesagt. đ
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- BeitrÀge
- 24.326
Ja aber nochmal. Was bedeutete das fĂŒr die zahlen im GPU Test hier? Wie gesagt, im Idealfall ist die 3080 dadurch nochmal 2% schneller als der Rest vom Feld.KlaraElfer schrieb:Fakten: 3900XT bremst Performance aus.
- Registriert
- Mai 2011
- BeitrÀge
- 21.391
Ist die 3080 mit 10900K im Mittel schneller als mit dem 3900XT? Ja, wo siehst du eine LĂŒge?Matthias80 schrieb:Boah ist das ĂŒbel... das ja quasi Trump Stile wenn der beim lĂŒgen erwischt wird kommt auch sowas...
Ist die Aussage, dass beide CPUs immer genug FPS fĂŒr die GPU liefern können falsch? Ja, wo siehst du eine LĂŒge?
Nein, nicht hier und heute sondern vor einem Monat, als das Testsystem umgestellt wurde.oemmes schrieb:Ja, aber nicht hier und heute. Was sollen die Jungs denn noch alles in der kurzen Zeit machen?
- Registriert
- Mai 2011
- BeitrÀge
- 21.391
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/26.htmlKrautmaster schrieb:Ja aber nochmal. Was bedeutete das fĂŒr die zahlen im GPU Test hier? Wie gesagt, im Idealfall ist die 3080 dadurch nochmal 2% schneller als der Rest vom Feld.
1080p: 9%
1440p: 7%
2160p: 2%
Werde ich auch, aber wohl erst nach der GPU^^Windell schrieb:@Taxxor Na dann musste dir einen Zen3 holen oder auf Intel wechseln wenn du 1080p oder WQHD spielst.
Also, wenn die Big Navi fĂŒr 700⏠mit 16GB VRAM zu haben wĂ€re, dann wĂŒsste ich welche GPU ich nehmen wĂŒrde, sollte die Karte Ă€hnlich schnell sein wie eine 3080. Mal das kommende Bethesda Mega-RPG nehmen und einige Mods dazupacken und schon sollte man höchstwahrscheinlich die 10GB-Grenze sprengen...
DLSS ist aber schon ein Killer-Feature und mehrere Blockbuster-Spiele werden das unterstĂŒtzen. Die Mehrleistung bei vergleichbarer - wenn nicht sogar besserer - BildqualitĂ€t wĂ€re nicht zu verachten. Daher bin ich da zwiegespalten. Ich denke, aktuell wĂ€re es noch safe, sich eine AMD-Karte ohne DLSS-Ă€hnlichem feature zu holen. Sollte in Zukunft DLSS in deutlich mehr Spielen implementiert werden, dann wĂ€re das ein Killer-Argument fĂŒr eine NV-Karte. Zur Zeit sehe ich das noch gelassen und kann in den paar Spielen darauf verzichten, wenn auch COD: Cold War schon eine geile Performance damit abliefern wird.
DLSS ist aber schon ein Killer-Feature und mehrere Blockbuster-Spiele werden das unterstĂŒtzen. Die Mehrleistung bei vergleichbarer - wenn nicht sogar besserer - BildqualitĂ€t wĂ€re nicht zu verachten. Daher bin ich da zwiegespalten. Ich denke, aktuell wĂ€re es noch safe, sich eine AMD-Karte ohne DLSS-Ă€hnlichem feature zu holen. Sollte in Zukunft DLSS in deutlich mehr Spielen implementiert werden, dann wĂ€re das ein Killer-Argument fĂŒr eine NV-Karte. Zur Zeit sehe ich das noch gelassen und kann in den paar Spielen darauf verzichten, wenn auch COD: Cold War schon eine geile Performance damit abliefern wird.
Mcr-King
Admiral
- Registriert
- Juli 2016
- BeitrÀge
- 7.267
t3chn0 schrieb:Also wenn ich mir mal im Schnitt die Ergebnisse von Techpowerup angucke, dann komme ich zum Entschluss, dass der 3900XT hier bei weitem nicht die korrekte Leistung der Karte ausspucken kann.
Teilweise sind wir noch bei 4K im CPU-Limit. Bei Techpowerup liegt die 3080 mit einem 9900K, 10900K teilweise 20-40 FPS! vor dem gleichen System mit 3900XT. Da rĂŒckt die 2080Ti natĂŒrlich viel nĂ€her ran.
Mit einem 9900K, 10900K kann man auf die hier aufgefĂŒhrten Ergebnisse quasi nochmal 10-15% Vorsprung "on Top" addieren, dann wird es realistisch.
Nichts gegen PowerTechup, aber die i9 werden da ohne PLO Limit betrieben und dĂŒrfen Fressen was sie wollen.
Naja zumindest 1000 Watt NTs sind wieder in. đ
G
gr1nd
Gast
Du interpretierst zu viel in die Aussage. Der Move von nVidia war gegen die Next Gen Konsolen. Und damit der Preis passt und eine AdÀquate Performance kommt, musste halt Samsung mit 8nm her. Und da ist die von den KÀufern erwartete Leistungssteigerung eben nur so möglich.spamer schrieb:Liest hier einer auch Mal genau das Fazit von Computerbase ?