News GPU-Gerüchte: GeForce RTX 3080 Ti kommt mit 20 GB GDDR6X

.Sentinel. schrieb:
Muss diese Kriegsrethorik sein?

Im PCGH- Test schneidet die 3070 im Schnitt von 2020/2021 um 44% schneller ab, als die 5700xt.
Also ist anzunehmen, dass Du hier aus welchem Grund auch immer Cherry- Picking betreibst.

In der Meta- Analyse von 3d Center, der wiederum viele, viele Tests mittelt, siehts übrigens nicht viel anders aus.

Wir reden hier nur von einem Stück Silizium!

Wen interessieren schon irgendwelche Durchschnittswerte, die wohl auch noch über alle Auflösungen gemittelt ermittelt wurden.
Tech ist schnelllebig und wer nicht am Ball bleibt der kauft sich dann anhand irgendwelcher veralteten Benchmarks die 1. sowieso nur eine Momentaufnahme abbilden uns 2. Unter standardisierten Bedingungen mit zum Großteil nicht mehr aktuellen Spielen erstellt wurden eine Karte die bei aktuellen DX12 Spielen förmlich implodiert und bei weitem nicht die von dir in Aussicht gestellten 44% bei aktuellen Spielen bringen wird.

Bei aktuellen AAA Spielen gibt die 3070 nun mal ein klägliches Bild ab und ich könnte dir noch mehr als die 3 aktuellsten AAA (was für ein Zufall?) als Beispiel nennen, der deine Cherry-Picking These ins leere laufen lässt.

Ach ja, wer meint das es am nicht geeigneten Testsystem hier auf Computerbase liegen könnte, das die Werte nicht so raus kommen wie man es gerne hätte, der liegt falsch, denn bei PCGH kommen sie auf in etwa das selbe Ergebnis:
valhalla pcgh.png
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Ach ja, wer meint das es am nicht geeigneten Testsystem hier auf Computerbase liegen könnte, das die Werte nicht so raus kommen wie man es gerne hätte, der liegt falsch, denn bei PCGH kommen sie auf in etwa das selbe Ergebnis:

Das gleiche "Problem" wie bei CB.
1605346733595.png


Zum Vergleich
1605347008633.png

1605347054238.png

https://www.techpowerup.com/review/...la-benchmark-test-performance-analysis/4.html

Der Test in Full-HD ist schlichtweg unbrauchbar, aus welchen Gründen auch immer fällt er auf den AMD Systemen ins Wasser und entspricht nicht dem Leistungsunterschied der Karten, den man bei 4K sieht. Der plötzliche "Leistungssprung" der keiner ist, rührt auf dem Wechsel des Testsystems.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeltaPee, foo_1337 und .Sentinel.
xexex schrieb:
Der Test in Full-HD ist schlichtweg ein sehr schlechter unbrauchbar, auch welchen Gründen auch immer fällt er auf den AMD Systemen ins Wasser und entspricht nicht dem Leistungsunterschied der Karten, den man bei 4K sieht.
Und genau das ist es, was ich scharf bei allen Publikationen angemahnt habe. Die User ziehen mit diesen verfälschten Werten durch die Foren....

Den Salat haben wir jetzt in mehrfacher Form. Es ist und bleibt mir ein Rätsel, wie technik- affine Sites Messungen statt mit dem 10900K mit einem je nach Szenario die Werte deutlich verfälschenden wil bremsenden 3900x durchführen konnten und somit den Boden der wissenschaftlichen Ermittlung von Werten weiter verlassen haben, als notwendig.

Genauso wie ich jetzt den Kopf schütteln würde, wenn man nicht mit der spielestärksten bis zum erbrechen hochgezüchteten Ryzen- Plattform auf 5xxxxer Basis zur Ermittlung der Leistungsfähigkeit von GPUs verwenden würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: angband1, foo_1337 und xexex
.Sentinel. schrieb:
Genauso wie ich jetzt den Kopf schütteln würde, wenn man nicht mit der spielestärksten bis zum erbrechen hochgezüchteten Ryzen- Plattform auf 5xxxxer Basis testen würde.

Auch da wird es nicht besser....
We'll test the game on the PC platform relative to graphics card performance with the AMD/NVIDIA graphics card drivers. With this title, we'll also move towards a new test platform, based on AMD Ryzen 9 5950X, currently the fastest gaming processors your money can get you.
https://www.guru3d.com/articles-pag...-graphics-performance-benchmark-review,1.html

1605347936120.png


1605347967525.png



Ich finde schlichtweg FullHD, wenn man die Leistung der Grafikkarten miteinander vergleichen will, ziemlich unbrauchbar.
 
  • Gefällt mir
Reaktionen: angband1 und foo_1337
xexex schrieb:
Ich finde schlichtweg FullHD, wenn man die Leistung der Grafikkarten miteinander vergleichen will, ziemlich unbrauchbar.
Achso- Klar- Auflösung und Settings müssen natürlich so hoch als möglich gewählt werden. Sonst lastet man die Shader nicht aus und nimmt die CPU nicht maximal aus dem Spiel.
 
Testsystem PCGH:
AMD Ryzen 9 3900X (12C/24T) @ 4,5 GHz (all-core), Asus X570 Crosshair VIII, 32 GiB Corsair DDR4-3800 (CL14; 1T)

Mal eine kleine Frage an all jene die eine 3070 ergattern konnten. Wer von euch hat eine CPU die schneller ist als der oben erwähnte übertaktetet 3900X, der mit DDR4-3800 CL14 Speicher betrieben wird?

Und bitte detaillierte Angaben Takt, Speicher etc.

Das ist doch immer eine Frage nach dem Verhältnis, bei einer 3080 / 3090 lass ich das Argument ja noch gelten das man auch das schnellstmögliche Testsystem verwenden soll.

Aber wer eben ein armer Schlucker ist:D und sich nur eine 3070 anstatt eine 3080 /3090 leisten kann, der leistet sich in der Regel auch nur eine dazu passende CPU.

Das Argument das ich normalerweise gelten lassen würde bzgl. der Zukunftsfähigkeit (würde man sehen wenn die CPU nicht limitiert), lasse ich bei einer 3070 / 3080 nicht gelten, das sind aufgrund des mangelhaften Speicher, Karten für das hier und jetzt und wenn die 3070 im jetzt bei aktuellen Spielen bei >90% der Leute in Kombination mit einer angemessenen CPU versagt, dann ist das eben wie bereits erwähnt ein Armutszeugnis.

Mal davon abgesehen das in Asassins Creed Valhalla die verwendetet CPU gar keine Rolle spielt.

Deshalb ist auch ein 4k Vergleich absurd und die Karten zielen auch ganz klar in Richtung max. 1440p daher ist für mich bei der Betrachtung dieser beiden Karten (3070 vs. 5700XT) 4k außen vor.

.Sentinel.@
I
st es sinnvoll eine z.B.: GTX 1650 (4GB) nur in 4k zu testen?

Jede Karte hat ihren Zielbereich. Darüber und darunter kann getestet werden aber wirklich relevant in den meisten Fällen ist eben die Auflösung auf die abgezielt wird und die ist eben bei der 5700XT / 3070 1440p und nicht 4k.

3090 / 3080 (limitiert auf das hier und jetzt, wenn überhaupt:freaky:) / 2080Ti wären das 4k
2070 / 2080 / 5700 / 5700XT 1440p
5500XT / 5600XT / 1650 /1660 1080p
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Deshalb ist auch ein 4k Vergleich absurd und die Karten zielen auch ganz klar in Richtung max. 1440p daher ist für mich bei der Betrachtung dieser beiden Karten (3070 vs. 5700XT) 4k außen vor.

In 1440p ergibt sich ungefähr ein Zwischenbild der Ergebnisse.
1605351064044.png


Letztendlich ist das Bild ganz simpel, auch welchen Gründen auch immer, schneiden die Navi GPUs bei niedrigen Auflösungen bei denen die CPU noch einen entscheidenden Faktor beitragen kann, auf AMD Systemen besser ab. Bei hohen Auflösungen, bei denen die GPU der alleinige entscheidende Faktor ist, zeigt sich die eigentliche Leistungsstärke der GPUs.

Ob das auf irgendwelche Optimierungen zwischen den AMD CPUs und aktuellen AMD GPUs zurückzuführen ist? Womöglich, leider kenne ich aktuell keine Seite die dem Thema auf den Grund gegangen wäre. Man sollte aber auch AC:Valhalla nicht als die einzige Basis ansehen, es wurde auch schon bei CB festgestellt, das dieser Titel den Navi Karten einfach liegt.
1605351849461.png
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Testsystem PCGH:
AMD Ryzen 9 3900X (12C/24T) @ 4,5 GHz (all-core), Asus X570 Crosshair VIII, 32 GiB Corsair DDR4-3800 (CL14; 1T)

Mal eine kleine Frage an all jene die eine 3070 ergattern konnten. Wer von euch hat eine CPU die schneller ist als der oben erwähnte übertaktetet 3900X, der mit DDR4-3800 CL14 Speicher betrieben wird?

Und bitte detaillierte Angaben Takt, Speicher etc.

Das ist doch immer eine Frage nach dem Verhältnis, bei einer 3080 / 3090 lass ich das Argument ja noch gelten das man auch das schnellstmögliche Testsystem verwenden soll.

Aber wer eben ein armer Schlucker ist:D und sich nur eine 3070 anstatt eine 3080 /3090 leisten kann, der leistet sich in der Regel auch nur eine dazu passende CPU.

Das Argument das ich normalerweise gelten lassen würde bzgl. der Zukunftsfähigkeit (würde man sehen wenn die CPU nicht limitiert), lasse ich bei einer 3070 / 3080 nicht gelten, das sind aufgrund des mangelhaften Speicher, Karten für das hier und jetzt und wenn die 3070 im jetzt bei aktuellen Spielen bei >90% der Leute in Kombination mit einer angemessenen CPU versagt, dann ist das eben wie bereits erwähnt ein Armutszeugnis.

Mal davon abgesehen das in Asassins Creed Valhalla die verwendetet CPU gar keine Rolle spielt.

Deshalb ist auch ein 4k Vergleich absurd und die Karten zielen auch ganz klar in Richtung max. 1440p daher ist für mich bei der Betrachtung dieser beiden Karten (3070 vs. 5700XT) 4k außen vor.

.Sentinel.@
I
st es sinnvoll eine z.B.: GTX 1650 (4GB) nur in 4k zu testen?
Ja, solange es den VRAM nicht zum Überquillen bringt.

Anderweitig ist es schlichtweg schlecht möglich die Shaderleistung, auf die Sich der gesamte Spielemarkt verlagert hat, zuverlässig zu testen.

Es sollte überall selbstverständlich sein, dass man unabhängig des zu tesytenden Typs an Hardware, etwaige Störfaktoren, die das Ergebnis beeinflussen können, weitestegehend vermeidet. Unabhängig der Hardware, die im Hintergrund arbeitet.
 
xexex schrieb:
Letztendlich ist das Bild ganz simpel, auch welchen Gründen auch immer, schneiden die Navi GPUs bei niedrigen Auflösungen bei denen die CPU noch einen entscheidenden Faktor beitragen kann, auf AMD Systemen besser ab. Bei hohen Auflösungen, bei denen die GPU der alleinige entscheidende Faktor ist, zeigt sich die eigentliche Leistungsstärke der GPUs.

Ob das auf irgendwelche Optimierungen zwischen den AMD CPUs und aktuellen AMD GPUs zurückzuführen ist? Womöglich, leider kenne ich aktuell keine Seite die dem Thema auf den Grund gegangen wäre.
Soviel dazu das die CPU in Asassins Creed Valhalla limitieren würde.
cpu valhalla.png
 
ArrakisSand schrieb:
das die Werte nicht so raus kommen wie man es gerne hätte, der liegt falsch, denn bei PCGH kommen sie auf in etwa das selbe Ergebnis:

Logisch wenn man solche Karten in Full HD testet. Ernsthaft, was soll das? Wenn ich GPUs Testen will nehme ich 4K, will ich CPU´s testen 720p.
 
Pisaro schrieb:
Logisch wenn man solche Karten in Full HD testet. Ernsthaft, was soll das? Wenn ich GPUs Testen will nehme ich 4K, will ich CPU´s testen 720p.
Die Karten sind nun mal nicht für 4k geschaffen worden, das wirst du noch schmerzlich genug erfahren, wenn die
ersten Titel kommen die deutlich mehr als 8GB benötigen werden.
Die Karten werden ja auch in 4K getestet und solange der Speicher nicht limitiert und das SI ausreichend dimensioniert ist spricht auch nichts dagegen das man es nicht so testen sollte.
Und auf dem Papier hast du dann am Ende eine Karte die eben 30-40% schneller ist oder von mir aus können es auch 100% sein.

Aber glaubst du wirklich die 3070 / 3080 mit ihren 8 bzw. 10GB sind zukunftsfähig?
Das ist nicht das gleiche wie bei einer CPU die man mindestens 5 Jahre behalten möchte.
Bei der es sinnvoll ist in 720p max. (oder gar weniger) zu testen um daraus ableiten zu können das sie auch bei den nächsten Grafikkarten der kommenden Jahre noch geeignet ist, um diese auch ausreichend befeuern zu können.

Und wie im vorliegenden Fall (asassin Creed Valhalla) ist es ja nicht so das die CPU limitieren würde sondern
die 5700XT aus ganz anderen Gründen, einfach mehr relative Leistung in 1080 /1440p abrufen kann als die 2080ti / 3070 etc. und daher müssen alle relevanten Auflösungen betrachtet werden weil RDNA1 anscheinend einfach besser in geringeren Auflösungen ist. Bzw. seine Shader besser auslasten kann und nicht weil bei Ampere / Turing etwas limitieren würde.

Was bringt es also jemanden mit einem 1440p Monitor und einem entsprechenden System, wenn er im hier und jetzt gerade mal 10% mehr FPS als mit einer 3070 erreichen kann.
Wenn du nicht wüsstest auf welchem System welche Grafikkarte installiert ist, würdest du wohl noch nicht mal einen Unterschied erkennen können. (Außer das bei AMD das Bild vielleicht etwas schärfer ist:p)
 
Zuletzt bearbeitet:
Ich glaube einfach du verstehst "GPU Test" nicht wirklich. Denn da nimmt man Auflösungen und Grafiksettings die die GPU komplett am Anschlag laufen lassen. Umgekehrt bei CPU Tests. Da nimmt man normalerweise die kleinste Auflösung die man nehmen kann und stellt alle Grafiksettings runter die nicht auf die CPU gehen.

Denn wenn du ne CPU auf 1440p oder 4k testest hast du das selbe Problem wie bei deinem GPU Test auf Full HD. Alle rücken eng zusammen und du kannst keine Rückschlüsse ziehen welche GPU/CPU denn wirklich schneller ist.

Keiner spielt in 720p, in 1440p oder höher sind alle CPUs dann oft relativ gleich schnell (Ausnahmen bestätigen die Regel). Dennoch sind 720p Test SEHR sinnvoll, genauso wie 4k Tests bei Grafikkarten.

Interessant ist übrigens das auch CB zwischen 5700XT und 2080 Ti (also RTX 3070 Niveau) knapp 40% Unterschied in Full HD ausmisst. So wie man messen sollte: Einen Durchschnitt aller Spiele und kein Cherry Picking.

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/#abschnitt_empfehlungen_fuer_full_hd
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex und Shir Khan
Pisaro schrieb:
Vollzitat entfernt.
Sorry aber du hast anscheinend nicht eine einzige Zeile gelesen oder verstanden die ich geschrieben habe.

Auf dem Papier magst du recht haben, aber in der Praxis ist es nun mal so, das wenn ich im hier und jetzt auf meinem 1440p Monitor zocken will (so wie es ca. 80% aller Besitzer dieser Leistungsklasse in 1080p oder 1440p tun) man so gut wie keinen Unterschied bei aktuellen AAA Spielen zwischen einer 5700XT, 2080 / 2080ti oder einer 3070 bemerkt.
 
Zuletzt bearbeitet von einem Moderator:
ArrakisSand schrieb:
man so gut wie keinen Unterschied bei aktuellen AAA Spielen zwischen einer 5700XT, 2080 / 2080ti oder einer 3070 bemerkt.

Natürlich merkt man das. Wie gesagt, selbst CB hat von einer 5700XT bis zur RTX 2080 TI 40% Unterschied gemessen, in Full HD wohlgemerkt. Du bringst nur nen Benchmark von einem einzigen Spiel. Das ist halt nicht aussagekräftig.

Hier dann nochmal in 1440p: https://www.computerbase.de/2020-09...itt_benchmarks_in_2560__1440_sowie_1920__1080 da ist eine 2080 Ti über 40% schneller als eine 5700XT. Selbst unter Full HD sind es über 30%....

Du siehst also: Cherry Picking (Benchmark von einem Spiel) hat gar keine Aussagekraft.
 
  • Gefällt mir
Reaktionen: foo_1337
ArrakisSand schrieb:
man so gut wie keinen Unterschied bei aktuellen AAA Spielen zwischen einer 5700XT, 2080 / 2080ti oder einer 3070 bemerkt.
So ein Blödsinn.

WDL: 23fps Differenz zur 3070 (kein DLSS aktiv)

1605364731739.png

AC Valhalla: Hier ist man mit der 3070 knapp an den erwünschten 60fps, mit der 5700xt bei knapp 50. Wie man hier auch gut sieht, ist der Sprung von der 3070 zur 3080 in diesem Game bei weitem nicht so hoch wie bei z.B. WDL.
1605365036153.png


Dirt 5: (ist das überhaupt AAA? ;) ) Hier sind es 13 fps mehr zur 5700xt. Auch da ist die 3070 bei guten 60fps angesiedelt, während es bei der 5700xt nur 50 sind.

1605365550456.png


Zu Cold War finde ich keinen Benchmark, aber was man an den YT Videos schon sieht ist, dass der Unterschied zw. der 5700xt und der 3070 signifikant in 1440p ist (120 vs 90fps). Aber da hier völlig unterschiedliche Bedingungen herrschen, macht dieser Vergleich keinen Sinn.
Dazu kommt, dass 2 von diesen 4 (oder 3, wenn man Dirt nicht als AAA zählt) Titeln DLSS nutzen können. Und der nächste AAA Knaller (CP2077) wird auch DLSS unterstützen.
Welchen aktuellen AAA Titel hab ich vergessen?
 
Was hier eigentlich zum Thema Preisentwicklung überhaupt nicht besprochen wurde... Meiner Meinung nach fand die Explosion der Preise mit dem Mining-Hype statt. Und danach gingen diese nicht mehr runter... das ist der Grund für die aktuellen Mondpreise und weniger die Kosten für F&E.
 
DiamondDog schrieb:
Was hier eigentlich zum Thema Preisentwicklung überhaupt nicht besprochen wurde... Meiner Meinung nach fand die Explosion der Preise mit dem Mining-Hype statt. Und danach gingen diese nicht mehr runter... das ist der Grund für die aktuellen Mondpreise und weniger die Kosten für F&E.

Ich halte dagegen und behaupte: die Explosion der Preise fand statt, als aus mir weiterhin unerklärlichen Gründen in der breiten Masse plötzlich akzeptiert wurde, dass eine Generation X+1 Grafikkarte mehr kostet, weil sie ja schneller ist als die Generation X Grafikkarte. Das Faszinierende daran: es denken immer noch viele Kunden so, auch HW Magazine lassen durchblicken, dass dieser Gedankengang verbreitet ist bei ihnen in den Redaktionen.

Warum das so wurde, ist mir aber wirklich unerklärlich. Seit ich Hardware kaufe (so ab ca. 1998), war IMMER die neue HW Generation schneller und besser als die Vorgängergeneration und bis auf ein paar kleinere Preissteigerungen kostete die neue Generation trotzdem in etwa soviel wie die Vorgängergeneration. Man stelle sich vor, Intel hätte sich die 10% Leistungssteigerung ihrer Prozessoren jedesmal mit 10% Preissteigerung erkauft, ein 10900K würde heute nicht immer noch 500€ kosten, sondern satte 1000€, schon nur wenn man vom i7-870 als Basis ausgeht.

Natürlich ist mir bewusst, dass die Bereitschaft der Kunden, den geforderten Preis zu bezahlen, wichtiger ist (siehe Mondpreise für Handys aktuell...). Aber WARUM sind die Kunden bereit, solche Preise zu bezahlen? Eben weil absurde Gedanken wie "die RTX 2080 leistet ja deutlich mehr als die GTX 1080, daher darf sie auch mehr kosten" Einzug erhalten haben.
 
  • Gefällt mir
Reaktionen: DiamondDog
Trimipramin schrieb:
Kurze Überlegung: Wenn die 3080Ti kommt, kann es passieren, dass man die 3090 dann einfach ausm Programm streicht?
Nein, Unsinn, warum sollten sie, die RTX 3090 die viel leistungsstärker als die RTX 3080TI, einstampfen?

Du mußt sie dir doch nicht kaufen!

Davon mal abgesehen macht die RTX 3090, die RTX 3080 TI, 100 pro im Rendering fertig!
In Spielen ist sie auch besser, wenn auch nur minimal.

Zudem kann nur bei der RTX 3000 Serie, ausdrücklich, nur die RTX 3090 Sli also NV Link!

Keine andere RTX kann und wird das können!

Und Nein Sli, ist nicht tot, es wurde nur weiter entwickelt und heißt jetzt NV Link!

Es wird immer Leute geben, die sich sagen, " Entweder das beste, oder garnichts!"

Ich habe eine RTX 3090, und werde mir auch noch eine zweite kaufen, und dazu logischer weise noch eine NV Link Bücke.

Das und die geringere Bandbreite ist der Grund, warum ich mir keine RTX 3080TI kaufe!

Und mir lieber eine RTX 3090 gekauft habe!

Achja Nvidia, ist auch dabei Smart, für die RTX 3000 Serie zu entwickeln,

was dann als Software Update herraus kommt, 10% mehr Leistung pro RTX 3090, das ist doch mal was!
 
Zurück
Oben