Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

peru3232 schrieb:
Die 6800er ohne XT wiederum ist für die minimale Preisreduktion zur XT viel zu stark beschnitten. Die hätte durchaus weiter runter sollen im Preis - meinetwegen auch mit weniger Speicher, 12 würden wohl reichen und einen 100er billiger

6800 und 6800XT trennen ca 15% an Performance, da ist für den Aufpreis von $70 eigentlich kaum eine Frage ob man die XT nehmen sollte oder nicht.
Ich sage das ist die gleiche Taktik wie bei den Ryzens, da ist auch der 5800X im Vergleich so teuer, dass nicht wenige direkt zum 5900X greifen werden, da er ja nicht so viel teurer ist, wenn man schon so viel Geld ausgibt.
 
  • Gefällt mir
Reaktionen: Unnu, DF86, Vitec und 3 andere
Bin auf die Tests der Custom Karten gespannt, dann zeigt sich ob es eine Nitro+ oder Red Devil wird. :daumen:
 
  • Gefällt mir
Reaktionen: Benji18
SKu schrieb:
Ist das so? Warum ist die 3070 dann bei Igorslab schneller als die 2080 Ti bei den meisten Titeln?
https://www.igorslab.de/nvidia-gefo...ampere-kann-auch-sparsam-und-knuffig-klein/4/
Igor scheint auch eine komische 2080Ti zu haben, die 3DMark Werte seiner 2080Ti, aus denen er die geleakten Werte der 6800XT berechnet hat, waren auch viel niedriger als das was man so an Ergebnissen für die FE findet.


Wenn man die Werte mal so durchgeht, als ob eine 2080Ti nur 17% schneller als eine 5700XT in Far Cry New Dawn wäre. Bei Computerbase kommt sie auf +32%.

In Assassins Creed liegt sie sogar nur 6% vorne, auf Computerbase hat schon die normale 2080 non-Super 15% Vorsprung.


Golem:
Im Mittel liegt die Geforce RTX 3070 praktisch gleichauf mit der Geforce RTX 2080 Ti
https://www.golem.de/news/geforce-r...rerst-beste-500-euro-karte-2010-151539-2.html

hardwareLUXX:
Schaut man auf die ältere Generation, dann kämpft die GeForce RTX 3070 Founders Edition mit der GeForce RTX 2080 Ti – ist meist zwischen 5 und 10 % langsamer als das vorherige Spitzenmodell.
https://www.hardwareluxx.de/index.p...x-3070-founders-edition-im-test.html?start=18


PCGH:
3070 100% / 2080Ti 100%
https://www.pcgameshardware.de/Gefo...Release-Benchmark-Review-Preis-1359987/2/#a25

Guru3D:
This card can run games at 4K; it will serve best at WQHD and extremely GPU bound games. At Full HD, you'll be quite often bottlenecked and CPU limited as, again, this is 2080 Ti level performance.
https://www.guru3d.com/articles_pages/geforce_rtx_3070_founder_review,33.html


Computerbase:
3070 100% / 2080Ti 99%
(ich glaube hier brauch ich keinen Link einfügen^^)

TechPowerUp:
3070 100% / 2080Ti 99%
https://www.techpowerup.com/review/nvidia-geforce-rtx-3070-founders-edition/35.html

TomsHardware:
3070 100% / 2080Ti 102%
https://www.tomshardware.com/news/nvidia-geforce-rtx-3070-founders-edition-review

sweclockers:
Mit den vorliegenden Ergebnissen passt es nun recht gut, da Geforce RTX 3070 und Geforce RTX 2080 Ti abwechselnd die Führung übernehmen, wobei der Unterschied häufig bei einem einzelnen Frame liegt.
https://www.sweclockers.com/test/30644-nvidia-geforce-rtx-3070-mycket-prestanda-for-pengarna/10
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, MeisterOek, Ginmarr und 9 andere
Colindo schrieb:

Vielen Dank!

Teralios schrieb:
Der L1 wird seit RDNA1 bereits geteilt. Es gibt - wenn man es genau nimmt - nun 4 Cache-Stufen in RDNA2:

CU - 1 * L0-Cache Daten. (Bei RDNA 16 KiB)
WGP - 1 * L0-Cache Instruktionen (Bei RDNA 32 KiB)
SE - L1-Cache, für alle WGP in der SE (128 KiB bei RDNA)
GPU - L2-Cache, (4 MiB bei RDNA Navi 11)

Ne, da ging es um was anderes. Ich meinte das gleiche Paper wie du, mit dem dazugehoerigen Patent. Oder um ihn direkt zu zitieren:

Colindo schrieb:
Es geht um ein dynamisches Vergrößern des L1-Caches bei den Anwendungen, die auf der GPU nicht Latenzkritisch sind. Und das sind Spiele ja sowieso nicht, von daher würde das Vorteile bedeuten. Und ja, DeepLearning profitierte auch enorm vom vergrößerten L1-Cache.

Im Endeffekt, man packt CUs so zusammen, dass sie alle die gleichen Daten benoetigen und somit von einem geteilten L1 Cache profitieren. Das ganze eben dynamisch. Und ob das jetzt dabei ist oder nicht wuerde mich interessieren.

Teralios schrieb:
Es kommt nun der Infintie-Cache dazu als »L3«. Und genau das ist hier eben auch der Punkt, denn du ansprichst: Vorausschauend füllen. Ich spreche ja HBCC nicht umsonst ab. Wenn sie hier die Cache-Struktur sehr gut optimieren und gerade bei Bildsynthese ist es relativ klar, welche Daten man wann braucht, dann kann man hier sehr gut die Daten nach Bedarf in den Infintie-Cache als auch in den L2 schieben und von dort dann in L1 und L0.

Ist mir durchaus klar, je besser vorhersagbar das ganze ist, desto mehr kann man das optimieren.

Teralios schrieb:
Nun, klar ist PCIe ein Bottleneck, gleichzeitig kann man aber auch hier entsprechend agieren und die limitierende Bandbreite durch intelligentes Laden kompensieren.

Klar, wenn man es schafft das ganze so zu verteilen, dass PCIe nie ein Bottleneck wird ist das ganze kein Problem. Man hat dennoch einen Overhead mit dem man erstmal umgehen muss.

Teralios schrieb:
Und man sollte sich hier jetzt auch nicht zu sehr an dem Patent aufhängen. Es gibt da ein wesentlich interessanteres Paper @Colindo hat sich das angesehen. Ich hab es nur überflogen. Es geht da nicht nur um die Verbindung der »L1«-Caches, sondern auch darum, was eine intelligente Organisation der Caches in der GPU bei »Deep Learing« an Leistung bringen kann und genau das ist der Punkt, weswegen folgende Aussage etwas »falsch« ist:

Das Paper kenne ich und das meinte ich auch. Das Patent spielt da aber mit rein, bzw. ist es halt das Patent dazu. In dem Paper geht es um die 2.3 fache Leistung bei Deep Learning. @Colindo hat das sich aber detaillierter angeschaut. Aber ja, es ging auch um CU Clustering und damit Cache Sharing.

Dass @Krautmaster's Aussage falsch ist, ist klar. Wenn man es schafft mit einem Cache die Leistung zu verschlechtern, dann hat man wirklich enorm viel falsch gemacht. Ein Cache erhoeht die Leistung erstmal ein gutes Stueck. Selbst bei CPUs ist das ganze schwer falsch zu machen.

Den Rest ueberspringe ich mal, ich glaube das war an wen anders gerichtet.
 
  • Gefällt mir
Reaktionen: Unnu und Colindo
DonL_ schrieb:
Ich verstehe sowieso nicht, warum sich die Gaming Branche (alle großen Studios) nicht zusammenschließen und Nvidia und AMD die Pistole auf die Brust setzen und sie zu offenen Standards zwingen.

Aus denselben Grund wieso sie sich nicht "zusammensetzen" und Google, Microsoft, Nintendo und Sony die Pistole auf die Brust setzen. Es steht jedem Hersteller frei das unterstützen, wovon sie sich Vorteile erhoffen oder wofür sie finanzielle Anreize bekommen. Grundsätzlich ist das meiste aber in DirectX und Vulkan standardisiert, herstellereigene Erweiterungen sorgen hingegen für einen Anreiz seitens der GPU Hersteller neue Sachen zu entwickeln.

Glaubst du wir hätten Raytracing oder DLSS, wenn die Hersteller sowas in einem Lizenzmodell veröffentlichen müssten, auf das sofort alle Zugriff haben? Wobei so ganz stimmt es noch nicht einmal DXR war pünktlich mit RTX veröffentlich worden, nur AMD hat sich zwei Jahre Zeit gelassen, dafür die passende Hardware bereitzustellen.
 
  • Gefällt mir
Reaktionen: Unnu und Ctrl
bin mal gespannt wie schwer die Bindung an ZEN3 wiegt. Hab aktuell einen R7-2700x auf 470er Board. Für das Board kommt vermutlich noch ein Update um die 5000er laufen zu lassen ... aber was bringt mir dann eine RX6800. Verschenke ich hier viel Performance ..

Könnte natürlich auch für Intel zum "Problem" werden, wenn es künftig heißt das Komplett-System-Neukäufer AMD-Only kaufen sollte. Wer sich eine schnelle AMD-Karte zu einer Intel-CPU holt verliert unnötig FPS. OK für BESTANDSSYSTEME die Aufrüsten ist das natürlich kein großes Argument. Neue GPU aber keine neue CPU. Aber wer eh im "Komplett"-Bereich ist, wird dann erstmal AMD/AMD nehmen "müssen". Aber gut - warten wir mal die TESTS ab ... halte das bisher immer noch alles für viel zu viel Kaffeesatzleserei ... Benchmarks vom Hersteller ...

Ich hoffe Computerbase wird das Thema RX6800 mit ZEN3, mit Intel, mit ZEN1/+ oder 2 etc. gut testen und darstellen können.
 
  • Gefällt mir
Reaktionen: Unnu und Delirus
  • Gefällt mir
Reaktionen: PS828
DonL_ schrieb:
Ich verstehe sowieso nicht, warum sich die Gaming Branche (alle großen Studios) nicht zusammenschließen und Nvidia und AMD die Pistole auf die Brust setzen und sie zu offenen Standards zwingen. Man kann sich ja auch einfach mal konsequent weigern proprietäre Standards umzusetzen
Weil es im Gaming bisher nur einen wirklichen Player gab: Nvidia. JAAA ... die 5700XT ist gut. Ich kann auch mit meiner 580 auf FHD- spielen. Aber im Gaming-Markt angekommen die nicht trotzdem nicht wirklich. Warum also für AMD-Features irgendwas entwickeln - für die "paar" Spieler.... Lohnt nicht! Das wird sich jetzt mit der 6000er Reihe hoffentlich ändern - dann ändert sich aber auch die Verteilung der GPUs mit der ZEIT und dann werden sich die Studios die frage stellen: investieren wir Summe X in Support von Nvidia Super-Feature 1294b2, Summe Y in AMD Super-Feature 29438c2, in beides ($$$) oder setzen wir auf DX-Only.

Microsoft ist eigentlich der Player auf den die Gaming-Branche zugehen MUSS. Neue Features in DX rein -> AMD und Nvidia müssen es supporten - das Studio juckt das nicht weiter. Entweder die Kunden-GPU spricht das Feature an oder nicht. Wäre die günstigste Möglichkeit.
 
  • Gefällt mir
Reaktionen: daknoll und Delirus
@Monstranz
Oder halt gleich die Auflösung runter ... von 4K auf 1080p ist zB trotzdem quasy Pixelperfect (nur das der Pixel 4x so groß ist :>)

Zum Thema Nvidia und dlss:
Die Studios bekommen Geld dafür und geben keines aus...
 
  • Gefällt mir
Reaktionen: Benji18 und Monstranz
Taxxor schrieb:
Igor scheint auch eine komische 2080Ti zu haben, die 3DMark Werte seiner 2080Ti, aus denen er die geleakten Werte der 6800XT berechnet hat, waren auch viel niedriger als das was man so an Ergebnissen für die FE findet.


Wenn man die Werte mal so durchgeht, als ob eine 2080Ti nur 17% schneller als eine 5700XT in Far Cry New Dawn wäre. Bei Computerbase kommt sie auf +32%.

In Assassins Creed liegt sie sogar nur 6% vorne, auf Computerbase hat schon die normale 2080 non-Super 15% Vorsprung.

Es kommt auch immer auf die Benchmarkszenen an. Nur weil die 2080Ti 17% schneller ist, ist sie in diesem nicht durchgehend 17% schneller, sondern nur in der Benchmark-Szene
 
Ich hoffe nur, dass AMD einen Gegenspieler zur DLSS 2.0 Technologie noch bieten wird. Sonst könnte das etwas schwierig mit meiner Entscheidung werden. Ich zocke auf UWQHD und möchte Cyberpunk am besten in den höchsten Einstellungen mit Raytracing spielen. Bin mal gespannt ob in den meisten Games mit solchen settings die 100 FPS erreichen wird, um die 100Hz meines Monitors gut auszuschöpfen. Wenn dies so eintreffen sollte, dann wird es wohl die rx 6800xt, mit der ich endlich meine lahme Vega 64 eintauschen kann.
 
Wulfman_SG schrieb:
... investieren wir Summe X in Support von Nvidia Super-Feature 1294b2, Summe Y in AMD Super-Feature 29438c2, in beides ($$$) oder setzen wir auf DX-Only....

Super resolution ist kein AMD-feature sondern "DX-Only".
 
  • Gefällt mir
Reaktionen: Benji18
DrFreaK666 schrieb:
Es kommt auch immer auf die Benchmarkszenen an. Nur weil die 2080Ti 17% schneller ist, ist sie in diesem nicht durchgehend 17% schneller, sondern nur in der Benchmark-Szene
Dennoch scheint Igor der einzige zu sein, der Szenen gewählt hat, in denen die 3070 fast immer 5-10% schneller als die 2080Ti ist, während alle anderen Seiten auf +/- 1% zwischen den beiden kommen.

Die Testspiele und Szenen sollen ja repräsentativ ausgewählt werden, und da glaube ich nicht, dass alle außer Igor die falschen Spiele und Szenen genommen haben.
 
  • Gefällt mir
Reaktionen: LukS, Esenel und RuhmWolf
Taxxor schrieb:
Dennoch scheint Igor der einzige zu sein, der Szenen gewählt hat, in denen die 3070 fast immer 5-10% schneller als die 2080Ti ist, während alle anderen Seiten auf +/- 1% zwischen den beiden kommen.

Igor hat bereits erklärt, wie es zu dieser Diskrepanz kommt.
Es sind bei mir gemittelt über alle Spiele 5 bis 7% (je nach Auflösung). Getestet wurde FE gegen FE. Dass meine 2080 Ti FE eine Gurke ist, die voll aufgewärmt über 10% Leistungs einbüßt, ist auch ein Fakt. Die 3070 ist im geschlossenen Gehäuse und voll aufgewärmt immerhin über 10 Grad kühler und boostet noch recht ordentlich. Die 2080 Ti FE ist am thermischen Limit. Ich benchmarke immer mit voll durchgewärmten Karten und geschlossenem Case. Die Kühlung der 3070 FE ist einfach Hammer.
https://www.computerbase.de/forum/t...x-3070-3080-und-3090-an.1977573/post-24803905
 
xexex schrieb:
Igor hat bereits drauf hingewiesen, wieso es zu dieser Diskrepanz kommt.
https://www.computerbase.de/forum/t...x-3070-3080-und-3090-an.1977573/post-24803905
Stimmt, den Post hatte ich auch noch in Erinnerung, war nur eben nicht abrufbar^^

Das scheinen dann aber schon echt heftige Unterschiede zwischen den FEs zu sein, für den Preis würde ich nicht so eine Lotterie erwarten^^

Und bei CB ist die FE ja auch mit unter 1700MHz gelaufen laut Taktangaben zu Beginn der Benches, was muss denn dann Igors Karte gemacht haben? 1500?
 
  • Gefällt mir
Reaktionen: Bright0001
Taxxor schrieb:
...Die Testspiele und Szenen sollen ja repräsentativ ausgewählt werden, und da glaube ich nicht, dass alle außer Igor die falschen Spiele und Szenen genommen haben.

Man sollte immer die gesamten Ergebnisse betrachten und nicht Cherry Picken.
In den nächsten Tagen wird sicherlich eine Analyse bei 3DCenter erscheinen, ähnlich dieser hier, die alle Werte gemittelt verwendet, um zu vergleichen
https://www.3dcenter.org/artikel/la...aunch-analyse-nvidia-geforce-rtx-3080-seite-3
 
DrFreaK666 schrieb:
Man sollte auch immer die gesamten Ergebnisse betrachten und nicht Cherry Picken.
In den nächsten Tagen wird sicherlich eine Analyse bei 3DCenter erscheinen, ähnlich dieser hier, die alle Werte gemittelt verwendet, um zu vergleichen
Genau von dort hab ich mir ja die Tests aller dort angegebenen deutschen Seiten(außer igorslab) plus bekannte Internationale Seiten rausgesucht(Insgesamt 8 Reviews), die eben alle auf 2080TI +/- 1% kommen
 
So meine 3090 is wieder ausgebaut 1080 wieder drinne geht morgen zurück nach MM.
Warte dann auf 6900XT+5800 X :)
 
  • Gefällt mir
Reaktionen: Visualist, russianinvasion, Gipsy Danger und eine weitere Person
Ganz klar Team rot.
Die 1070 kann endlich in Rente.
Die 6800XT wird die perfekte Ergänzung für meinen 3700X. :)
 
  • Gefällt mir
Reaktionen: GhostDMonkey, Benji18 und Dittsche
Zurück
Oben