Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Ich finds ehrlich gesagt erstaunlich wie viel Bedeutung auf einmal Rt gewonnen hat. Mir sind scharfe Texturen und eine "gute Grafik" wesentlich wichtiger als irgendwelche hochaufgelösten Echtzeit-Spiegelungen oder Reflektionen. Ich meine - ich finds cool, aber für mich ist das kein Game-Changer oder K.O.-Kriterium. Das Marketing seitens NV rund um Rt scheint jetzt langsam richtig Früchte zu tragen, wenn Leute ein wirklich gutes AMD Lineup deswegen kategorisch ausschließen.
 
  • Gefällt mir
Reaktionen: Otsy, Kaerper, Obvision und 7 andere
Laphonso schrieb:
Aber ich möchte etwas von Popcorn abhaben!
Niemals! :evillol:

Ich kann das Mimimi aber auch nicht verstehen. Insgesamt haben beide Seiten Karten mir individuellen Stärken und Schwächen gezeigt. Insgesamt siehts für uns (also den Kunden) SEHR gut aus. Im Prinzip gewinnen wir, weil AMD und nVidia sich (endlich wieder) auf Augenhöhe bekriegen.

Doenereater schrieb:
Ich finds ehrlich gesagt erstaunlich wie viel Bedeutung auf einmal Rt gewonnen hat.

Ich spiele vorallem Titel ohne RT und DLSS, da ist mir das gerade mal komplett egal. Hauptsache die klassische Beschleunigung ist gut.
 
  • Gefällt mir
Reaktionen: Otsy, DonL_, HerrRossi und 2 andere
Alter Falter ich fress schon den dritten Kübel Popcorn , Fanboy Krieg deluyx ^^ besser als jede Comedy
@Laphonso hier nimm den kübel ich kann nimmer bin schon zu voll :D :daumen:
 
MasterAK schrieb:
Und die Gründe wären?
Ich hingegen bin ein positiver Mensch und sehe nur Gründe, um sich für ein Produkt zu entscheiden.

Die aktuellen Abhängigkeiten in Software Bereichen ausserhalb von Gaming. Adobe, Arnold, Redshift, A/V Bereich
..leider
 
  • Gefällt mir
Reaktionen: MasterAK
-Ps-Y-cO- schrieb:
Der eine gibt 2400€ für einen G-Sync Monitor aus, Regt sich auf dahingehend nur noch Nvidia kaufen zu können
vergisst aber, dass die Meisten G-Sync Monitore auch Free-Sync Kompatibel sind....
Wat? Kann mein Alienware 3420DW dat auch?
 
Laphonso schrieb:
...
Ergänzung ()


Ich empfehle Metro Exodus mit Raytracing auf Ultra, abgedunkelter Raum, Kopfhörer.

Und sag mir danach ehrlich, das sei keine andere Immersion, keine bessere Atmosphäre oder kein anderes visuelles Spielgefühl in den "dunklen" und "spannenden" Passagen...

vll. tuts aber auch einfach ein OLED? Denn ohne gescheiten Monitor kriegt man auch nur die Hälfte der genaueren (und nicht immer unbedingt artistisch besseren) Beleuchtung mit.
Und Last of Us 2 oder Uncharted 4 erzeugen bei mir diesselbe Immersion ohne Raytracing. Sicher wirds aber noch einmal besser mit.
 
  • Gefällt mir
Reaktionen: bad_sign
bad_sign schrieb:
Darf ich dir verraten, ich hab auch ohne RT ne fette Immersion und ich sehe fast keinen Unterschied zu mit RT :)
Btw mein einziges Game mit RT und DLSS
Control und Metro z.B. mit Raytracing ist schon eine andere Nummer meines Erachtens, und das ist auch das mehrheitliche Fazit.

Metro mit RT off hatte ich danach mal probiert. Und..nein. Nope. You cant unsee it, wie man sagt.
Geht nicht mehr danach, das künstlich texturierte Licht ist einfach nur mau.
Ich finde, wenn Raytracing gut gemacht ist, ist die Spielimmersion in diesne atmosphärisch düsteren Games ein echter Zugewinn.

Wenn Du das anders siehst, weil Du es nicht..äh.."siehst"..Ja okay. Dann ist es für Dich sicher egal.

Ich behaupte, sobald Cyperpunk 2077 dann 2077 (neben Star Citizen :D) released wurde, wird der Raytracing Hypetrain mehr Tempo aufnehmen als wir es seit Herbst 2018 bis heute addiert hatten.

Cyberpunk wird ein RT Technologie und eye cather seller für AMD, Nvidia und die Konsolen.
Mark my words.
 
  • Gefällt mir
Reaktionen: Esenel, Delirus und einfachder
bad_sign schrieb:
Meine 1080Ti läuft auf 200W, den 3900 habe ich noch nie bei 70W gesehen.
Peaks an der Dose sind 400W, normal auch 350W
Ich Rendere und zocke manchmal parallel, das sind 460W.
Also alles ez :)
Du kannst die 5-20ms Peaks net mit nem handelsüblichen Messgerät registrieren.
Da kannste bestimmt 100W draufpacken.

Nur für 3600+6800 würde ich nen 550W-Gold-NT in Betracht ziehen.
 
flappes schrieb:
Mein Gott, wie viele sich hier an DLSS oder Raytracing klammern.

passiert wenn einem die Argumente ausgehen
 
DanyelK schrieb:
Leute die sich aber ne 3080 holen, kaufen in 2 Jahren halt auch die 4080, kenn ich von mir selbst. Deshalb sind die VRAM eventuell nicht ganz so wichtig wie ne gute RayTracing Performance bei Cyberpunk im Dezember

In deiner Situation wie Du das schillderst verstehe ich Dich voll und ganz. Für mich, wo die Karte nicht viel wechselt, kommt halt nichts unter 16gb in den Rechner. Wie du siehst ist der Einsatz und das Nutzerverhalten (wieviel wecheslt jemand die Karte / was für Spiele spielt der Käufer) sehr unterschiedlich und jeder muss für sich entscheiden. Deshalb schrieb ich extra das es evtl. in Zukunft nicht reicht. Mir würde eigentlich meine R9 390er immer noch reichen aber jetzt gönnt sich der Flou auch mal was Neues. Bin weder Rot noch Grün aber beim letzten & aktuellen Kauf bin ich halt bei den Roten besser bedient.

Bezüglich Raytracing kommen mir meine Augen in die Quere. Leider habe ich sehr schlechte Augen und viele Effekte und auch hohe Auflösungen nehmen ich nur sehr schwach wahr, sprich beim Spielen merke ich das alles gar nicht. Deshalb kaufe ich selten eine neue Karte und achte ich auf dem VRAM. Ruckler nehme ich zum Glück noch wahr, aber wie lange?
 
  • Gefällt mir
Reaktionen: th3o
nekro1 schrieb:
Vega setzt halt voraus das man sich mit ihr beschäftigt und sie zähmt damit ist ein Standard Grüner Fanboy der nur Nachquatscht sowieso überfordert ;)

Ich nutze selber eine unter Wasser.
Kannst deine Unterstellungen für dich behalten.

Hat immer noch nichts mit der RX 6000 Serie zu tun.
 
Kacha schrieb:
Andere Frage, tippst du darauf, dass das dynamische CU Clustering Einzug gefunden hat oder nicht? Fuer mich sieht es derzeit nicht so sehr danach aus. Allerdings faellt es mir schwer zu glauben, dass der 128MB Infinity Cache das alles leistet. Ja, Caches koennen extrem viel ausmachen, aber die doppelte Leistung eines 384 Bit Interfaces waere wirklich krass.
Ich sag es ganz ehrlich: Ich rate da nicht, sondern warte ab.

Im gewissen Sinn haben sie ja die »dynamischen« CU bereits bei RDNA mit der WGP/DualCU eingeführt. Wie weit es nun durch die neue Cache-Hiarchie erweitert wurde? Keine Ahnung. Ich muss die Papers sehen, dann kann ich es genauer einschätzen.

Das 128 MB zusätzlicher Cache den Bandbreitennachteil von 256-Bit gegenüber 384-Bit ausgleichen kann? Auf jeden Fall, ob es am Ende die »doppelte« Leistung ist? Jein! Es kommt da auf einige Sachen an. Ich mutmaße nicht umsonst, dass der Infinity-Cache als auch Smart-Access »Nachfolger« des HBCC sind.

RDNA hat bereits massiv beim Cache zugelegt. L0-Caches für die CU (vormals L1), pro Shader Engine ein gemeinsamer L1-Cache von 128 KiB und dann ein großer L2-Cache von 4 MiB. Bereits hier zeigte sich, was AMD vorhat um die GPU unabhängiger von der Bandbreite sowie Latenz des Speicherinterfaces abzukoppeln.

Nimmt man jetzt HBCC - die Grundlage - wendet diese auf die Caches L1 bis zum VRAM an und setzt noch den »Infintiy Cache« als L3 mit 128 MiB dazwischen, dann kann man da wunderbar mit den »Pages« arbeiten.

Dazu kommt, dass AMD mit Vega einen »Tiled-Based-Render« eingeführt hat im Treiber und mit RDNA ben der Wechsle von Wave64 zu Wave32.

Geht man nun einzeln an die Sachen ran, dann ist das alles »unspektakulär«, betrachtet man aber alle im Kontext, verstehe ich langsam, warum sowohl Vega als auch Navi am Anfang »durchwachsen« waren.

HBCC = VRAM <-> System-RAM, nette Idee. Brachte im VRAM-Limit etwas. Die Grundlage der »Pages« als kleinste Block der verwaltet wird, bietet einiges an Potenzial.

DSBR = Umstieg auf einen Tiled-Based-Render. Damals noch 1. Generation. Daher durchaus »Fehleranfällig«. Gleichzeitig, wird das Bild in passende Happen geteilt. Man denke nun an die »Pages« beim HBCC.

Wave64 => Wave32 = Feinere Granulierung bei den Shader-Threads auf der GPU. Bessere Auslastung der ALUs und »kleinere« Datenhunger pro Wave.

Gehen wir nun auf die Pages zurück: DSBR als auch die Umstellung auf Wave32 veringern die »Datenmenge« die pro Tile als auch eben pro Shader benötigt werden. Sieht man sich nun die Pages von HBCC an: Mich würde es nicht wundern, wenn AMD nun eben diesen Pages-Ansatz vom L1 bis zum VRAM nutzt und Pages entsprechend der Tiles aufbaut und im Infinity-Cache die Pages der Tiles aufbewahrt, die nun berechnet werden und dann die Tiles in den L2 und L1 verschieben.

Genau so denke ich auch, dass man darauf achtet, dass Shader einer Tile primär in derselben Shader-Engine ablaufen, so dass man die Querverbindung nutzen kann.

Aber alles jetzt »Rätelsraten«, ich warte auf die Papers!
 
  • Gefällt mir
Reaktionen: DonL_, Colindo, Duffy Duck und 3 andere
Dittsche schrieb:
vll. tuts aber auch einfach ein OLED?
Interessant, kann ich selbst nicht beurteilen. Habe einen OLED TV, aber das künstliche Licht vs Echtzeit raytraced müsste doch auch da "sichtbar" differnzierter wirken und vor allem echt?
 
flappes schrieb:
Mein Gott, wie viele sich hier an DLSS oder Raytracing klammern.
So langsam hab ich irgendwie den Eindruck das einige derjenigen, welche das hier so unglaublich massiv hervorheben
a) Eine tiefgrüne Brille tragen, evtl mit grüner Bettwäsche. ;)
b) von Nvidia in irgendeiner Form dafür bezahlt oder zumindest spürbar bevorteilt werden.

Bei Punkt a könnte natürlich hinzukommen, das man sich seine Ausgabe in den letzten Wochen nicht schlecht machen lassen möchte. Daher werden auch gern die Äquivalenten Technologien von AMD "übersehen".

Punkt b ist ja schon seit mehreren Jahren üblich. Natürlich nicht nur auf Nvidia bezogen.
(Das lief ja schon damals mit Android schon ganz gut. Android war Anfangs derart schlecht, in den Foren wurde das aber komischerweise ständig gehypt. Erst heute ist es für mich eigentlich benutzbar)
Ist halt die beste Art der "unauffälligen" Werbung.

Ich schau mir die Vor- Nachteile bei den Reviews in Ruhe an.
Bisher haben wir ja noch nicht wirklich alles gesehen.
AMD hat mit seinem Speichervorteil bei mir aber definitiv schon mal einen Bonus.
 
  • Gefällt mir
Reaktionen: russianinvasion, Delirus und Dittsche
pipip schrieb:
Das einzige Plus, welches AMD nicht eingehalten hatte, war das + bei 7nm. Scheinbar war AMD ab einem gewissen Zeitpunkt selbst von seiner Hardware überrascht, sodass man am Schluss beim gleichen Prozess geblieben ist.
1+
Das kann man gar net hoch genug einschätzen. Das läßt für zukunftige Shrinks viel Raum.
(nach dem Tok ein Tik)
 
Gab es schon Mal einen Thread der schneller auf 100 Seiten war? 😁
 
  • Gefällt mir
Reaktionen: bad_sign
Laphonso schrieb:
Interessant, kann ich selbst nicht beurteilen. Habe einen OLED TV, aber das künstliche Licht vs Echtzeit raytraced müsste doch auch da "sichtbar" differnzierter wirken und vor allem echt?

sicherlich. es ist ein bißchen äpfel und birnen vergleich. worauf ich hinaus wollte ist, dass man auch net viel von Raytracing (o.ä.) hat, wenn dann keine Kohle für die anderen Komponenten in der Kette übrig bleibt.
 
  • Gefällt mir
Reaktionen: Laphonso
fryya schrieb:
Gab es schon Mal einen Thread der schneller auf 100 Seiten war? 😁

Der Test zu Zen 2 z.B, kann ich mir vorstellen war sogar schneller auf 100 Seiten. Der Thread hält auch den Allzeitrekord an Beiträgen.

Deswegen meinte ich ja vorhin, das ich das Potenzial sehe das die Tests zu Big Navi oder Zen 3 den Rekord brechen könnten.
 
  • Gefällt mir
Reaktionen: voalirus, andy484848 und Tzk
Taxxor schrieb:
Trotzdem hätte man es angeben können.
Und 6800XT zu 6900XT ohne Rage Mode und SMA sind ~5%
Net unterschätzen das bei gleichen W die 5% net ohne sind.
(wieviel W mehr braucht gleich A für 5% ?)
 
  • Gefällt mir
Reaktionen: Tzk
Zurück
Oben