Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

Wolfgang schrieb:
SAM ist AMDs Implementierung eines offenen Standards von PCIe.
Natürlich ist die Implementierung an sich proprietär, die Technik, die von dieser umgesetzt wird, aber nicht. Resizable BAR kann jeder nutzen, Nvidia und Intel genauso wie AMD. Entsprechend hätte Nvidia Resizable BAR auch vor AMD umsetzen können. Resizable BAR ist genauso wenig proprietär wie zum Beispiel Adaptive Sync, DirectX, Vulkan, DXR, ... Man muss sich um die Umsetzung kümmern. Aber das kann man ohne Hindernis angehen.

DLSS ist dagenen eine proprietäre Technik, auf die niemand Zugriff hat außer Nvidia. Selbst wenn AMD DLSS integrieren wollen würde, wäre das nicht möglich. Man müsste etwas völlig eigenes entwickeln.

Also ich finde, das sind zwei grundlegend unterschiedliche Zustände.

Eben das sehe ich anders. DLSS beruht doch auf KI und ML so wie SAM auf RBAR. Und KI und ML ist freies Wissen, seid Jahren hätte AMD das zur Entwicklung einem Technik wie DLSS nutzen können. Das hat AMD einfach verpennt. Um mal mit deinen Worten zusagen: "Aber das kann man ohne Hindernis angehen". Ja da muss man sicher viel Grundlagen schaffen und ist vermutlich wesentlich tieferen Thema als RBAR. NVidia hat da bestimmt nicht wenig investiert. Aber wenn AMD das nicht könnte oder wollte, kann das doch jetzt nicht Nvidia vorwerfen, das rechtzeitig so eine Technik besitzen.

Beide haben ein Thema verpennt. AMD eine Bildverarbeitung mit ML und NVidia RBAR. Aber ich sehe immer noch nicht ein, das NVidia sein Vorteil verzichten muss, AMD seinen aber bekommt.

Und seit DLSS 1.0 hat AMD nicht geschafft eine Alternative anzubinden.
 
Zuletzt bearbeitet:
trkiller schrieb:
Entsprechend kann ich eigentlich Leute wie dich nicht verstehen, die solche Firmen noch unterstützen.
Weil ich mein Geld ausgebe für das Produkt, was meine Wünsche erfüllt und/oder am meisten bietet.

Daher ist Intel bei mir nach Jahren outside, und wäre die 6900XT auf Augenhöhe mit einer 3090 in allen mir wichtigen Features, wäre das ein full AMD System geworden, trotzdem ich mir von Ampere etwas mehr erhofft hatte.

Ich sagte schon in einem anderen Beutrag hier, dass dieses "Firmen (nicht) unterstützen" aus meiner Sicht absurd ist, und wenn man Ferrero oder Nestle Produkte im Haushalt hat, ist es sogar komplett albern und widersprüchlich.
Das ist dermaßen selektiv, dass ich es nicht ernst nehmen kann.

Es outet nur amüsanterweise den eigenen Egoismus und eine krude Ideologie, die mit anderen kollidiert, die genau so den Tunnelblick haben in ihrem "I dont care about the rest" Konsumverhalten.
 
  • Gefällt mir
Reaktionen: Esenel, .Sentinel. und Nscale
Hab meine RTX 3080 gegen eine 6900 XT getauscht und weiß nach drei Tagen noch nicht - AC Valhalla mal ausgenommen - ob es die richtige oder eine gute Entscheidung war.
 
ascer schrieb:
Endlich mal ein klares Wort von CB selbst für die ganze „wofür willst du denn so viel VRAM“-Fraktion.
Anno 1800 belagert bei mir in UHD und zweiten aktiven Bildschirm gerne bis zu 9,5 GB auf der GTX 1080 Ti. Die Frage "wofür willst du denn so viel VRAM" ist ja eigentlich obsolet, denn seit mindestens fünf Jahren ist klar wohin die Reise geht, genauso mit dem Arbeitsspeicher. Settings zu Reduzieren um Spiele auf kleineren Karten lauffähig zu halten sehe ich nicht unbedingt als zukunftssichere Lösung an.

Ich hoffe nur, dass bald der Grafikkartenmarkt eine Entspannung erfährt. Meine 1080 Ti kommt langsam doch auch an ihre grenzen und hat langsam aber sicher ihre Probleme mit längeren Spielesessions.
 
  • Gefällt mir
Reaktionen: ascer
Laphonso schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Behält die 6900XT ausser du möchtest RT nutzen, ich finde die Spiele die RT implementiert haben sehen auch so vom Licht her extrem gut aus auch mit RT off.

In absehbarer Zeit wirst du so weiter spielen wie jetzt, wo die 3080 evt Ruckler bekommt weil der Vram ständig voll läuft...
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Nscale schrieb:
Die Frage "wofür willst du denn so viel VRAM" ist ja eigentlich obsolet, denn seit mindestens fünf Jahren ist klar wohin die Reise geht, genauso mit dem Arbeitsspeicher.
Die Problematik ist doch eher, dass man im Augenblick eben nicht genau weiss, in welche Richtung es geht.

Es weiss auch noch keiner, was die 16GB der Radeons bringen, wenn dann tatsächlich mal eine höhere Füllung inkl. hoher Transferlast drauf wirkt, so dass der Infinity Cache an Effizienz verliert und ein Großteil der Operationen direkt auf das 256Bit SI einhämmert und zusätzlich RT Operationen die Busse schreddern.

Vielleicht erhalten wir dann einen eingeschränkten GTX 970 Effekt, wo die Geschwindigkeit mit hoher VRAM Füllung dann zunehmend nachlässt.

Es weiss auch noch keiner wie viele Entwickler auf neue Techniken aufspringen, die letztenendes die Storage Tiers um eins nach hinten Rücken, so dass der VRAM zum Cache für aktuelle Szene+Framebuffer+Inflight Streaming degradiert wird und eine SSD zum Textur- bzw. Leveldaten- Speicher.

Man weiss auch nicht wo wir in Sachen Super- Resolution landen werden.
Das ist es doch eben, was die Wahl zwischen den verschiedenen Karten derzeit so schwierig macht.

Alles kann, nichts muss. Ist ein wenig wie Lotto,
 
  • Gefällt mir
Reaktionen: Esenel
@Mudspike
Ich entnehme deinen Aussagen, dass du immer noch nicht den Unterschied zwischen proprietär und offenen Standard verstanden hast. Nicht mal nen Redakteur von CB glaubst du... 😁
Um es auf den Punkt zu bringen: Nvidia wird RBar (offener Standard) für seine Grafikkarten aktivieren. AMD wird eine Alternative für DLSS (proprietär) auf den Markt bringen. Während Nvidia einen offenen Standard implementieren kann, muss AMD sich etwas eigenes ausdenken. Ob das auf ML oder etwas anderes basiert werden wir sehen.
 
  • Gefällt mir
Reaktionen: PS828, Grundgütiger, Fuchiii und eine weitere Person
Ich bin wirklich sehr gespannt wie viel Nvidia von Resizeable BAR profitieren wird.
Wird AMD wegen dem Cache oder Nvidia wegen GDDR6X und breiteren Speicherinterface mehr gewinnen?
Bauchgefühl tendiert zu Nvidia. Dann wäre die 3080 für mich eigentlich ein perfektes Update (1080 ti). Aber irgendwie macht mich die 6800 XT mehr an.
Und ganz eigentlich will ich auch irgendwie erst die nächste Generation kaufen...
 
  • Gefällt mir
Reaktionen: MegaDriver
hartee schrieb:
Hab meine RTX 3080 gegen eine 6900 XT getauscht und weiß nach drei Tagen noch nicht - AC Valhalla mal ausgenommen - ob es die richtige oder eine gute Entscheidung war.
Dann können die Unterschiede so groß ja nicht sein. :)
 
Wichtigste bei der Wahl der Hersteller ist doch das Anwendungsszenario, ryzen 3 ist zwar leicht schneller als intel in den gängigen Benches und rdna auf Augenhöhe ggü. NV , aber wenn man CAD nutzt und beim Zocken RT +DLSS haben will, dann kommt man an Intel + NVidia nicht vorbei.
In anderen Szenarien ist AMD +AMD sinnvoller. Daher calm down, finds schön dass man jetzt wieder bei jedem gute Produkte bekommt passend für seinen Anwendungsfall.
Gut für uns!
 
  • Gefällt mir
Reaktionen: Laphonso, iron-man und Nscale
Fighter1993 schrieb:
Behält die 6900XT ausser du möchtest RT nutzen, ich finde die Spiele die RT implementiert haben sehen auch so vom Licht her extrem gut aus auch mit RT off.

In absehbarer Zeit wirst du so weiter spielen wie jetzt, wo die 3080 evt Ruckler bekommt weil der Vram ständig voll läuft...
Was AMD hier Nvida voraus hat, sind die absurden (im positiven Sinne) möglichen Takfrequenzen. Bis zu 2800 MHz, dann durch das Bios begrenzt, das ist schon Wahnsinn.
Umso mehr ist es spannend, wann und wie AMD eine Architektur vorstellt, die eine AI+ML Alternative zu DLSS 2.0 hat, oder dann DLSS 3.0, denn Nvidia macht ja weiter und wird zur 4000er Generation evtl die nächste Evolutionsstufe präsentieren.

Was Raytracing (und die Qualität der Umsetzung) angeht, bin ich gespannt auf Far Cry 6 und Witcher 3, denn dann wir die RT Bibliothek weiterhin langsam aber stetig immer voller mit AAA Titeln, die RT optional bieten.
 
Laphonso schrieb:
Was Raytracing (und die Qualität der Umsetzung) angeht, bin ich gespannt auf Far Cry 6 und Witcher 3, denn dann wir die RT Bibliothek weiterhin langsam aber stetig immer voller mit AAA Titeln, die RT optional bieten.
Das Licht in WT3 sieht ja auch schon echt Bombe aus.
 
  • Gefällt mir
Reaktionen: Laphonso
.Sentinel. schrieb:
Es weiss auch noch keiner, was die 16GB der Radeons bringen, wenn dann tatsächlich mal eine höhere Füllung inkl. hoher Transferlast drauf wirkt, so dass der Infinity Cache an Effizienz verliert und ein Großteil der Operationen direkt auf das 256Bit SI einhämmert und zusätzlich RT Operationen die Busse schreddern.
Hatte das Tech Jesus nicht so dargestellt, dass die 16 GB VRAM nichts "bringen", weil GDDR6x VRAM Bus+Interface der 3080er der 6800er überlegen sind. Die Tunnelgröße alleine bringt nichts, wenn das "Durchfahrtstempo" ein Limit hat, während im kleineren Tunnel in gleicher Zeit mehr Durchfahrt herrscht.

Dann hat der kleinere Tunnel mehr Output am "Ende".
Bildlich gesprochen und mal die Komplexität der Kompressionen, I/O- und Textureswap- Prozesse ignoriert.

Das Ampere Speicherinterface der 3080er und 3090er ist "stärker" dimensioniert (messbar) als das der 6800XT und 6900XT und überkompensiert das Weniger an VRAM, weil es hier (usecase 4K Gaming) keinen Faktor darstellt.
 
Der Tunnel von NVIDIA ist gleichförmig so gestaltet, dass viele Autos durchfahren können knapp 50% mehr (3080) und knapp 100% mehr (3090).

Der Tunnel von AMD ist in der Einfahrt DEUTLICH breiter (noch einmal 64% über dem SI der 3090) und hat Abkürzungen, dass bei moderater Last erst garnicht so viele Autos den gesamten Tunnel durchfahren müssen, sondern vorher schon von der Pipeline abgefischt werden.

Sind die Abzweigungen aber dicht, da immer mehr Autos kommen, (cache Misses aufgrund eines nach oben hin immer ungünstiger gestalteten VRAM/Cache Verhältnisses), müssen zwangsweise immer mehr Autos den langen, engen Tunnel nehmen und das System verliert seine Effizienz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993
Laphonso schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Das ist einfach nur falsch.
.Sentinel. hat das aber schon gut erklärt.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
MasterAK schrieb:
@Mudspike
Ich entnehme deinen Aussagen, dass du immer noch nicht den Unterschied zwischen proprietär und offenen Standard verstanden hast. Nicht mal nen Redakteur von CB glaubst du... 😁
Um es auf den Punkt zu bringen: Nvidia wird RBar (offener Standard) für seine Grafikkarten aktivieren. AMD wird eine Alternative für DLSS (proprietär) auf den Markt bringen. Während Nvidia einen offenen Standard implementieren kann, muss AMD sich etwas eigenes ausdenken. Ob das auf ML oder etwas anderes basiert werden wir sehen.

Na der Redakteur hat mir ja zugestimmt das die Implementierung von AMD Proprietär bei RBAR ist.
Und DLSS ist ein Anwendung ist von ML, darüber habe ich mich lang und breit mit unseren Forschungsabteilung für KI unterhalten. Und ML ist nun Mal nicht proprietär. Da gibt mehr als genug wissenschaftliche Abhandlungen und auch alternative Implementieren, Google hat da auch Lösungen.
Natürlich hat NVIdia durch deren KI-Sparte einen enormen Vorteil gegenüber AMD.

Und selbst wenn ihr mir nicht zustimmt, hat NVIdia einfach ein besseren Job gemacht und AMD gepennt. Und die Redakteure scheinen mir nun mal nicht neutral zu sein und damit würden die ihren Job nicht richtig machen. Und denn Eindruck verstärkt sich mir immer mehr.

Man vergleicht hier doch zwei proprietäre Systeme, da beides Seiten eigene Software wie Hardware nutzen. Warum wird jetzt diese eine Technik ausgeklammt? Weil AMD gepennt ist für mich kein Grund!
 
Mudspike schrieb:
Eben das sehe ich anders. DLSS beruht doch auf KI und ML so wie SAM auf RBAR. Und KI und ML ist freies Wissen, seid Jahren hätte AMD das zur Entwicklung einem Technik wie DLSS nutzen können...
Meine Güte, der Wolfgang aus der Redaktion hat es dir doch klar und deutlich erklärt. Was gibt es da nicht zu verstehen? Wenn einem alle entgegenfahren sind nicht alle Geisterfahrer, sondern vielleicht man selbst.
 
  • Gefällt mir
Reaktionen: NeuerJunge
Zurück
Oben