Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Laphonso schrieb:
Du hast witzigerweise den Joker genannt, auf den ich mich ja auch beziehe: DLSS.

Mal sehen wie lange DLSS noch das Argument bleibt, wenn Microsoft nun über Super Resolution über ML spricht, was bei der Xbox ab 10. November schon integriert ist. Das es für die Desktop-GPU's kommt ist schon sicher.
 
  • Gefällt mir
Reaktionen: m2020, Laphonso, Benji18 und eine weitere Person
GroMag schrieb:
$1000 für nicht mal ganz 3080-Leistung, bissel lustig.

???

"In AMDs Benchmarks zeigt die Radeon RX 6900 XT ein Kopf-an-Kopf-Rennen mit der GeForce RTX 3090: In manchen Spielen ist AMD schneller, in anderen Nvidia und in einigen geben sich die zwei Grafikkarten absolut nichts."
 
  • Gefällt mir
Reaktionen: Nefcairon, McFritte, m2020 und 2 andere
ComputerJunge schrieb:
Weiß jemand (schon), ob es technische Ursachen gibt, die ein Board mit 500er Chipsatz als Voraussetzung für den Smart Memory Access begründen?

EVtl. nutzt AMD hier PCIe 4.0 mehr aus wie schon bei der RX 5K Reihe um ein wenig zu kompensieren.
 
  • Gefällt mir
Reaktionen: ComputerJunge
cruse schrieb:
steht doch schon im newstext

Das ist mir durchaus bewusst, aber hier im Thread gibts ja trotzdem einige "Leugner".
 
  • Gefällt mir
Reaktionen: Laphonso
Hektor26 schrieb:
Es gibt schon erste Benchmark wo die 6800xt 30% langsamer als die rtx 3080 ist.

Bin mir steht ganz deutchlich fest was ich kaufe wenn AMD fast die gleichen Preise wie Lager grün aufruft AMD ist nur interessant wenn einiges günstiger sonst nicht.

Es gibt schon erste Benchmarks wo die 6800xt 50% schneller als die RTX 3080 ist.

merkst was? So einen Satz hinklatschen kann jeder.
Wennst schon sowas behauptest schick wenigstens einen Link oder nenn eine Quelle, andernfalls fällt es unter die Kategorie "stille Post"
 
  • Gefällt mir
Reaktionen: Nefcairon, Rockstar85, Zwenki und 3 andere
aldaric schrieb:
Interessant vor allem:

" Through close collaboration and partnership between Xbox and AMD, not only have we delivered on this promise, we have gone even further introducing additional next-generation innovation such as hardware accelerated Machine Learning capabilities for better NPC intelligence, more lifelike animation, and improved visual quality via techniques such as ML powered super resolution. "

Das DLSS Gegenstück kommt.

Es war ja auch zu erwarten das AMD auch was in Richtung DLSS unternimmt.

Es ist schon eine sehr gute Technologie, welche Nvdia da auf den Kunden/ die Entwickler los gelassen hat.

Ich könnte mir vorstellen, dass es da in Zukunft wichtig ist, einen gemeinsamen Standard zu finden.
Andernfalls wird es hier optimierte Spiele für DLSS oder FidelityFX geben.

Aufgrund der aktuellen Konsolen mit RDNA2 Hardware hoffe ich sehr, dass sich die Microsoft/AMD Komponente durchsetzt und zum freien Standard (auch für Nvidia) wird.

Man kann DLSS nicht einfach ignorieren oder als nettes Feature - mehr aber nicht - abstempeln.
Aber genau aus diesem Grund wird dies kein Alleinstellungsmerkmal von Nvidia bleiben.
Wenn das der Trend in Entwicklung und Branche wird, werden dazu Antworten jeder Hersteller folgen.

Hier kann man gespannt sein, wie AMDs/Microsofts Antwort in dieser Generation ausfallen wird.
Vielleicht sind sie nicht ganz auf Augenhöhe mit DLSS 2.0?
Aber vielleicht auch doch?

Hoffen wir mal einfach, dass es zu einem gemeinsamen Standard a la DX12 kommt, welchen AMD und Nvidia (und Intel) nutzen können. Das wäre der einzig sinnvolle Weg.
 
  • Gefällt mir
Reaktionen: daknoll und Dittsche
Laphonso schrieb:
Die VRAM Hysterie wird Szenarien suchen und finden, in denen die 8 GB VRAM der 3070 ein Problem werden.
Du meinst abgesehen von dem erwarteten Absacker der 3070 bei UHD, welcher auch bei anderen 8 GB Modellen bereits beobachtet werden konnte und auf einen FPS Einbruch durch häufigeres Nachladen zurückzuführen sein dürfte weil der VRAM in der EInstellung ganz einfach zu klein für den Normalbetrieb ist?
 
.Sentinel. schrieb:
Ja- Und meine Glaskugel sagt, dass es in den nächsten 2 Jahren noch immer sehr wenige Spiele geben wird, die 16GB Grafikkartenspeicher voraussetzen.

mehr VRAm hat doch nur Vorteil also warum nicht mitnehmen? Es verbessert auch die frametimes und das ist wünschenswert. ;-)
 
vkl schrieb:
???

"In AMDs Benchmarks zeigt die Radeon RX 6900 XT ein Kopf-an-Kopf-Rennen mit der GeForce RTX 3090: In manchen Spielen ist AMD schneller, in anderen Nvidia und in einigen geben sich die zwei Grafikkarten absolut nichts."

Ich schätze mal das die 6x00er noch zulegen werden mit den nächsten Treiberupdates
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
Wadenbeisser schrieb:
Du meinst abgesehen von dem erwarteten Absacker der 3070 bei UHD, welcher auch bei anderen 8 GB Modellen bereits beobachtet werden konnte und auf einen FPS Einbruch durch häufigeres Nachladen zurückzuführen sein dürfte weil der VRAM in der EInstellung ganz einfach zu klein für den Normalbetrieb ist?
Ich meinte meinen Beitrag gänzlich unironisch. Es wird diese Szenarien geben. Die AMD Alternative mit 16 GB VRAM ist hier der Rausschmeisser.
 
mc_ace schrieb:
Es war ja auch zu erwarten das AMD auch was in Richtung DLSS unternimmt.

Es ist schon eine sehr gute Technologie, welche Nvdia da auf den Kunden/ die Entwickler los gelassen hat.

Ich könnte mir vorstellen, dass es da in Zukunft wichtig ist, einen gemeinsamen Standard zu finden.
Andernfalls wird es hier optimierte Spiele für DLSS oder FidelityFX geben.

Aufgrund der aktuellen Konsolen mit RDNA2 Hardware hoffe ich sehr, dass sich die Microsoft/AMD Komponente durchsetzt und zum freien Standard (auch für Nvidia) wird.

Man kann DLSS nicht einfach ignorieren oder als nettes Feature - mehr aber nicht - abstempeln.
Aber genau aus diesem Grund wird dies kein Alleinstellungsmerkmal von Nvidia bleiben.
Wenn das der Trend in Entwicklung und Branche wird, werden dazu Antworten jeder Hersteller folgen.

Hier kann gespannt sein, wie AMDs/Microsofts Antwort in dieser Generationa ausfallen wird.
Vielleicht sind sie nicht ganz auf Augenhöhe mit DLSS 2.0
Aber vielleicht auch doch?

Hoffen wir mal einfach, dass es zu einem gemeinsamen Standard a la DX12 kommt, welchen AMD und Nvidia (und Intel) nutzen können. Das wäre der einzig sinnvolle Weg.

Direct ML...
 

Anhänge

  • Download.jpg
    Download.jpg
    9,5 KB · Aufrufe: 278
Nvidia bewirbt die 3070 aber als WQHD Karte.
Für UHD ist sie eigentlich nicht gedacht, auch die 6800 nicht.

Und da ist 8GB zwar etwas grenzwertig, reicht aber heute noch aus.

Wenn dann die vielen schlechten PS5 Ports kommen, dürfte es aber eng werden.
 
  • Gefällt mir
Reaktionen: McFritte, Darkseth88 und Dittsche
.Sentinel. schrieb:
Fazit: Wir befinden uns bereits im Umbruch, den aber einige hier nicht wahrnehmen wollen.
Und daran muss sich ein Big Navi messen lassen, also ob ich in einem Jahr noch auf das Produkt zählen kann, oder ob es immer mehr federn lassen muss, weil es zwar toll auf traditionelle Art und Weise rastern konnte, aber dann in Sachen künftiger Bildgenerierung, AI, ML etc. ordentlich federn lassen muss.

Just my 2 cents
Die Sache ist, ML, AI, sind nicht Dinge die nur auf NV GPUs funktionieren und vieles ist auch nur Software. NV gilt als einer der großen Firmen die für AI stehen, sind aber nicht die einzigen. Facebook, Microsoft, Alphabet ect.
Außerdem gibt es gute Gründe wieso AMD auch die 16 Bit Werte angibt, da diese für ML genutzt werden können.
Auch wird RTX Voice und co gern als Features genannt die so intelligent sind. Brauchen aber alle in Wirklichkeit keine Tensor Cores.

Tatsache, der größte Fehler die viele meist machen, stets im Ist-Stand zu denken, wenn es um Schätzungen geht. Macht die Beurteilung einfacher und vorsichtiger. Wird es gekippt, muss man sich aber dann um plötzlich gleich mal 180 grad drehen.
Was ist, wenn AMD plötzlich mit MS ein Feature vorstellt, dass ähnliche Ergebnisse liefert aber kein antrainieren braucht sondern ML Schnittstelle verwendet oder direkt in DX Ultimate ist? Schon ist deine Argumentation nicht mehr aktuell und das Feature wäre schnell in sämtlichen Engine eingebettet.
Aber gut, wäre nicht das erste mal dass AMD oder besser gesagt auch MS überrascht. Gefühlt geht das die letzten Jahre so.
Die ziehen mir mit der RX 6000 bald Geld aus der Tasche. Ryzen 5000 konnte ich noch widerstehen.
Aber 16 GB, Alle Konsolen Features um bald hoffentlich 550 Euro. Bitte, danke.

Wobei rein von der Performance eig eine Xbox X Serie kaufen sollte... Mit 12 TF sollte die ja nach NV Teaser Verständnis gleich auf mit der 2080ti sein und mit einem Netzteil um die 300 Watt nochmals effizienter als die hier gezeigten RTX 6000 Gpus. Der NV CEO damals hat es ja insgeheim schon angedeutet, dass da "großartige" Konsolen kommen. Der Preis von 500 Euro kommt also nicht von irgendwoher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, eXe777, v_ossi und 5 andere
zweitnick schrieb:
Wurde das schon beantwortet? Würde mich auch interessieren (und wäre ein Argument gegen den Kauf, will mein MB nicht wechseln müssen)

Es gibt noch ein zweites Video von AMD, wo auf die Funktion eingegangen wird. Dabei greift die CPU über die PCIe 4 Lanes auf den Speicher der Grafikkarte zu, der eben schneller ist als der normale Arbeitsspeicher und davon profitiert, wenn da noch was frei ist.
Da diese Funktion PCIe 4 benötigt und es dies offiziell nur auf den 500er Chipsätzen gibt, wird alles so bleiben. Da es aber eine direkte Verbindung ist wird es bestimt auch auf dem 400er Chipsatz irgendwie gehen, aber da dort die Partner ja aufgrund "alter" Komponentenauswahl dort nicht die voellen Specs garantieren können, wird das da keiner so freigeben, ähnlich wie damals mit den SSDs unter 400er Chips.
 
  • Gefällt mir
Reaktionen: zweitnick
Ich bin gespannt wie lange DLSS das Maß der Dinge bleibt wenn das AMD Equivalent erst Mal eine Weile aus 3 Quellen gespeist wird. Sony und Microsoft werden sicher Investieren damit ihre next gen Consolen auch bei 4K und vllt sogar mehr ein gutes Bild abliefern. Es beginnt eine spannende Zeit :)
 
  • Gefällt mir
Reaktionen: Vitec, Dittsche, Benji18 und 2 andere
Zurück
Oben