News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

Dai6oro schrieb:
Naja Cherrypicken kann man auch bei den Benches von AMD zugunsten von Nvidia
Außerdem sollte man sich mal vor Augen führen, dass es aus der Position des Marktrumkreplers, ziemlich gefährlich wäre da "zu Plusen"^^... AMD würde ausgelacht und nie wieder gekauft werden.
 
Userbenchmark übertrifft sich mal wieder selbst: Im Text zur 3070 ist von einem unvergleichlichen Spielerlebnis die Rede. Angesichts der weit verbreiteten Probleme, mit denen AMD-Benutzer bei GPUs der Serie 5000 (blau / schwarze Bildschirme usw.) konfrontiert sind, ist es unwahrscheinlich, dass AMD in diesem Jahr eine direkte Bedrohung für den Marktanteil von Nvidia darstellt.

Nvidia’s 3070 GPU offers once in a decade price/performance improvements: a 3070 offers 55% more performance than a 2070 at the same MSRP. Given the widespread issues AMD users are facing with 5000 series GPUs (blue/black screens etc.), it is unlikely that AMD would have posed any direct threat to Nvidia’s market share this year. Nvidia’s price cuts are more likely related to upcoming console updates. The seven year old hardware in both the Xbox One and Playstation 4 is due an update later this year. Whatever the motivation behind Nvidia’s price cuts, Christmas has come early for PC gamers who can look forward to an unparalleled gaming experience, several tiers higher than both AMD's best discrete GPUs and the upcoming consoles.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, guru_meditation, Colindo und 5 andere
Monstranz schrieb:
In DX12 nicht mehr, habe da nur max 60% mit 3700x in WQHD bei um 140FPS im MP mit SMT on.
Ja scheinst recht zu haben, hab mir da auch gerade ein Video angesehen das deine Aussage bestätigt.
Da scheint sonst etwas dafür verantwotlich zu sein das sich die 6900XT nicht richtig von der 6800XT in BF5 absetzen kann.
 
Ich bin schon gespannt wie ein Flitzebogen auf die richtigen Tests - brauche atm keine neue Karte, will aber unbedingt mehr wissen über

  • den Infinity Cache
  • den Smart Access Memory
  • die Raytracing-Umsetzung und -Performance

Gerade den Infinity Cache finde ich extrem geil. :love:
Es ist so simpel - einfach nur Caching - und offenbar doch so kompliziert, dass es das bislang nicht gab. Und vor allem scheint es richtig, richtig gut zu sein. Da ist AMD Nvidia tatsächlich mal technologisch deutlich voraus.

Erinnert ihr euch noch an die Broadwell-DT-CPUs, i5-5675C und i7-5775C? Die ihren für die iGPU gedachten eDRAM als L4-Cache nutzen konnten und damit trotz niedriger Taktraten noch lange Zeit weit oben in den Gaming-Benchmarks waren. Sowas hat Intel später nie wieder gemacht, aber bei AMDs Infinity Cache musste ich sofort wieder daran denken.

Smart Access Memory wird auch spannend, mit den spärlichen Infos aktuell habe ich noch keine Ahnung, was das wie bringen soll.
Und wie Raytracing auf RDNA2 nun läuft ist auch noch völlig unklar, abgesehen von den Gerüchten, die es dazu gab.

Es bleibt auf jeden Fall spannend im nächsten Monat. :)
 
  • Gefällt mir
Reaktionen: derSafran, Fuchiii, Cpt.Willard und 4 andere
Monstranz schrieb:
habe da nur max 60% mit 3700x in WQHD bei um 140FPS im MP mit SMT on.

CPU Auslastung ist egal. Sobald die Auslastung der GPU unter 95% fällt limitiert die CPU.
 
ArrakisSand schrieb:
Ja scheinst recht zu haben, hab mir da auch gerade ein Video angesehen das deine Aussage bestätigt.
Da scheint sonst etwas dafür verantwotlich zu sein das sich die 6900XT nicht richtig von der 6800XT in BF5 absetzen kann.
Engine eventuell am Ende, bietet max 200FPS in den Einstellungen.
 
Ich kauf die 6900 XT so oder so. Besser als meine 1080 ist sie auf jeden Fall.
 
  • Gefällt mir
Reaktionen: Crimvel, Dittsche und Cpt.Willard
Schon ziemlich geil wie die selben Leute, die das proprietäre DLSS verteufeln nun auf einmal das proprietäre SAM total abfeiern....
 
  • Gefällt mir
Reaktionen: stevefrogs, Mumusud, foo_1337 und 2 andere
RogueSix schrieb:
Das ist eine Simplex-Rechnung, die nicht mal eines Milchmädchens würdig ist ;) .

In diesem Artikel findest Du eine Tabelle zu den Kosten pro Wafer, also der Preis, den TSMC pro Wafer von seinen Kunden verlangt. Für einen "leading edge" 5nm Wafer legt der TSMC-Kunde fast $17,000 auf den Tisch
Wenn wir schon Milchmädchen rechnungen machen, machen wir gleich weiter!
300mm waffer sind 70'683.75mm^2 die chips waren 505mm^2 ? Wären also 140 Chips. Mit Platzierung und Fehler gibts da wohl so ca 70-80%? also 75% ca 100 Chips per Waffer. Wäre der Chip alleine also 170$ in der Produktion.
 
  • Gefällt mir
Reaktionen: Iscaran
Beitrag schrieb:
Es ist so simpel - einfach nur Caching - und offenbar doch so kompliziert, dass es das bislang nicht gab. Und vor allem scheint es richtig, richtig gut zu sein. Da ist AMD Nvidia tatsächlich mal technologisch deutlich voraus.

Ich denke bislang war es auch nicht wirklich sinnvoll umsetzbar, da der Cache auf dem Die ziemlich viel Fläche belegt und man beim echten Speicher trotzdem einiges an Grundbandbreite braucht.

Bin mir sicher, dass das mit GDDR5 @ 256Bit in 14nm z.B. nicht ohne weiteres geklappt hätte bzw. hätte man einen deutlich kleineren Cache nutzen müssen.

Ich bin sehr gespannt, wie der Cache in verschiedenen Anwendungen skaliert, wo er evtl. Nachteile hat und wo er vielleicht auch Vorteile hat.

Ansonsten was das GPU Design und den Speicher angeht, war AMD schon immer sehr auf Zack. Es zahlt sich aber nicht immer unbedingt aus. Mit HBM in den Consumerkarten war AMD auch führend, ist damit aber ziemlich auf die Nase gefallen und jetzt zumindest bei den Gamingkarten komplett zurückgerudert. Auch was Low Level APIs angeht, war GCN schon recht weit.

Aber es spielen immer viele Faktoren mit. Bin gespannt, wie gut das mit dem Cache klappt. Und mit kleineren Fertigungen kann man hier in Zukunft sicher noch einiges rausholen. man dürfte den Cache besser mit der Fertigung skalieren können, als GDDR Speicherinterfaces. Wie gut es klappt, mal schauen.

Spannender finde ich da aber tatsächlich Smart Access Memory. Das könnte theoretisch auch außerhalb von spielen genutzt werden. Wenn man irgendwelche sehr Bandbreitenintensiven Anwendungen hat, könnte das evtl. ein ziemlicher Boost sein.

Ich frage mich nur, warum das angeblich nur mit 500er Boards klappen soll. Mal gucken, ob das echt einen technischen Hintergrund hat, ich glaube es fast nicht.
 
  • Gefällt mir
Reaktionen: JohnVescoya
Esenel schrieb:
Schon ziemlich geil wie die selben Leute, die das proprietäre DLSS verteufeln nun auf einmal das proprietäre SAM total abfeiern....

Ist SAM tatsächlich so proprietär? Gibt es nicht eine ähnliche Funktion mittlerweile in Windows, die aber noch kaum genutzt wird, und auch erst mit PCIe4.0 Sinn macht?
 
  • Gefällt mir
Reaktionen: JohnVescoya und Iscaran
Hallo zusammen,

@ Haldi
Haldi schrieb:
Wenn wir schon Milchmädchen rechnungen machen, machen wir gleich weiter!
Normalerweise wäre ich da ganz bei dir. Im Fall von AMD aber nicht. Die AMD-eigenen Prognostizierungen haben sich seit Erscheinen von Ryzen Real zuverlässig als korrekt erwiesen. Und das wird besonders in dem Fall hier ganz sicher auch so sein. Bei Ryzen haben sie sogar eher zuverlässig untertrieben. Also ich vertraue AMD in dem Bezug da deutlich mehr als Nvidia mittlerweile, von Intel will ich gar nicht erst Reden.

@ Volkimann
Volkimann schrieb:
Es erinnert mich immer an den PhysX Hypetrain der gefahren wurde von dem.ein oder anderen Foristen, was immer DAS Argument für nvidia gewesen sein soll. Egal wie scheiße, teils grotesk es umgesetzt war.
Wohl war, ohne Zweifel. Nur glaube ich in dem Fall hier nicht daran. Zumal das Zeug sicherlich auch für die Konsolen oder vielleicht sogar noch mehr wegen den Konsolen Zweck des Daseins haben wird. Gerade wegen den Konsolen denke ich, daß es kein Marketinginstrumentendasein Fristen wird.

So long....
 
Don Sanchez schrieb:
Ich kann gar nicht in Worte fassen, wie sehr mir Ray Tracing im Moment noch egal ist...
Es erinnert mich immer an den PhysX Hypetrain der gefahren wurde von dem.ein oder anderen Foristen, was immer DAS Argument für nvidia gewesen sein soll. Egal wie scheiße, teils grotesk es umgesetzt war.
 
  • Gefällt mir
Reaktionen: tox1337, Botcruscher, McTheRipper und 3 andere
Esenel schrieb:
Schon ziemlich geil wie die selben Leute, die das proprietäre DLSS verteufeln nun auf einmal das proprietäre SAM total abfeiern....
Jo, das versteh' ich auch nicht. Wenn Intel so etwas mit seinen kommenden GPUs machen sollte, wäre der Shitstorm sofort da.
Aber so Proprietär ist es nicht bzw. der Hype darum ist nicht nachvollziehbar, weiteres siehe nächser Comment.
 
Zuletzt bearbeitet von einem Moderator:
Ich kann es nur wiederholen, das Jahr 2020 ist für alle Gamer ein gutes! AMD, Nvidia und selbst Intel haben alle was geliefert. Und das in vor nicht all zu langer Zeit unvorstellbaren Preisbereichen. Ich zumindest freue mich darüber wirklich sehr.:daumen:
 
Shoryuken94 schrieb:
Ich frage mich nur, warum das angeblich nur mit 500er Boards klappen soll. Mal gucken, ob das echt einen technischen Hintergrund hat, ich glaube es fast nicht.
Ich vermute mal ins Blaue hinein, dass man die Bandbreite von PCI-E 4 braucht um das sinnvoll nutzen zu können? Es gab ja durchaus schon Tests, wo man sehen konnte, dass PCI-E 3 z.B. auch bei den neuen NVIDIAs limitiert.
 
  • Gefällt mir
Reaktionen: ColonelP4nic und Cpt.Willard
aldaric schrieb:
Ist SAM tatsächlich so proprietär? Gibt es nicht eine ähnliche Funktion mittlerweile in Windows, die aber noch kaum genutzt wird, und auch erst mit PCIe4.0 Sinn macht?
Zitat Alex Deucher:
Smart Access Technology works just fine on Linux. It is resizeable BAR support which Linux has supported for years (AMD actually added support for this), but which is relatively new on windows. You just need a platform with enough MMIO space. On older systems this is enabled via sbios options with names like ">4GB MMIO".
I don't know what windows does exactly, but on Linux at least, it will work on any platform with enough MMIO space. I suspect windows would behave the same way (although I think windows has stricter requirements about BAR resizing compared to Linux so you may need a sbios update for your platform to make windows happy).


Conclusion (nicht von Alex Deucher):
AMD and NVidia drivers have been WDDM v2 for years now.

This has nothing to do with AMD CPU or GPU; it's just that the AMD graphics team didn't want to implement Intel-specific instructions to access gpummu features, and implemented access only via the AMD instruction set extensions. It's no different from what Intel has been doing with their optimization in math libraries for years.

If NVidia wants the same feature, they can re-use the same AMD-specific instructions to access gpummu on AMD processors, and work with Intel to use intel-specific instructions to access their gpummu features.


At the end of the day, Nvidia will end up with resizable BAR support for both AMD and Intel, while AMD will drag their feet and ignore Intel's instruction set in the AMD gpu driver.

Nett von AMD, das nur ab Zen3 zugänglich zu machen.
 
  • Gefällt mir
Reaktionen: ComputerJunge, ZeroStrat, McTheRipper und 2 andere
Ob SAM propritär ist weiß man noch gar nicht, Intels Plattform würde vermutlich schon am Mangel von PCIe 4.0 scheitern. Mit PCIe 3.0 dürfte die Bandbreite zu gering sein.
 
  • Gefällt mir
Reaktionen: Mcr-King
SKu schrieb:
Viel schlimmer ist der Umstand, dass AMD das Feature "Smart Acces Memory" statt "Smart Memory Access" nennt.

SAM klingt halt einfach besser als SMA
 
  • Gefällt mir
Reaktionen: Iscaran und Mcr-King
Zurück
Oben