News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

3/10 schrieb:
Die videos sind doch fake
Und so leicht zu erkennen^^

Genau wie seine Zen3 Videos, eigentlich hat er sich immer nur die Zen2 CPU / Ampere GPU genommen, überall 3-4% draufgehauen und das war dann das Ergebnis für Zen3 / RDNA2 ^^
 
Wird ja immer lustiger, jetzt ist schon das zweitbeste AMD Modell in Schlagdistanz zur 3090 oder schlägt sie sogar mit Zusatz-Features. Ironischerweise genau so etwas wird bei Nvidia immer gefeiert und dann plötzlich bei AMD schlecht geredet. Wer die komplette Plattform stellen kann und mit Sony + Microsoft wirklich selbstbewusst sagen kann "Where Gaming Begins" kann auch am PC das voll durchziehen.
Selbst wenn Big Navi langsamer wäre zahlen sich die Features bei gleicher Architektur der Gaming Konsolen mehr als aus - das ist ein großer Einschlag in der Nvidia Zentrale und Intel ist auch raus aus Gaming nachdem man schon vor Jahren den Mobil Markt verloren hat. Bei AMD knallen wohl gerade die Korken.

Selbst ich überlege mir einen teuren Ryzen 5000 zu holen, da die Preise bei der Leistung echt angemessen sind.
Die Steigerungen sind dieses Jahr echt heftig.
 
Hype?

Das ist der erste brauchbare Verwendungszweck für Pcie4 abseits von schnelleren SSds die beim zocken nichts bringen oder in der Speicherbandbreite kastrierten Gpus und wieder ist das Geschrei groß.

Wird dann halt ähnlich wie bei Apple...gekauft wirds doch trotzdem.Ihr "kleines" Ökosystem oder wie Pipi:

Ich mach' mir die Welt - widdewidde wie sie mir gefällt ...


Wenn die Konsolendeals alle Jubeljahre gesichert sind wird da mit Sicherheit schon sowas bei herauskommen das sich PC und Konsolen noch viel mehr ähneln, dann gibts vielleicht weniger katastrophale Ports von inhaltlich noch mehr Seichtem.

RT Berechnung per Cloud,alles nicht unmöglich oder abwegig.Im Gegensatz zu Intel sind Amd Cpus in größeren Stückzahlen lieferbar, so ohne Spass, die könnten sogar Server bauen nur für diesen einen Zweck.RT, da geht bei den Nvidia Sittenwechten ja immer gleich die Alarmanlage an.
1500+++ € Gpu, ein Watchdogs an dem noch per Patch gefrickelt wird, Gameready Treiber und als Sahnehäubchen ca. 60 Fps in UltraHD YOLO
Wenn die Mommy von Forrest noch Leben würde,Gameworks und DLSS ist wie eine Schachtel Pralinen....
Kaufen oder Lassen oder weiteren tollen Hobbies fröhnen, Bier trinken, Bier trinken im Stadion und herumbrüllen oder Toilettenpapier sammeln.
 
Cameron schrieb:
Mit Smart Access Memory und Rage-Mode muss sich AMD ganz schön strecken, um alles rauszuquetschen und irgendwie auf Augenhöhe mit nVidia zu kommen - die nVidia-Karten hätte fairerweise auch noch leichte OC-Potentiale (siehe ASUS Strix). Bleibt also übrig: will man mit nVidia gleichziehen oder übertreffen, reicht eine neue GPU nicht aus - man darf noch ein paar Euros in eine neue CPU investieren. Somit relativiert sich der vermeintlich günstigere Preis der RDNA2-Karten. Für komplette System-Neukäufer sicher relevant, für den Rest eher nicht. Warum sollte ich meinen 3900X upgraden? Wegen SAM?

Auf der anderen Seite: muss man mit nVidia unbedingt gleichziehen? Bei Raytracing schmiert AMD sowieso ab. Wer auf Grafikqualität setzt, kommt an nVidias Raytracing und DLSS 2.0 derzeit nicht vorbei. Und von Computing-Power hat bei AMD auch noch niemand etwas hören lassen... wie schlägt sich RDNA2 bei komplexen Fusion-Nodes in Davinci Resolve? Das würde mich mal interessieren anstelle der FPS-Battles.
Und was - die AMD Customs takten bis 2.5MHz+! Als wenn das die volle Power war - AMD selbst geht es um Effzienz (gewonnen) den Rest erledigen die Custom Karten, die man tatsächlich übertakten kann.
Die Rage Mode sorgt dafür das die Karte innerhalb der TBP bleibt (300W) und nicht mehr so wild taktet wie das bei Navi1 noch der Fall war. Das ist alles und bringt 1-2% (angepasste Lüfterkurve inkl. damit der Takt gehalten wird). Sie werden nicht abschmieren, aber man muss der Lösung (inkl. der Optimierung bei Spielen) auch mal Zeit geben. Wir sprechen uns in 6-7 Monaten wieder, wenn auch die Konsolen Ports mal auf AMD optimiert sind.
Ich wette die 6800 Top Custom legt mindestens noch 10% drauf, die 6800XT Top Modelle kommen in etwa an die 3090 ran und die 6900XT wird in ausgewählten Spielen jedem die Rücklichter zeigen (hier muss eventuell dann ein 5600X drin sein - passt aber ja 5600X+6900XT+Board immer noch billiger als die 3090) - aber Nvidia wird in Raytracing vorne sein. Haben ja auch ein Jahr Vorsprung und als TI Nutzer war es eine tolle Erfahrung es mal gesehen zu haben (Metro war schon gut).
Für Computing Power kommt die 32GB HBM2 Version noch allerdings auch zum entsprechenden Preis ...
 
Volkimann schrieb:
Don Sanchez schrieb:
Ich kann gar nicht in Worte fassen, wie sehr mir Ray Tracing im Moment noch egal ist...

Es erinnert mich immer an den PhysX Hypetrain der gefahren wurde von dem.ein oder anderen Foristen, was immer DAS Argument für nvidia gewesen sein soll. Egal wie scheiße, teils grotesk es umgesetzt war.
In Spielen ist mir Raytracing atm auch noch völlig wumpe, seitdem ich mich mit Blender beschäftigt habe, finde ich Raytracing an aich aber schon sehr interessant. Explizit auf RT optimierte GPUs bringen da einen enormen Boost.
Insbesondere im professionellem Bereich für die Filmproduktion, im wissenschaftlichen Bereich für Simulationen und für Content Creator dürfte das sehr interessant sein und damit dürfte es auf jedem Fall schon mal genug Anreize geben, die Entwicklung davon voranzutreiben. Irgendwann, wenn es genug Performance bringt, wird es dann mit Sicherheit auch in Spielen interessant. Aktuell sehe ich das aber auch noch nicht wirklich.
Hier zu schlafen kann sich trotzdem kein GPU-Entwickler leisten.

Shoryuken94 schrieb:
Bin mir sicher, dass das mit GDDR5 @ 256Bit in 14nm z.B. nicht ohne weiteres geklappt hätte bzw. hätte man einen deutlich kleineren Cache nutzen müssen.
Wieso sollte man einen kleineren Cache nutzen müssen, wenn man langsameren VRAM verbaut? Und desto langsamer der RAM, desto mehr Performance kann man mit Caching gewinnen.
 
aldaric schrieb:
So wie der Hype um RT und DLSS schon viel zu groß ist, dafür unterstützen es noch bei weitem zu wenige Titel.
Das eine hat mit dem anderen nichts zu tun. Es geht darum, dass um eine Technologie ein Hype gemacht wird, die schon seit Jahren existiert. Und zudem AMD das auch erst am Zen3 zugänglich macht.

- Faxe - schrieb:
Kann mir einer mal erklären wieso diese ganzen Fuckboys so auf Raytracing abfahren? Wirklich Relevant wirds mit der kommenden Konsolengeneration. Wenn überhaupt ...
Ja, manchmal ist es schon schwer, die richtige Wortwahl zu finden.
Du meinst du kommende Konsolengeneration, die in gut 2 Wochen die aktuelle sein wird?
 
Gaspedal schrieb:
jetzt mal ohne Balken...

RTX 3090 vs RX 6900 XT

Dir ist schon klar das von Mark PC alle Videos fake sind????????????????????
 
  • Gefällt mir
Reaktionen: foo_1337
znarfw schrieb:
Das hast du aber auch gelesen?

"It's no different from what Intel has been doing with their optimization in math libraries for years."
Ich lese immer das was ich zitiere. Ich kreide AMD an, dass sie das jetzt hypen, obwohl es auch mit zen2 und darunter möglich gewesen wäre und vor allem nichts neues ist. Und wieso Retourkutsche? AMD hätte die Intel Instruktionen in ihren Treiber implementieren können bzw. kann es immer noch. Intel MKL ist free.

It's a little bit different. In this case, the extensions necessary to enable this support are actually specific to the vendor architecture, whereas in Intel MKL the desired extensions are present in both and can run the exact same code path, it's simply a matter of reversing the result of a single branch instruction checking the vendor string instead of properly checking support for the extension. But the real issue here is one level up: Intel's compiler already does these fine-grained extension checks because it has to determine which optimizations are available even on their own CPUs, but it preempts these checks with a completely unnecessary function also checking for "GenuineIntel". Having this here in the first place is borderline intentional malice, not a mere engineering shortcoming.

AMD should enable this on all compatible platforms including Intel, I agree. But it actually requires some effort to do this, it's not just a matter of removing a single line and recompiling the driver.
 
  • Gefällt mir
Reaktionen: ComputerJunge
War schon immer schwierig anderen was zu gönnen. Fing schon im Kindergarten an. Über die Schulzeit bis zum jetzt.

Ich freu mich für nvidia , aber auch für amd.

Ich finde den Markt faszinierend was mittlerweile möglich ist. Und mehr Konkurrenz bringt uns auch schneller vorwärts.

Es wird immer jemanden geben der gute oder eben auch schlechte Erfahrungen gemacht hat.

Genauso wie jeder andere Ansprüche hat an seine Hardware.

Jetzt bekommen wir Hardware die keine Wünsche offen lässt , für jeden was dabei. Aber auch das ist wieder nicht richtig.

Warum so teuer. So ne Heizung. Soviel Stromverbrauch. Blablabla.

Egal wie man es macht ist es nicht richtig. :D

Ich find den aktuellen Markt spannender als all die Jahre zuvor :D
 
  • Gefällt mir
Reaktionen: larz und foo_1337
Wieviel ruhiger das gleich ist, wenn die streitenden Kinder aus dem Haus sind... Herrlich :daumen:

@Topic
Schön zu sehen wie optimistisch AMD da ran geht.
Wenn dann noch die Verfügbarkeit stimmt, steht dem Weihnachtsgeschenk nichts mehr im Wege.
Bin da aber noch etwas pessimistisch, nachdem ich das Dilemma mit Nvidia gesehen habe.
Bei den unabhängigen Benchmarks erwarte ich eher keine (böse) Überraschung, dafür geht AMD zu selbstbewusst an die Sache ran.

Bleibt nur noch zu sagen:
What a great time to be alive (as a Gamer) :)
 
@duskstalker
@seth777

Deswegen wird es auch immer teurer: Waferkosten sind das eine und NRE bzw. Designkosten das andere :

https://www.extremetech.com/computing/272096-3nm-process-node

1604084752922.png
 
  • Gefällt mir
Reaktionen: DeadMan666
stevefrogs schrieb:
Tolle Rasterizing Leistung, aber wieder keine Raytracing-Benchmarks. 🤨
Der Mann mit dem traversal coprozessor unkt, dass AMD RT über einen Zen3 CPU in Radeons beschleunigt. Wäre schön, ist aber unwahrscheinlich. AMD ist in RT einfache etwas schwächer und zeigt es deshalb nicht.
 
seth777 schrieb:
Interessant wie sich die GPU Preise entwickeln, die DIE werden immer kleiner und werden immer gunstiger da man mehr davon pro Wafer erhaelt aber die GPU selbst werden immer teurer[...]

das ist nicht dein ernst ? lese ich das wirklich ? :D größe = preis ?
genau so nen post hab ich gebraucht bei den ganzen absurden, lustigen und verstörenden nachrichten die das jahr schon bereit hat 🙃

danke :) du hast mir den tag gerettet. absolute comedy :D
 
- Faxe - schrieb:
Kann mir einer mal erklären wieso ...
Weil Fanboys im allgemeinen "Glaubenskrieger der Neuzeit" sind und man einen Gläubigen kaum überzeugen kann (und wenn es doch mal klappen sollte, wird aus ihm etwas noch extremeres, wie es bei Bekehrten halt so üblich ist...).
 
  • Gefällt mir
Reaktionen: Haldi und - Faxe -
Monstranz schrieb:
Zieh doch rund 7% ab. Ich tausche Board und CPU auch nicht, hab sogar noch ein B350 gepaart mit 3700x und 3200er Ram. Fuer BFV reicht das mit einer 6800XT in Zukunft.

Ich werde keine 6800 mit meinem ollen Xeon kombinieren, aber die Mehrzahl der User (aktuell sogar alle) haben kein Zen 3 Prozessor.
Die Tests werden es richten
 
foo_1337 schrieb:
Du meinst du kommende Konsolengeneration, die in gut 2 Wochen die aktuelle sein wird?

Ja, die Generation die ohne wirkliche "Next Gen" Spiele startet, genau die mein ich 😉 Während der Übergangszeit, bzw. dem dahinsiechen der aktuellen Generation (Stand heute, 23:21) kann und wird man keine potentiellen Grafikmonster bekommen. Genausowenig wie man Ladezeiten durch die SSD eliminieren wird.

Deswegen: RT = irrelevant. (noch)

foo_1337 schrieb:
Ich kreide AMD an, dass sie das jetzt hypen, obwohl es auch mit zen2 und darunter möglich gewesen wäre und vor allem nichts neues ist.

Theoretisch ist vieles möglich. Nur was hätte es AMD gebracht damit seine, maximal, Mittelklasse GPUs zu vermarkten? Jetzt wo man auf Augenhöhe ist, ist es wesentlich sinnvoller. Und der Impact größer, weil selbst allein die CPUs für sich sprechen was Konkurrenzfähigkeit angeht.

Das ganze Smart Memory Bummsgedöns ist nur die Kirsche aufm Törtchen.
 
Zuletzt bearbeitet:
Floppes schrieb:
Der Mann mit dem traversal coprozessor unkt, dass AMD RT über einen Zen3 CPU in Radeons beschleunigt. Wäre schön, ist aber unwahrscheinlich. AMD ist in RT einfache etwas schwächer und zeigt es deshalb nicht.
Nah, das Denoising vielleicht, ansonsten sind die Latenzen über PCIe viel zu hoch
 
  • Gefällt mir
Reaktionen: Colindo und foo_1337
- Faxe - schrieb:
Genausowenig wie man Ladezeiten durch die SSD eliminieren wird.
Meinst du mit eliminieren wirklich 0s oder drastisch senken? Letzteres ist zumindest auf der PS5 tatsächlich der Fall. Auch für PS4 Spiele.
- Faxe - schrieb:
Theoretisch ist vieles möglich. Nur was hätte es AMD gebracht damit seine, maximal, Mittelklasse GPUs zu vermarkten?
Es geht mir nicht um die GPU, sondern um die CPU.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Bei Rohleistung schon denkbar, aber sobald RTX ON sieht das ganze wieder anders aus :)
 
  • Gefällt mir
Reaktionen: foo_1337
Gaspedal schrieb:
jetzt mal ohne Balken...

Von wo sollte denn der schon eine der neuen AMD-Grafikkarten herhaben? ;)

Was Smart Access Memory betrifft - soll AMD das nicht bringen, weil es mit Intel CPUs nicht geht? Bei Intel anrufen und sagen "Äh, sorry, liebe Leute, wir haben den Umstand genutzt, dass wir CPUs und Grafikkarten gleichzeitig bauen und wir hätten da eine neue Technologie, die im Zusammenspiel der beiden Komponenten eine Leistungssteigerung bringt, aber wollen diese noch nicht herausbringen, bis eure CPUs auch dazu in der Lage sind, und würden euch gerne mithelfen, so weit zu kommen"? Dasselbe auch mit NVIDIA? :p

Und Raytracing, bis das mal bei der Masse ankommt, werden noch einige Jahre vergehen, das wird erst der Fall sein, wenn auch günstige Karten ab 150, 200 Euro genug Leistung dafür haben. Die überwältigende grosse Mehrheit hat ja keine Grafikkarten für 500 Euros oder mehr eingebaut. ;) Sicher eine interessante Technik, aber kostet halt einfach viel Leistung.

Und wenn ich den direkten Vergleich nicht habe auf dem Bildschirm ob jetzt da RT drin ist oder nicht, merkt man das überhaupt gross? Nicht wirklich, also ich nicht, nachdem was ich bisher gesehen habe, ein Spiel kann auch ohne RT seher gut aussehen, oder auch mit RT sehr schlecht, und der Inhalt zählt dann auch noch. Wenn ich manchmal hier bei Spieletests Screenshots der verschiedenen Voreinstellungen ansehe, dann muss ich sagen, bei den meisten Stufen sehe ich keinen grossen Unterschied, und im Spiel selber würde ich gar nichts davon bemerken, da ich dort mit anderen Sachen beschäftigt bin als die Grafik anzuschauen, ausser vielleicht wenn es der Vergleich zwischen ganz niedrigeren und der höchsten Stufen ist. Mag ja Leute geben, bei denen es anders ist...

Auf jeden Fall schön, wenn AMD auch bei den Grafikkarten wieder ganz vorne dabei ist, Konkurrenz belebt das Geschäft, das hat man ja bei den CPUs gesehen, und das kommt auch den Leuten zugute, die eine NVIDIA-Karte kaufen, oder nicht? :)
 
  • Gefällt mir
Reaktionen: Cpt.Willard, daknoll und Onkel Föhn
Zurück
Oben