News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

Nochwas Vergnügliches zum WE:
Das größte Problem für den AMD-Launch war die Beschaffung der Amps für den Vgl. .

btw.
Was ist eigentlich in WD mit dem RT los? siehe Licht vom Fenster (total ausgefranst und niedrige Qualität)
 

Anhänge

  • paper.jpg
    paper.jpg
    94,9 KB · Aufrufe: 2.561
  • WD-Licht.jpg
    WD-Licht.jpg
    1,9 MB · Aufrufe: 611
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack, nurfbold, peru3232 und eine weitere Person
AMD wird hier schon aus dem Vollen schöpfen und rein geschmissen haben was geht. Aber was soll es. AMD kann es eben mit den neuen CPU´s und GPU´s. Ist ja nix dagegen zu sagen.
 
Also im Endeffekt, praktisch vorm Monitor ohne FPS Anzeige, gibts keinen Unterschied ob man Nvidia oder AMD haben wird. Hype hin oder her.
 
foo_1337 schrieb:
Meinst du mit eliminieren wirklich 0s oder drastisch senken? Letzteres ist zumindest auf der PS5 tatsächlich der Fall. Auch für PS4 Spiele.

Also ähnlich bis gleich der Series X/S nehm ich an. Hat man zu den Ladezeiten auf der PS5 eigentlich schon was gesehen?

Mit eliminieren meine ich eigentlich auch eliminieren, also wenn die ersten auf die Bandbreite der internen SSD angepassten bzw. explizit programmierten Spiele dann irgendwann kommen.

Es geht mir nicht um die GPU, sondern um die CPU.

Wir reden doch hier von der CPU/GPU Kombo-Technik? Oder interpretier ich das Falsch?
 
aber hier scheinen die 4-8% Mehrleistung durch die Kombination mit ryzen5000 schon drin zu sein.

noch keine Aussage zu RT und noch keine Aussage zum DLSS Gegenspieler.

bei 600Euro muss für mich alles passen.
ich bin auf die unabhängigen Tests sehr gespannt.

ich hoffe sehr auf ein AMD comeback. wobei ich mich bei den Preisen frage, warum ich das tue... haben sich ja preislich sowohl intel als auch nvidia einfach angepasst...
 
GerryB schrieb:
Der kleine Unterschied könnte schon aus dem nur 16GB Ram@3200 bei AMD kommen.
Könnte CB bitte mal bei den Reviews immer die CPU+Ram dazuschreiben oder den Lnk prinzipiell mit angeben:
Grafikkarten von AMD und Nvidia im Vergleich - ComputerBase
und
Mit SAM wird evtl. höher getakteter teuerer Ram net mehr so wichtig sein.
Ja detailliertere Angaben bei den Benchmarks habe ich auch schon bemängelt, das könnte man wirklich dazu schreiben.
Aber wir reden hier von 2% das geht schon fast in der Messungenauigkeit unter.
GerryB schrieb:
Ansonsten sind dann Summen overall eh Quark, weil Ausreisser ala FH4 zu sehr reinhauen.
(dito für den Ampere-Launch-CB-Parcour, wo auch Ausreisser zugunsten von NV drin sind)
Ich würde es jetzt vielleicht nicht ganz so harsch ausdrücken, aber im Prinzip hast du schon recht, man dürfte
je nach Datenbasis und wie viele Spiele getestet werden die Ausreißer (in die einte, oder andere Richtung) eigentlich gar nicht in das Endergebnis mitein fließen lassen.
z.B. bei 20 Spielen, falls grössere Ausreißer vorhanden, mindestens den extremsten Ausreißer (jeweils in die einte, oder andere Richtung) ausschließen.

Bei Tests wo nur <= 10 getestet werden, gestaltet sich die Sache natürlich schwierig da einfach nicht genug Daten vorhanden sind.

Aber selbst wenn man die Ausreißer mitberücksichtigt, verändern sich die Ergebnisse nicht sonderlich. Wenn man z.B. die zwei Spiele die der Karte am besten liegen: Borderlands 3 und Forza 4 nicht in die Berechnung mit einfließen lässt sieht es folgendermaßen aus:
Ausganswert: 145.4% (6900 XT, 1440p)
Ohne Borderlands 3 und Forza: 140.9%

Aber wenn man es wirklich richtig anstellen will, dann sollte man zugleich die zwei Spiele aus der Berechnung rausnehmen die der Karte am schlechtesten liegen: 143.6%

Und selbst wenn man bei der 3090, zugleich die zwei Spiele die ihr wiederum am schlechtesten liegen, nicht miteinbezieht, liegt sie immer noch deutlich zurück. (135.6 vs. 136.9%)

Man kann es drehen und wenden wie man will, die 3090 ist im besten Fall (selbst ohne SAM) gleichschnell wie eine 6900XT, um da etwas anderes zu benchen, muss derjenige schon kreativ werden und sich spezifisch diese Spiele
herauspicken die der 6900XT nicht liegen und wiederum diejenigen auswählen die der 3090 besonders gut zusagen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, GerryB und DarkerThanBlack
Ich brauche die GPU, welche in Cyberpunk, WatchDogs und WoW am besten performt. Da die 6000er Serie bei den nicht fancy Sachen (Also DX11, DX12 ohne RT) offenbar Sau gut performt, wird’s diese wohl werden. RT in WoW klaut mir direkt mal 40FPS und der Mehrwert ist... es nicht wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll, DarkerThanBlack und TodboT
Gortha schrieb:
Man sieht heute in jedem Spiel, wieviel besser RTX On als Off aussieht.
Der war gut ;).
Jedes Spiel? Nope.
Besser? .... naaahhh ... für mich sieht es oft nur anders Beleuchtet aus aber nicht unbedingt besser (Metro, TombRaider), Die Reflexionen sind für mich noch das Heraussragenste. Aber wenn man den gleichen Performancehit hinnehmen würde könnte man das auch mit Planar Reflection ähnlich gut hin bekommen ohne die Artefakte von SSR.
Die einzigen Spiele wo man einen wirklichen Unterschied sieht (wie Minecraft) geben sich halt bei der Standardbeleuchtung schon absolut gar keine Mühe. Klar, dass man den Unterschied dann sehen kann.
 
  • Gefällt mir
Reaktionen: derSafran, Cpt.Willard und daknoll
Anker2310 schrieb:
Eine 3070 mit der Leistung einer 2080ti und trotzdem nur 8GB Speicher? Da hat AMD echt Glück und es wird genauso wie bei der GTX 970 4GB und R9 390 8GB. Beide gleich stark aber die AMD Karte doppelt so viel Speicher.
In dem Fall, würde ich auf das rote Pferd setzen! ]
Ergänzung ()

Gortha schrieb:
Ich denke nicht, dass AMD in Sachen Raytracing Geschwindigkeit an NVidia ran kommt.
In RTX/Raytracingspiielen wird NVidia ein großes Stück vorne sein.
Da gebe ich dir auch Recht, weil Nvidea ja schon einen kleinen Vorsprung hat.

Alleine die letzte Generation von Nvidea, konnte ja auch schon Raytracing,

zu diesem Zeitpunkt, lebte man bei AMD noch hinter dem Mond.

AMD fängt jetzt erst mit Raytracing an!
 
  • Gefällt mir
Reaktionen: Gortha
mc_ace schrieb:
Irgendwie sind die Diskussionen immer die Gleichen in jedem Artikel, Bericht, etc...:

Sind nur AMD Marketing Folien bla bla
AMD hat bessere Preise hehehe
Raytracing ist Nvdia besser blub blub
AMD ist insgesamt besser als nvdia laber rhabarber
Aber mit DLSS ist nvdia viel schneller rummel grummel
Dafür hat AMD viiiel mehr Speicher ramm tamm tamm
AMD schummelt ja nur mit smart access und Rage mode paperlapapp
dafür hat nvidia paperlaunch ätschbätsch
freut euch nicht zu früh amd vielleicht auch kicher kicher....
usw...

Vielleicht würde es vielen Leuten besser gehen mal kurz die Augen zu schließen und einmal tief durchzuatmen.

Aufgrund der aktuellen Fakten liegt eins sehr Nahe:

Wir haben endlich Konkurenz im High-End Segment und sowohl AMD und Nvdia haben da etwas zu bieten.
Die hohe Nachfrage beider Parteien scheint aktuell vorhanden zu sein. Punkt.

Nach weiteren tiefgründigen Recherchen habe ich noch folgendes herausgefunden:

AMD hat den längsten Balken zwinker zwinker
Ach ja, aber nicht wenn du Quelle Link Folie Screenshot Text vergleichst haha
Waaaas? Dann schau dir doch mal Link Quelle Screenshot Text Folie an haha ha
Na und? Nvdia hat schon immer die bessere Archtitektur gehabt - Benchmark von 2015 auskram höhöhö
Ja aber was interessiert mich den Kram von gestern wir haben 2020 alter hmpf
Und in 2020 stürzt immer noch und jederzeit der Treiber von AMD ab - AMD Bluescreensimulator lach lach
Und die Treiberoberfläche von Nvdia sieht noch so aus wie aus den 90ern - Windows 95er lässt grüßen rofl
Dafür hat Nvdia die geilsten Techniken und ist AMD mindestens Lichtjahre voraus bunga bunga
Und was ist mit AMD Mantle und Freesync? balla balla
Mir doch egal - ich hab GSync - wat soll ich damit? uff tata
Ja, aber AMD macht alles open source und ist Messias of IT heiligenschein aufsetz
Bei Nvdia weiß man was man hat. Nvidia = Qualität. AMD = solala War schon immer so. Bleibt so! Tada
Dafür verbraucht AMD viel weniger Strom yeah yeah peace
Und was ist mit den Grafikkarten anno furry und vega? Voll unökologisch tuff tuff
mir doch egal. nvidia kauft sich überall ein und ist evil. schwup di wup
he nicht ablenken nvidia 3090 läuft auch auf einen Premium 350W Netzteil in voller Auslastung klatsch batsch
Na und? Meine AMD mit undervolting extreme und Wasserkühlung läuft mit viel weniger Watt schüttel schüttel
Dafür macht AMD Smart Access Memory nur für AMD, sollte das mal Intel oder Nvidia machen augenroll
AMD ist immer total fair und gerecht und denen ist Geld egal, siehe Präsentationen der letzten Jahre halleluja
Moment ich suche gerade mal ne Folie wo das nicht stimmt.. Ah hier... oder? hinklatsch
Dafür leuchtet die rote RGB viel besser als die Grüne? häh
Moment? Waaasss?
Ach, lass uns von vorne anfangen...
Sind nur AMD Marketing Folien bla bla
AMD hat bessere Preise hehehe
Raytracing ist Nvdia besser blub blub
...

Vermutlich gibt es noch mehr solcher schönen Geschichten. :)

Wie schon gesagt, Augen schließen und tief durchatmen.

Beide haben dieses Jahr gute Grafikkarten und lasst die Leute doch kaufen was sie wollen.
Es muss lieferbar sein.

Ich drücke euch die Daumen, dass ihr die Karte eurer Wahl noch vor Weihnachten bekommt.
 
  • Gefällt mir
Reaktionen: MurphysLaw, Cpt.Willard, Hells_Bells und 3 andere
Sehe es schon kommen. Viele werden sich bei den Tests dann nur mehr auf RT Leistung konzentrieren und Prognosen auf Basis von irgendwelche Synthetische Benchmarks machen, die im Endeffekt vollgespickt mit RT sind. Am Ende wird es dann die wenigsten Games betreffen, bis auf "The Way It's meant to be played".
Denn auch aufgrund von den Konsolen und eben den letzten Updates der DXR Schnittstelle, sollte klar sein, dass RT Features in Zukunft angepasst auf die Engine und dem Game und mit Regler kommen wird.
Oder habt ihr Games gesehen die Tessellation auf Anschlag überall angewendet haben?

Wer natürlich das volle RT Erlebnis haben will, dürfte aber wohl in der Generation zu NV greifen, wobei noch unklar ist, wie der Abstand am Ende aussieht.
Denn die Leaks, auf der die "schwächere" RT Leistung aufbaut, ist ziemlich alt und dürfte damals durchaus auch auf Prototyp Karten gelaufen sein.
Weiteres hat AMD bekannt gegeben dass das "Super Sampling" Feature im Zusammenhang mit RT läuft.
Also es gibt da noch viele unbekannte.

Am Ende bleibt es bei dem Punkt. Wie wird es mit RT in Games aussehen. Auch die Umsetzung und wie wird es mit DLSS oder allgemein kommende Techniken aussehen.
Denn es ist naiv zu glauben, dass diverse Engine nicht ML einsetzen werden, Engine optimieren und erweitern werden. Da ist ja noch vieles völlig unbekannt.
Ich sehe den Erfolg darin, wenn Techniken nicht von der Grafikkarte und Treiber per se Abhängig sind, sondern Techniken direkt in der Engine zu finden sind. Und umso besser wenn AMD, Intel, NV da mehr in die Entwickler investieren und diese Engine unterstützen. Dann spart man sich Ausflüge. Aber gut, dann verliert der eine oder andere natürlich sein Alleinmerkmal, den man dick am Karton draufkleben kann.

Und was Cyberpunk angeht. Ich würde da wenig gedämpft abwarten. Ich bin überzeugt dass es ein gutes Game wie Witcher 3 wird. Aber RT wird da auch nur in kleinen Bereichen umgesetzt und es war beim Beginn der Entwicklung einfach nicht angedacht. Also sollte man da nicht zu viel Wunder erwarten, wie in anderen Games die dann von Beginn an mit RT entwickelt werden. Da ist eher interessant was DLSS bringen kann.


Was die IF-Techniken angeht. Mich würde es nicht wundern, wenn AMD ab einer gewissen Plattform, hier eben Ryzen 5000, PCIE 4 und ab RDNA2 eine Art "Konsolen" Kompatibilität liefern will.
Bedeutet, dass die Kombi ähnlich wie die Konsolen arbeiten sollen und da denke ich auch direkt an Direct-Storage API. In zukünftigen Games könnte es dann vllt noch zu kleinen Überraschungen kommen auch in Kombination mit der PCIE 4 SSD. Man wird sich da vllt aktuell noch bedeckt halten. AMD hat es nur kurz die API und Konsolen Verwandtschaft erwähnt aber nichts weiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und DonL_
Gortha schrieb:
Fast alle neuen Spiele die was auf sich halten bieten Raytraycing und damit eine wesentlich realistischere und dynamsichere Optik.
Ka auf welchem Planeten du lebst. Erde Version 2015?
Ich verstehe das Problem nicht, die AMD Karten haben doch Raytracing.
Ergänzung ()

mc_ace schrieb:
Nach weiteren tiefgründigen Recherchen habe ich noch folgendes herausgefunden:

AMD hat den längsten Balken zwinker zwinker
Ach ja, aber nicht wenn du Quelle Link Folie Screenshot Text vergleichst haha
Waaaas? Dann schau dir doch mal Link Quelle Screenshot Text Folie an haha ha
Na und? Nvdia hat schon immer die bessere Archtitektur gehabt - Benchmark von 2015 auskram höhöhö
Ja aber was interessiert mich den Kram von gestern wir haben 2020 alter hmpf
Und in 2020 stürzt immer noch und jederzeit der Treiber von AMD ab - AMD Bluescreensimulator lach lach
Und die Treiberoberfläche von Nvdia sieht noch so aus wie aus den 90ern - Windows 95er lässt grüßen rofl
Dafür hat Nvdia die geilsten Techniken und ist AMD mindestens Lichtjahre voraus bunga bunga
Und was ist mit AMD Mantle und Freesync? balla balla
Mir doch egal - ich hab GSync - wat soll ich damit? uff tata
Ja, aber AMD macht alles open source und ist Messias of IT heiligenschein aufsetz
Bei Nvdia weiß man was man hat. Nvidia = Qualität. AMD = solala War schon immer so. Bleibt so! Tada
Dafür verbraucht AMD viel weniger Strom yeah yeah peace
Und was ist mit den Grafikkarten anno furry und vega? Voll unökologisch tuff tuff
mir doch egal. nvidia kauft sich überall ein und ist evil. schwup di wup
he nicht ablenken nvidia 3090 läuft auch auf einen Premium 350W Netzteil in voller Auslastung klatsch batsch
Na und? Meine AMD mit undervolting extreme und Wasserkühlung läuft mit viel weniger Watt schüttel schüttel
Dafür macht AMD Smart Access Memory nur für AMD, sollte das mal Intel oder Nvidia machen augenroll
AMD ist immer total fair und gerecht und denen ist Geld egal, siehe Präsentationen der letzten Jahre halleluja
Moment ich suche gerade mal ne Folie wo das nicht stimmt.. Ah hier... oder? hinklatsch
Dafür leuchtet die rote RGB viel besser als die Grüne? häh
Moment? Waaasss?
Ach, lass uns von vorne anfangen...
Sind nur AMD Marketing Folien bla bla
AMD hat bessere Preise hehehe
Raytracing ist Nvdia besser blub blub
...

Vermutlich gibt es noch mehr solcher schönen Geschichten. :)

Wie schon gesagt, Augen schließen und tief durchatmen.

Beide haben dieses Jahr gute Grafikkarten und lasst die Leute doch kaufen was sie wollen.
Es muss lieferbar sein.

Ich drücke euch die Daumen, dass ihr die Karte eurer Wahl noch vor Weihnachten bekommt.

Made my Day 👍
 
  • Gefällt mir
Reaktionen: Cpt.Willard
pukem0n schrieb:
wenn diese Benchmarks auch nur im geringstem stimmen wäre das das erste mal seit vielen vielen Jahren, dass AMD die Grafikkrone hat in sämtlichen Preiskategorien. Damit hätten wohl nur die wenigsten gerechnet.

Natürlich stimmen sie min. im Geringsten!
Alles andere wäre Betrug.
 
Tja ich muss sagen, ich hab das jetzt zwei Tage Sacken lassen und für mich wird es trotzdem ne 3080. Bei AMD sind mir einfach zu viele Fragen offen. Raytracing sehe ich die nächsten 2 Jahre auf dem Vormarsch und für mich war das bislang (Metro, Shadow, Control) immer ein Hinzugewinn und ich freue mich auf Cyberpunk mit allen Raytracing Effekten. Da ich eh in zwei Jahren die 4080 als VR Spieler nehme, stören mich auch die 10GB nicht. Da für mich erst ZEN 4 interessant ist, kann ich auch von der AMD/AMD mit Zen 3 Kombi nicht profitieren. Ich finde es super dass NVidia jetzt nicht mehr die einzige Option ist im High End und man einfach mehr Auswahl hat das richtige für die eigenen Bedürfnisse zu kaufen! Ich hab das Gefühl dass wir nach 10 Jahren Wüstenwanderung endlich ne Quelle gefunden haben.
 
  • Gefällt mir
Reaktionen: foo_1337 und nurfbold
seth777 schrieb:
Interessant wie sich die GPU Preise entwickeln, die DIE werden immer kleiner und werden immer gunstiger da man mehr davon pro Wafer erhaelt aber die GPU selbst werden immer teurer und teurer, heute ist die Mittelklasse bei 500$,
2011 war Highend noch bei 499$.

Um es anders zu formulieren, ausgehend von der DIE Size und dem Endkunden Produkt hatte man 2011 349$ gezahlt wofuer man heute gut 700$ zahlt
🤦‍♂️
Beschwer doch bei Lederjacke und den dummen die 800+ für eine 2080S gezahlt haben.
 
Die Frage wird sein wie hoch der maximal zu erreichende Gaming-Takt mit OC ausfallen wird?

Beim Referenzmodel sind es für die 6800XT / 6900XT ja jeweils nur 2.015 GHz (Boost 2.25 GHz)
AIB Karten wie z.B. die ROG scheinen ja bereits einen Gaming-Takt von in etwa 2.3GHz (bzw. +15%) zu erreichen.
Sind da unter optimalen Bedingungen mit Wasserkühlung eventuell gar 2.5GHz (+25%) möglich oder würdet ihr das als gänzlich unmöglich ansehen?

Die 6900XT scheint ja nur als Referenzkarte zu erscheinen (wurde das mittlerweile bestätigt?)
Falls ja würden dann die AIB Karten der 6800 XT eigentlich nicht viel zu schnell und würden gar die 6900 XT überholen?
Link Asus 6800 XT ROG STRIX >2.5GHz

system 1.png
 
Also ich habe vor zwei Jahren 1150 für eine 2080ti hingelegt und war durch einen Zwangsmonitortausch dieses Jahr (defekt) schon am überlegen, will ich nun mehr investieren und gleich wieder in die Top-Liga eintauchen. Doch wenn ich mir die bunten Balken ansehe, auch wenn meine 2080ti hier scheinbar hinterhezuckelt, die reinen FPS, die diese Karte immer noch schafft, reichen mir, ich sage, alles richtig gemacht und mit großer Sicherheit noch zwei Jahre Ruhe, denn sooooo viel besser sind die neuen Flaggschiffe nicht wirklich und bei hohen Auflösungen, ich nutze WQHD+ oder 4K- :D , brechen diese mit vollen Details und RTX Aufhübschung gewaltig ein. Als 20xx er Nutzer würde ich mir da keine großen Gedanken machen, immerhin kann man spielen und muss nicht warten.
Aber schön, dass die neuen Karten beider Anbieter die Konkurrenz so richtig beleBen.
 
Zuletzt bearbeitet:
Da Battlefield mein Spiel ist, sind die Chancen für amd grade deutlich gestiegen :)
 
  • Gefällt mir
Reaktionen: Oldtekkno und Xes
DanyelK schrieb:
Tja ich muss sagen, ich hab das jetzt zwei Tage Sacken lassen und für mich wird es trotzdem ne 3080. Bei AMD sind mir einfach zu viele Fragen offen.

Daher sollte man ja auch erst auf die Tests warten. Da werden dann die Fragen beantwortet.
 
  • Gefällt mir
Reaktionen: wolve666
Zurück
Oben