Notiz GPU-Gerüchte: Radeon RX 6900 XT mit höherem Taktlimit

  • Gefällt mir
Reaktionen: Mcr-King, Onkel Föhn und Bright0001
Wechhe schrieb:
Will ich Raytracing? Dann klar NVIDIA.
Wobei das gar nicht Mal so klar ist, dass das langfristig so ist. Tatsächlich ist die 6800xt in entsprechend optimierten Spielen in Raytracing schneller als Ampere. Bei Spielen die exklusiv mit Nvidia entwickelt wurden liegt hingegen Ampere weit vorne.

Viele Spiele sind aber einfach nicht auf die Amd Architektur optimiert, weil die viel später erschienen ist.
Zumindest bei den Spielen bei denen Nvidia nicht Partner ist, ist zu erwarten, dass sich da noch deutlich was tut beim Performance Verhältnis.

Man kann jedenfalls nicht behaupten , dass die RT Rohleistung bei Ampere grundsätzlich so viel höher ist.
 
  • Gefällt mir
Reaktionen: dunkelbunter, Mcr-King, Tanzmusikus und eine weitere Person
@Tigerfox

Ich sehe das recht nüchtern, man wird in der nächsten Generation bei einem feineren Prozess primär über den Takt gehen denn damit hat die aktuelle Generation ja ihre Probleme, wodurch auch die Effizienz den Bach runter ging.
Die daraus resultierenden kleineren DIE dienen dann der Kostenoptimierung, ich denke wir wissen beide was das bedeutet.

Die Geschichte mit der Spiele Optimierung ist doch schon seit Jahren nichs neues.
Sie haben nicht umsonst so viele Programmierer bei den entsprechenden Studios abgestellt die wohl kaum für andere GPUs optimieren werden und mit Sachen wie PhysX, Gameworks und Co. haben sie noch ganz andere Möglichkeiten bei denen man sich mit ziemlicher Sicherheit auch nicht um eine Optimierung für Hardware anderer Hersteller gekümmert hat.
Wozu Geld in die Entwicklung schnellerer Hardware versenken wenn man die Schwächen der Konkurrenz ausnutzen kann um diese schlechter aussehen als sie ist? Soll diese doch Gelder in die Entwicklung der Hardware versenken um entsprechend spät gegensteuern zu können. Die Entwicklung der Hardware dauert schließlich Jahre.
Da gab es ja schon mehr als genug Beispiele dafür.
Gegen einseitig optimierte Software könnte man in dem Ausmaß nur mit dem entsprechenden Personalbestand angehen der natürlich auch entsprechend kostet. Damit dürfte auch AMDs bisheriger Kurs über die Konsolen recht einfach nachvollziehbar sein denn gerade bei Konsolen wird deren Software für deren Hardware entwickelt und die Hardware Nähe legt nahe das sie auch in den PC Markt hätten einfließen können. Man verdient also nielleicht nicht viel an der Hardware, spart sich aber womöglich hohe Kosten für die Optimierungsarbeiten bei den PC Versionen. Offensichtlich wurde diese Strategie aber sehr erfolgreich torpediert, nicht umsonst hatte so manche PC Version eine teils grausige multicore Skalierung.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und def_
Ok, erklär mir doch bitte mal, wie Nvidia Spiele, die für zwei RDNA-basierte Konsolenplattformen entwickelt werden, bei der PC-Portierung noch so beeinflussen kann, dass sie besser für NV als für AMD optimiert sind?
 
  • Gefällt mir
Reaktionen: Daggy820 und foo_1337
bad_sign schrieb:
Igor hatte es zwar in seinem Test behauptet aber überhaupt nicht getestet.
Das der Cache in 4K etwas zu klein ist steht auch im Test von CB. Deshalb verlieren die 6800 und 6800 XT auch etwas Leistung in höheren Auflösungen gegenüber den Nvidia Karten. Das wurde auch so von AMD bestätigt. Für 4K ist der Cache etwas zu klein und die Cache Misses nehmen etwas überhand. Irgendwo auf einer Folie von AMD war da was von 80% Treffern bei FullHD. 50% bei WQHD und dann nur mehr 30% bei 4K. Deshalb verliert die Karte in den höhren Auflösungen dann etwas Leistung gegenüber der Konkurrenz. Mehr Cache wollte AMD aber auch nicht verbauen, weil das zu viel Chipfläche und Energie verbraucht hätte. Das stand alles im CB Test und auf den AMD Folien. Auch Igor erzählt das in einem seiner Videos mit den AMD Folien, wenn es mich jetzt nicht täuscht.
Ich bin jetzt aber zu Faul um die genauen passagen zu suchen. War ein Langer Tag und ich will jetzt ins Bett.
 
  • Gefällt mir
Reaktionen: Mcr-King
KurzGedacht schrieb:
Wobei das gar nicht Mal so klar ist, dass das langfristig so ist. Tatsächlich ist die 6800xt in entsprechend optimierten Spielen in Raytracing schneller als Ampere.
Du meinst die Spiele, die weit weniger Raytracing nutzen als
KurzGedacht schrieb:
Bei Spielen die exklusiv mit Nvidia entwickelt wurden liegt hingegen Ampere weit vorne.
Was willst du bei DXR optimieren? Der Grund ist schlicht, dass bei WDL, CP & Co halt sehr viel mit RT gemacht wurde. Kann man als optimiert bezeichnen, muss man aber nicht :)
Bei WoW und Dirt z.B. sind es nur die Schatten. Und bei der Rasterperformance lagen bei den genannten Titeln die RDNA2 Karten eh schon vorne. Also wenig verwunderlich.
Wenn AMD Eier hätte, würden sie die RT Demo von vor kurzem (Hangar21) veröffentlichen. Aber es gibt halt Gründe, weshalb sie nur ein 1080p Video auf YT zeigen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: guillome
Die Taktraten die BigNavi schafft sind schon echt krass. Bleibt nur für die Interessenten zu hoffen das von den 50 Karten die im Handel landen nicht gleich alle an OC Rekord Jäger wandern. :P Sonst aber echt spannend was AMD da raus gehauen hat. MFG Piet
 
  • Gefällt mir
Reaktionen: Onkel Föhn
@Tigerfox

Da die Spiele ohnehin umgestrickt werden müssen um die Kompatibilität zu unterschiedlichen Hardware Configs herzustellen könnte man entsprechende Bereiche im Code eher einseitig umschreiben, baut fleissig Funktionen ein die nur auf die eigene Hardware optimiert wurden (z.B. Gameworks), natürlich nur weil diese vorgefertigten Funktionen Portierungszeit sparen und kümmert sich z.B. bei der DX11 Geschichte wenig um Multicore Optimierungen damit die GPUs der Konkurrenz an der CPU Kern Nutzung verhungern, man selbst hat ja einen passenden Workaround für die Schwächen der API. Des weiteren wurde mit erstaunlicher Regelmäßigkeit "vergessen" Sachen wie die Tesselationsfaktoren anzupassen. Ich glaube kaum das diese bei der Konsolen Version so gesetzt waren.
Nur zur Erinnerung, die bisherige Konsolen Generation hat 8 Jaguar Kerne, das ist die Kern Architektur die auch in einem 4 kernigen Athlon 5350 (AM1) steckte und es wird meines wissens nach auf low level Ebene programmiert um möglichst viel Leistung aus der Hardware rauszuquetschen.

Gerade weil beim Port von der Konsole zum PC so viel angepasst und umgeschrieben werden muss gibt es verdammt viele Möglichkeiten zur Beeinflussung.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Unti schrieb:
Ist im Test definitiv wie von euch erwähnt korrekt getestet worden und hat keinen Performanceverlust gezeigt! . My Bad.
Ich verstehe wie du zuerst zu der Annahme gekommen bist, schließlich verliert die RX 6800 XT schon ein wenig an Boden auf die RTX 3080 in UHD. Aber vielleicht liegt das eher daran, dass Nvidia jetzt die Probleme hat, die AMD lange Zeit hatte: die richtige Auslastung der Rohleistung in niedriger Auflösung.
 
  • Gefällt mir
Reaktionen: Unti, Onkel Föhn und Tanzmusikus
Gut... Sobald die höher Taktet als meine CPU, wirds wirklich Zeit aufzurüsten 😂

Was bei RDNA2 an Taktraten drin zu sein scheint ist abnormal.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wadenbeisser schrieb:
@Martinfrost2003

So knapp an der 1000er Grenze wird sich die Nachfrage wohl allgemen in Grenzen halten und die Custom Modelle dürften mit Sicherheit noch ne Schippe drauflegen.
Könnte mir schon vorstellen, dass bei einer UVP von 999 + 250 € für Custom Karten oben drauf kommen.
Die RTX 2080Ti mit UVP 1259 € ist ja auch weg gegangen wie geschnittenes Brot … ;-)

MfG Föhn.
Ergänzung ()

Hirngerichtet schrieb:
Die RTX 3090 istz immer noch brachialer und schneller als diese 6900.
Da haste sowas von Recht ! Also im Preis und Verbrauch zumindest … ;-)

MfG Föhn.
Ergänzung ()

Backet schrieb:
Das ist 1080er Auflösung...wer spielt sowas noch? Ich glaube die ganzen "ProGamerz" in diversen CoD Games usw.
Unter 4K zieht die 6800xt noch nicht mal an der 3080 vorbei. Und VR ist leider auch nix bisher bei AMD. Gerade da zeigt die 3090 ihre Stärken.
Und wenn NVIDIA ihre SAMversion noch rausbringt kommen nochmal ~5% dazu.
AMD´s SAM bringt halt aber bis zu 17% (11% im Durchschnitt) !
Und 4K Auflösung kann die 6800XT auch (und das ist noch nicht einmal die 6900XT) … ;-)

MfG Föhn.
 

Anhänge

  • Bench 1.jpg
    Bench 1.jpg
    310,6 KB · Aufrufe: 309
  • Bench 2.jpg
    Bench 2.jpg
    308,2 KB · Aufrufe: 311
  • 3090 bis 550 Watt.jpg
    3090 bis 550 Watt.jpg
    405,6 KB · Aufrufe: 310
  • Gigabyte-Smart-Access-Memory-2--pcgh.jpg
    Gigabyte-Smart-Access-Memory-2--pcgh.jpg
    181,5 KB · Aufrufe: 316
Zuletzt bearbeitet von einem Moderator:
Onkel Föhn schrieb:
Könnte mir schon vorstellen, dass bei einer UVP von 999 + 250 € für Custom Karten oben drauf kommen.
Die RTX 2080Ti mit UVP 1259 € ist ja auch weg gegangen wie geschnittenes Brot … ;-)

MfG Föhn.
Nun ja, beim Steam Hardware Vergleich kommt die 5700XT (0.93%) etwas öfter zum Einsatz die 2080Ti (0.88%) und selbst eine Rx 580 (2.08%) ist mehr als doppelt so oft vertreten. Mit einem deutlichen Abstand an der Spitze sind allerdings die GTX1060 (10.48%) und die 1050Ti (7.08%) vertreten und viele weitere Modelle in dem Leistungsbereich leisten ihnen da Gesellschaft, womit auch klar wäre welche Preis- und Leistungsklasse das Gaming Kerngeschäft ist. :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
PS828 schrieb:
Gibt's eigentlich sowas wie GPU-Aios
Ja gibt es. Du nimmst eine normale CPU AIO und bastelst auf die Karte die entsprechende GPU Halterung von Nzxt drauf. Hatte das damals auf einer 980ti. Das hat wunderbar funktioniert.
https://www.mindfactory.de/product_info.php/NZXT-G12-GPU-Adapter-fuer-KRAKEN-schwarz_1188731.html

Temps lagen bei starkem OC so um die 50 Grad unter Volllast.
Ergänzung ()

SGCMarkus schrieb:
Muss mir dann nur noch was überlegen wie ich meine 6800 XT kühl krieg
Lüfterkurve in MSI Afterburner mal manuell anpassen tät ich sagen. Musste ich bei meiner jetzigen 2080Super auch machen. Bis 50 Grad Stillstand und danach bei 30% beginnend langsam rauf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
McLovin14 schrieb:
Ich verstehe wie du zuerst zu der Annahme gekommen bist, schließlich verliert die RX 6800 XT schon ein wenig an Boden auf die RTX 3080 in UHD. Aber vielleicht liegt das eher daran, dass Nvidia jetzt die Probleme hat, die AMD lange Zeit hatte: die richtige Auslastung der Rohleistung in niedriger Auflösung.

Könnte sein, wobei die Frage eher ist - warum testet man überhaupt noch bei den Karten auf Auflösungen unter 3440x1440 (also selbst normales WQHD ist viel zu mind für diese Leistung).
Eigentlich sollten die Karten sowieso nur in 2160p getestet werden, alles andere finde ich sinnfrei.

Zumal viele Tests auch einfach mit der falschen "Basis" benchen. Auch hier auf CB wird mMn viel zu lapidar getestet, was die Testsysteme generell angeht.

Eine 3090 sollte z.B. gar nicht mit einem Ryzen 3900X wie in meinem derzeitigen Fall noch getestet werden, bei den meisten Games auf 3440x1440 und in 2560x1440 ist die Karte doch sowies CPU limitiert, egal wie weit ich den Regler nach rechts stelle (nur beim Red Dead Redemption 2 evtl. nicht, wenn man da das Erweiterte Menü schon nach oben knallt und dann noch MSAA reinmacht, dann geht auch die 3090 mit guten 25FPS "sterben").

Nehmt doch mal als Beispiel CoD BO Cold War:
Ohne RTX ist meine CPU Last ca. 20% niedriger, bei guten 40% bei aktivem SMT mit 24 Threads und ca. 4,2 GHz Boosttakt (mein 3900X ist jetzt nicht der Beste von der Güte... und auch OC hat da nichts mehr gebracht....).
Wenn man jetzt RTX anmacht, steigt die CPU last nochmals ganz deutlich auf allen Cores auf ca. 55-60%.
Meine 3090 ist aber sogar auf 4K ohne DLSS ein nur zu ca. 78-85% überhaupt ausgelastet.
Heute kam auf PCGH (glaub ich dort wars) sogar ein Artikel, dass RTX die 3080/3090 bei dem Spiel als Beispiel massiv CPU limiert, sobald RTX On geht.
Hab jetzt noch meinen Ryzen 5950X nicht, aber ich bin sehr gespannt, wie das Ding mit Allcore 4,8 GHz bzw. Boost mit 5-5,1 GHz die Auslastung erhöhen kann - ist nämlich eine CPU Limitierung in dem Fall.

Und so wird es wohl auch in vielen anderen Games laufen.
Die RX 6900XT wird mit ihren geilen 3GHz OC Clocks (wäre cool, wenn das fast jede Karte dann mal mitmacht^^) das selbe Problem haben.

Und jetzt sind wir mal ehrlich, wer gibt denn bitte für ne 3090 und später für ne 6900XT so viel Geld gerade aus und hat nichtmal die passende Peripherie dazu?!
Also sollte man auch zwingend die passenden Auflösungen verwenden, in welchen die Karten ihr Domizil haben...
 
Chrisu80 schrieb:
Wenn sie dann mal zu einem vernünftigen Preis lieferbar ist kommt sie Wassergekühlt in mein System und löst nach 8 Jahren eine HD 7970 ab :)
Wird also erst im Sommer 2021 soweit sein.

Von einer OC Meisterkarte zur wohl nächsten. Ich gönn dir die Karte hart. Ich weiß noch realistisch was meine auf eine 7970 aufgepimpte 7950 drauf hatte, viel aber im Vergleich zur den heutigen Top Modellen gar nix ^^.
 
Danke @Onkel Föhn, Hab´s gerade erst gesehen. Der ursprüngliche Plan von AMD war allerdings in der Tat so.
AMD scheint da was mit Konrad Adenauer gemeinsam zu haben: "Was interessiert mich mein Geschwätz von Gestern ?"
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Zurück
Oben