News GPU-Gerüchte: AMD Radeon RX 6700 XT mit 2.560 ALUs und 12 GB GDDR6

GerryB schrieb:
Die IPC-Frage wird sich dann mit den 40CU´s beantworten. (sehr positiv)
Ist eigentlich klar, wenn man sich die Änderungen in der Arch. anschaut.
AMD Radeon RX 6800 launch press deck (transcript) - VideoCardz.com
(Es wurde net nur der IC eingeführt)
Habe da mal die interessante Passage daraus separiert:
Auch auf ihrer Präsentation streichen sie den IF Cache als den Hauptverantwortlichen für die IPC Steigerung heraus.
Macht auch Sinn da durch den IF Cache die Daten schneller erhalten / verarbeitet und die GPU besser ausgelastet wird, bzw. mehr Daten pro Takt verarbeitet werden können.
rdna2 15 IPC.png


PERFORMANCE-PER-WATT ACHIEVEMENT UP TO 54%

16% – DESIGN FREQUENCY INCREASE
  • Leverages CPU high frequency expertise
  • High speed performance libraries
  • Streamlined micro-architecture and design
  • Aggressive re-pipelined logic for speed
17% – CAC and Power Optimizations
  • Pervasive fine-grain clock gating
  • Clock tree splitting and gating
  • Redesigned for minimal data movement
  • Aggressive pipeline rebalancing
21% – Performance per Clock Enhancement
  • Infinity Cache amplified low latency/power bandwidth
  • TLD streamlined for latency reductions
  • Redesign 32bt pipe and included new HDR format
  • Optimized geometry distribution and tessellation
 
  • Gefällt mir
Reaktionen: Mcr-King
Ozmog schrieb:
Warum sollte eine 6700XT die Leistung einer 5700XT haben?
Wenn man nach Shader Zahl geht. Habe 30% gegenüber der 6800 abgezogen.
Bin auf jeden Fall der Meinung dass der Preis überzogen sein wird...
 
Ich finde die Preise für alle GPUs überzogen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JJJT, greeny112, Cpt.Willard und eine weitere Person
Sly123 schrieb:
Wenn man nach Shader Zahl geht. Habe 30% gegenüber der 6800 abgezogen.
Bin auf jeden Fall der Meinung dass der Preis überzogen sein wird...
Es wird ähnlich 3070 vs 6800 laufen.
Erst kommt NV mit nem Preis für die 3060 und dann AMD mit nem ähnlichen UVP, aber mit mehr Rasterperformance.
Da gerade AMD in den kleinen Auflösungen sehr gut skaliert und die weniger Shader net voll durchschlagen
wird die 6700 auf jeden Fall ein gutes P/L haben.

btw.
Man kann aufgrund leicher Arch.Diff. zwar net 1:1 die Konsolen vs. GPU hernehmen, aber Sony wird schon seinen Grund gehabt haben für Hochtakt@weniger CU´s bei der PS5.

ArrakisSand schrieb:
Habe da mal die interessante Passage daraus separiert:...
Es sind bestimmt auch andere Dinge ggü. Navi entscheidend geä:
Geometry Processor
  • 8 Pre-Cull Prims/Cycle
  • 4 Post-Cull Prims/Cycle
RB+
  • 1024 Hiz Pixels/Cycle
  • 256 Death Samples/ Cycle
  • 128 Pixel Launch/Cycle
  • 128 32b Pixel color write/Cycle
  • 64 64b Pixel color write/Cycle
  • 64 Pixel color blend/Cycle

AMD RDNA 2 MESH SHADING

Mesh shader process workgroups of primitives

  • A geometry front-end with the flexibility of GPU Compute
Shader-based culling and work optimizations

  • Object ID, facedness, depth, occlusion
  • Bouning volume
  • LOD-based mesh determination
  • Custom vertex and geometry data de-composition
Data reuse

  • Vertex reuse on a workgroup scale
Optimized Computation

  • Attribute shading only for primitives that are not culled
  • Particle system physics + mesh in the same shader
AMD RDNA 2 SAMPLER FEEDBACK
Sampler feedback supports both advanced streaming and next-generation rendering

Advanced streaming

  • Memory footprint optimization
  • Texture filtering constrained to resident mipmap levels
  • Asynchronous updates of resident texture data
Texture space rendering

  • Identification of texture locations used in rasterization
  • Feedback data to optimize shading workloads
DAS sind alles Dinge die eine komplett andere IPC ergeben.
Je moderner die Games werden, desto mehr wird man Unterschiede RDNA2 vs. RDNA1 feststellen.
Momentan sieht der avg.OVERALL halt noch sehr altbacken aus:
 

Anhänge

  • TS-1440pAVG.png
    TS-1440pAVG.png
    87,6 KB · Aufrufe: 341
  • TS-Godfall.png
    TS-Godfall.png
    84,6 KB · Aufrufe: 354
Zuletzt bearbeitet:
GerryB schrieb:
aber Sony wird schon seinen Grund gehabt haben für Hochtakt@weniger CU´s bei der PS5.
Das scheint tatsächlich, je mehr man über die Architektur liest, der richtige Schritt gewesen zu sein. Am Ende wird's wohl einstellige Prozent ggü der Xbox auszumachen, aber war wohl ein cleverer Schritt.
 
Lord B. schrieb:
Das scheint tatsächlich, je mehr man über die Architektur liest, der richtige Schritt gewesen zu sein. Am Ende wird's wohl einstellige Prozent ggü der Xbox auszumachen, aber war wohl ein cleverer Schritt.
Jo,
zumindestens hinsichtlich älterer Games ist mehr Nutzen da.
Ob zukünftige Games die Shader besser auslasten mit mehr AC wird man sehen.

Ich lebe Da in der Hoffnung das auch NV-nahe Studios mitziehen.
Ist halt ein Unterschied ob UE4 für ne GTX970 optimiert war oder ob future Games die 3090 gut aussehen lassen sollen. Zumindestens gibts schon einige Games, wo die 3090 aufällig besser läuft als die 3080.

btw.
Vllt. laufen ja die 6700er ähnlich goldener 6800er: bzgl. eff.Takt
AMDs Radeon RX 6800 stabil mit dauerhaften 2.55 GHz und RX 6800 XT mit bis zu 2,5 GHz übertaktet - Dank MorePowerTool und Boardpartner-BIOS | igor´sLAB
3dMark würde ich net auf die Goldwaage legen, ist mir etwas zu veraltet. (da kommt die nonXT gut klar)
In future Games wird eine XT besser aussehen.
Weils net soviele Reviews@Ultrawide gibt mal hier von WCCF: incl. SAM (macht in der Resi auch Sinn)
AMD Radeon RX 6800 XT & RX 6800 'Big Navi' Graphics Cards Review

edit: Mit dem Vram-OCen würde ich bei den meisten User-Grakas erstmal langsamer rangehen, oft ist 2050/60 der
letzte Wert ohne Fehlerkorrektur.(zeigt die Erfahrung aus dem OC/UV-Thread)
Da sind sicher einige Launch-Reviewer "unbemerkt" langsamer geworden.
 

Anhänge

  • Vram-OCen.png
    Vram-OCen.png
    62 KB · Aufrufe: 303
Zuletzt bearbeitet:
Windell schrieb:
Ich finde alle Preise für die GPUs überzogen.
😂 Ja ja normally CPUs auch und alte Turing und RX5700er sind auch teurer geworden.

Nur Mobos und SSDs und RAM sind stabil niedrig. 😉
 
Man muss ja net MAXED spielen, dann reichen auch die 3060/6700.
Und 3050/6600.
 
@Mcr-King Mobos sind ja keine Komponenten mehr die die Leistung so bedeutend beeinflussen. Da kann man auch oft "günstig" kaufen.
 
Lord B. schrieb:
aber war wohl ein cleverer Schritt.
Schauen wir mal. Bei RT wird es aber dünn, weil RDNA2X je CU eine RT Einheit hat, also je weniger CUs desto weniger RT-Leistung und mehr Shader sind da sicher auch vom Vorteil.
Aber RT ist nicht sonderlich wichtig, steckt ja eh noch ein wenig in den Kinderschuhen. Diverse Spieleentwickler übertreiben es auch mit den RT-Effekten, nur um einen Wow-Effekt auszulösen, es dann aber doch sehr künstlich wirkt. Bei den Konsolen muss man etwas mehr mit den Ressourcen Haus halten, da sieht es dann wohl etwas anders aus.
 
Ozmog schrieb:
Schauen wir mal. Bei RT wird es aber dünn, ...
Für RT werden eh die Meisten zu NV greifen. Auch dann natürlich die next Größere:
MSI GeForce RTX 3070 VENTUS 2X OC, Grafikkarte 3x DisplayPort, 1x HDMI
GIGABYTE GeForce RTX 3070 AORUS MASTER 8G, Grafikkarte 3x DisplayPort, 2x HDMI 2.1, 1x HDMI 2.0
GIGABYTE GeForce RTX 2080 Ti AORUS 11G, Grafikkarte 3x DisplayPort, HDMI, USB-C
(die OUTLET-Preise sollte man im Auge behalten)

Ne 3060@6GB ist halt etwas schmal, da helfen auch die RT-Cores net immer.
(bitte jetzt net ne Diskussion über FHD@DLSS, spart ja net Vram)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
GerryB schrieb:
Für RT werden eh die Meisten zu NV greifen.
Mein Kommentar ear zwar auf XBox vs Playstation bezogen, aber recht hast du trotzdem. Wem RT wichtig ist, obwohl es noch in den Anfängen steckt, wird zu Nvidia greifen. Auch mit den Blick auf DLSS, damit auch höhere Frameraten laufen.
(Auch wenn AMD an eine DLSS-Alternative arbeitet, wird die gerade zu Beginn sicher nicht DLSS schlagen können und von den Spieleentwicklern muss das auch noch implementiert werden)

Bei Nvidia ist dagegen der VRAM sehr knapp bemessen, wenn man eine 3080 anschaut, die schneller ist, als eine 2080Ti aber weniger VRAM besitzt, ist das schon komisch. Der Speicher ist wichtig, wenn man eine Karte auch länger halten will, als bis zur nächsten Generation. Habe ich damals selbst mal zu spüren bekommen und von zwei Varianten einer Karte die mit weniger VRAM genommen, war im Nachhinein am falschen Ende gespart. Da meine nächste Grafikkarte länger im Einsatz sein soll, darf der Speicher eben nicht so knapp ausfallen, im Laufe der nächsten Monate will ich meinen Rechner das vorerst letzte Upgrade verpassen, welches nach Plan bis 2023/24 locker ausreichen sollte.

Eigebtlich klingt eine 6700XT sehr interessant, allerdings tendiere ich dann doch eher zur 6800 oder 6800XT, mit der man dann länger ruhe hat.
 
  • Gefällt mir
Reaktionen: Mcr-King

Anhänge

  • WOW.png
    WOW.png
    362,8 KB · Aufrufe: 335
Windell schrieb:
Mobos sind ja keine Komponenten mehr die die Leistung so bedeutend beeinflussen. Da kann man auch oft "günstig" kaufen

Ja und nein dass Mobo hadt du im Schnitt recht lange und wenn man dort spart hast du er ein Problem grade was Boost Takt der CPUs heutzutage angeht.

Oder RAM OC. 😉
 
Jup, habe selbst ein B350 der ersten Charge, habe allerdings auch nicht das teuerste genommen, aber auch nicht das absolut billigste. Ist ein Asrock AB350 pro4 und hat keine Probleme mit meinem 3700X.
So viel kann man auch nicht sparen, wenn man das billigste Board kauft. Einigermaßen solide sollte es dann schon sein, wenigstens einen Kühlkörper auf den VRMs ist schon angebracht.
Aber es ging ihn glaube ich nicht um das billigste.

Für meine beiden 2200G habe ich B450 Pro4m, die haben auch nur 75-80€ gekostet, ob man dann unbedingt für 50€ ein Board kaufen muss?
 
Mcr-King schrieb:
Mh was ich mich grade frage wenn Navi23 64MB IF hatt, ob die APUs den dann auch bekommen würde auf jeden fall ordentlich Performance boost bringen.

Na ja APUs sind schon auf dem Level einer GTX1050. 😉
Hat man ja bei Broadwell schon gesehen. Vorallem würde so ein Cache , wenn er wie bei Broadwell als L4 fungiert auch der CPU Beine machen. Braodwell mit 3,3GHZ hat ja mit ca 4GHZ Haswell mitgehalten, auch CPU seitig.
Allerdings war Broadwell auch einiges teuer, also am ende wie immer eher eine Preisfrage als eine Machbarkeitsfrage würde ich meinen.

Denke die 2Tflops scheint AMD derzeit im maximalausbau nicht zu übersteigen. Dürfte halt grade noch so effektiv sein ohne das die Bandbreite zu viel limitiert. Und die 5500Xt hat mit 5 Tflops schon einen guten 2,5x abstand nur von der Shaderpower.
Und nachdem AMD nun die aktuellen 4000G nicht grade günstig verkauft dürfte da ein Cache das ganze beim kleinen 4350g wohl über 200€ bringen. Wäre dann halt die Frage, ob der Cache nicht dann wirklich die FPS um 25%+ anheben könnte und man damit 1080p gaming durchgehend spielbar macht.
Vorallem, da ja nun nur der kleinste GPU Ausbau in der APU ist und man für den großen Ausbau 300€+ bzw. mit Cache evtl. sogar 400€ zahlen würde. Da ist halt vermutlich ein 10100f und eine 200€ 5500xt noch immer mindestens doppelt so schnell und dabei sogar billiger.
Bleibt nur der Vorteil, dass man eine APU auch in ein A300 verbauen kann zb. jedoch muss man, wenn die apus nun mit 6 und 8 kernen kommen und auch mit cache die gpu noch mehr fordern, das ganze auch kühlen, was es im A300 schon wieder schwer macht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Der kleinste gemeinsame Nenner bei Raytracing ist nicht der PC, sondern die neuen Konsolen.
Es wird also noch sehr lange dauern, bis RT irgendwann einmal im Mainstream ankommen wird.
Erst mit der nächsten neuen X Box und PS 6 wird das der Fall sein, also irgendwann in 6-7 Jahren.

Am meisten Umsatz und Gewinn im Bereich Gaming wird übrigens seit vielen Jahren bei den Smartphones und Tablets gemacht, die jetzt schon 60% des Gesamtmarktes abbilden. Das ist in Wirklichkeit der kleinste gemeinsame Nenner, und nicht die neuen Konsolen oder der PC.

Deswegen war es absolut sinnvoll von Nvidia ARM zu kaufen. Denn damit hat Nvidia Zugriff auf 60% des Gamingmarktes, plus den PC, also unterm Strich auf 80%. ^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Vitec und Mcr-King
Der Hauptteil dieses marktes sind Glücksspiele oder warte spiele, und erfüllen alle Aspekte von Sucht man müsste solche Monetarisierungen strickt verbieten.
Aber wo kein Kläger........ hier müsste der staat eingreifen.
 
  • Gefällt mir
Reaktionen: Nefcairon und Mcr-King
Lord B. schrieb:
Das scheint tatsächlich, je mehr man über die Architektur liest, der richtige Schritt gewesen zu sein. Am Ende wird's wohl einstellige Prozent ggü der Xbox auszumachen, aber war wohl ein cleverer Schritt.
Assassin's Creed Valhalla: PS5 vs Xbox Series X/ Series S Next-Gen Comparison! - YouTube
(Mir gefallen die NPC´s, net so lieblos wie bei WDL)

btw.
Sony will auch noch VRR für HDMi2.1 nachliefern. Dann isses ja egal ob 48 oder 60fps.
Dann wirds sicher interessant. XboxX kann ja schon VRR.(auch bei älteren TV´s@HDMi2.0)
Die olle Beschränkung auf 30 oder 60fps ist halt Murks.
OLED TV LG OLED55BX9LB OLED TV (Flat, 55 Zoll / 139 cm, UHD 4K, SMART TV, webOS 5.0 mit LG ThinQ) | MediaMarkt (für 973€ als BlackFriday-Angebot)
Da sollte evtl. auch Freesync mit älteren Grakas gehen, oder? Vllt. hat ja mal Jemand ne Erfahrung.

Wer net am TV spielt:
Ideal wäre auch ein echtes WQHD. In der Größe gibts ja P/L-angemessene HDR600-Monis.
Monitore mit Auflösung: 2560x1440 (WQHD), Panel-Besonderheiten: DisplayHDR 600 Preisvergleich Geizhals Deutschland (derzeit leider nur mit Xbox X/S nutzbar; Sony macht da nur Murks)

Für die PS 5 dann halt eher nur FHD@HDR400 zu nem vernünftigen Einstiegspreis.
LG UltraGear 27GL63T-B ab € 203,69 (2020) | Preisvergleich Geizhals Deutschland
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben