News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Mal so nebenbei - Die neue CB-Woche seit dem Wochenrückblick um 08:00 Uhr hat gerade mal begonnen und dieser Thread hat schon 660 Kommentare.

Läuft :daumen:
 
  • Gefällt mir
Reaktionen: ChrisM, Hurricane.de, konkretor und 3 andere
Na das zeigt doch wie ausgehungert alle im Hinblick auf RDNA2 sind ...
 
  • Gefällt mir
Reaktionen: DannyA4, bad_sign, konkretor und 3 andere
Radeon RX 6900 XT5.1201.500 MHzGDDR616 GB512 GB/s256-Bit300 Watt

...und das ist halt das Problem der VRAM Jünger, die 6900 hat vielleicht 6 GB mehr Speicher,
aber dann eben auch signifikant weniger Bandbreite - 512 GB/s gegen die 760 GB/s der 3080.
 
  • Gefällt mir
Reaktionen: cypeak, Cpt.Willard und B.L. Swagger
modena.ch schrieb:
Das ist bei NV nicht anders, während der RT Kern die Strahlenberechnung macht, wartet der
zugewiesene Shader auf das Resultat und setzt das dann um. In der Zeit des Wartens kann der Shader
keine Rasterisierung machen.
Daher kein Vorteil bei NV, im Gegenteil, sie brauchen durch die RT Kerne mehr Fläche, was
AMD direkt in der CU mit der ALU abhandelt.
Es ging drum das man sich entscheiden muss wieviel man Opfert.
MS meinte ja man ist daher etwas enttäuscht das Entwickler lieber weniger RT Effekte nutzen wollen. Das muss man bei NV nicht.
Wir werden ja sehen wer in RT besser ist, die AMD Demo sah schon mal nach nix aus und DF ist sich auch sicher das NV einen großen vorteil haben wird, wie sie schon paar mal in videos erwähnt haben, auch als die XsX in Minecraft RT nur 2060 performance erreicht hat.

Sieht schon übel aus
 
VelleX schrieb:
@Shrimpy
Laut "Moore's Law is Dead" sollen die Karten ja einen etwa 128MB großen Cache besitzen, um die niedrige Speicherbandbreite auszugleichen.

128MB helfen nicht bei texturen nachladen, der speicher ist viel zu groß für das SI.
Und drauf optimieren wird auch keine Sau von def.
Das hat schon die PS3 eindrucksvoll gezeigt, 256MB schneller speicher ist schlechter als 4GB DDR2...
Dazukommt das die GPU noch wie blöde komprimieren muss nebenher um daten durchs dünne SI zu bekommen.

Wie gesagt, die müssen zaubern, wäre lustig wenn Gen4 SSDs jetzt durchn geiz ein berechtigung im desktop zocker möhren bekommen....
 
Shrimpy schrieb:
128MB helfen nicht bei texturen nachladen, der speicher ist viel zu groß für das SI.
Das hat schon die PS3 eindrucksvoll gezeigt, 256MB schneller speicher ist schlechter als 4GB DDR2...
Dazukommt das die GPU noch wie blöde komprimieren muss nebenher um daten in chache und durchs dünne SI zu bekommen.
Die Vergleiche PS3 vs RDNA2. Lass mal alle abwarten und die Beine flachhalten. Ist ja kaum auszuhalten was für unqualifizierter Müll bei einigen hier rum kommt. Es sei denn du hast irgendwelche Erfahrungen bei GPU-Entwicklung - dann sorry.
 
  • Gefällt mir
Reaktionen: edenjung und ThePlayer
coda44 schrieb:
Das Klingt alles sehr gut :).
Aber ich denke das die Karten trotzdem langsamer sein werden trotz guter Daten da Amd nicht in so vielen Games mit drin hängt wie Nvidia leider :/

Aus welchem Paralleluniversum kommst du denn?
Wie viele exklusive PC Games die nativ für den PC entwickelt werden gibt es denn heutzutage noch?
In allen Last Gen und Next Gen Konsolen stecken AMD APUs und alle großen Entwickler programmieren Triple-A nur dafür.
Nvidia dagegen bezahlt einzelne Entwickler für ein paar Verbesserungen am PC und hat viel Aufwand.

So etwas wie PhysX ist im Gegensatz zu Havok längst tot.

Du glaubst echt ganz schön viel Nvidia Marketing, wie mir scheint.
 
  • Gefällt mir
Reaktionen: DannyA4, Smartbomb, Mulciber und eine weitere Person
Bluto schrieb:
Ja. Wenn die aber hochtourig drehen (müssen) nutzt das wenig. Es gibt auch auf Seiten von Nvidia Custommodelle mit 3 Lüftern, die nicht gerade leise sind.
Wenn wie Asus und andere fuer Ampere das PowerColor Kuehlsystem mit durch blasendem Luefter verwenden, mach ich mir keine Gedanken um RDNA2.
 
B.L. Swagger schrieb:
Sieht schon übel aus


Schön ist das nicht. Aber die 'cineastische' Bildrate hat Nvidia auch drauf.

 
Ich bin unheimlich gespannt was so kommt. 500 Euro bin ich bereit für eine neue Karte auszugeben. Vielleicht noch 100 euro mehr wenn es sich wirklich lohnt.

Ich würde das Geld sehr gerne AMD geben aber mal sehen was sie abliefern :) Die nVidia only features sind für mich nicht wirklich relevant, auch wenn DLSS 2.0 schon sehr interessant ist.

Der Traum für mich wäre mindestens 3070/2080ti Leistung mit 12 GB für 499 oder auch zwischen 3070 und 3080 für 599 mit 16 GB. Die 8 GB der 3070 finde ich doch sehr mager (hat meine 3 Jahre alte RX 580 auch schon)
 
  • Gefällt mir
Reaktionen: DannyA4, Karl S. und Digibyte
Zertruemmerdog schrieb:
Die Vergleiche PS3 vs RDNA2. Lass mal alle abwarten und die Beine flachhalten. Ist ja kaum auszuhalten was für unqualifizierter Müll bei einigen hier rum kommt. Es sei denn du hast irgendwelche Erfahrungen bei GPU-Entwicklung - dann sorry.

Und dein kommentar hat noch weniger existenzberechtigung.:lol:

Es ist einfach tatsache, 512Bit SI ODER 128MB chache macht kein SINN.
Maxwell hat auch mehr cache mitgebracht und bessere komprimierung aber nicht das SI um 1/3 beschnitten.

Die Navi 21 HBM2E version kommt mit einem 2 Stacks auf ~750GB/s was viel besser passt von der warscheinlichen leistung der 6900XT @300W. :freak:
 
Zuletzt bearbeitet von einem Moderator:
tidus1979 schrieb:
Schön ist das nicht. Aber die 'cineastische' Bildrate hat Nvidia auch drauf.

Aber sind welten unterschied und ich hab auf dem Rechner bessere RT Demos von NV die nicht nur Reflektionen zeigen, sonder GI, Schatten und AO.
 
Radeon RX 6900 XT sieht gut aus, wenn die 1500Mhz nicht Platzhalter sind und sich der 128mb "Infinity Cache" als wahr herausstellt.

Ich hoffe zwar, dass der Preis angemessen ist für die Leistung, doch hoffe ich viel mehr, dass die Grafikkarte auf Lager ist und somit bestellbar, auch für uns Leute, die nicht den Luxus haben am PC für mehrere Stunden F5 zu tätigen, damit diese eine bestellen können.

Ich will SO SEHR diese Grafikkarte noch vor Cyberpunk 2077 in meinen PC einbauen und bin bestimmt nicht der einzige hier, der das vorhat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4
Novasun schrieb:
Sorry, wer ausser Apple bitte lässt denn noch bei TMSC produzieren? Samsung wohl nicht.. Qualcom? Oder haben die auch eigene Produktionslinien?
Wobei du recht hast Apple hatte 1 Jahr vorher sein Produkt draußen..
Qualcomm, Mediatek, HiSilicon, Unisoc,.
Eigentlich alle.
Die billig SoCs kommen natürlich erst später. Aber die Topmodelle alle weit vor x86 CPUs oder GPUs.

Zwischendurch und/oder parallel wird auch Samsung genutzt. Die letzten Jahre war aber alles high-end TSMC N7.
 
KlaraElfer schrieb:
Hast dieses Video parat? Würde mich interessieren.

2060 schafft ohne DLSS auch 30fps in 1080p.
In nem anderen Video über Next Gen haben sie das auch nochmal erwähnt und was für ein vorteil dann DLSS hat wo ne 2060 dann 60fps schafft bei selber Qualität oder besser vom Bild.
 
  • Gefällt mir
Reaktionen: Mcr-King und KlaraElfer
Denke jetzt wird nvidia schnell liefern. :p
Für uns Kunden kann das alles nur positiv sein. Und wenn AMD etwas günstiger wird und lieferbar Mit selber Leistung.. dann geht die 3080 halt zurück
Für mich wäre aber auch Streaming über GPU wichtig, ich bin gespannt
 
Zotac2012 schrieb:
Aber ist das mit dem Infinity Cache nicht so ähnlich wie bei Nvidia das mit dem FP32 und der Verdopplung der Shaderanzahl, sprich das die Grafikkarte nur dort ihr volles Potenzial ausschöpft, wo auch das Feature entsprechend angesprochen wird? Ich meine zumindest mal so etwas gelesen zu haben auch wegen der geringen Speicheranbindung mit 196 bzw. 256Bit. Dort gibt es auch Szenarien wie bei Nvidia mit dem FP32, wo die Grafikkarte nicht so performt, wenn das Feature nicht entsprechend eingebunden wird?

Das ist schwer zu vergleichen, da ein Cache komplett anders funktioniert. Wenn du ein Beispiel hast bei dem der Cache direkt eingebunden werden muss, her damit, aber bisher musste man das weder bei CPU noch bei GPU. Ein Cache ist schlichtweg da um den Umweg zu (V)RAM zu vermeiden. Fuer was anderes soll der Cache denn verwendet werden? Bzw, die grundsaetzliche Funktionsweise eines Caches ist dir klar, oder? Ansonsten bitte nachfragen. Das was Nvidia macht ist in dem Sinn anders, dass die Einheiten eben auch anders (INT) verwendet werden koennen.

Taxxor schrieb:
Um den Vergleich geht's ja^^


Aus dem Xbox Technik Artikel


Bleibt natürlich die Frage, ob das eine spezielle Eigenschaft bei der Xbox/PS ist und evtl bei den RDNA2 Desktop Karten anders ist.

Hm, das wird interessant. Wobei eine komplette CU zu blockieren nicht gerade ausgereift klingt.

KlaraElfer schrieb:
Nein, das konnte schon Turing.

Was Ampere nun zusäzlich kann ist folgendes.


https://www.nvidia.com/content/dam/...pere-GA102-GPU-Architecture-Whitepaper-V1.pdf

Das was du markiert hast ist aber Teil des kompletten Satzes, da wird beides, Tensor + Shader und RT + Shader als neu bezeichnet.

Shrimpy schrieb:
Es ist einfach tatsache, 512Bit SI ODER 128MB chache macht kein SINN.
Maxwell hat auch mehr chache mitgebracht aber nicht das SI um 1/3 beschnitten.

Das ist keine Tatsache, das ist deine Meinung. Du kennst die Architektur nicht und ohne die macht so eine Aussage "keinen Sinn". Und die groesse die fuer den Cache im Raum ist eine komplett andere Hausnummer.
 
  • Gefällt mir
Reaktionen: Obvision und DannyA4
Zurück
Oben