Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten
- Ersteller SVΞN
- Erstellt am
- Zur News: GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten
Visionmaster
Cadet 4th Year
- Registriert
- Dez. 2017
- Beiträge
- 113
engineer123
Banned
- Registriert
- Jan. 2009
- Beiträge
- 3.783
Radeon RX 6900 XT 5.120 1.500 MHz GDDR6 16 GB 512 GB/s 256-Bit 300 Watt
...und das ist halt das Problem der VRAM Jünger, die 6900 hat vielleicht 6 GB mehr Speicher,
aber dann eben auch signifikant weniger Bandbreite - 512 GB/s gegen die 760 GB/s der 3080.
B.L. Swagger
Lt. Commander
- Registriert
- Aug. 2009
- Beiträge
- 1.032
Es ging drum das man sich entscheiden muss wieviel man Opfert.modena.ch schrieb:Das ist bei NV nicht anders, während der RT Kern die Strahlenberechnung macht, wartet der
zugewiesene Shader auf das Resultat und setzt das dann um. In der Zeit des Wartens kann der Shader
keine Rasterisierung machen.
Daher kein Vorteil bei NV, im Gegenteil, sie brauchen durch die RT Kerne mehr Fläche, was
AMD direkt in der CU mit der ALU abhandelt.
MS meinte ja man ist daher etwas enttäuscht das Entwickler lieber weniger RT Effekte nutzen wollen. Das muss man bei NV nicht.
Wir werden ja sehen wer in RT besser ist, die AMD Demo sah schon mal nach nix aus und DF ist sich auch sicher das NV einen großen vorteil haben wird, wie sie schon paar mal in videos erwähnt haben, auch als die XsX in Minecraft RT nur 2060 performance erreicht hat.
Sieht schon übel aus
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Shrimpy
Gast
VelleX schrieb:@Shrimpy
Laut "Moore's Law is Dead" sollen die Karten ja einen etwa 128MB großen Cache besitzen, um die niedrige Speicherbandbreite auszugleichen.
128MB helfen nicht bei texturen nachladen, der speicher ist viel zu groß für das SI.
Und drauf optimieren wird auch keine Sau von def.
Das hat schon die PS3 eindrucksvoll gezeigt, 256MB schneller speicher ist schlechter als 4GB DDR2...
Dazukommt das die GPU noch wie blöde komprimieren muss nebenher um daten durchs dünne SI zu bekommen.
Wie gesagt, die müssen zaubern, wäre lustig wenn Gen4 SSDs jetzt durchn geiz ein berechtigung im desktop zocker möhren bekommen....
Bluto
Ensign
- Registriert
- Jan. 2020
- Beiträge
- 240
Monstranz schrieb:Das Leak-Foto hat 3 Propeller!
Ja. Wenn die aber hochtourig drehen (müssen) nutzt das wenig. Es gibt auch auf Seiten von Nvidia Custommodelle mit 3 Lüftern, die nicht gerade leise sind.
Zertruemmerdog
Lt. Junior Grade
- Registriert
- Sep. 2018
- Beiträge
- 352
Die Vergleiche PS3 vs RDNA2. Lass mal alle abwarten und die Beine flachhalten. Ist ja kaum auszuhalten was für unqualifizierter Müll bei einigen hier rum kommt. Es sei denn du hast irgendwelche Erfahrungen bei GPU-Entwicklung - dann sorry.Shrimpy schrieb:128MB helfen nicht bei texturen nachladen, der speicher ist viel zu groß für das SI.
Das hat schon die PS3 eindrucksvoll gezeigt, 256MB schneller speicher ist schlechter als 4GB DDR2...
Dazukommt das die GPU noch wie blöde komprimieren muss nebenher um daten in chache und durchs dünne SI zu bekommen.
iron mike
Banned
- Registriert
- Sep. 2020
- Beiträge
- 177
coda44 schrieb:Das Klingt alles sehr gut .
Aber ich denke das die Karten trotzdem langsamer sein werden trotz guter Daten da Amd nicht in so vielen Games mit drin hängt wie Nvidia leider :/
Aus welchem Paralleluniversum kommst du denn?
Wie viele exklusive PC Games die nativ für den PC entwickelt werden gibt es denn heutzutage noch?
In allen Last Gen und Next Gen Konsolen stecken AMD APUs und alle großen Entwickler programmieren Triple-A nur dafür.
Nvidia dagegen bezahlt einzelne Entwickler für ein paar Verbesserungen am PC und hat viel Aufwand.
So etwas wie PhysX ist im Gegensatz zu Havok längst tot.
Du glaubst echt ganz schön viel Nvidia Marketing, wie mir scheint.
Monstranz
Gast
Wenn wie Asus und andere fuer Ampere das PowerColor Kuehlsystem mit durch blasendem Luefter verwenden, mach ich mir keine Gedanken um RDNA2.Bluto schrieb:Ja. Wenn die aber hochtourig drehen (müssen) nutzt das wenig. Es gibt auch auf Seiten von Nvidia Custommodelle mit 3 Lüftern, die nicht gerade leise sind.
tidus1979
Captain
- Registriert
- Aug. 2016
- Beiträge
- 3.459
B.L. Swagger schrieb:Sieht schon übel aus
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Schön ist das nicht. Aber die 'cineastische' Bildrate hat Nvidia auch drauf.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Der Badner
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.544
Ich würde das Geld sehr gerne AMD geben aber mal sehen was sie abliefern Die nVidia only features sind für mich nicht wirklich relevant, auch wenn DLSS 2.0 schon sehr interessant ist.
Der Traum für mich wäre mindestens 3070/2080ti Leistung mit 12 GB für 499 oder auch zwischen 3070 und 3080 für 599 mit 16 GB. Die 8 GB der 3070 finde ich doch sehr mager (hat meine 3 Jahre alte RX 580 auch schon)
Shrimpy
Gast
Zertruemmerdog schrieb:Die Vergleiche PS3 vs RDNA2. Lass mal alle abwarten und die Beine flachhalten. Ist ja kaum auszuhalten was für unqualifizierter Müll bei einigen hier rum kommt. Es sei denn du hast irgendwelche Erfahrungen bei GPU-Entwicklung - dann sorry.
Und dein kommentar hat noch weniger existenzberechtigung.
Es ist einfach tatsache, 512Bit SI ODER 128MB chache macht kein SINN.
Maxwell hat auch mehr cache mitgebracht und bessere komprimierung aber nicht das SI um 1/3 beschnitten.
Die Navi 21 HBM2E version kommt mit einem 2 Stacks auf ~750GB/s was viel besser passt von der warscheinlichen leistung der 6900XT @300W.
KlaraElfer
Gast
B.L. Swagger schrieb:...auch als die XsX in Minecraft RT nur 2060 performance erreicht hat.
Hast dieses Video parat? Würde mich interessieren.
B.L. Swagger
Lt. Commander
- Registriert
- Aug. 2009
- Beiträge
- 1.032
Aber sind welten unterschied und ich hab auf dem Rechner bessere RT Demos von NV die nicht nur Reflektionen zeigen, sonder GI, Schatten und AO.tidus1979 schrieb:Schön ist das nicht. Aber die 'cineastische' Bildrate hat Nvidia auch drauf.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
LawZero
Cadet 4th Year
- Registriert
- Okt. 2017
- Beiträge
- 102
Ich hoffe zwar, dass der Preis angemessen ist für die Leistung, doch hoffe ich viel mehr, dass die Grafikkarte auf Lager ist und somit bestellbar, auch für uns Leute, die nicht den Luxus haben am PC für mehrere Stunden F5 zu tätigen, damit diese eine bestellen können.
Ich will SO SEHR diese Grafikkarte noch vor Cyberpunk 2077 in meinen PC einbauen und bin bestimmt nicht der einzige hier, der das vorhat.
Qualcomm, Mediatek, HiSilicon, Unisoc,.Novasun schrieb:Sorry, wer ausser Apple bitte lässt denn noch bei TMSC produzieren? Samsung wohl nicht.. Qualcom? Oder haben die auch eigene Produktionslinien?
Wobei du recht hast Apple hatte 1 Jahr vorher sein Produkt draußen..
Eigentlich alle.
Die billig SoCs kommen natürlich erst später. Aber die Topmodelle alle weit vor x86 CPUs oder GPUs.
Zwischendurch und/oder parallel wird auch Samsung genutzt. Die letzten Jahre war aber alles high-end TSMC N7.
B.L. Swagger
Lt. Commander
- Registriert
- Aug. 2009
- Beiträge
- 1.032
KlaraElfer schrieb:Hast dieses Video parat? Würde mich interessieren.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
2060 schafft ohne DLSS auch 30fps in 1080p.
In nem anderen Video über Next Gen haben sie das auch nochmal erwähnt und was für ein vorteil dann DLSS hat wo ne 2060 dann 60fps schafft bei selber Qualität oder besser vom Bild.
snickii
- Registriert
- Aug. 2014
- Beiträge
- 15.338
Für uns Kunden kann das alles nur positiv sein. Und wenn AMD etwas günstiger wird und lieferbar Mit selber Leistung.. dann geht die 3080 halt zurück
Für mich wäre aber auch Streaming über GPU wichtig, ich bin gespannt
Zotac2012 schrieb:Aber ist das mit dem Infinity Cache nicht so ähnlich wie bei Nvidia das mit dem FP32 und der Verdopplung der Shaderanzahl, sprich das die Grafikkarte nur dort ihr volles Potenzial ausschöpft, wo auch das Feature entsprechend angesprochen wird? Ich meine zumindest mal so etwas gelesen zu haben auch wegen der geringen Speicheranbindung mit 196 bzw. 256Bit. Dort gibt es auch Szenarien wie bei Nvidia mit dem FP32, wo die Grafikkarte nicht so performt, wenn das Feature nicht entsprechend eingebunden wird?
Das ist schwer zu vergleichen, da ein Cache komplett anders funktioniert. Wenn du ein Beispiel hast bei dem der Cache direkt eingebunden werden muss, her damit, aber bisher musste man das weder bei CPU noch bei GPU. Ein Cache ist schlichtweg da um den Umweg zu (V)RAM zu vermeiden. Fuer was anderes soll der Cache denn verwendet werden? Bzw, die grundsaetzliche Funktionsweise eines Caches ist dir klar, oder? Ansonsten bitte nachfragen. Das was Nvidia macht ist in dem Sinn anders, dass die Einheiten eben auch anders (INT) verwendet werden koennen.
Taxxor schrieb:Um den Vergleich geht's ja^^
Aus dem Xbox Technik Artikel
Bleibt natürlich die Frage, ob das eine spezielle Eigenschaft bei der Xbox/PS ist und evtl bei den RDNA2 Desktop Karten anders ist.
Hm, das wird interessant. Wobei eine komplette CU zu blockieren nicht gerade ausgereift klingt.
KlaraElfer schrieb:Nein, das konnte schon Turing.
Was Ampere nun zusäzlich kann ist folgendes.
https://www.nvidia.com/content/dam/...pere-GA102-GPU-Architecture-Whitepaper-V1.pdf
Das was du markiert hast ist aber Teil des kompletten Satzes, da wird beides, Tensor + Shader und RT + Shader als neu bezeichnet.
Shrimpy schrieb:Es ist einfach tatsache, 512Bit SI ODER 128MB chache macht kein SINN.
Maxwell hat auch mehr chache mitgebracht aber nicht das SI um 1/3 beschnitten.
Das ist keine Tatsache, das ist deine Meinung. Du kennst die Architektur nicht und ohne die macht so eine Aussage "keinen Sinn". Und die groesse die fuer den Cache im Raum ist eine komplett andere Hausnummer.
Ähnliche Themen
- Antworten
- 496
- Aufrufe
- 31.134
- Antworten
- 125
- Aufrufe
- 25.152
- Antworten
- 136
- Aufrufe
- 18.911
- Antworten
- 31
- Aufrufe
- 6.083
- Antworten
- 80
- Aufrufe
- 14.307