Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an
- Ersteller SVΞN
- Erstellt am
- Zur News: RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an
Matthias B. V.
Lieutenant
- Registriert
- März 2021
- Beiträge
- 855
Ob man GDDR6X bekommt ist die Frage ob es exklusiv von Micron für Nvidia ist was ich eher glaube. Und selbst GDDR6X ist nahezu ausgereizt. Mehr als 24 Gbit/s würde ich selbst im Besten Fall nicht mehr erwarten - wenn überhaupt.ruthi91 schrieb:Sie scheinen sich bei ihrer infinity cache Sache ja sehr sicher zu sein, ich hätte sonst mindestens mal Gddr6X erwartet oder auch 384bit Interface.
Sehe das aber auch kritisch. InfinityCache mag sicher viel helfen auch was Latenzen angeht aber ich hoffe hier kommt noch GDDR7 bis Ende 2022 und die Infos sind einfach noch nicht raus. Spätestens mit Intels DG3 in 2023 würde ich GDDR7 erwarten.
GDDR6 sollte ein Kurzes Leben haben da es einfach schon am Limit ist. Mit GDDR7 sollte dann auch endlich wieder eine Verdopplung des VRAMs stattfinden da es auf DDR5 basiert und hier die Dichte um den Faktor 2-4 steigt.
Erste Entwürfe von GDDR7 gibt es bereits seit Ende 2019...
https://www.smart-dv.com/memory/gddr7.html
https://www.chipestimate.com/log.php?from=/SmartDV/GDDR7-Memory-Model/datasheet/ip/46681&logerr=1
Ergänzung ()
I'm unknown schrieb:Bin jedenfalls sehr auf RDNA 3 gespannt - wenn die Chiplets ähnlich gut wie ab Zen 2 funktionieren hat Nvidia zumindest Bedarf tief in die Schublade zu greifen. Konkurrenz belebt nach wie vor immer den Markt .
Denke wir werden einen Vorgeschmack mit CDNA2 Ende des Jahres sehen. Rechne schon damit dass es funktioniert obwohl es vermutlich nur der erste Feldversuch ist mit zwei Chiplets.
Langfristig und evtl. ab RDNA4 rechne ich eher damit dass man auf vier und später auf acht oder sechzehn Chiplets geht und dann ab RDNA5 und Zen6 einfach GPUs, APUs etc. aus den selben Bausteinen wie gewünscht konfigurieren und zusammenstellen kann.
Zuletzt bearbeitet:
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
Mister79 schrieb:Hand auf Herz, wer hat sich hier eine maßlos überteuerte aktuelle Karte gekauft?
Habe ca. 15% Aufschlag bezahlt, was ich aber durch meinen Gebraucht Verkauf mehr als wieder drin hatte.
In meinem Bekanntenkreis ab 3000er Release bis jetzt:
2080ti Für 550€, kurz nach dem 3000er Release, gebraucht
1080ti, 350€ mit wakü
6900xt für 1150€ (ich)
3090 fe für 1650 €
3090fe mit wakü Block aus hwluxx für 1700€
Jeder als er wollte, ist annähernd zur uvp dran gekommen. Ja es war nicht genau die uvp, aber gemessen an der Lage empfinde ich 10-15% Aufschlag als noch erträglich.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.218
Ach das wäre doch toll. AMD vor Nvidia. Dann eine gute Verfügbarkeit. Und dann auch noch Preiskampf. Und eine 7800xt für 499 träummibbio schrieb:Wird ja auch schon gemunkelt, dass RDNA3 mehr Leistung haben wird als die potentiellen RTX 4000er, da Nvidia dort vermutlich noch nicht die "Hopper"-Architektur (MCM Design wie RDNA3) nutzen wird, sondern in Form von "Lovelace" nochmal das klassische, monolithische Design.
Sollte es wirklich so kommen, wäre dann evtl. Nvidia mal in der Situation, den Rückstand über den Preis auszugleichen.
Ich denke die 7800xt ist für Herbst 22 bei mir eingeplant. Bin schon gespannt wie sich FSR bis dahin entwickelt und wie es bei AMD mit RT aussieht. Hoffe da geht es dann auch in großen Schritten vorwärts.
Könnte es sein das die Gddr6 Nvidia Exklusivität bis 2022 zu Ende ist?
Zuerst mal klingt das wirklich nach einem Beast.
Ich hätte tatsächlich erst für RDNA 4 mit MCM gerechnet, aber wenn es bereits mit RDNA 3 kommt um so besser.
Großes Potenzial hat das alle Mal, wenn man die Leistung gut auf den Schirm bringt.
Persönlich am meisten interessieren würde mich, was das für APU's mit RDNA 3 bedeutet, wird AMD dann "beliebig" CPU-, GPU-, Cache- & IO-Dies kombinieren können?
Z.B. 1-n x Core CPU Die + 1-m y GPU Dies + z MB Cache Die + IO Die (w DDR5 Channels + v PCIe 4/5 Lanes)?
Wäre sowas damit denkbar?
Interessant wird auch wie RDNA3 dann nach unten hin skalliert, für Notebooks.
TOP Performance für 4-8k ist ja schön, aber ich warte immer noch auf das Segment unter 300€, es wird Zeit das da mit der 6500er/6400er Reihe sich mal was tut. RX5500XT Leistung oder knapp drüber würde mir reichen.
Ich hätte tatsächlich erst für RDNA 4 mit MCM gerechnet, aber wenn es bereits mit RDNA 3 kommt um so besser.
Großes Potenzial hat das alle Mal, wenn man die Leistung gut auf den Schirm bringt.
Persönlich am meisten interessieren würde mich, was das für APU's mit RDNA 3 bedeutet, wird AMD dann "beliebig" CPU-, GPU-, Cache- & IO-Dies kombinieren können?
Z.B. 1-n x Core CPU Die + 1-m y GPU Dies + z MB Cache Die + IO Die (w DDR5 Channels + v PCIe 4/5 Lanes)?
Wäre sowas damit denkbar?
Interessant wird auch wie RDNA3 dann nach unten hin skalliert, für Notebooks.
TOP Performance für 4-8k ist ja schön, aber ich warte immer noch auf das Segment unter 300€, es wird Zeit das da mit der 6500er/6400er Reihe sich mal was tut. RX5500XT Leistung oder knapp drüber würde mir reichen.
Matthias B. V.
Lieutenant
- Registriert
- März 2021
- Beiträge
- 855
Klingt auf jeden Fall gut. Ist jemand technisch versierter und kann sagen wieso man von CUs weg geht und diese neu struturiert?
Auch wird es interessant sein ob die 512MB Cache in höheren Auflösungen ausreichen. Gerade bei QHD und 4K jat man ja die fehlende Bandbreite trotz InfinityCache gemerkt.
GDDR6 wie bisher wäre aber fast schade und limitierend. Hoffe bis Ende 2022 ist GDDR7 bereit und AMD riskiert es (was ich befürchte ist nicht der Fall). GDDR7 sollte nicht nur die Bandbreite erhöhen sondern vor allem die VRAM Kapazität deutlich steigern.
- Skalierbarkeit / Effizienz durch gezielteres ansteuern und abschalten oder boosten.
- Bessre Auslastung durch Auflösen eines Bottlenecks bei gewissen Rechenoperationen wie beispielsweise Nvidia mit deren INT32 / FP32 bei Ampere.
Auch wird es interessant sein ob die 512MB Cache in höheren Auflösungen ausreichen. Gerade bei QHD und 4K jat man ja die fehlende Bandbreite trotz InfinityCache gemerkt.
- HBM2e ist zu teuer und auch von der Fertigung der GPU aufwändiger also keine Option abseits einer eventuellen Prosumer Karte.
- 384-Bit sind aber auch energieintensiv und teuer und GDDR6X ist vermutlich Nvidia exklusiv.
GDDR6 wie bisher wäre aber fast schade und limitierend. Hoffe bis Ende 2022 ist GDDR7 bereit und AMD riskiert es (was ich befürchte ist nicht der Fall). GDDR7 sollte nicht nur die Bandbreite erhöhen sondern vor allem die VRAM Kapazität deutlich steigern.
Crifty
Commander
- Registriert
- Apr. 2011
- Beiträge
- 2.356
Wenn die 6800XT UVP 649€ im Jahr 2020 gekostet hat, wird eine 7800XT im Jahr 2022 keine 499€ kosten, allein schon wegen der Inflation nicht. Auch wenn träumen schön ist, aber realistisch gesehen ist das sehr weit weg. Wenn sie den Preis nicht erhöhen, dann sind wir schon mal wieder einen Schritt weiter. Ich gehe von 699-730€ ausThePlayer schrieb:Ach das wäre doch toll. AMD vor Nvidia. Dann eine gute Verfügbarkeit. Und dann auch noch Preiskampf. Und eine 7800xt für 499 träum
FreedomOfSpeech
Captain
- Registriert
- Aug. 2012
- Beiträge
- 3.810
Da Nvidia Lovelace auch bei TSMC in 5nm fertigen lässt bin ich sehr gespannt auf einen Vergleich. Der Samsung 8nm ist ja offensichtlich nicht so taktfreudig und sehr stromfressend.
Um die 2100MHz sind machbar, bei Big Navi sieht man teilweise über 2700MHz.
Mit 5nm TSMC wird denke ich die 3GHz Grenze fallen, und das bei beiden.
Dann sind beide High-End Karten wieder ungefähr gleich schnell.
Um die 2100MHz sind machbar, bei Big Navi sieht man teilweise über 2700MHz.
Mit 5nm TSMC wird denke ich die 3GHz Grenze fallen, und das bei beiden.
Dann sind beide High-End Karten wieder ungefähr gleich schnell.
Matthias B. V.
Lieutenant
- Registriert
- März 2021
- Beiträge
- 855
Ja wirklich weit angewendete MCM Designs sieht man meiner Meinung nach auch erst mit RDNA4. Bei RDNA3 werden wir die neiden größten Navi31 und Navi32 als MCM sehen. Navi 33 und Navi 34 sind vermutlich monolithisch und werden auch die sein die in die Notebooks kommen.ChrFr schrieb:
Denke in der ersten Generation wird es noch an der Effizienz zu arbeiten geben und auch die Kommunikation mit mehreren Chips schwierig sein. Langfristig denke ich wird man Chiplets mit 2048-2560 Shadern kreieren und diese dann einfach je nach Bedarf 1x-2x in eine APU, 2x-8x in eine GPU stecken.
Bei APUs ist mir AMD zu langsam und rechne selbst bei Zen4 2023 Notebooks nicht mit RDNA3 iGPU was schade ist da man diese mit einer RDNA3 dGPU kombiniert. RDNA2 kommt ja erst jetzt mit Rembrandt. Vlt geht es irgendwan mit vollmodularen Chiplet Designs dann schneller... Dass sollte zumindest die Zukunft sein und sogar OEM spezifische Designs ohne großen Aufwand ermöglichen.
Zuletzt bearbeitet von einem Moderator:
Ltcrusher
Fleet Admiral
- Registriert
- März 2004
- Beiträge
- 14.649
Jetzt übertreib mal nicht. Sofern AMD und nVidia auch aus dem "wir setzen die UVP Angaben zum Release unrealistisch niedrig an" Dilemma gelernt haben...und hoffentlich beide bei den "normalen" Karten eine Mining-Bremse verbauen, wird es wohl kaum eine Gamer-Grafikkarte zum Preis eines Dacia Sandero geben.Mister79 schrieb:Ja dann also 8000 Euro mit noch schlechterer Verfügbarkeit?
Hand auf Herz, wer hat sich hier eine maßlos überteuerte aktuelle Karte gekauft?
UVP Vergleiche GTX 1000er bis RTX 3000er von Computerbase
Wäre auch die Frage, was du jetzt unter "maßlos überteuert" verstehst. Einige hier im Forum fanden die ca. 200 Euro mehr zum UVP beim Release der RTX 3060 schon maßlos überteuert.
Meine RTX 3060 Ti habe ich am Release Tag bei Alternate für knappe 510 Euro bekommen, die RX 5700 XT ein paar Tage später für 290 Euro bei eBay Kleinanzeigen verkauft.
Das könnte gut sein... 🤔Matthias B. V. schrieb:Ja wirklich weit angewendete MCM Designs sieht man meiner Meinung nach auch erst mit RDNA4. Bei RDNA3 werden wir die neiden größten Navi31 und Navi32 als MCM sehen. Navi 33 und Navi 34 sind vermutich monolithisch und werden auch die sein die in die Notebooks kommen.
Matthias B. V.
Lieutenant
- Registriert
- März 2021
- Beiträge
- 855
RDNA3 wird ziemlich sicher N5 da es anders kaum - alleine durch die Architektur - machbar wäre den Energieverbrauch bei 2 Chiplets in der Größe eines Navi21 in den Griff zu bekommen. N6 bietet nur ca. 10% verbesserten Verbrauch.eastcoast_pete schrieb:Da TSMC ihren N7 Kunden sanft and bestimmt ihren "6 nm" Node Nähe legt, nehme ich einfach Mal an, daß es dieser Node wird. Auch im einiges billiger als 5 nm, wenn man vielen Quellen glauben darf.
N6 ist für 2021 die Node der Wahl aber wir sprechen hier von 2H/2022 - Bis dahin hat N5 mehr Kapazitäten als N7/6 und Apple wechselt zu N4/N3...
Zuletzt bearbeitet:
Wie real war das im Dezember als Gerücht verbreitete zur 3080TI wirklich? War es Wunschdenken oder wurden die SKUs tatsächlich gecancelt?Rock Lee schrieb:Absolut! Jensen soll sich wohl 1-2 umentschieden haben mit welcher Config man nun der 6900XT Paroli bieten will.
Ist natürlich für so einen Leaker blöd, weil solange das Produkt noch nicht raus ist, kann sich einiges ändern. Je länger der Zeitraum bis zum Release, desto mehr.
Fakt ist dass Nvidia sich mit GDDR6X ins eigene Bein geschossen hat. Man ist von Micron abhängig und die können meines Wissens nur 8Gb-Chips liefern. Und damit ist man bei der Bestückung erheblich unfexibler als bei GDDR6 wo 8Gb und 16Gb zur Verfügung stehen.
Jensen ist nicht nur CEO, sondern das Gesicht von Nvidia. Es fällt auf dass die Seite mit den Executives-Bios bei Nvidia sehr klein ist. Nur die beiden Günder und 4 Executive Vize Presidents (Finanzen / Verkauf und Marketing / IT und Produktionsabwicklung / Chefjustitiar)Wolfgang schrieb:Auch wenn das immer gerne erzählt wird und ich mich natürlich irren kann, bezweifle ich irgendwie, dass Jenson in auch nur irgendeiner Form deklariert, wie eine RTX 3080 Ti oder ein anderes Modell auszusehen hat. Jensen wird doch schätze ich grob nur etwa sagen "schlage X, setze maximal y ein" und der Product-Manager muss dann schauen, wie er das umsetzt.
Was auffällt ist, dass niemand aus der Entwicklung aufgeführt wird. Das kann bedeuten, dass die beiden Gründer dafür zuständig sind. Aber es kann auch bedeuten, dass die dafür Verantwortlichen schlicht nicht nach außen auftreten. Wenn man sich die gewaltige Expansion von Nvidia in den letzen 10 Jahren ansieht, gehe ich vom letzteren aus. Das konnten die beiden Gründer unmöglich alleine managen.
Es gibt eben gute und schlechte CEOs. Es gibt gute und schlechte Chefs. Die schlechten wollen ihren Leuten immer beweisen dass der Chef alles besser weiß. Die guten Chefs stellen Leute an, die in den einzelnen Aufgaben besser als sie sind und lassen diese ihre Arbeit tun.projectneo schrieb:Tatsächlich haben Vorständet / CEOs in großen Unternehmen bei so strategischen Entscheidungen immer ein Mitsprachrecht und fordern dieses auch.
Nvidia ist ein großes Unternehmen und da hat der CEO eigentlich genügend andere Aufgaben als sich persönlich, um die exakte Konfiguration einer Grafikkarte selbst festzulegen kümmern.
Die Frage ist doch ganz einfach wie viele GDDR6X-Chips bekommt Nvidia von Micron?projectneo schrieb:Es geht ja auch um mögliche Gewinne, eine Karte mit 20GB Speicher für 1200€ wirft weniger Gewinn ab als eine Karte mit 12GB Speicher und ist schwerer zu poduzieren.
Wenn Nvidia nicht auf einem großen Stapel von GDDR6X-Chips sitzt, muss Nvidia sein Produktmix auf die Chiplieferungen von Micron abstimmen. Wenn man 12 GB anstatt 20 GB verwendet, kann man eine 3080TI und eine 3070 bauen. Ich denke das wiegt momentan mehr als die höheren Kosten für ein 20 GB-Bord.
Matthias B. V.
Lieutenant
- Registriert
- März 2021
- Beiträge
- 855
Wäre seit Langem mal wieder eine Möglichkeit die Architekturen zu vergleichen - auf Basis der selben Node.FreedomOfSpeech schrieb:Da Nvidia Lovelace auch bei TSMC in 5nm fertigen lässt bin ich sehr gespannt auf einen Vergleich. Der Samsung 8nm ist ja offensichtlich nicht so taktfreudig und sehr stromfressend.
Um die 2100MHz sind machbar, bei Big Navi sieht man teilweise über 2700MHz.
Mit 5nm TSMC wird denke ich die 3GHz Grenze fallen, und das bei beiden.
Dann sind beide High-End Karten wieder ungefähr gleich schnell.
Bin auch sehr gespannt. Nvidia hat aktuell leichte Vorteile aber eine schlechtere Node. Bis dahin denke ich hat AMD aber deutlich mehr zu bieten und die Architekturen könnten bei gleicher Node konkurrentfähig sein. Auf jeden Fall gut für uns. Insbesondere da Intel mit DG3 auch sicher nochmal einen großen Sprung hinlegt...
Der Nachbar
Vice Admiral
- Registriert
- Aug. 2007
- Beiträge
- 7.014
Früher oder später schon, wenn es AMD anbieten konnte und sich VRAM durch die hohen Signalanforderungen immer näher an die GPU annähert. Irgendwann ist dann ein gemeinsames Substrat für GPU und VRAM günstiger und notwendiger als eine aufwendige Platine. Dann wären wir wieder bei MCM.SV3N schrieb:HBM wird sich aber für Consumer einfach nicht durchsetzen.
Ein weniger komplexes MCM ist letztlich ein wirtschaftlich nötiges Eingeständis ohne in die Vollen zu gehen. Man könnte auch zwei angepasste RDNA2 mit zwei HBM2E Stacks verbinden und sich den Infinity Cache auch gleich sparen, wenn man mit 960GB/s Daten schaufeln kann.
So lange die immer größer werdenden Chips auch noch Ausschuss haben, wird man keine kostbare Waferfläche verschwenden, wenn man mit kleineren Chips und MCM nötige Leistungssteigerungen wirtschaftlich anbieten muss.
Dann kommt ja auch noch der ganze Stromverbrauch hinzu, wieviel SoC und MCM Aufwand an Vorteilen bringen und man sich zusätzlichen Schaltunsgaufwand sparen kann und muss.
up.whatever
Commander
- Registriert
- Dez. 2006
- Beiträge
- 2.664
Durch das hohe Preisniveau bei gebrauchter Hardware, kann sich der Preis für ein Upgrade durchaus im akzeptablen Rahmen bewegen, insbesondere wenn du die neue Karten zum UVP bekommst.Mister79 schrieb:Hand auf Herz, wer hat sich hier eine maßlos überteuerte aktuelle Karte gekauft?
Wer komplett neu kauft und keine alte Karte zum verscherbeln hat, hat wirklich Pech gehabt.
FreedomOfSpeech
Captain
- Registriert
- Aug. 2012
- Beiträge
- 3.810
Mister79 schrieb:Hand auf Herz, wer hat sich hier eine maßlos überteuerte aktuelle Karte gekauft?
Weihnachten gab es eine 6900XT bei MF für 1.249.- und vor einem Monat eine 3090 FE bei einem aus dem Nachbarort für 90.- Scalperaufschlag.
GTX 1080 ti wurde für 400.- verkauft, hatte sie 2018 für 550.- gekauft. Ich denke, der Wertverlust hielt sich in Grenzen.
Die geplante Wasserkühlung habe ich einfach verschoben, inges. wäre mir das finanziell nicht angemessen erschienen. GSync am LG C9 war mir wichtiger als ein Custom Loop.
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
Wolfgang schrieb:Auch das glaube ich dieses Mal nicht. Ist nur so ein Gefühl, ich glaube aber, dass sich AMD und Nvidia in der nächsten Generation bis ans Limit pushen werden und das über alle Produkte hinweg. Schauen wir mal wie es kommt, aber das ist einfach mein Gefühl.
Ich habe dieses Gefühl ebenfalls.
Allein schon weil es nun wieder Wettbewerb gibt und beide Teams wissen das es aufs letzte bisschen ankommt um vorne zu sein.
Wann ist Nvidia die letzen Jahre mal so sehr an die Grenzen gegangen Im Bezug auf den Verbrauch?!.
Kann mich nicht erinnern wann es mal 50—75watt Mehrverbauch für grob 5% mehr fps gab, Werksseitig!
Und sollte dann mit einem monolithischen Chip ein Multi chiplet Design gekontert werden, kommt mir direkt die jetzige Intel und AMD CPU Situation in den Kopf.
bigfudge13
Rear Admiral
- Registriert
- Mai 2008
- Beiträge
- 5.533
Kann man hier gut nachlesen: https://www.computerbase.de/2020-09...hnitt_woher_kommen_shader_und_leistungssprungDarkInterceptor schrieb:hat mich eigentlich immer gewundert wie amd mit der hälfte an shadereinheiten gegenüber NV so eine leistung bringen können. eine 6900xt hat ca 50% der shader, ist aber ungefähr auf augenhöhe abseits RT.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.947
Floxxwhite schrieb:Würde mir auch hier nie Karten mit >250 Watt holen. Ich zocke gerne im Single Player ohne Headset und ich würde gern meine Games in Ruhe genießen und nicht bei 45 Dezibel
35-36dB bei teilweise 330W
Ähnliche Themen
- Antworten
- 209
- Aufrufe
- 32.033
- Antworten
- 235
- Aufrufe
- 40.766
- Antworten
- 233
- Aufrufe
- 31.283
- Antworten
- 148
- Aufrufe
- 27.938