News GPU-Gerüchte: AMD bereitet RX-6000-Refresh für Desktop-PCs vor

Nee, ich meinte, dass die Preise von 12GB-3080 und 3080Ti auch langfristig die 2000 Euro-Marke nicht allzu deutlich überschreiten werden, da ansonsten wohl irgendwann viele eine normale 3090 für die bessere Wahl halten würden.

Zur 3090Ti fällt mir, ehrlich gesagt, gar nichts mehr ein. Eine 3090 kann man sich gegenüber anderen Modellen ja wenigstens noch mit ihrem fetten Speicher schön reden, aber der Mehrwert einer 3090Ti gegenüber einer 3090? In welchen Szenarien soll der denn sichtbar oder spürbar sein, egal ob Gamer oder "ernsthafter" Anwender? Ist halt eine Karte für diejenigen, die unbedingt den Längsten brauchen und dafür auch absolut jeden Preis zahlen. Für solche Leute spielt es auch überhaupt keine Rolle, ob das Ding am Ende im Laden 3000, 4000 oder 5000 Euro kostet. Von daher kann Nvidia da eigentlich absolut jede UVP draufpappen, die ihnen gerade einfällt (falls es überhaupt eine geben wird).
 
Esenel schrieb:
UVP 10€ - Markt 2000€
UVP 1800€ - Markt 2000€

Aber klar.
Die UVP hat keine psychologische Auswirkung auf unser Kaufverhalten.
Psychologisch mag dein Beispiel wirken, dazu müssten die Kunden aber erst mal die UVP kennen und ich würde drauf wetten, dass nicht mal alle hier im Forum die UVP`s der Grafikkarten und CPU?s nennen können, mal von anderer Hardware ganz zu schweigen.
Ich könnte noch grade so die Nvidia UVPs nennen, aber auch da bin ich mir nicht 100% sicher. Bei AMD GPU`s würde ich wohl schon komplett versagen und bei CPU`s sowiso.
 
bad_sign schrieb:
Überdimensioniert^^ Die Größen sind schlicht zeitgemäß.
Außerdem sind auf der 6800er Karten nur 8 Chips drauf, auf der 6700er 6, 6600er 4 und auf 6500er 2.
Da muss der Einkaufspreis bei Nvidia deutlich höher liegen mit 24 Chips für die 3090, 10-12 für die ganzen 3080er usw. Ich bin mir auch ziemlich sicher, GDDR6X ist teurer, als "Standard" GDDR6

shaboo schrieb:
Der Speicher ist großzügig, aber sicher nicht überdimensioniert. Außerdem wird das schon alleine deswegen nicht passieren, weil man sich ganz sicher nicht ohne Not des besten Arguments für AMD und gegen Nvidia berauben wird.

Damit ihr einmal ein bisschen Gefühl für die Kosten einer GPU bekommt:

Ein Navi21 oder AD102 Chip so wie er bei der 6800 XT oder 3080 verbaut ist kostet in der Produktion ca. 100$.
GDDR6 kostet derzeit um die 15$/GB. Das macht bei 16GB um die 250$.

Oder anders herum:
Eine 6900 XT mit 8GB wäre billiger als eine 6700 XT mit 12GB.

Was GDDR6X angeht: Dieser ist mittlerweile billiger als GDDR6, da dieser exklusiv nur für Nvidia produziert wird und es hier laufende Rahmenverträge gibt.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und simosh
n8mahr schrieb:
pfft.. selbst eine high-end grafikkarte braucht in den meisten spielen im durchschnitt unter 300W. mit einem normalen mid-range system bist du komplett deutlich unter 600W bei vollast.. das sind bei 40cent KW/h (die für die meisten noch nicht erreicht sind) keine 25CENT die Stunde an Strom. dafür jetzt von desktop auf laptop wechseln? ich weiß ja nicht...
Und gerade im Winter kann man mit der Kiste noch prima seine Bude heizen, denn Gas für die Heizung ist auch teurer geworden... 🤷‍♂️
Bei Neuverträgen bist du schon bei über 60 Cent und die Tendenz ist steigend. Dazu kommt die Mobilität eines Laptops plus dass ein Laptop spätestens mit ner RTX 4XXX vermutlich alles an Games aus der PS5 Gen stemmen können wird. Ich sehe den Vorteil eines Desktops nur in der Lautstärke, aber auch da werden die Laptops dank Vapor. Chamber immer besser …
 
Unterstützen die neuen Karten denn dann endlich HDMI 2.1?
 
drago-museweni schrieb:
Geht es nur mir so, ich kann "gesteigerte Leistungsaufnahme" nicht mehr lesen.

Gab Zeiten da wurde der Fertigungsprozess so verfeinert das man mehr Leistung bei gleicher Leistungsaufnahme hatte.
Scheint wohl so, dass mit den aktuellen Technologien bei Grafikkarten nicht mehr viel rauszuholen ist, sonst müsste man sich nicht mehr Leistung mit mehr Verbrauch erkaufen. Nimmt mich Wunder, wie das weiter gehen wird...
 
andr_gin schrieb:
Damit ihr einmal ein bisschen Gefühl für die Kosten einer GPU bekommt:
Das ist doch überhaupt nicht der Punkt. Der Punkt ist, dass du als Hersteller Produkte und Spezifikationen brauchst, die potentiellen Käufern einen Grund geben, zu deinem Produkt zu greifen, und nicht zu dem der Konkurrenz, und das ist bei AMD nun mal primär der Speicherausbau. Das wird man nicht einfach so aus der Hand geben. Außerdem wäre das für ein Refresh auch total untypisch, um nicht zu sagen bizarr, oder gab es jemals zuvor irgendwelche Refreshs, bei denen der Speicher reduziert wurde? Von der Frage, wie man so einen Rückschritt erfolgreich vermarkten soll, mal ganz zu schweigen ...
 
Falc410 schrieb:
Aber ich kann schon verstehen, dass sie halt etwas "Neues" brauchen. Man kann nicht jahrelang die selben Karten verkaufen da die ja dann irgendwann niemand mehr haben möchte und sie wie Blei in den Regalen liegen. Oder hey...warte mal. Es ist Pandemie und 90% der Kunden haben immer noch keine Karte bekommen...ja doch man könnte weiter die alten Karten verkaufen.
Versetzt dich doch mal in die Marketing-Abteilung, wenn die kein neues Produkt kreieren würden, dann müssten die um ihren Job bangen. Also wird sich auf Teufel komm raus irgendwas ausgedacht um dem Management zu zeigen das die Abteilung wichtig ist, weil sie ja ständig mit neuen Ideen um die Ecke kommen.

Das gleiche gilt für die UX-Designer, selbst bei ausgereiften und funktionierenden Designs wird ständig daran herumgespielt und regelmäßig kommt dann auch noch der große Relaunch. Alles nur damit niemand auf die Idee kommt, dass diese Stelle nicht mehr benötigt wird.
 
DanyelK schrieb:
Bei Neuverträgen bist du schon bei über 60 Cent
nö, nur wenn du wirklich krass schlechte verträge nimmst.
quelle: gerade selbst für märz neu abgeschlossen, für deutlich unter 40cent brutto.
DanyelK schrieb:
und die Tendenz ist steigend.
stimmt
DanyelK schrieb:
Dazu kommt die Mobilität eines Laptops
das war doch gar nicht das thema. es ging um stromverbrauch als argument. das ein laptop andere vor- und nachteile hat, steht außer frage.
 
darf man gespannt sein wie sich dass auf die Stückzahlen auswirken wird, ich denke ein wenig mehr Effizienz und Leistung kommt raus, aber nichts weltbewegendes.

an der stelle nochmal als erinnerung: hier geht es um den RDNA2 refresh, nicht um für und wieder vom mining, nvidia, stromkosten usw. ;)

bleibt bitte beim kern der news
 
loser schrieb:
Das bin ich nicht bereit zu verbraten, für ein bisschen Spielspass. Von der 7950 zur 580, wollte ich jetzt noch eine 6800 oder 6800XT.

Wenn das so weiter geht, wird das dann wohl die letzte Grafikkarte für den PC, bis sie wieder zur Besinnung kommen.
Überlege ich mir auch noch. Habe auch noch eine 7970 und eine 2080ti. Werde ich aber verkaufen mit meiner 3080. Wenn die 4080 raus ist.
 
  • Gefällt mir
Reaktionen: loser
shaboo schrieb:
Wer soll denn bitte für eine 12GB-3080 mehr bezahlen als für eine 3080TI?!
Beispiel:
1. 3080 12Gb suprim x für 1800
2. 3080 ti ventus 2x für 1700

der eine kauft Karte 1, weil er das bessere Kühlsystem haben will. die andere kauft Karte 2, weil bisschen mehr power und wen interessiert schon die Lautstärke unterm Schreibtisch.

ich für meinen Teil mag gute Kühlsysteme und lege dafür auch Mal mehr hin und lasse dafür etwas power liegen, sofern die relativen stimmen. aber bin eben nur ich...
 
Die ganze Meldung macht kein Sinn
ja amd wird die laptop serie eine 50 dranhängen
Am destop wird das aber die rx7000 serie
rdna 3 hat einen chip mit 60wgp der folgend in sku umgebaut werden wird
n31 zwei volle 60wgp chips n32 zu 40wgp pro chip reduziert n33 ein deaktiverter 60wgp auf 40wgp chip

Daraus ergibt sich dann folgende Rechnung mit gddr6+ sofern bis q4 2022 aufn markt mit 24gbits
Ein theoeretischer n33 mit etwa 29tf und maximal 768gb/s + 48% inf cache 256mb = 1112gb/s-1256gb/s
es gibt dann etwa +30-35% vs n21 mit nur theoretoschen 900gb/s
Sofern die bandbreite limitiert
Der n32 wird allerdings bis zu das doppelte an performance kommen sofern amd das mit dem mcm klärt.
Und den inf fab verdoppelt auf 512mb ich gehen von etwa 50tf aus mit dann etwas über 3,5tb/s
leider wird das aber nicht auf dem desktop kommen dagegen spricht alles.
Eher wird es eine sku mit 60wgp geben und etwas um die 40tf schaffen mit beschränkten bandbreite
Amd rettet quasi nur der inf cache der bei n32 512bit si addiert wird und dann etwas um die 3,5tb/s erreichen wird.
nur wird dann die sku die nicht der vollausbau ist um die 2500-3000$ kosten.
keine chance das dies als highend kommen wird eher wird man den n33 mit 60wgp und 40wgp bringen für 1800$ und 1000$
Amd kann nicht anders handeln
Nur wird man keine sku mehr haben weil man kein kleineren chip hat ein n34 existiert nicht
Was wird kommen rebrand von n22 n23 und n24 mit leicht erhöhten takt ich gehe von 2,8-3,0ghz aus.
Sku liste vermutlich
n33 60wgp vollausbau 2,8ghz 350w als rx7900xt ~38-40tf 24gbits 256mb inf cache ~1,1 tb/s +52-80% vs n21
n33 40wgp 2,8ghz 300w rx7800xt ~29tf 24gbits 1,1tb/s +16-35%
n33 30wgp 2,6ghz 150w rx 7800 ~20tf 24gbits 1,1tb/s etwas langsamer als n21
n22 40cu 2,9ghz 225w rx7700 14tf 18gbits +15%
n23 32cu 2,9ghz 200w rx7600 11,8tf 18gbits +15%
n24 16cu 2,8ghz 107w rx7500 rebrand 18gbits +-0%

Wichtiger wird die preisstruktur sein
rx7900xt 1800$ n33
rx7800xt 1000$ n33
rx7800 799$ möglich 30wgp n33
Rx7700 399$ n22
RX7600 299$ n23
Rx7500 249$ n24

nvidia wird ähnlich handeln
rtx4090 wird der ga106 sein mit 80sm und 2,5ghz was dann in etwa 38tf enden wird +31-51% 999$
rtx4080 ad106 60sm 28,8tf etwa gleichstand zum ga102 799$
rtx4070 ga114 48sm 23tf +38% vs ga104 699$
Rtx4060 ga116 28sm 13,4tf +40% vs ga106 399$
rtx4050ti ga116cut +40% vs ga106 cut 299$
rtx4050 möglich nur laptops rebrand des ga107 199$

wie man sieht wird amd nix gegen nvidia in der hand haben im einstiegssegment was 2 lösunge nahe liegt
preise dgehen deiutlich runter auf
n24 149$
n23 249$
n22 399$
oder amd wird nen n34 mit 40wgp (5120alu) bringen und maxed Oc auf 2,8,ghz
und diesen zuschneiden auf 36 und 32 wgp
ein wgp sind 128 alu
Ein sm sind derzeit 128alu die zu 64alu fp32 und 64 fp16 können die mit 50% auf fp32 rechnen ergo 96 fp32
das kann sich ändern mit lovelace von nvidia rtx40 serie
Amd dagegen steht sicher mit mcm und 60wgp pro chiplet und da ich nix von nen 40wgp chip gehört habe
Und die fehler density sogar klein ist man redet über 0,2 gebend as kaum 40wgp chips
Die meisten werden 60wgp oder nur 50 wgp aktiv haben
Was dann auf 40wgp cut wird. ob genug chips für noch stärkere beschneuniger gibt ist offen 30wgp wären sogar extrem schlecht eher gehe ich von 40wgp als cut only aus.
Fehlt also amd nen chip für den rx7800
Und es gäbe eine lücke von 499- 999$
Dagegen kann amd nix tun bis sie rdna4 kommt in 3nm
Der wafer kostet min 30k aber die chips werden klein
n41 vermutlich um die 200mm² 80wgp mcm ein sku
n42 60wgp aktiv mcm (min 2sku)
n43 neuer chip mit 40wgp 100mm² mcm (min 3sku)
n44 monolyth 40wgp
Womit der einstiegs sku rx8500 die einzige wird mit nen monliten
Der Rest wird mcm
Das aber wird thema irgendwann 2024
tsmc 3nm produktion fängt etwa q2 2023 an
Rdna3 ist teuer und nvidia hat sich in 7nm eingekauft nicht ohne grund weil die 5nm node von tsmc teuer ist und keine chip erlaubt unter 80sm
Da mit nen sagen wir mal 48sm chip die endkundenpreise gesprengt werden.
Keine sku unter 599$ möglich
Das was nvidia retten würde wär ein redesign der architektur was sicher kommen wird aber ich gehe von hopper aus irgendwann 2024 auch in mcm.
Anders kann amd und nvidia keine kleineren sku mehr designen. man stößt auf thermische Probleme und der cache ist das letzte was kleiner wird.
Daher macht es Sinn die chips in 3d fertigung und stapeln umzustellen neben mcm
Vorher wird es keine neue architektur geben für den Einstiegsbereich und mittelklasse bis 2024
 
2017 habe ich für eine GTX 1080 noch irgendwas um die 550€ gezahlt, dafür bekommt man jetzt nicht Mal mehr eine 3060. Ich glaube nicht, dass die Preise noch Mal sinken, aber da die Spiele auch immer verbugter sind, kann ich auch darauf verzichten.
 
chaopanda schrieb:
Beispiel:
1. 3080 12Gb suprim x für 1800
2. 3080 ti ventus 2x für 1700
Das versteht sich von selbst. Du wirst vermutlich auch irgendeine sauteure Custom-3070Ti finden, die mehr kostet als die billigste 3080. Natürlich bezog sich meine Aussage auf vergleichbare Modelle, d.h. Ventus vs. Ventus, Suprim vs. Suprim etc. Für alles andere ist das Preisspektrum innerhalb der Customs viel zu groß.
 
Ich hoffe es wird den Refresh geben und dann gleich in N6, mit fortlaufender Produktion der alten Karten.

Für beides würden sich Kunden finden und der Markt könnte wieso mehr Grafikkarten gebrauchen.
 
Die 10% Mehrleistung gibt es bei jeder 6xxx ab Werk. Mit UV & OC liegen statt ~2.300 Boost nach zwei Mausklicks 2.600 Mhz an - voila 6950 XT.

Wenn die 6950 XT dank Chipselektion und Fertigungsoptimierung ab Werk mit 2600 Mhz boostet und per OC nochmal 250 Mhz drauflegen kann, dann wirds interessant. Aber das bezweifle ich.
 
zett0 schrieb:
Versetzt dich doch mal in die Marketing-Abteilung, wenn die kein neues Produkt kreieren würden, dann müssten die um ihren Job bangen. Also wird sich auf Teufel komm raus irgendwas ausgedacht um dem Management zu zeigen das die Abteilung wichtig ist, weil sie ja ständig mit neuen Ideen um die Ecke kommen.
Und die Idee, die den Job rechtfertigen soll ist, dass die neuen Karten 6x50XT statt 6x00XT heißen werden? Ich glaube, wenn das alleine das Aufgabenfeld des Jobs ist, dann müssen die Personen doch um ihren Job bangen.
Wahrscheinlich hat das weniger mit Marketing zu tun, so wenig Marketing wie in den letzten zwei Jahren musste wahrscheinlich noch nie betrieben werden. Marketing braucht es ja nur, wenn das Produkt irgendwie an den Mann gebracht werden muss. Hier bleibt höchsten nur noch die Fahne zu heben und zu sagen: "Radeon gibts noch, auch wenn ihr nirgends Karten von uns kaufen könnt".

Ich denke das der Refresh einfach schon zum Start der 6000er Reihe geplant war und dementsprechend auch Fertigung und Verträge ausgelegt wurden. Ansonsten wäre es wirtschaftlich gerade echt dumm zu wechseln, viele Kosten wenig Nutzen.
 
R O G E R schrieb:
Naja man bekommt doch eh nichts bei den Drops.
Also wayne.

Naja warum auch nicht anpassen, wenn genug Leute für das Geld Grafikkarten kaufen.
Also ich habe meine 6900Xt ohne bots oder Ähnliches im 3. Anlauf letztes Jahr im Februar bekommen.

Ist eine tolle Karte, leistungsstärker als eine 3080 und nicht laut unter Last.
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Zurück
Oben