Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GPU-Gerüchte: AMD bereitet RX-6000-Refresh für Desktop-PCs vor
- Ersteller Wolfgang
- Erstellt am
- Zur News: GPU-Gerüchte: AMD bereitet RX-6000-Refresh für Desktop-PCs vor
Besser wird es wahrscheinlich nicht mehr. Für High-End von AMD und Nvidia wird ja eher in Richtung 300 bis 450 Watt spekuliert.loser schrieb:Wird es mit RDNA 3 besser bezüglich Stromverbrauch oder bleibt das bei knapp 300 Watt, wenn man eine anständige Leistung will?
Letztens erst ein Video von Igors Lab gesehen, dass Netzteile mit der neuen ATX Spezifikation in der Spitze bis zum doppelten ihrer Nennspezifiaktion liefern müssen. Es sollen Netzteile mit 1200 Watt kommen, die in der Spitze 2400Watt liefern...
Das verstehe ich auch nicht. Höhere UVP ist eigentlich immer negativ. Bis der Markt das Regelt sind wir wahrscheinlich schon bei der übernächsten GPU Generation...Esenel schrieb:Bei AMD wird ne höhere UVP vom gleichen Abwasch noch gefeiert.
Ich hab auch noch eine HD 6850 hier.Haldi schrieb:Ich hab hier irgendwo noch e Radeon 6850 rumliegen!
Meine HD 7950 kann ich dann bei der nächsten Generation verkaufen.
Der Speicher ist großzügig, aber sicher nicht überdimensioniert. Außerdem wird das schon alleine deswegen nicht passieren, weil man sich ganz sicher nicht ohne Not des besten Arguments für AMD und gegen Nvidia berauben wird.andr_gin schrieb:Ich kann mir aber auch gut vorstellen, dass AMD bei einem Refresh den derzeit überdimensionierten VRAM korrigiert. Mit 16GB bzw. 12GB sind die 6700 XT bzw. 6800 XT einfach nicht mehr wirtschaftlich. Da kostet der VRAM doppelt so viel wie der Chip selbst.
Nebula2505
Lt. Junior Grade
- Registriert
- Aug. 2019
- Beiträge
- 317
Top wäre natürlich ein 6nm refresh von allen Karten und für die 6600 Reihe bisschen mehr Infinity Cache. Dann hätte man mehr boosttakt und mehr Speichertakt, aber durch die bessere node kaum oder kein Mehr an Leistungsaufnahme. Von mir aus auch dann 20-50$ teurer. Ne 6950XT mit 50 Watt mehr und gutem liquid cooler wäre natürlich top, um direkt wieder die 3090Ti in Rasterization zu schlagen.
Esenel schrieb:Oh AMD macht den Nvidia Scalper Move.
Der einzige Unterschied hierbei?
Bei AMD wird ne höhere UVP vom gleichen Abwasch noch gefeiert.
Weder feier ich das, noch habe ich bei vergleichbaren Nachrichten zu NVIDIA anderes behauptet. Von daher ist das von dir eine haltlose Behauptung. Zumal du hier wieder den Zusammenhang zwischen UVP und Marktpreisen nicht verstehst oder entsprechende Annahmen triffst, die nicht zutreffen.
Nochmal: Die Händler erhöhen solange die Preise, bis der Verkauf der Artikel soweit zurückgeht, dass die auf der Ware sitzen bleiben.
Solange die Menschen Grafikkarten zu diesen Preisen kaufen, ist es ziemlich egal, was die UVP ursprünglich mal war. Es heißt sogar "Unverbindliche Preisempfehlung".
Du siehst hier kausale Zusammenhänge, wo keine sind.
- Registriert
- Juni 2017
- Beiträge
- 4.099
Ich meinte genau die Karten, die ich geschrieben habe, aber die 8800 GTS 512 gehört auch noch in die Reihe, und dann auch noch die 8800 GTX/Ultra, wenn man es genau nimmt.BrollyLSSJ schrieb:Meintest du bei der 9800 GTX die 8800 GTX? Ich meine zumindest, dass die 8800 GTX als 9800 GTX+ wieder kam und die dann noch mal als GTS 250 aufgelegt wurde. Ansonsten war die 9800 GTX+ eine schöne Karte. Konnte ich zur GTS 250 flashen und hatte dadurch den Vorteil, dass die Karte dann im Windows Betrieb auch runtertaktete, was die als 9800 GTX+ nicht gemacht hatte (war auch der einzige Grund, warum ich die zur GTS 250 geflasht hatte).
8800 GTX: ursprünglicher Vollausbau des G80 in 80nm
8800 Ultra: verbesserte Version mit neuem Kühler, minimal mehr Chiptakt und schnellerem Speicher
8800 GTS 512: ursprünglicher Vollausbau des G92, ein Shrink des G80 auf 65nm, aber mit kleinerem Speicherinterface (256Bit statt 384Bit) und besserem Videodecoder
9800 GTX: verbesserte Version der 8800 GTS 512 mit aufwändigerem PCB mit 2xPCIe 6-Pin statt nur 1x, etwas mehr Chiptakt und schnellerem Speicher (von 8800 Ultra), AFAIR durchweg mit Nvidia Hybrid Power
9800 GTX+: Mit G92b, 55nm-Shrink des G92, und mehr Chiptakt, nun auch mit 1GB VRAM
GTS 250: Quasi 9800 GTX+ mit einfacherem PCB, wieder nur 1xPCIe 6-Pin und Kühler, der optisch dem der 8800 GTS 512 gleicht. Statt Hybrid Power nun idle-Taktraten.
Drei mal jeweils zwei Karten, die exakt den gleichen Chip verwendet haben. vier Karten mit Shrink und sechs insgesamt, wenn man den G92 trotz Veränderungen auch als Shrink des G80 sieht. Das waren nich Zeiten! Und zufällig auch die, in denen AMD und Nvidia den härtesten Preiskampf aller Zeiten ausgetragen haben und die Preise so niedrig wie nie davor und danach waren.
Scherzkecks, so selbstverständlich ist es nicht. Die 3080 12GB dürfte nicht so extrem viel schneller als die 3080 10GB sein, zumal ja auch die 3080Ti nur wenige Prozent schneller ist. Dafür hat sie im Prinzip den gleichen Speicherausbau wie die Ti, sollte meines Wissens also genauso gut zum Minen sein wie die Ti. Aber ihre UVP liegt sogar über der Ti, eigentlich ist sie also keine attraktive Karte. Zudem hängt der Marktpreis ja auch stark von der Verfügbarkeit ab.shaboo schrieb:Eine 12 GB-3080 landet innerhalb des etablierten Preisgefüges von 3080, 3080Ti, 6800XT und 6900XT genau da, wo sie hingehört. Was denn sonst? Das Ding existiert ja nicht im luftleeren Raum ...
- orientiert sich der Marktpreis der 3080 12GB eher an der Ti, weil sie für Miner genauso wertvoll ist?
- liegt er darunter, weil sie kaum schneller als die 10GB-Version ist?
- macht die hohe UVP die Karte gegenüber der Ti unattraktiv?
- oder ist die Verfügbarkeit einfach soviel besser als bei der Ti, dass Miner beherzt zugreifen?
- liegt der Marktpreis gar über dem der Ti?
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
300watt ist morgen Mittelklasse.loser schrieb:Wird es mit RDNA 3 besser bezüglich Stromverbrauch oder bleibt das bei knapp 300 Watt, wenn man eine anständige Leistung will?
450-600 Watt stehen für die neue gen im Raum.
Während es schon heute mit bis zu 480watt zu geht.
Ergänzung ()
Nutz doch undervolting. Und wenn das zu „kompliziert“ ist, kannst du doch dein powertarget entsprechend begrenzen.bad_sign schrieb:Ich fände es geiler, wenn eine 6900XT mit 250W TBP kommen würde, aber sowas macht sich im Marketing nicht gut.
Meine 6900xt verbraucht zwischen 220-370Watt im Gsmimg, je nach oc/uv Setting.
Im 24/7 setting habe ich bei 100% Takt 92% Spannung.
Zuletzt bearbeitet:
loser
Lieutenant
- Registriert
- März 2013
- Beiträge
- 627
Das bin ich nicht bereit zu verbraten, für ein bisschen Spielspass. Von der 7950 zur 580, wollte ich jetzt noch eine 6800 oder 6800XT.
Wenn das so weiter geht, wird das dann wohl die letzte Grafikkarte für den PC, bis sie wieder zur Besinnung kommen.
Wenn das so weiter geht, wird das dann wohl die letzte Grafikkarte für den PC, bis sie wieder zur Besinnung kommen.
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
t3chn0 schrieb:Wir wissen auch, dass beim Verbrauch 350W von AMD, nur halb so schlimm sind wie 350W von Nvidia oder Intel.
Man nennt diesen Effekt auch "Rot Strom". Das ist besonders umweltfreundlicher Strom, welcher aus Vulkanen gewonnen wird.
Das weiß doch jeder !
Gut geschrieben, musste schmunzeln.
Aber eine Sache:
Weder amd und Nvidia verbrauchen gleich viel bei GPU voll Last, noch Intel und amd bei CPU Volllast 😉
Eigentlich wurde amd all die Jahre immer ziemlich heftig kritisiert für ihr Verbräuche, während ich heute kaum etwas zur 3090/12900k lese.
Esenel schrieb:@Wechhe
Ok. Einfaches Beispiel.
Bei welcher Variante würden Konsumenten früher nicht mehr bereit sein den Preis zu zahlen (Zahlen überspitzt):
UVP 10€ - Markt 2000€
UVP 1800€ - Markt 2000€
Aber klar.
Die UVP hat keine psychologische Auswirkung auf unser Kaufverhalten.
Du entfernst dich immer weiter vom ursprünglichen Thema und gehst quasi nicht auf das ein, was ich geschrieben habe. Jetzt sind wir schon bei psychologischen Auswirkungen von irgendwelchen Daten... Auch hier triffst du wieder Annahmen und sogar sehr persönliche. Mag bei dir so sein, dass du davon beeinflussen lässt. Aber bei welchen Produkten ist die UVP wirklich der ausschlaggebende Faktor für deine Kaufentscheidung? Schaust du dir nicht eher Preisverlauf, Verfügbarkeit/Auswahl und "Prognose" an und vergleichst das mit deinem Budget und Wunsch, das Produkt wirklich kaufen zu wollen/müssen und triffst dann eine Entscheidung? Schaust du wirklich auf die UVP?
Aber gut - an dem Punkt können wir uns auch einfach einigen, dass wir verschiedener Meinung sind, was den Einfluss der UVP auf den tatsächlichen Preisverlauf hat. Denn keiner von uns kann seine Aussage beweisen, oder?
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
ähm,LukS schrieb:Besser wird es wahrscheinlich nicht mehr. Für High-End von AMD und Nvidia wird ja eher in Richtung 300 bis 450 Watt spekuliert.
Aktuell amd bis zu 295 Watt stock
Nvidia 350 Watt stock
Oc Modell bis zu 480 Watt, bereits jetzt.
Wir sind schon bei 300/350-500 Watt gpus angekommen.
Und das was im custom Bereich ganz oben ist, wird der neue highend Einstieg für die nächste gen
Erhöht ruhig die UVP, das ändert doch nichts. Unrealistisch bleibt unrealistisch ! Mein Konsumverhalten wird dadurch nicht beeinflusst. Ich weiß wie UVP‘s entstehen und ich bin sehr wohl in der Lage, den Wert einer Sache richtig einzuschätzen. Ich benutze seit 6 Jahren eine und dieselbe Grafikkarte. Und das bedeutet, dass eine Grafikkarte in meinen Augen fast nichts Wert ist. Ich kann auch komplett drauf verzichten wenn es sein muss. Wer das nicht kann, der muss zahlen und mit immer höheren Preisen rechnen. Deswegen ist es immer besser, sich früher als später zu verabschieden.
Das sowieso^^GERmaximus schrieb:Nutz doch undervolting.
Und zugegeben, die Politik von weit über den Sweetspot macht UV umso lukrativer, ich finde es trotzdem absolut dämlich wegen 3% nochmals 20% mehr Strom rauszuballern.
Man kann's aber auch echt kompliziert machen. Wenn eine 3080 1500 und eine 3080Ti 1900 Euro kostet, dann wird eine 12GB-3080 1700 kosten. Oder 1650. Oder 1750. Ist im Detail aber auch vollkommen wumpe.Tigerfox schrieb:Scherzkecks, so selbstverständlich ist es nicht. Die 3080 12GB dürfte nicht so extrem viel schneller als die 3080 10GB sein, zumal ja auch die 3080Ti nur wenige Prozent schneller ist. Dafür hat sie im Prinzip den gleichen Speicherausbau wie die Ti, sollte meines Wissens also genauso gut zum Minen sein wie die Ti. Aber ihre UVP liegt sogar über der Ti, eigentlich ist sie also keine attraktive Karte. Zudem hängt der Marktpreis ja auch stark von der Verfügbarkeit ab.
- orientiert sich der Marktpreis der 3080 12GB eher an der Ti, weil sie für Miner genauso wertvoll ist?
- liegt er darunter, weil sie kaum schneller als die 10GB-Version ist?
- macht die hohe UVP die Karte gegenüber der Ti unattraktiv?
- oder ist die Verfügbarkeit einfach soviel besser als bei der Ti, dass Miner beherzt zugreifen?
- liegt der Marktpreis gar über dem der Ti?
Irgendwelche Papier-UVPs sind doch vollkommen egal. Da das Ding in jeder (relevanten) Hinsicht besser als eine 3080 und in jeder Hinsicht schlechter als eine 3080Ti ist, wird auch der Preis dazwischen liegen. Wer soll denn bitte für eine 12GB-3080 mehr bezahlen als für eine 3080TI?!
UNDERESTIMATED
Banned
- Registriert
- März 2012
- Beiträge
- 8.110
freek0055 schrieb:Wenn hier der N6 Prozess benutzt wird, könnte es dann auch zur Folge haben, dass in Summe mehr Kapazität da ist? falls ja wäre das echt Klasse 😃
Nein, da nicht die GPU's selbst, sondern "nur" vorwiegend Bauteile zur Spannungsregulierung (einfachster Kram) so knapp ist, daher zieht sich die Verfügbarkeit auch quer über alles was eben Chips beeinhaltet. Natürlich wird aber auch nicht ewig auf Halde produziert, also als Folge der VRM Knappheit gibt es dann logischerweise auch nicht unbegrenzt DIEs.
Am Ende sind es also dieselben Bauteile die fehlen, ob nun 12nm Samsung/14+++ Intel, DDR5 oder halt 7/6nm TSMC, Display im 5er BMW oder USB Ladestecker im Tesla, natürlich immer in Abhängigkeit, dass man eben nicht baut wenn man sowieso nicht fertig bauen kann.
@shaboo
Der wichtigste Preisindikator ist die Speicherbandbreite
3080 12G = 3080TI = gleiche Miningleistung = beinahe gleicher Preis.
Auch der Grund warum 6800, 6800XT und 6900XT fast das gleiche kosten.
3090 kostet mehr, da es keine Miningbremse gibt.
https://geizhals.de/?cat=gra16_512&xf=9809_05+12+-+RX+6800~9809_05+12+-+RX+6800+XT~9809_05+12+-+RX+6900+XT
Der wichtigste Preisindikator ist die Speicherbandbreite
3080 12G = 3080TI = gleiche Miningleistung = beinahe gleicher Preis.
Auch der Grund warum 6800, 6800XT und 6900XT fast das gleiche kosten.
3090 kostet mehr, da es keine Miningbremse gibt.
Maxxx800
Lt. Junior Grade
- Registriert
- Sep. 2017
- Beiträge
- 480
Der UVP wird bei den refresh Karten sowieso keine Rolle spielen, es gab noch nie eine refresh Referenz Karte von AMD. AMD wollte diese eigentlich schon einstellen, so eine lange Referenz Fertigung gab es auch noch nie.
Es wird beim refresh nur Custom Karten geben. Also UVP, egal.
Es wird beim refresh nur Custom Karten geben. Also UVP, egal.
- Registriert
- Mai 2011
- Beiträge
- 21.064
AMD ist jetzt schon seit knapp 10 Jahren mit 300W fürs High-End-Modell dabei, die Zukunft geht nur nach oben^^loser schrieb:Wird es mit RDNA 3 besser bezüglich Stromverbrauch oder bleibt das bei knapp 300 Watt, wenn man eine anständige Leistung will?
Ähnliche Themen
- Antworten
- 184
- Aufrufe
- 18.032
- Antworten
- 18
- Aufrufe
- 3.355