News Radeon RX 5700 (XT): AMD senkt Preise noch vor Veröffentlichung

Jens1882 schrieb:
Als Enthusiast wirst bei einer anderen Firma mit N ja ehr bedient das kann er so schon mal nicht sein ;)
Nennt Raff nicht eine RTX Titan sein Eigen?
Und vorher die Titan XP?

Den Spieleauswahljoker finde ich eher immer schwach als Argument. Du kannst 100 Benachmarkparcours generieren und Du wird immernoch von 100 Leuten hören, dass dieser unfair dem Produkt XY gegenüber ist.

Und lass Raff auch einfach einen Menschen sein, der natürlich vielleicht auch eine Tendenz hat (die ich jetzt aber im 3DC auch nicht erkennen hätte können). Er lässt es eben, wenn es so wäre, nicht offensichtlich raushängen.
Zudem finde ich so eine Diskussion um einen Benutzer über den gesprochen wird und dieser davon garnichts ahnt und sich auch nicht dazu äußern kann problematisch...

Und mal ganz ehrlich. Wer heisst es denn derzeit nicht gut, dass AMD nun auch mal wieder auf die Pauke schlägt?

LG
Zero
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Birnen und Äpfel vergleich. Intel scheitert bei 10nm an der Fertigung. Nvidia fertigt die Chips nicht selbst. Sie greifen auf Auftragsfertiger zurück. Unter anderem auf TSMC, dort wo auch Navi gefertigt wird. Nvidia designt nur die Chips, die TSMC dann anfertigt. Nvidia kann jederzeit auf 7nm setzen, aber sie haben aktuell keinen Zugzwang...
Okay..
Verstehe dann aber nicht warum sie nicht auf 7nm umsteigen. Jemand schrieb hier im forum die kostenersparnisse durch die kleineren chips sind größer als die Mehrkosten durch die 7nm Technologie.
 
Taxxor schrieb:
Die Erfahrung hat TSMC, bei denen auch Nvidia fertigt.
Naja nicht ganz. Das Design muß die Firma schon selbst erledigen. Die Fertigung natürlich nicht. :)
Ergänzung ()

MiniM3 schrieb:
Okay..
Verstehe dann aber nicht warum sie nicht auf 7nm umsteigen. Jemand schrieb hier im forum die kostenersparnisse durch die kleineren chips sind größer als die Mehrkosten durch die 7nm Technologie.
Das ist keinesfall so, schon gar nicht, wenn der Prozess noch so neu ist.
 
  • Gefällt mir
Reaktionen: MiniM3
MiniM3 schrieb:
Okay..
Verstehe dann aber nicht warum sie nicht auf 7nm umsteigen. Jemand schrieb hier im forum die kostenersparnisse durch die kleineren chips sind größer als die Mehrkosten durch die 7nm Technologie.
Weil, abseits von den Fertigungskosten, ein neues Design zu entwerfen auch eine Menge Geld kostet und man es bei Nvidia momentan einfach nicht nötig hat, da man AMD mit 12nm noch gut entgegenhalten kann.
 
  • Gefällt mir
Reaktionen: NMA und MiniM3
MiniM3 schrieb:
Okay..
Verstehe dann aber nicht warum sie nicht auf 7nm umsteigen. Jemand schrieb hier im forum die kostenersparnisse durch die kleineren chips sind größer als die Mehrkosten durch die 7nm Technologie.


Kann gut sein, aber dafür müssten sie die Chips neu designen. Genaue Preise weiß keiner hier im Forum. Sie verkaufen die Chips in 12nm wie geschnitten Brot mit fetten margen.

Man wartet mit 7nm, bis man eh eine neue Generation bringt. Damit spart man sich die Arbeit für den Shrink. Zudem wird 7nm bis dahin auch im Preis noch sinken.
 
  • Gefällt mir
Reaktionen: MiniM3
Taxxor schrieb:
Weil, abseits von den Fertigungskosten, ein neues Design zu entwerfen auch eine Menge Geld kostet und man es bei Nvidia momentan einfach nicht nötig hat, da man AMD mit 12nm noch gut entgegenhalten kann.
Gut kann man zur 2070 Super nicht mehr sagen, Sie ist über dem Sweetspot und sauft im Vergleich zur 2070 schon nochmal Ordentlich mehr. Ist wie bei AMD die 590, hauptsache vorne sein, egal wie.

Die 2060 Super verbraucht mehr als die 5700 und die haben ca gleiche Leistung. Die 2070 ist im Vergleich aber eine super Karte und sehr effizient.

Kaeufer einer Vega, 1070 Ti, 1080 können sich lehnen und zuschauen, ist nicht viel interessantes für Sie.
 
muzafferamg58 schrieb:
Gut kann man zur 2070 Super nicht mehr sagen, Sie ist über dem Sweetspot und sauft im Vergleich zur 2070 schon nochmal Ordentlich mehr. Ist wie bei AMD die 590, hauptsache vorne sein, egal wie.
Die 2070 Super steht ja auch in der Leistung knapp über der Radeon VII, die nochmal mehr verbraucht.
 
Taxxor schrieb:
Die 2070 Super steht ja auch in der Leistung knapp über der Radeon VII, die nochmal mehr verbraucht.
Die Radeon 7 ist in meinen Augen keine richtige Gamer Karte und hat übertriebe Spannungen bekommen. Mit UV ist Sie bei 200-205W ca +-
Die 2070 Super sollte mit UV ein Tick besser sein 195W ca., aber im Vergleich zur 2070 mit UV (125-130W) sehen beide kein Land.
Bin deswegen etwas enttaucht von Nvidia, gut liegt aber eher am TU104 Chip.

Mal sehen, was bei Navi mit UV geht. Bin echt gespannt
 
Ich bin mal gespannt, ob es bei Navi ähnliche UV Möglichkeiten geben wird, auch wenn ich mir mehr wünschen würde, dass es die nicht gäbe und die Karten auch ab Werk besser laufen würden. Die TBP macht da aber wenig Hoffnung.
 
  • Gefällt mir
Reaktionen: NMA
Die Spezial Edition zeigt ja schon, dass die Karte nicht an der Kotzgrenze lauft mit dem Takt. UV + takt nach oben schrauben wird sicher Interessant. Denke, dass man da schon 50-60W rausholen kann min. mit UV.
 
Gerade für die Special Edition hätte ich mir ja bessere Spannungen gewünscht, aber die +75MHz werden direkt mit +10W TBP erkauft.
 
  • Gefällt mir
Reaktionen: NMA
Liegt wahrscheinlich auch daran, dass die damit eine größere Ausbeute für die Spezial Edition bekommen. Die können es ja auch wie bei Intel machen ansonsten xD
Der Gametakt ist ja auch niedriger, deswegen abwarten, aber der 7nm Hochleistungsprozess hat mir bis jetzt eher einen Beigeschmack hinterlassen^^
 
cunhell schrieb:
Der Chip kostet in der Herstellung das Gleiche!! Er ist nur entweder teildefekt oder kastriert und daher mit weniger Ausführungseinheiten ausgestattet.
Um solch einen Chip zu versorgen brauch ich eine passende Platine die nicht viel billiger als ein der 2080 sein kann.
1. Fehler.... Der Chip kostet das gleiche. Das ist falsch, da die Produktionskosten mit der Ausbeute, der Anzahl nutzbarer Chips sinkt. Nicht alle Chips die für eien 2070s in frage kommen, kommen wiederum für eine 2080 in frage. Würde ich sie alle in den Müll werfen würde das nicht nur die 2070s teurer machen, sondern auch die 2080. Dadurch sinkt der Ausschuss und damit die Produktionskosten pro Chip.

2. Fehler
Auch können mehr Chips produziert werden da ja jetzt auch die Nachfrage steigt. Um so mehr Hergestellt wird um so günstiger wird es. Da jetzt diese Chips nicht nur für die 2080 produziert werden können, sondern auch für die 2070s genutzt und verkauft werden können, können auch mehr in Produktions gegeben werden. Damit fählt auch der Produktionspreis pro Stück.

3. Fehler Das gleiche gillt auch für die Plattine. Um so öfter ich bestimmte Bauelement nutze, um so höhere Stückzahlen ich abnehme, um so günstiger wird es. Selbst wein keine Platine mehr über den Ladentisch gehen sollte, macht man quasi kein verlust weil auf schon vorhandene Bauelemente zurückgegrifen werden kann.

cunhell schrieb:
Komisch, bei der Fury war der RAM,von 4GB, der zum Release für fast wirklich alles gereicht hat, ein Thema.
Ein paar Jahre später in denen der Verbrauch an RAM deutlich zugenommen hat, ist es plötzlich kein Thema mehr weil Nvdia knausert.
4GB reichen nicht mal für FHD. Finde den fehler! 8 GB reichen für QHD. Und für 4k ist sowohl die Radoen wie auch die 2080 zu langsam. Finde den Fehler.

cunhell schrieb:
Ist nicht anderes als Resteverwertung. Eine Meisterleistung kann ich da nicht erkennen. Insbes da der Verbrauch ja zum Teil deutlich zugenommen hat, da größere Chips mit aufwendigerer Stromversorgung verwendet wurden. Kann man natürlich machen, aber meisterlich ist was anderes. Abgesehen davon ist es natürlich meisterlich, dass man jetzt die 2060 bringt, die man von Anfang an hätte bringen sollen. Ach halt, mehr als die 6GB Ram braucht man ja nicht, oder so ähnlich. Ich frage mich allerdings, warum man die dann jetzt bringt wenn man sie denn nicht braucht.
Die Resteverwertung senkt die Herstellkosten und damit den Verkaufspreis. Um so höher die Herstellkosten, um so mehr muss der Kunde bezahlen. Für die Leute die unbedingt QHD nutzen möchten und nicht das Geld für eine 2070 haben ist die 2060s eine gute Option. Wer das nicht braucht und weniger bezahlen möchte kann noch immer zur 2060 ohne super greifen. Die ist Sparsamer und nochmal günstiger.

cunhell schrieb:
Wenn DXR mal flächig verwendet wird, wird man mit den Karten unterhalb der 2080Ti nichts mehr reissen, da die Anforderungen an die Grafikkarte höher werden und der VRAM-Verbrauch bei hohen Details sicher auch weiter zunehmen wird.
Mal abgesehen davon scheint Nvidia der Meinung gewesen zu sein, etwas tun zu müssen. Hätten sie sich mit ihrem Mittelklasseportfolio sicher gefühlt, hätten sie nicht reagiert.

Cunhell
Und wen interssiert das? Ich werde genau dann eine DXR Karte kaufen wen das Spiel auf dem Markt ist welches ich mit Raytracing nutzen möchte. Die 95% der anderen Spiele ist mir dann egal. Sprich ob Flachendeckend oder nicht, das interessiert doch niemanden.Die Karten von nVida haben ja ggenüber AMD keine nachteile. Nur mehr features. Und was Raytracing mit allen Spielen anstellt, welches selbst alte Spiele den weiderspielwert steigert, macht DXR für mich auf jedenfall für ein Kaufkriterum. Und wie gesagt, dadurch braucht man nur ein einziges Spiel welches man selber mit DXR spielen möchte.

Und die behauptung das mann mehr als eine 2080ti bvräcuthe ist auch total aus der Luftgegriffener unsinn... Wen man sich die Entwicklung der letzten 10 Jahre betrachtet. Äußert unrealitsich.
 
Zuletzt bearbeitet:
MiniM3 schrieb:
Okay..
Verstehe dann aber nicht warum sie nicht auf 7nm umsteigen. Jemand schrieb hier im forum die kostenersparnisse durch die kleineren chips sind größer als die Mehrkosten durch die 7nm Technologie.
Alten Gerüchten zu folge sollten die jetzigen Karten schon in 7nm sein, aber nvidia hat sich wegen Kostengründen doch im letzten Moment dagegen entschieden. Außerdem gab es zu dem Zeitpunkt der 2000er Reihe keine Konkurrenz. Wozu dann auf Marge verzichten? Amd wiederum wollte in allen Bereichen so viel wie möglich aufholen und nutzen dafür neuere Fertigungsverfahren. 5nm wird aber nur noch in bis zu 10% mehr Leistung resultieren weil die shrinks immer kleiner werden im Vergleich(Samsung Angaben). 12nm zu 7nm bringt hingegen über 20%. Amds Möglichkeiten weiter zu shrinken werden weniger, weil es immer weniger bringt und teurer ist. Zudem auch wie erwähnt wurde, nvidia den selben Auftragsfertiger wie amd benutzt und sich den Vorteil auch kaufen kann.
 
  • Gefällt mir
Reaktionen: MiniM3
Shoryuken94 schrieb:
Zudem wird 7nm bis dahin auch im Preis noch sinken

NVidia wird höchstwahrscheinlich den 7nm Prozess gar nicht nutzen, sondern gleich auf den 7nm+ EUV umschwenken. Deshalb hat man auch mit Samsung Verträge abgeschlossen, die sind bei der EUV Fertigung noch einen Schritt weiter als TSMC.

Neben den hohen Kosten, dürfte die Ausbeute beim aktuellen 7nm Prozess vermutlich bei weitem nicht so gut sein, wie bei der ausgereiften 12nm Fertigung. Das ist bei den riesigen Chips ein Problem und wird wahrscheinlich erst mit EUV besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und MiniM3
xexex schrieb:
Neben den hohen Kosten, dürfte die Ausbeute beim aktuellen 7nm Prozess vermutlich bei weitem nicht so gut sein, wie bei der ausgereiften 12nm Fertigung. Das ist bei den riesigen Chips ein Problem und wird wahrscheinlich erst mit EUV besser.
Ist eigentlich eher ne Frage des Patternings. Die Ausbeute ist schon ganz gut, der 12er wird trotzdem besser laufen. Allerdings dauert DUV einfach zu lange. Hab neulich gelesen, daß sich mit EUV pro Layer die Zeit eines Wafers um 4-6Tage verkürzen kann. Also einfach mehr Durchsatz und kürzere Herstellungszeiten.
 
Die kommen vorerst nur als Referenzdesign raus, Custom-Modelle kommen erst in einem Monat, voll lahm.
 
Zurück
Oben