News Radeon-Grafikkarten: RX 5950XT ist zumindest schon ein Platzhalter

[wege]mini schrieb:
die frage der zeit kann dir natürlich in abhängigkeit zu dem von dir gewünschten preis keiner sagen.
Ehrlich gesagt habe ich keine Frage gestellt und wollte auch keine Glaskugelvorhersage.
Aber danke für deinen Kommentar.
 
  • Gefällt mir
Reaktionen: Yar
Chillaholic schrieb:
Ich will ne Karte die sich spürbar (ab ~30% was so der 2080 entspricht) von meiner Karte abhebt aber nicht mit Müll-Features wie RT überteuert daher kommt, ja.

Eine GTX1080 hat zum Release so viel gekostet wie heute eine RTX2080 (einige Modelle liegen preislich auch darunter) mit größerem Feature-Set. Meine EVGA GTX1080 FTW ACX 3.0 hat zum Release 769€ gekostet. Preislich sind die 1080er Karten erst massiv gesunken als die 1080Ti den Markt betrat. Diese Konstellation fiel bei Turing weg.

649€ für eine Gainward RTX2080 mit Turing-Architektur halte ich persönlich nicht für überzogen. Neben RT kam Turing ja auch mit mehr Neuerungen auf den Markt als nur Raytracing-Cores zu besitzen. Du kannst zwar sagen, dass du keinen Nutzen für Raytracing bei dir siehst, doch Raytracing ist alles andere als Müll.

Wenn man selbst nichts damit anfangen kann, dann sagt man das halt einfach so. Das macht aber eine Technologie nicht automatisch nutzlos oder degradiert sie zu Müll. Das ist einfach nur ignorantes Gehabe.

Vlt. liefert dir AMD mit Navi 21 nächstes Jahr eine Karte, von der du überzeugt bist.
Ob die Karte aber wesentlich günstiger wird als eine 2080 Super bleibt mal dahingestellt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
SKu schrieb:
Meine EVGA GTX1080 FTW ACX 3.0 hat zum Release 769€ gekostet. Preislich sind die 1080er Karten erst massiv gesunken als die 1080Ti den Markt betrat. Diese Konstellation fiel bei Turing weg.
Das ist richtig. Zumal deine EVGA auch schon immer eines der eher teureren Modelle war. Mittlerweile sinds 9 Monate nach Release, da lag die 1080 schon deutlich unterm Release-Preis. Mal schauen wie sich Turing nach dem "Super" Release entwickelt.

SKu schrieb:
649€ für eine Gainward RTX2080 mit Turing-Architektur halte ich persönlich nicht für überzogen. Neben RT kam Turing ja auch mit mehr Neuerungen auf den Markt als nur Raytracing-Cores zu besitzen.

Ist auch normal, Nvidia kommt mit jeder Serie mit Neuerungen, das bedeutet aber nicht, dass man für diese vollkommen üblichen Neuerungen die Karten massiv verteuern muss. Speicherkompression, Verbesserungen am NVENC Codec usw. sind alles Features die schon in den vorigen Serien ohne massive Preisanhebungen geliefert wurden. Ich glaube halt ich bin damit auch nicht alleine und ein Großteil der potentiellen Käufer interessiert sich gar nicht für RT.
 
Zuletzt bearbeitet:
Baya schrieb:
16GB AMD GraKa mit ca. 50% mehr Leistung als ne 2080Ti -> Shut up and take my Money. :evillol:
Kauft doch ausser Dir und wenigen anderen eh keiner :(
Auch ich wünsche mir ne High End Karte von TeamRed, aber nachher kostet die Entwicklung 500mio USD und AMD kann mal gerade die kosten decken.. Nee so läuft das nicht. Dann lieber wie jetzt mit eingebautem Fallschirm.. Auch wenn wir Technik Fans sagen, zu teuer.. Wir sind leider nicht der Maßstab
 
5800 und 5900 werden erst nächstes Jahr kommen und wohl die Karten sein, die Raytraicing in Hardware an Board haben und dann auch in den neuen Konsolen verbaut sind.
 
estros schrieb:
Wenn du dich echt nicht vom Preis lösen kannst, kann ich da auch nichts tun.
Der spielt jedenfalls keine Rolle und wird klassischerweise der Marktsituation angepasst.

Dann nenne ich sie halt nicht Mittelklasse, sondern Mainstream-Karten. Besser?
 
Vitali.Metzger schrieb:
Bin mal auf die Navi 21 gespannt was die so leisten wird. 2080ti Leistung für 750€ wäre ein durchaus faires Paket, im Vergleich zu den Mondpreisen von den grünen Agenten.

Was soll daran 2020 besonders sein?
Nächstes Jahr wird es wohl auch eine 3080 mit 2080ti Leistung für 700-800,- geben.
Da hebt sich doch kein Navi21 von ab wenn man im selben Preis/Leistungsbereich landet?

Wäre jetzt, 2019, ein wesentlich besseres Preis/Leistungsverhältnis zur 2080ti. Aber nicht wenn nächstes Jahr auch die Konkurrenz wieder neue Produkte bringt.

Leute haben schon 2080 Leistung für 500,- erwartet bei der 5700X.

Letzten Endes wird AMD auch nur im selben Preisbereich wildern wie die grüne Konkurrenz.
 
SKu schrieb:
Wenn man selbst nichts damit anfangen kann, dann sagt man das halt einfach so. Das macht aber eine Technologie nicht automatisch nutzlos oder degradiert sie zu Müll. Das ist einfach nur ignorantes Gehabe.

Es ist nichts ignorantes dran, wenn man sagt das man eine Technik mitbezahlen muss die man weder braucht noch will. Das RT nicht schlecht ist bestreitet ja keiner, aber nicht alle wollen/brauchen das auch.
Diesen RGB Müll muss ich auch jedesmal mitbezahlen obwohl ich ihn nicht will.
 
  • Gefällt mir
Reaktionen: Chismon und Chillaholic
Eine 5900XT wär schon was feines als RVII Ersatz, aber ich denke das ist, mehr Hoffnung als realistisch....
 
Chillaholic schrieb:
Ist auch normal, Nvidia kommt mit jeder Serie mit Neuerungen, das bedeutet aber nicht, dass man für diese vollkommen üblichen Neuerungen die Karten massiv verteuern muss. Speicherkompression, Verbesserungen am NVENC Codec usw. sind alles Features die schon in den vorigen Serien ohne massive Preisanhebungen geliefert wurden. Ich glaube halt ich bin damit auch nicht alleine und ein Großteil der potentiellen Käufer interessiert sich gar nicht für RT.

Es ist ja nicht so als hätte Nvidia einfach nur mehr CUDA-Cores auf die neuen Karten geklatscht. Vergleichen mit deiner GTX1080 besitzt eine 2080 lediglich 15% mehr CUDA-Cores. Nvidia hat mit Turing die Shader-Effizienz auch massiv verbessert im Vergleich zu Pascal. Mit Turing kamen auch neue Shading Advancements, die Pascal einfach nicht besitzt - z.B. Mesh Shading.

Das sind dann aber so Sachen, wenn Entwickler auf den neuen Features aufbauen, dann heißt es immer direkt Nvidia optimiert ihre alten Karten nicht mehr. Wo aber keine Basis existiert, kann eben auch nichts optimiert werden.
Ergänzung ()

cookie_dent schrieb:
Es ist nichts ignorantes dran, wenn man sagt das man eine Technik mitbezahlen muss die man weder braucht noch will. Das RT nicht schlecht ist bestreitet ja keiner, aber nicht alle wollen/brauchen das auch.
Diesen RGB Müll muss ich auch jedesmal mitbezahlen obwohl ich ihn nicht will.

Es ist nicht ignorant zu sagen, dass man nicht für ein Feature zahlen möchte, welches man nicht nutzt.
Es ist aber ignorant zu sagen, dass ein Feature Müll wäre, nur weil es vorhanden ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
SKu schrieb:
Nee man hat zusätzlich auch noch RT und Tensor-Cores raufgeklatscht, die laut Auswertung der Die-Shots aber insgesamt nicht all zu viel Fläche einnehmen:
https://www.hardwareluxx.de/index.p...nsor-cores-belegen-nur-wenig-chipflaeche.html
Klar gab es noch mehr Änderungen, aber ob diese den Preis rechtfertigen und ob die Entscheidung alle Turing-Karten oberhalb des Einsteigerbereichs mit RT zu versorgen fair und sinnvoll war, ist halt ne andere Frage.

SKu schrieb:
Es ist aber ignorant zu sagen, dass ein Feature Müll wäre, nur weil es vorhanden ist.

Für mich ist es 100% sinnlos und ich habe keine Verwendung, ich nenne es so weil Nvidia mir keine Karte ohne diese Features anbietet.
 
Zuletzt bearbeitet:
Nachdem es bei den Grünen ja geklappt hat mit "Mehr Leistung/neues Feature = höhere Preise" und nicht mehr wie bis vor 3 Jahren "Leistung der höheren Vorgängerkarte zum Preis der Vorgängerkarte" wird sich NVidia das auch nicht mehr nehmen lassen.

Da es keine echte Konkurrenz gibt und AMD sich bequem in gemachte Preisbett legen kann mit "Performance ähnlich zu den Grünen = Preis ähnlich zu den Grünen" wird AMD die Preise auch nicht mehr nach unten ziehen, erst Recht da die Technik ja auch teurer wird. Erst wenn AMD es schafft wie bei den CPUs so günstig zu produzieren (z.B. mit GPU Chiplets) dass die Marge trotz geringeren Preises wieder steigt, dann kann es wieder Kampfpreise geben. Aber selbst mit ähnlicher Leistung und 20% weniger Kosten werden die Meisten zu den Grünen greifen. Hier wirkt einfach der Mindshare und das Marketing.

Bis dahin wird NVidia auch nächstes Jahr "Mehrkosten = Aufpreis" spielen. Als "Entschuldigung" wird entweder 7nm als Kostentreiber oder ein neues Super Feature kommen. Damit wird die 3080 wohl zum Preis der jetzigen 2080ti rauskommen, d.h. alle Klassen werden wieder eins höher rücken.

Alle werden sich beschweren, aber gekauft wird trotzdem "mangels Alternative".

Nur mal mein Blick in die Glaskugel.
 
n1ghtk1n schrieb:
Dann schau dir doch, bezogen auf AMD/ATI, die Mittelklasse-Releases der letzten Jahre an:

  • HD 5830 erschien im Februar 2010 für 240 Dollar
  • HD 6870 im Oktober 2010 für 240 Dollar mit 40% Performanceanstieg nach 8 Monaten(!)
  • HD 7850 im März 2012 für 250 Dollar - 25% Steigerung zur 6870 - nach 1,5 Jahren
  • R9 280 im März '14 für 250 Dollar - 40% Mehrleistung zur 7850 nach zwei Jahren
  • R9 380X im November '15 für 230 Dollar - 20% Mehrleistung zur R9 280 in 1,5 Jahren
  • RX 480 im Juni '16 für 240 Dollar - 45% schneller als die R9 380X nach 7 Monaten

Deine Rechnung geht hinten und vorne nicht auf.

58XX (Cypress) war der dickste Chip der Gen. Das ist keine Mittelklasse,
6870 (Barts XT) passt,
7850 (Pitcairn Pro) wäre auch Mittelklasse, hättest aber die 7870 nehmen müssen.
Die R9 280 (Tahiti) ist Resteverwertung von der 7970 Ghz und damit mit 384 BIT Si sicher keine
Mittelklasse und die 285er ist doch auch langsamer.
Die R9 380X (Antigua) passt wieder als Mittelklasse, wobei es dieses Mal sogar zwei Chips oben drüber gibt.
Die RX 480 (Polaris 10) passt wieder, wobei es da ja noch RX580 und RX590 auf derselben Basis gegeben hat die nochmals schneller sind und auch der Mittelklasse zugeordnet werden müssen. Deine Rechnung also wieder zunichte machen.
 
@Chillaholic: Ich verstehe was du meinst... RT hab ich noch nie genutzt.
...aber das ist doch auch überall so. High-End Mainboards haben WIFI... welcher Enthusiast zockt im WLAN?

Chismon schrieb:
AMD/RTG wohl finanziell und produktionstechnisch (noch) nicht stemmen koennen
Was soll denn AMD produzieren? (Die haben keine Fabriken [mehr])
Die Fragen wäre eher was TSMC an 7nm Kapazitäten hat und wieviel Vorlauf es gab.
 
modena.ch schrieb:
Deine Rechnung geht hinten und vorne nicht auf.

58XX (Cypress) war der dickste Chip der Gen. Das ist keine Mittelklasse,
6870 (Barts XT) passt,
7850 (Pitcairn Pro) wäre auch Mittelklasse, hättest aber die 7870 nehmen müssen.
Die R9 280 (Tahiti) ist Resteverwertung von der 7970 Ghz und damit mit 384 BIT Si sicher keine
Mittelklasse und die 285er ist doch auch langsamer.
Die R9 380X (Antigua) passt wieder als Mittelklasse, wobei es dieses Mal sogar zwei Chips oben drüber gibt.
Die RX 480 (Polaris 10) passt wieder, wobei es da ja noch RX580 und RX590 auf derselben Basis gegeben hat die nochmals schneller sind und auch der Mittelklasse zugeordnet werden müssen. Deine Rechnung also wieder zunichte machen.

Hast ja Recht.
Dann sieh es als Aufzählung der gebotenen (Mehr-)Leistung in der Mainstream-Klasse von 200 bis 300 Euro. (zum Releasezeitpunkt, sonst könnte man ja auch Vega mit aufführen)
Ungeachtet der jeweilig aktuellen Klassifizierung innerhalb des angebotenen Portfolios.
 
War bei der HD 6000 Serie doch auch so.
Erst kamen die HD 6850/70 und danach erst 6950/70..
 
  • Gefällt mir
Reaktionen: .Sentinel.
Mutiert eigentlich mittlerweile jeder AMD/Intelthread/Nvidiathread zum "Intel/Nvidia-Bashing-AMD ist so geil-thread"? Man liest in jedem Thread den gleichen Quatsch :(

Zum Thema:
Ich frage mich, warum AMD keine eigene (neue) Nomenklatur wählt, und stattdessen Zahlen wählt, die es bei Nvidia und auch bei AMD schon gab? Anstatt einfach eine 680/685/690 rauszubringen. Verstehe nicht, warum man das Schema überhaupt wechselt.
Ergänzung ()

n1ghtk1n schrieb:
429 Dollar soll die 2060 Super kosten. Tolle Midrange. Genau wie die maßlos überteuerte 5700xt
Wo hast Du den Preis her?
hier ist von 249 Dollar die Rede
https://www.guru3d.com/news-story/r...force-rtx-2060-(249)2070-(399)2080-(599).html
399 für die 2070S, 599 für die 2080S
 
  • Gefällt mir
Reaktionen: QShambler
estros schrieb:
Da war meine derzeitige 1080 ti ein scheiß P/L-Wunder dagegen. Ich lach mich kaputt.

Ja damals hab ich mich auch gewundert übern Preis der GP102 wo doch GP104 das erste Jahr der totale wucher war. Waren aber auch nur 3-4 Monate wo es gute 1080Ti Cusotms für um die 630€ gab.
RX480 war auch eher zu launch der 1080/1070 relvant, und dagegen war die P/L ok, bis die miner aufkreuzten.
Wie gut das NV das mit TU102 mehr als korrigiert hat. :D
 
Che-Tah schrieb:
... soll denn AMD produzieren? (Die haben keine Fabriken [mehr])
Die Fragen wäre eher was TSMC an 7nm Kapazitäten hat und wieviel Vorlauf es gab.

Das ist schon klar, nur die Entscheidung fuer die Produktion liegt bei AMD/RTG, nicht bei TSMC und letztere muessten natuerlich ausreichend Kapazitaeten haben, aber fuer so viele GPUs auf einmal ist m.E. bei AMD/RTG kein Markt vorhanden, denn sie sind nun einmal nicht nVidia (haben keinen entsprechenden Marktanteil), ganz zu schweigen von Intel, die sich ein groesseres Portfolio eben leisten koennen.
 
Zurück
Oben