News AMD Radeon RX 7900 XTX & 7900 XT: RDNA-3-Grafikkarten sollen Anfang Dezember erscheinen

Was unterm Strich zählt ist die eigene Bemessung des Wertes und die eigenen finanziellen Möglichkeiten. Ich verstehe nicht warum so viele Leute ein Problem damit haben.

Was interessieren da irgendwelche Margen oder Herstellungskosten.

Die 4090 z.B. ist eine Megakarte, mind. doppelt so schnell wie meine optimierten 6900xt oder 3080 bei weniger Verbrauch, jede Menge Vram zum Arbeiten, Features sind super...es gibt eigentlich Nix zu meckern ausser dem hohen Preis wenn man die Karte nicht prof. einsetzt, denn da wäre sie eher sogar günstig. Da hatte ich nach den Gerüchten deutlich Schlechteres erwartet. Trotzdem werde ich wohl in mich gehen ob ich die Karte behalten werde.

Bin auch gespannt was AMD diesmal bieten wird, habe aber wenig Hoffnung dass wir da ein konkurrenzfähiges Produkt sehen werden im Highend. Abseits davon wüsste ich jetzt auch nicht wo man nicht auch mit aktueller Hardware hinkäme und wieso man stärkere Karten fordert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mkay87
Grundgütiger schrieb:
Wieviel der Aktuelle 4090 Kühler mehr kostet, kann wohl niemand genau sagen.
Es scheint allerdings sehr wenig zu sein, sonst wäre er nicht drauf.

Schaut doch mal was ein GPU Kühler bei einer Abnahme von 10k stk. kostet.
Der Vergleich hinkt etwas, da dort keine Vapor Chamber verbaut ist, welche alleine ja schon deutlich teurer ist.
Das mit den 20-30€ habe ich bei Youtube gesehen (war eine Randnotiz), entweder bei Igor oder Gamersnexus.
Ergänzung ()

Tornavida schrieb:
Bin auch gespannt was AMD diesmal bieten wird, habe aber wenig Hoffnung dass wir da ein konkurrenzfähiges Produkt sehen werden im Highend. Abseits davon wüsste ich jetzt auch nicht wo man nicht auch mit aktueller Hardware hinkäme und wieso man stärkere Karten fordert.
Wer nicht so viel auf RT Wert legt wird ein sehr gutes Produkt bekommen. Gestern habe ich etwas von 1500 Punkten Vorsprung bei 3D Mark gesehen.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Onkel Föhn
Ob das was wird…

Wann fällt eigentlich das NDA?


Gruss
 
  • Gefällt mir
Reaktionen: Unnu
Das darf man nicht sagen! Die NDA enthält normalerweise immer Klausel dafür. Sprich, wenn die Tests und Infos kommen, fällt die dazugehörige NDA.
Ich denke der Artikel zur RDNA 3 Präsentation wird kurz nach Abschluss der Übertragung online sein.
 
'Xander schrieb:
Ob das was wird…

Wann fällt eigentlich das NDA?


Gruss
I.d.R. war spätestens einen Tag vorher gängig bezüglich echter Tests
 
Aber
.Sentinel. schrieb:
USER=755575]@Grundgütiger[/USER] unten.
Siehe oben. Und genau so sieht es für Unternehmen doch eben auch aus. NVIDIA bleibt von den 64% derzeit laut Analysten irgendwas zwischen 25 und 30% übrig. Und selbst davon müssen noch nachgängige Kosten abgezogen werden.
Diese Bürde trägt auch ein AMD, zumal sie über eine lange Zeit hinweg ordentlich Schulden durch negative Bilanzen angehäuft haben. Somit ist AMD ebenso wie alle anderen gezwungen, die Preise oben anzusiedeln.
Sieht man ja z.B. auch an den Prozessoren.
Das mit den Schulden ist erledigt. Das was man noch hat, hat man um Steuern zu...
AMD siedelt die Preise bei den Prozessoren hoch an, weil sie es können.
Im produktiv Einsatz haben sie sogar die stärkste CPU am Markt. Da hat früher Intel generell 1k aufgerufen... Wir bekommen sie unter 1k... AMD ist also historisch gesehen nicht besonders teuer...
Ergänzung ()

Blumentopf1989 schrieb:
Wer nicht so viel auf RT Wert legt wird ein sehr gutes Produkt bekommen. Gestern habe ich etwas von 1500 Punkten Vorsprung bei 3D Mark gesehen.

Wo hast du was gesehen? Quelle?
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Unnu und ThePlayer
Singha 1962 schrieb:
dann würde ich mir erst gar keine RX 7000er holen und die alte weiterbetreiben
Doch - macht Sinn. Ich bekomme mehr Leistung bei gleichem Stromverbrauch im Vergleich zur 6900XT. Aber ich habe Zeit und kann entspannt die Preisentwicklung beobachten.
 
Richtig, das haben viele aber noch nicht verstanden. Bei 300W (und auch weniger) ist die 4090 ja bekanntermaßen noch massiv schneller als eine 6900 XT, und eine 7000er wird es natürlich auch sein.
 
th3o schrieb:
Hoffe dass die 7900XT auf einer Augenhöhe ist mit der 4090 in der raster performance und nicht ganz so hinterherhinkt beim raytracing. Dafür dann paar hundert € günstiger.
Statt die 2000€ für die 4090 dann 1500 oder so.
Oder wieder zum normalpreis 1500 ist ja immernoch wucher
 
Blumentopf1989 schrieb:
Wer nicht so viel auf RT Wert legt wird ein sehr gutes Produkt bekommen. Gestern habe ich etwas von 1500 Punkten Vorsprung bei 3D Mark gesehen.
Naja den Vorschuss würde ich AMD heute nicht mehr gewähren da RT jetzt nicht mehr Neuland ist und ebenso erwarte ich etwas Gleichwertiges zu DLSS wenn ich über einen 1000er für eine GPU zahlen soll. Da müsste der Preis aber schon sehr verlockend sein wenn ich im Highend auf all Das verzichten soll wenn das überhaupt in Frage käme. Nur mit RT Leistung wird man in diesem Segment nur sehr schwer die Klientel abholen denke ich und da ist man mit einer 700/800 Euro 6900xt/3080+ ja auch net schlecht bedient wenn Einem das reicht .
 
  • Gefällt mir
Reaktionen: Unnu
Novasun schrieb:
Wo hast du was gesehen? Quelle?
Gestern bei Youtube, war auf Englisch aber ich finde es nicht mehr.
 
ArrakisSand schrieb:
Es ist noch anzumerken, dass es sich dabei nur um die durchschnittliche Bruttomarge handelt.
Es geht auch darum, dass die Marge bis auf das letzte Quartal tendenziell leicht gestiegen ist.
Dass also Nvidia nicht unter einem Kostendruck steht.

Der Punkt ist in USD ist die 4090 nur 100 USD teurer geworden, während die 3080 massiv teurer geworden ist, also geht es bei den Preisen nicht um höhere Kosten.

Nvidia hat wie auch AMD das Problem, dass der Absatz der GPUs massiv eingebrochen ist. Bei Nvidia sind noch jede Menge RTX3000 GPUs in der Pipeline. Die sollen zu einem möglichst guten Preis verkauft werden.

Wie es bei AMD aussieht ist unklar, da sie das Problem gut verstecken konnten. Hier sieht man es nur daran, dass die Grafikkarten teilweise massiv unter dem ursprünglichen UVP verkauft werden.

Es ist klar, dass die Unternehmen ihre Produkte zu einem möglichst guten Preis verkaufen müssen. Ebenso ist klar, dass neben den reinen Produktionskosten auch noch weitere Ausgaben anstehen. Ebenso ist klar, dass die unternehmen Gewinn mach müssen. Aber man muss doch nicht jeden Unsinn nachplapern den die Unternehmen von sich geben.

Falls Du zeit für zwei launige Vorträge hast zum Thema Moore'Law hast:

HC31-K2: What Will the Next Node Offer Us?​

Keynote 2, Hot Chips 31 (2019), Tuesday, August 20, 2019
Dr. Philip Wong, VP Corporate Research, TSMC The power-performance-area (and cost) advances in the last five decades have mostly been achieved through dimensional scaling of the transistor. What will the semiconductor industry do after dimensional scaling of the silicon transistor crosses the nanometer threshold, from 16/12 nm, 10 nm, 7 nm, 5 nm, 3 nm, 2 nm, 1.4 nm to sizes below a nanometer? Will these advanced logic technologies continue to provide the energy efficiency required of future computing systems? Will new applications and computation workloads demand new device technologies and their integration into future systems? These are some of the most pressing questions facing the semiconductor industry today. The path for IC technology development going forward is no longer a straight line. The need for out-of-the-box solutions ushers in a golden age of innovation. I will give an overview of the memory and logic device innovations that are in the research pipeline today. Future electronic systems require co-innovation of the computing architecture and device technology. Dr. Wong speculates on how they will be integrated into future electronic systems.

https://eecs.berkeley.edu/research/colloquium/190918

Moore’s Law is Not Dead

EECS Colloquium​

Wednesday, September 18, 2019​

306 Soda Hall (HP Auditorium)
4:00 - 5:00 pm

Jim Keller​

Senior Vice President
General Manager, Silicon Engineering Group
Intel Corporation

Jim Keller explains why "Moore’s Law is Not Dead," 9/18/19

Abstract:​

Moore’s observation has continued to be challenged and questioned. And yet, today hundreds of billions of dollars are being invested in silicon technology that will enable feature sizes just a few atoms wide. To understand this unabated growth in computing, one needs to deconstruct the Moore’s Law transistor count exponential as the output of numerous individual innovations across the computing stack - in silicon process technology, in integrated circuit design, in microprocessor architecture and in software. To take advantage of exponentially growing transistor counts, every layer of the computing stack will continue to be redefined over and over again. While it is true that certain vectors like transistor performance and power are showing diminishing returns, other vectors like transistor architecture, microprocessor architecture, software and new materials are showing increasing returns. The combination of these will continue to make life interesting and challenging for hardware and software designers alike.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Unnu
Tornavida schrieb:
Naja den Vorschuss würde ich AMD heute nicht mehr gewähren da RT jetzt nicht mehr Neuland ist und ebenso erwarte ich etwas Gleichwertiges zu DLSS wenn ich über einen 1000er für eine GPU zahlen soll. Da müsste der Preis aber schon sehr verlockend sein wenn ich im Highend auf all Das verzichten soll wenn das überhaupt in Frage käme.
Keine Frage ist es schade, dass AMD es bislang nicht geschafft hat dort den Anschluss zu finden, doch mal ehrlich, wie oft nutzt man RT aktuell wirklich?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
daknoll schrieb:
Raytracing ist sowieso schwer überbewertet.
Ray Tracing ist der Heilige Gral der Grafikentwickler, dazu hatte ich den den letzten Jahren auch immer wieder Material verlinkt. Wie @ThePlayer auch skizzierte, ist das der einizge und folgerichtige Weg zu mehr Realismus und weiterer Evolution des Grafikdesigns und damit der Weg zu vertiefender Immersion und Atmosphäre.

Klassisches Rasterizing ist pre baked Licht, Schatten und Reflexionen, sieht künstlich aus, wirkt künstlich und wird irgendwann folgerichtig zu Grabe getragen.
Bis die Einsteigs und Low End Gaming GPUs und sogar APUs die RT Power einer heutigen 4090 haben sind wir sicher im längst Jahre 2030, das wird nochmal 4-5 Generationen dauern.
Die Konsolen werden hier auch eine ROlle spielen, vor allem eine Playstation 6 in 3 oder 4 Jahren.

Aus diesem Grunde gehe ich davon aus, dass RDNA3 ebenfalls im Raytracing deutlich zulegen wird.
Je prevalenter Raytracing wird, desto eher können wir vom ollen, künstlichen Rasterizing endlich weg.
Es hat seine Zwecke erfüllt, ist blass und langweilig im Kontrast. Das kann weg.
Sobald niemand mehr beklagen kann, dass die fps droppen.

Die 4090 zeigt ja, was im Raw Raytracing bereits möglich ist als Ausblick der vorerst überteuerten Top End GPU.
DLSS und FSR werden das noch weiter pushen.

Wir sind auf dem Weg.
Ergänzung ()

Blumentopf1989 schrieb:
Keine Frage ist es schade, dass AMD es bislang nicht geschafft hat dort den Anschluss zu finden, doch mal ehrlich, wie oft nutzt man RT aktuell wirklich?
Henne und Ei Prinzip. ^^

Je mehr Raytracing fähige GPUs im SPielermarkt sind, desto mehr Relevanz kommt per se.
Die Konsolen sind, wenn auch limitiert, hier ja auch ein Türöffner.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Wintermute und Unnu
Laphonso schrieb:
Wir sind auf dem Weg.
Ergänzung ()


Henne und Ei Prinzip. ^^

Je mehr Raytracing fähige GPUs im SPielermarkt sind, desto mehr Relevanz kommt per se.
Die Konsolen sind, wenn auch limitiert, hier ja auch ein Türöffner.
Ist so, denke mit der nächsten Konsolen Generation wird es sich dann durchsetzen, also min. noch eine weitere Graka Generation.
 
  • Gefällt mir
Reaktionen: Laphonso
Ano_Dezimal schrieb:
allgemeine Volksmeinung sowieso eher negativ der 4080 gegenüber ist.
Naja, das was da hätte rausgehauen werden sollen, insbesondere die Kleinere war ja auch Volksverarsche, zumindest eben jener Meinung nach.
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: Onkel Föhn und Laphonso
Tornavida schrieb:
Die 4090 z.B. ist eine Megakarte, mind. doppelt so schnell wie meine optimierten 6900xt oder 3080 bei weniger Verbrauch, jede Menge Vram zum Arbeiten, Features sind super...es gibt eigentlich Nix zu meckern ausser dem hohen Preis wenn man die Karte nicht prof. einsetzt, denn da wäre sie eher sogar günstig.
Doch da gibt es etwas zu meckern. Die 4090 ist völlig überteuert und qualitativ minderwertig, so das sie einem abfackelt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Helge01 schrieb:
Damals hatte ich mir einen 4k TV mit HDMI 2.0 als PC Bildschirm gekauft. Zum spielen und arbeiten hat mir diese größe wesentlich mehr zugesagt wie z.B. 27 oder 32 Zoll. So ein Bildschirm musste natürlich gut befeuert werden - die GTX 980TI war da ideal, da TV und GPU 4k/60hz/4:4:4 über HDMI 2.0 unterstützten. Mittlerweile ist es ein 49 Zoll mit HDMI 2.1 sowie 120hz/Gsync (vrr) Unterstützung
 
Tom_111 schrieb:
Doch da gibt es etwas zu meckern. Die 4090 ist völlig überteuert und qualitativ minderwertig, so das sie einem abfackelt.
Und wie wurden die 4090 betrieben? Alle mit Adaptern, ja ich weiß es geht kaum anders. Die Adapter wurden zudem meist noch x fach gebogen, meist im gesteckten Zustand. Der neue Standard ist nicht gerade toll, das will ich nicht abstreiten, meist waren die Leute mit dem Brandschaden aber mit einer gewissen Mitschuld behaftet.
 
Zurück
Oben