News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht

Nighteye schrieb:
Da die 3090ti viel teurer war, und sogar eine Generation älter ist und beim Corona & Mining Wahnsinn auch für über 3600€ verkauft wurde ist es kein wunder.
Anhang anzeigen 1560646


RX7900XTX zur gleichen Zeit.
Anhang anzeigen 1560647
Die 3090ti wurde im März '22 vorgestellt und wurde zum Zeitpunkt den du für den Preisvergleich herangezogen hast schon lange nicht mehr produziert.....

Ich will das aber jetzt auch mit dir nicht tot diskutieren, eine einfache Korrektur deines "AMD = arme Leute" Statements hätte es eigentlich getan, so verstrickst du dich gerade in vogelwilde Vergleiche zur Steam-Statistik.

Danke @ETI1120
Einiges davon kannte ich noch nicht.
 
  • Gefällt mir
Reaktionen: Quidproquo77
The1whoknocks schrieb:
Ich will das aber jetzt auch mit dir nicht tot diskutieren, eine einfache Korrektur deines "AMD = arme Leute" Statements hätte es eigentlich getan...

Wie jetzt? War 'AMD' jetzt nicht die Abkürzung für 'Arme-Leute- Devices'?
:mussweg:
 
  • Gefällt mir
Reaktionen: eXe777, JarlBallin und MaverickM
blackiwid schrieb:
Wenn das was du sagst stimmen würde müsste ja jede gen doppelt so teuer werden...
Es geht ja nicht um die Kosten für den DIE. Die steigen natürlich auch, selbst wenn der Chip kleiner wird. Mit 3nm könnte es tatsächlich sein, dass der Preis pro Transistor leicht fällt. Das hilft aber nicht, weil sich die Kosten für das Auflegen des Chips mit jedem Node praktisch verdoppelt. Bei Ampere sprach Jensen noch von 2-3 Milliarden Dollar für das Entwickeln und Auflegen einer Chipfamilie. Bei Ada redet man von ca. 5,2 Milliarden und bei Blackwell von 10 Milliarden.
Für einen einzelnen Chip sieht es wohl ungefähr so aus: 3DCenter : Chip-Entwicklungskosten bis hinunter zum 2nm-Node
AMD verdient vielleicht 1 Milliarde pro Jahr mit der sie spielen könnten, aber die Möglichkeiten von Nvidia vergrößern sich mit jedem Node, sie noch mehr Verluste essen zu lassen, wenn sie einen Preiskrieg beginnen würden. So einfach würde sich Nvidia nicht Marktanteile abnehmen lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin und Nighteye
Nolag schrieb:
Bei Ampere sprach Jensen noch von 2-3 Milliarden Dollar für das Entwickeln und Auflegen einer Chipfamilie. Bei Ada redet man von ca. 5,2 Milliarden und bei Blackwell von 10 Milliarden.
Du kannst doch nicht die Kosten von Nvidia einfach verallgemeinern.

Die haben mit jeden Generation einen massiven Anstieg an Performance, jeh nachdem wie man es sehen will hat 4090 einen Speedanstieg zur 3090 von 50-100%.

Bei AMD ist ist der Anstieg zwischen 6950xt vs 7900xtx das sind nur 33%. Auch benutzt soweit mir google das erzählt RDNA3 Chiplets, Damit kannst die Yieldrate erhöhen oder teile in billigerer Fertigung herstellen und dadurch Geld sparen, Nvidia benutzt ja einen teureren Singlechip Ansatz.

Auch macht Nvidia mit jedem Chip extrem viel Marge so 100% oder so extrem hohe Summen, da ist also viel Spielraum.

Auch ist das Argument das man geringe Stückzahlen habe mit dem Chiplet design aber auch generell nicht wirklich greifbar da man dank Chiplet aber auch generell sowohl mit APUs aber auch Konsolen teile wieder verwenden kann in den Konsolen stecken ja auch nur leicht veränderte Grafikkarten-dies.

Und hatte nicht Nvidia sogar schon bei Samsung gefertigt und laut meinem Informationsstand werden die das auch für die Switch2 wieder tun, bekommt da AMD gar keine besseren Konditionen wenn die exklusiv bei TSMC fertigen? Zumal ja auch alle CPUs alle Konsolen alles?
 
blackiwid schrieb:
Du kannst doch nicht die Kosten von Nvidia einfach verallgemeinern.
Das habe ich nicht (siehe Link).
blackiwid schrieb:
Auch macht Nvidia mit jedem Chip extrem viel Marge so 100% oder so extrem hohe Summen, da ist also viel Spielraum.
Das ist ja das Problem. Sie brauchen nur auf wenig Marge zu verzichten, um AMD Schaden zuzufügen weil die Entwicklungskosten so hoch sind. Die sind sicher deutlich höher pro Chip als die paar Dollar Ersparnis durch Chiplets. Bei RDNA4 verzichtet AMD z.B. auch wieder auf Chiplets.
Wenn z.B. die Entwicklungskosten bei 250 Millionen Dollar liegen und ich 1 Million GPUs verkaufe, dann muss ich 250 Dollar pro GPU umlegen. Bei 10 Millionen muss Nvidia dagegen nur 25$ auf jede GPU aufschlagen. Die Differenz sind 225$. Verdoppeln sich die Entwicklungskosten, dann erhöht sich die Differenz auf 450$ pro GPU. Nvidia sitzt da einfach am längeren Hebel und kann jeden Versuch ihnen Marktanteile abzunehmen im Keim ersticken ohne dass die Geschäftszahlen groß darunter leiden würden.
 
  • Gefällt mir
Reaktionen: JarlBallin und Quidproquo77
Ich würde meine RTX3090 sofort 1 zu 1 gegen eine gleichwertige AMD-Karte eintauschen. Einfach, weil die Treiber(-Versorgungen) seitens nVidia unter Linux absolut unterirdisch sind.
Mal gucken, ob irgendwas kommt.
 
  • Gefällt mir
Reaktionen: rorian und JarlBallin
ETI1120 schrieb:
Die 9070XT ist wie es der Name suggeriert Nachfolger der 7700XT. AMD hatte die 7700XT für 449 USD bzw 489 € auf den Markt gebracht. Ich bin Mal so und werte dies als ein Fingerzeig.

Habe auch schon die Unterstellung gelesen die 9070XT sei gewählt worden um dadurch die Konkurrenz/Vergleichbarkeit mit der 70er Serie von NVIDIA zu unterstreichen und das ist sowohl von der Leisztung als auch vom Preis her wohl eine stufe höher.
ETI1120 schrieb:
Wer geht denn von so etwas aus?

Verschiedene Gerüchtereproduzenten - wenn es nicht stimmt und die 9700 für unter 500€ zu haben sein wird gibt es wiederum kein Problem...

ETI1120 schrieb:
Also Du glaubst AMD wählt die Bezeichnung 9070XT und provoziert mit voller Absicht einen Shitstorm weil sie die Preise um 200 USD gegenüber der 7700XT angehoben haben.

Tatsächlich verstehe ich AMDs Taktik im Moment nicht - zuerst hieß es das Spitzenmodell würde 8800XT heißen und mit einer 4070TIS vergleichbar sein (stellenweise sogar mit einer 4080) aber nur so viel wie eine 7900GRE kosten (was die karte ist die ich eigentlich will) - dann heißt es plötzlich, nein, dieses Spitzenmodell hat jetzt einen anderen Namen und erreicht nur die Leistung einer 7900GRE (was den gerüchten zur 8700XT entspricht die ich eigentlich nicht wollte, ohne dass dafür ein niedrigerer Preis angegeben ist)

Icke-ffm schrieb:
stimmt, ist aber nur software die weil so gewollt eben nur auf Nvidia geht.

Jep, bedeutet aber dennoch dass eine ansonsten vergleichbare Karte von AMD spürbar günstiger sein muss, weil sie eben dass nicht zu bieten hat und gerade wenn die Karte nicht so schnell sein sollte wie anfangs erhofft nimmt die Bedeutung des Upscalings eher zu als ab...

Icke-ffm schrieb:
Der Rohkreppierer den AMD auch angeht ist die 5070, die 5060ti wird % mehr zulegen auf 4060ti.
eine 5070 wird % verglichen mit der 4070S aber weniger zulegen und die GRE und 4070S liegen heute schon nur 10% im Raster und 22% in RT auseinander

Die 5070 dürfte aber außer Einstiger und Fertig-PC-Käufer weniger Menschen interessieren - die Konkurrenten sind zum einen die Last-Gen-Karten und zum anderen die 5070TI und zum anderen die 5060TI

Icke-ffm schrieb:
für mich realistich ist
5070-12GB Raster Leistung der 4070S und im RT dann die Leistung der 4070ti-S wirkliche Leistungsvorteile gibt es nur wenn FG genutzt wird. Preis $699 oder mehr
RX9070-16GB Raster und RT Leistung der 4070S. Preis $499 oder weniger

Halte ich für ziemlich konservativ geschätzt bei NVIDIA würde bei der 5070S eher von einer Rasterleistung bei einer 4070TI und einer Raytracingleistung knapp über einer 4070TIS ausgehen (gehe davon aus dass auch NVIDIA ihr RT weiter verbessern konnte, wenn auch nicht im gleichen Maße wie AMD).
Die 5060TI Entsprechend knapp über dem Niveau einer 4070 im Raster und knapp unter einer 4070S im RT.
 
  • Gefällt mir
Reaktionen: JarlBallin
Casillas schrieb:
Über AFMF2 wird leider quasi gar nicht gesprochen. Ich hab es bei 3 spielen immer genutzt, ohne für mich ersichtlichen Nachteil. Lief ohne Probleme.

Wieso denn wohl? Im FG Bereich ist AMD Nvidia überlegen. Was passiert, wenn man Nvidia zu sehr kritisiert, kannst du Hardware Unbnoxed fragen. Nvidia Bannt kritische stimmen.

Meines Wissens hat bisher nur CB mit harten Zahlen gezeigt, wie schlecht NV FG ggü. (A)FMF ist, obwohl das im Text entschärft wurde. Wie gerne man Vergleiche angestellt hat als AMD FG neu und nicht so gut war und das tolle exklusive FG Feature von Nvidia hochgelobt. Und seit dem AMD da nicht nur aufgeholt, sondern deutlich überholt hat... Toten Stille. In jedem Test war FG nur noch eine Randbemerkung, wenn überhaupt und FG ist plötzlich ja gar nicht so toll und inputlag, alles nicht echt etc.

AFMF 2 wird sowieso am härtesten totgeschwiegen, dabei liefert es in jedem Spiel bis zu 100% mehr fps und ein deutlich verbessertes Spielgefühl. Jeder Upscaler kann dagegen einpacken, mMn. Wundert mich aber wenig, Nvidia nutzt die Marktmacht gnadenlos aus, sei es Propaganda oder Unterdrückung der Berichterstattung durch drohenden Entzug von Vorteilen, wenn nicht genehm berichtet wird.
 
  • Gefällt mir
Reaktionen: Corpus Delicti, xXDariusXx, JarlBallin und 2 andere
Ich würde mich nicht wundern, wenn am Ende doch noch ein 9080XTX mit 32 GB kommt. AMD hatte auch schon Intel bei den Prozessoren geschlagen, als es keiner für möglich gehalten hat, also bleibt es weiter spannend. 😶‍🌫️
 
Nolag schrieb:
Das ist ja das Problem. Sie brauchen nur auf wenig Marge zu verzichten, um AMD Schaden zuzufügen weil die Entwicklungskosten so hoch sind.
Wenn das mit den Entwicklungskosten und Stückzahlen ein Problem wäre wie konnte AMD von der Preisleistung Intel selbst in schlechteren Zeiten ständig unterbieten und jetzt sogar vernichtend schlagen? Wenn man gute Entwickler anziehen kann können auch wenige einiges reißen wo der Konkurent vielleicht 10 für braucht.

Und Entwicklungskosten sind ja keine Einmalkosten die pro Gen einmar verbrannt werden und dann fängt man wieder bei 0 an, jede Generation kann nur so gut wie die letzte + XY % sein.

Das heißt wenn du jetzt bei ner Generation sparst, dann musst du entweder mehr Geld für die nächste Generation in Entwicklung stecken oder die Gen ist auch schlechter und um so schlechter wird die nächste.

Auch kann AMD teilweise auf Sony zurück greifen die für sie entwickelt also das nächste FSR oder sowas und auch Valve entwickelt für sie kostenlos die Linuxtreiber weiter und verkauft AMD Socs wo sie auch dran verdienen.

Und Nvidia muss auch Firmen wie die Cyberpunk 2077 komplett die Entwickler bezahlen die RT ins Spiel integrieren da der Hauptzweck des Spiels war Nvidia Hardwareverkäufe zu promoten.

Aber wenn die z.B. bessere K.I. chips für FSR entwickeln dann bringt das auch mehr Einnahmen bei ihrer K.I. Hardware die sie an Rechenzentren verkaufen. Wenn sie meinen da müssen sie mehr verlangen dann sollen sie es dort machen, aber nicht einfach die Abfallprodukte von K.I. Beschleunigern die man als Gamingkarten herumwurstelt hohe Margen haben... als nicht Marktführer kann man sich das einfach nicht leisten. Bei K.I. / A.I. beschleunigern kann Nvidia nicht genug liefern bzw hat so gigantische Margen easy 200-500% das man da bei AMD die noch unterbieten kann und trotzdem noch gute Gewinne machen kann.

Aber Gamer zahlen einfach nicht so viel Geld für low/mid range Grafikkarten.
 
  • Gefällt mir
Reaktionen: Icke-ffm
blackiwid schrieb:
Wenn das mit den Entwicklungskosten und Stückzahlen ein Problem wäre wie konnte AMD von der Preisleistung Intel selbst in schlechteren Zeiten ständig unterbieten und jetzt sogar vernichtend schlagen? Wenn man gute Entwickler anziehen kann können auch wenige einiges reißen wo der Konkurent vielleicht 10 für braucht.
Das sind nicht hauptsächlich Personalkosten. Nvidia und AMD haben beide etwa 30000 Mitarbeiter. Es sind z.B. Kosten für die Masken für Tests und Verifikation etc., die mit jedem neuen Chip wieder anfallen. Ein Maskensatz kostete bereits bei Ampere etwa 100 Million Dollar. Die Kosten im Link sollen die Kosten sein, die mit jeder neuen Entwicklung für einen neuen Node anfallen.
 
@Nolag Ja dann sollen sie halt mal 1-2 Gen auslassen und dann 1 machen die billig ist, besser als 3 Gens die alle zum kotzen sind.

Alleine die Kosten die sie jetzt sparen das sie den Highend Chip komplett weg lassen sollte doch es billiger machen wie das was Nvidia zahlen muss.
 
Darkwater schrieb:
Tatsächlich verstehe ich AMDs Taktik im Moment nicht -
Das Problem ist, es kursieren Gerüchte deren Glaubwürdigkeit niemand einschätzen kann, garniert mit ein paar Fitzelchen die man in Sourcen gefunden hat. Offiziell von AMD gibt es bis auf dem Namen RDNA4 nichts. Jack Huyhn hat die Midrange Strategie verkündet, aber keine Einzelheiten zu RDNA4 genannt.

Darkwater schrieb:
zuerst hieß es das Spitzenmodell würde 8800XT heißen und mit einer 4070TIS vergleichbar sein (stellenweise sogar mit einer 4080) aber nur so viel wie eine 7900GRE kosten (was die karte ist die ich eigentlich will) - dann heißt es plötzlich, nein, dieses Spitzenmodell hat jetzt einen anderen Namen und erreicht nur die Leistung einer 7900GRE (was den gerüchten zur 8700XT entspricht die ich eigentlich nicht wollte, ohne dass dafür ein niedrigerer Preis angegeben ist)

Die RX8800 und RX8600 stammen aus einem Eintrag in den Sourcen von ROCm. Einträge in den Treibern oder Sourcen sind ein Hinweis mehr nicht. Sie sind schnell geändert. So ist es bei Rembrandt und Zen 5 geschehen.

Alles andere basiert auf Gerüchten. Speziell die ganzen Performanceangaben sind mir sehr großer Vorsicht zu genießen. AMD hat Mittel und Wege gefunden die Performance zu verschleiern, selbst die Boardpartner kennen die Performance erst wenn die endgültigen Treiber aufgespielt wurden. Bei der RX5600XT hat AMD in letzter Minute (Nach der offiziellen Vorstellung auf der CES 2020) BIOS-Änderungen vorgenommen und die RX5600XT eine Stufe höher platziert.

Was letztendlich bei AMD an Performance herauskommt ist immer eine Überraschung, im Guten wie im Schlechten. Bei RDNA2 hat AMD ans Ende der Vorstellung von Ryzen 5000 einen Teaser gepackt. Nur durch den Teaser waren die Erwartungen auf dem richtigen Niveau.

Ausgehend von 32 CU für Navi 44 und 64 CU für Navi 48 erschien mir RX8800 unpassend. Für das Jahr 2025 und 64 CUs erschien mir RX8700 besser. Dass es nun an erster Stelle die 9 wurde war unnötig.
Aber wenn AMD schon die 9 will ist RX9070 die viel bessere Lösung als RX9700. Denn dann gibt es kleine Überschneidungen mit Ryzen.

Die Zahl der CUs halte ich für ziemlich sicher, da nichts anderes genannt wurde und Jack Huynh die Midrange Strategie angekündigt hat. RX9070 kommt übereinstimmend aus vielen Quellen.
 
  • Gefällt mir
Reaktionen: Casillas, MiroPoch, Rockstar85 und 2 andere
Nighteye schrieb:
Damit ist sie für mich als RX6800 Besitzer viel zu schlecht vom P/L.
RX6800 gabs zwischen 329€ (Mindstar) und 369€ bevor sie vom Markt verschwanden.
jemand der 2024 eine Rx6800 im abverkauf gekauft hat ist doch auch garnicht die zielgruppe. Da diese Person doch erstmal ausgesorgt hat. Denn hätte er mehr Leistung gebraucht, hätte er sich nicht dafür entschieden.
 
  • Gefällt mir
Reaktionen: JarlBallin, Icke-ffm und Lonex88
Darkwater schrieb:
Die 5070 dürfte aber außer Einstiger und Fertig-PC-Käufer weniger Menschen interessieren - die Konkurrenten sind zum einen die Last-Gen-Karten und zum anderen die 5070TI und zum anderen die 5060TI
das finde ich unlogisch, selbst wenn die Preise Gen/Gen gleich bleiben. ist für dich eine $599 Karte für Einsteiger und Fertig-PC gut, eine $399 und $799 Karte aber die Konkurenten ?
für mich ist die $399 das eher, hat den Namen Nvidia und ist günstig.
Darkwater schrieb:
Halte ich für ziemlich konservativ geschätzt bei NVIDIA würde bei der 5070S eher von einer Rasterleistung bei einer 4070TI und einer Raytracingleistung knapp über einer 4070TIS ausgehen
Raster der 4070ti mit 20% mehr CUs zuschlagen mit nur 30% mehr Speicherbandbreite zu schlagen wäre schon mehr wie Sportlich selbst wenn es nur RT wäre schon mehr wie Top. eine 30% Hardwareststärkere 4070tiS zu schlagen die zumal auch noch mehr Bandbreite hat, halte ich für unmöglich.
Darkwater schrieb:
Die 5060TI Entsprechend knapp über dem Niveau einer 4070 im Raster und knapp unter einer 4070S im RT.
eine Karte mit weniger Hardware und in etwa selber Speicherbandbreite ? Demnach müsste eine 5090 mindestens 500% oberhalb einer 4090 liegen
Rollkragen schrieb:
Ich würde mich nicht wundern, wenn am Ende doch noch ein 9080XTX mit 32 GB kommt. AMD hatte auch schon Intel bei den Prozessoren geschlagen, als es keiner für möglich gehalten hat, also bleibt es weiter spannend. 😶‍🌫️
ich mich ach nicht wenn noch was darüber kommt
 
  • Gefällt mir
Reaktionen: JarlBallin
Nighteye schrieb:
Und die ist schneller als eine 7700XT in vielen Spielen wo 12GB nicht mehr reichen oder wo man vom deutlich größeren Infinity Cache von RDNA 2 Profitiert

Kommt halt immer auf die spiele an. Aber im pcgh Leistungsindex sieht es etwas anders aus
IMG_0867.jpeg
 
blackiwid schrieb:
Alleine die Kosten die sie jetzt sparen das sie den Highend Chip komplett weg lassen sollte doch es billiger machen wie das was Nvidia zahlen muss.
Die Aussage würde nur dann Sinn ergeben, wenn man davon ausgehen müsste, dass Nvidia mit dem GB202 in der 5090 Verluste machen wird, die mit Gewinnen vom Verkauf der kleineren Chips kompensiert werden müssen. Warum sollte man annehmen, dass Nvidia einen Chip auflegt, der sich nicht vollständig rechnet?
 
  • Gefällt mir
Reaktionen: Quidproquo77
Botcruscher schrieb:
AMD hat aktuell Kohle ohne Ende und nichts Davon kommt in der GPU Abteilung an.
Doch schon, aber halt nicht für Gamer.
 
Icke-ffm schrieb:
FSR haben sie, FG ist selbst eine 4090 Nativ noch zu langsam eine 5090 könnte die erste werden mit der es nativ nutzbar wird. die miese RT Leistung reicht aber in aktuellen Games aus um die Speicherkrüppel der UHD Gen. 2020 in WQHD su toppen
Alles Schwachsinn. Als RDNA2 erschien gab es kein FSR. Das kam erst später. Und FG läuft super.
 
Clonedrone schrieb:
Damit sind sie nicht wettbewerbsfähig, denn wettbewerbsfähige Karten werden gekauft.

Kontradiktorisch.

Nighteye schrieb:
Ich berate seit langer Zeit Gamer bei Hardware Anschaffungen.
[...]
Ich habe es dort noch nie erlebt, dass jemand mit so einer alten Karte wie GTX960, oder GTX 1060 oder Polaris oder RX6500 viel geld hatte.

:lol:

Nighteye schrieb:
Damit die RX9070XT gleich gut im P/L wird dürfte sie nicht über 450€ kosten, wovon ich nicht ausgehe.

Wer sagt denn, dass nicht genau das passieren wird? Wenn AMD schlau ist, hauen sie die 9070XT für unter $500 raus. Das ist ein sehr wichtiger Preispunkt, auch aus Verkaufs-Psychologischer Sicht. Damit könnte man gut Marktanteile holen.

Und wenn die Gerüchte stimmen, dann hat man ja neben der 9070 auch noch die 9060, 9050 und 9040 und bedient damit auch den absoluten Einsteigermarkt, den man ein wenig vernachlässigt hat und in dem gerade Intel versucht, sich breit zu machen.

Dass nVidia etwas unterhalb der 5060 bringen wird halte ich für Nahezu unwahrscheinlich. Und die wird sicher nicht günstiger als eine 4060 und ist damit schon wieder zu teuer. Letztere ja auch vor allem bei der Preis-/Leistung.
 
Zurück
Oben