News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht

MaverickM schrieb:
Und das hat jetzt genau welche Relevanz zur Nicht-Existenz einer 4050 und vor allem meiner ursprünglichen Aussage, dass es extrem Unwahrscheinlich ist, dass nVidia eine dedizierte Grafikkarte unterhalb der 5060 bringen wird?
Nvidia hat bei RTX4000 keine 4050 gebraucht.

Wenn AMD oder Intel unterhalb der 5060 zu viele Grafikkarten verkaufen, wird Nvidia schneller als man schauen kann eine 5050 und wenn es notwenig ist auch noch andere SKUs auf den Markt werfen.

Nvidia wird nicht kampflos zusehen wenn sich AMD und Intel im Einsteigersegment oder an andern Preispunkten breit machen.
 
Zuletzt bearbeitet: (Tippfehler)
ETI1120 schrieb:
Nvidia hat bei RTX4000 keine 4050 gebraucht.

nVidia braucht erst einmal gar nichts, die interessiert der Gaming Markt eh nicht mehr.

Es hätte aber sehr viele Käufer gegeben, die in dem Preisbereiche darunter eingekauft hätten, wenn es da etwas gegeben hätte.

Die 4060 ist zu teuer und auch gleichzeitig das Geld auch noch nicht wert, also ein kompletter Reinfall eigentlich. In dem Segment und darunter macht sich wie Eingangs schon erwähnt Intel jetzt breit und AMD will auch wieder dort hin, wie man hier an den kolportierten Modellen bis runter zu einer 9040 sieht.
 
  • Gefällt mir
Reaktionen: JarlBallin
ArrakisSand schrieb:
Du solltest Dir ganz einfach noch Mal Deine Posts durchlesen die Du zu Zen 5 am Abend vor der offiziellen Präsentation von Zen 5 auf der Computex 2025 rausgehauen hast. Und dann Mal durchschnaufen.

Ich nehme beide Ergebnisse zur Kenntnis und bin gespannt was am 6 Januar präsentiert wird. Wie hieß es auf Twitter, irgendwo zwischen diesen Werten, ...

Auf das was All The Watts!! postet gebe ich nicht viel. Alles zu Zen 5 war falsch, viel zu optimistisch.

Wenn Da ein Typ in einem chinesischen Form irgend welche tolle Geschichten erzählt, ist es ebenso fragwürdig. Hältst Du AMD für so bescheuert, dass AMD die Release Treiber vor der offiziellen Präsentation an die Boardpartner schickt?

Noch Mal die Specs:

Navi 4864 CU, 256 bit 16 GByte, AMD bleibt auf GDDR6vs??
7900XTX96 CU, 384 bit, 24 GByte>=RTX480076 SM, 256 bit, 16 GByte
7900XT84 CU, 320 bit, 20 GByte>=RTX4070 TI Super66 SM, 256 bit, 16 GByte
7900GRE80 CU, 256 bit, 16 GByte, Takt eingebremst>=RTX4070 Super56 SM, 192 bit
7800XT60 CU, 256 bit 16 GByte>RTX407046 SM, 192 bit 12 GByte

Die 7900XTX ist laut 51 % TPU schneller als die 7800XT.
Rasterizer: Im neuen Testparcours von CB ist die 7900XTX bei WQHD 59 48%, bei UWQHD und bei 52 % UHD 57 % schneller als die 7800XT.

Wenn die Navi 48 beim Rasterizer die 4080 packen sollte müsste sie je CU um ca 40 % zulegen.
Wenn die Navi 48 bei Raytracing die 4080 packen sollte müsste sie je CU um ca. 60 % zulegen.

Und bei einem solchen Durchbruch in der Gaming Performance zieht sich AMD aufs Midrange Segment zurück?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
MaverickM schrieb:
nVidia braucht erst einmal gar nichts, die interessiert der Gaming Markt eh nicht mehr.

Das ist viel zu hart interpretiert, die machen mit Gaming gute 2,5 MRD +/- pro Quartal und damit bis zu 15% Anteil des Gesamtumsatzes. Es ist klar NVIDIAs zweites Standbein welches sie sicher nicht abschreiben möchten.

1735245488149.png
 
  • Gefällt mir
Reaktionen: Quidproquo77
MaverickM schrieb:
nVidia braucht erst einmal gar nichts, die interessiert der Gaming Markt eh nicht mehr.
Eine glückliche Firma, wenn man einem Markt für dem man sich nicht interessiert, dominiert und 3,3 Mrd USD Umsatz macht.
MaverickM schrieb:
Es hätte aber sehr viele Käufer gegeben, die in dem Preisbereiche darunter eingekauft hätten, wenn es da etwas gegeben hätte.
Es hat aber gar nicht brauchbares gegeben, weder von Nvidia, noch von AMD noch von Intel.
MaverickM schrieb:
Die 4060 ist zu teuer und auch gleichzeitig das Geld auch noch nicht wert, also ein kompletter Reinfall eigentlich. In dem Segment und darunter macht sich wie Eingangs schon erwähnt Intel jetzt breit und AMD will auch wieder dort hin, wie man hier an den kolportierten Modellen bis runter zu einer 9040 sieht.
Und in dem Moment in dem AMD oder Intel im Marksegment unter der 5060 nennenswerte Stückzahlen absetzen, wird Nvidia AMD und Intel in die Schranken weisen.
Ergänzung ()

DeadMan666 schrieb:
Das ist viel zu hart interpretiert, die machen mit Gaming gute 2,5 MRD +/- pro Quartal und damit bis zu 15% Anteil des Gesamtumsatzes. Es ist klar NVIDIAs zweites Standbein welches sie sicher nicht abschreiben möchten.

Anhang anzeigen 1561270
Du hast das falsche geschäftsjahr, das sind die Zahlen von November 2023 bis Januar 2024.

Der letzte Quartalsabschluss von Nvidia ist Q3 2025.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Mal sehen wie das bei uns aussehen wird.
Wird jetzt der amerikanische Markt erst mal bevorzugt beliefert?
Werden die Verkäufer da gleich mal Preiserhöhungen vornehmen?

1735246708748.png


Zitat
"NVIDIA and AMD have launched an acceleration of their next-generation GPU production and shipping schedules, racing to beat impending Trump administration tariffs that could inflate prices by up to 60%. The companies are prioritizing delivery to US warehouses before January 20, when the new trade measures are supposed to take effect."
.
.
.
.
"The impact of these tariffs could reshape the GPU market prices, with flagship products like NVIDIA's GeForce RTX 5090 potentially seeing price increases from the rumored $1,799 to approximately $2,500. Following similar moves by Microsoft, Dell, and HP, this strategic rush to beat tariff implementation shows the technology sector's response to evolving trade policies. These price hikes could trigger a surge in the secondary GPU market as consumers seek more affordable options."

https://www.techpowerup.com/330243/...on-gpus-ahead-of-trump-administration-tariffs
Ergänzung ()

1735247249433.png


"AMD's upcoming Radeon RX 9070 XT graphics card can boost its engine clock up to 3.10 GHz, a new leak that surfaced on ChipHell says. Depending on the board design, its total board power can reach up to 330 W, the leak adds. The GPU should come with a very high base frequency for the engine clock, with the leaker claiming a 2.80 GHz base frequency (can be interpreted as Game clocks), with the GPU boosting itself up to 3.10 GHz when the power and thermals permit. The RX 9070 XT will be the fastest graphics card from AMD to be based on its next-generation RDNA 4 graphics architecture. The company isn't targeting the enthusiast segment with this card, but rather the performance segment, where it is expected to go up against NVIDIA's GeForce RTX 5070 series."

https://www.techpowerup.com/330232/...-to-3-10-ghz-board-power-can-reach-up-to-330w

https://www.chiphell.com/forum.php?mod=viewthread&tid=2661025&page=1&authorid=106230
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Es hat aber gar nicht brauchbares gegeben, weder von Nvidia, noch von AMD noch von Intel.

Ach nee, echt? :rolleyes:

Das habe ich die ganze Zeit schon gesagt...

ETI1120 schrieb:
Und in dem Moment in dem AMD oder Intel im Marksegment unter der 5060 nennenswerte Stückzahlen absetzen, wird Nvidia AMD und Intel in die Schranken weisen.

Danach sieht es nicht aus, es gibt dafür überhaupt keine Gerüchte. Und ich bezweifle, dass nVidia da noch ein Interesse daran hat, denn das hatten sie bisher auch schon machen können... Haben sie aber nicht. Intel hatte übrigens in der ersten Generation durchaus Modelle in der Preisregion. Die kamen halt nur nicht so gut an.

Aber: Abwarten und Tee trinken, wir werden ja sehen. Auf absehbare Zeit werden aber vorerst Intel und AMD den Einsteiger-Markt bedienen.
 
  • Gefällt mir
Reaktionen: Icke-ffm
MaverickM schrieb:
Ach nee, echt? :rolleyes:

Das habe ich die ganze Zeit schon gesagt...
Und warum jammerst Du dann nur über Nvidia?
MaverickM schrieb:
Danach sieht es nicht aus, es gibt dafür überhaupt keine Gerüchte.
Weil zuerst die großen Karten kommen?

Nvidia hat die teildefekten AD107 ausschließlich als Mobilchips verkauft, weil es keinen Grund gab sie im Desktop Markt zu bringen. Nvidia war offensichtlich über den Absatz der 4060 zufrieden. Eine 4050 hätte die Verkäufe der 4060 kannibalisiert. AMD und Intel haben nichts nennenswertes abgesetzt. Und die wo bei dieser Generation nichts gekauft haben, werden eben bei einer anderen Generation kaufen. Sehr wahrscheinlich eine Nvidia Karte.

Es gab diese Generation auch keine 4090 TI, weil Nvidia den Vollausbau des AD 102 bei den Profikarten ohne Probleme losbekommen ist. Dafür gab es eine 4070 TI Super weil Nvidia einen Gegenspieler für die 7900XT gebraucht hat.
 
  • Gefällt mir
Reaktionen: Icke-ffm
ETI1120 schrieb:
Du solltest Dir ganz einfach noch Mal Deine Posts durchlesen die Du zu Zen 5 am Abend vor der offiziellen Präsentation von Zen 5 auf der Computex 2025 rausgehauen hast. Und dann Mal durchschnaufen.

Ich nehme beide Ergebnisse zur Kenntnis und bin gespannt was am 6 Januar präsentiert wird. Wie hieß es auf Twitter, irgendwo zwischen diesen Werten, ...

Auf das was All The Watts!! postet gebe ich nicht viel. Alles zu Zen 5 war falsch, viel zu optimistisch.

Wenn Da ein Typ in einem chinesischen Form irgend welche tolle Geschichten erzählt, ist es ebenso fragwürdig. Hältst Du AMD für so bescheuert, dass AMD die Release Treiber vor der offiziellen Präsentation an die Boardpartner schickt?

Noch Mal die Specs:

Navi 4864 CU, 256 bit 16 GByte, AMD bleibt auf GDDR6vs??
7900XTX96 CU, 384 bit, 24 GByte>=RTX480076 SM, 256 bit, 16 GByte
7900XT84 CU, 320 bit, 20 GByte>=RTX4070 TI Super66 SM, 256 bit, 16 GByte
7900GRE80 CU, 256 bit, 16 GByte, Takt eingebremst>=RTX4070 Super56 SM, 192 bit
7800XT60 CU, 256 bit 16 GByte>RTX407046 SM, 192 bit 12 GByte

Die 7900XTX ist laut 51 % TPU schneller als die 7800XT.
Rasterizer: Im neuen Testparcours von CB ist die 7900XTX bei WQHD 59%, bei UWQHD und bei 52 % UHD 57 % schneller als die 7800XT.

Wenn die Navi 48 beim Rasterizer die 4080 packen sollte müsste sie je CU um ca 40 % zulegen.
Wenn die Navi 48 bei Raytracing die 4080 packen sollte müsste sie je CU um ca. 60 % zulegen.

Und bei einem solchen Durchbruch in der Gaming Performance zieht sich AMD aufs Midrange Segment zurück?

Was soll daran jetzt schon groß besonders sein.

1. Die RX 9070XT hat 7% mehr Shader als eine 7800XT

2. Die tatsächlichen durchschnittliche Taktrate (aus 30 Games) im Fractal Design Torrent für die RX 7800 XT
beträgt laut Computerbase, 2.386 GHz (max. spez. boost 2.43 GHz)
Bei der RX 9070XT ist von einem spez. max. boost von 3.0 - 3.1GHz die Rede.
Weshalb ich von einer durchschnittlichen in Games anliegenden Taktrate von 3.0 GHz ausgehe.

(3/2.386)x1.07 = 1.35

Um auf die anvisierten -5% relativ zur 4080 zu kommen, müssten
sie zusätzlich noch ca. 5% IPC beim Umstieg von RDNA3 auf RDNA4 hinzugewinnen.

Ist dies wirklich so unwahrscheinlich, dass sie diese 5% beim Umstieg auf eine, mehr oder weniger
neue Architektur hinzugewinnen können?
Aber bei AMD arbeiten eh wahrscheinlich nur Elefantenköpfe, bei denen eine Nullnummer bereits positiv zu bewerten ist.

Aber ich denke eh, dass anhand der geringen spekulierten Bandbreite von nur 640 GB/s die Stärke dieser Karte wohl eher bei WQHD und nicht bei 4K zu suchen ist.

Allerdings der Schlüssel um diesen Flaschenhals eventuell zu entschärfen, könnte (siehe folgende Tabelle)
die Anhebung der IC-Bandbreite, vielleicht von 2.1TB/s auf 3.0TB/s sein? Dies dürfte in WQHD wohl einiges bringen, aber bei 4K wohl doch eher weniger.

- Ich weiß zwar nicht wie du Midrange definierst, aber für mich ist dieser mit Navi 48, bis auf die 5070ti komplett abgedeckt. Eben diese >=80% des Marktes (nach Stückzahlen) die sie mit Navi 44 und 48 anvisieren wollen.

Und bei der 5070Ti handelt es sich dieses Mal, gleich zu Beginn, um den selben GB203 Chip wie er bei der 5080 zum Einsatz kommen soll. Dies war bei der 4070ti noch nicht der Fall.
Die 4070Ti super die ebenfalls so ähnlich daher kam, hatte eine UVP von 889€.
Gut möglich das die 5070Ti sogar noch deutlich teurer als diese wird und sich langsam in Richtung der 1000€ zubewegen wird.
Ob man man bei einer fast 1000€ Karte noch von Mittelklasse reden sollte?

Punkto Zen5 weiss ich nicht wovon du redest, die bei Computerbase erzielten +38% an Gaming-Performance des 9800X3D, die relativ zum 285K erzielt wurden, haben selbst meine kühnsten Erwartungen bei weitem übertroffen.
Der 9950X3D könnte diesen Vorsprung gar noch weiter ausbauen.
Punkto Verkaufszahlen: Mindfactory / Amazon wurde Intel förmlich ausradiert.
Ich kann mir daher beim besten Willen nicht vorstellen, dass ich da in irgendeiner Form übertrieben haben soll.

1735252330001.png


1735250616660.png
1735250662803.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: riOrizOr
MaverickM schrieb:
nVidia braucht erst einmal gar nichts, die interessiert der Gaming Markt eh nicht mehr.
Ziemlich engstirnige Interpretation.
Also mich würde es schon interessieren, was 15% meines Umsatzes betrifft.
MaverickM schrieb:
Es hätte aber sehr viele Käufer gegeben, die in dem Preisbereiche darunter eingekauft hätten, wenn es da etwas gegeben hätte.
Aber dort wird es nun einmal keine großartigen Produkte mehr geben können, weil die Entwicklungskosten und Herstellungskosten das verhindern.

Die Leute können sich darauf einstellen, dass der Einstieg bald bei 500 Euro liegt.
MaverickM schrieb:
Die 4060 ist zu teuer und auch gleichzeitig das Geld auch noch nicht wert, also ein kompletter Reinfall eigentlich.
Welche Karte ist in dem Preisbereich besser? Die B580 nur bedingt und zwar dann wenn der Speicher ausgeht, ansonsten ist das ein Duell auf Augenhöhe, da Effizienz, Treiber, Anwendungen etc. auch eine Rolle spielen.
MaverickM schrieb:
In dem Segment und darunter macht sich wie Eingangs schon erwähnt Intel jetzt breit und AMD will auch wieder dort hin, wie man hier an den kolportierten Modellen bis runter zu einer 9040 sieht.
Ich würde da nicht zu viel erwarten.
 
Zuletzt bearbeitet:
@Corpus Delicti
Nein das ist so nicht ganz richtig.
Bei den 330 Watt handelt es sich um Custom OC Modelle die sich voraussichtlich noch deutlich höher Takten lassen.
Die 3.0 - 3.1GHz max. Boost beziehen sich auf die Standardvariante (Referenzmodell)
mit einem Basistakt von 2.8GHz und 260W.

Bezüglich der Effizienz hätten sie wohl Nvidia damit sogar wieder ein, oder gar überholt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lonex88 und Mr.House
DerRico schrieb:
Was möglich wäre, wenn man muss, sieht man im Mobilbereich, wo es noch Konkurrenz, auch aus Asien gibt. Da gibt es jedes Jahr massiv mehr Leistung bei weniger Verbrauch für immer weniger Geld - auch wenn es dort an Konkurrenz in der Fertigung mangelt.

Da hast du einen wichtigen Punkt zu wenig gewürdigt: die doppelte Leistung wird nicht mit doppeltem Verbrauch erkauft, und dann dem Kunden als der neueste heiße (im wahrsten Sinne des Wortes) Scheiß mit FOMO-Vibes (Influenzer, usw.) in homöopathischer Verfügbarkeit, um die Preise hochzuhalten, aufs Auge gedrückt.

Beispiel: als ich den i7 11700 hier gekauft habe, war der ab dem ersten Tag bei allen Händlern in allen Modellen (K, non-K, F-Varianten) zum Listenpreis ausreichend verfügbar + aller aller Mainboard Varianten (Z590, B560, H570).

Beim i7 3770 davor das gleiche.

Heute alles nur noch tröpfchenweise.
 
ETI1120 schrieb:
Und warum jammerst Du dann nur über Nvidia?

Tja, vielleicht einfach mal eine Diskussion von Anfang an lesen, statt immer mittendrin rein zu grätschen. :rolleyes:

ETI1120 schrieb:
Nvidia war offensichtlich über den Absatz der 4060 zufrieden.

Das interessiert den Kunden herzlich wenig.

ETI1120 schrieb:
Eine 4050 hätte die Verkäufe der 4060 kannibalisiert.

So mies wie die 4060 war, ja auch kein Wunder.

ETI1120 schrieb:
AMD und Intel haben nichts nennenswertes abgesetzt.

Ja, und das obwohl es die bessere Option gewesen wäre. Typisch.
 
ETI1120 schrieb:
GDDR SDRAM Chips haben nun Mal ein Speicherinterface mit 32 bit.
...

Außerdem fliegen die Daten nicht einfach von den GDDR7 Chips in die GPU. Die Designs und IP für GDDR6 sind erprobt, GDDR7 ist Neuland.
nvidia und AMD liefern auch immer Referenz-Designs für Ihre neuen Chips.

Wer zudem GDDR7 für nvidia verbaut, packt das auch für AMD.
Zudem, ob DDR statt SRAM, ob spätere Speicher stellten die Boardhersteller für neue Aufgaben.

Bei 32 Bit Interface sind 96 bzw. 128 Bit Datenbus nur 3 bzw. 4 Chips, was einfachere Designs bedeutet.
 
Floppy5885 schrieb:
Haben die bei AMD was geraucht? Wie kann man der Konkurrenz dermaßen das Feld überlassen?!
7900GRE Niveau. Das wäre vermutlich RTX 5060TI bis 5070 Leistung.
Alle Karten darüber
5070TI, 5080, (5080TI) , 5090 und alle eventuellen Super Modelle werden von NV lange Hoch im Preis bleiben. Straßenpreis bleibt dann die UVP...

Normalerweise würde ich von einer 4070TI nicht Upgraden auf eine 4080, aber wenn diese günstig im Abverkauf ist überlege ich es mir. Dann habe ich 16GB. Das reicht bis zur nächsten Gen aus. Neue Spiele wären nur GTA6 und BF7.
und was hat diese Aussage ⬆️ mit deiner Vorgeschichte ⬇️ zu tun?
Floppy5885 schrieb:
Nein, leider kennst du meine Vorgeschichte nicht. Ich hatte 2x 7900XT von Powercolor im Rechner. Die erste lief gar nicht. Ständig abstürze Blackscreen dann Bluescreen. Die zweite lief 3 Wochen und bekam die Probleme der ersten Karte. Danach hatte ich einfach die Schnauze voll und habe mir eine 4070TI gekauft.
Mit meiner 5700XT davor war ich sehr zufrieden.

@Hatsune_Miku hat verständlicherweise deinen ersten Beitrag als allg. Kritik an AMD verstanden.
Ergänzung ()

T-Horsten schrieb:
So wirds wohl laufen.
Anscheinend halten sich PC Gamer für den Nabel der Welt, dabei wird die dicke Kohle schon längst woanders verdient.
Kann mir gut vorstellen das AMD komplett aus dem Markt für dedizierte GPUs aussteigt und z.B nur noch Konsolen APUs fertigt.
Das denke ich auch. Würde mich auch nicht wundern, wenn die kommenden RDNA4 GPUs vielleicht die letzten dGPUs fürs Gaming von AMD. Der letzte Versuch nochmal Marktanteil zu gewinnen. Wenn der Versuch nichts wird, zieht man sich strategisch zurück, weil man einfach begrenzte Ressourcen hat. Wäre ja auch folgerichtig, nach der Entscheidung das Highend nicht mehr zu bedienen.


RKCPU schrieb:
AMD hat nicht mal GDDR7 berücksichtigt, nvidea hingegen für alle neuen Produkte 2025.
Vielleicht hat AMD auch viel mehr Ahnung als wir hier und hat sich daher dazu entschieden bei GDDR6 zu bleiben :rolleyes: . Vielleicht spricht nach Abwägung von Kosten/Nutzen/Aufwand für die kommenden Karten einfach mehr für GDDR6.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
Casillas schrieb:
und was hat diese Aussage ⬆️ mit deiner Vorgeschichte ⬇️ zu tun?
Hat sie nicht, das war auch als allgemeine Kritik gemeint.
Casillas schrieb:
hat verständlicherweise deinen ersten Beitrag als allg. Kritik an AMD verstanden.
Der zweite Beitrag war eben auf das Argument bezogen, dass es auch meine Schuld sei. Das sehe ich eben nicht so. Ich glaube auch nicht dass man einem Käufer von Produkt Y die Schuld geben kann das Produkt Z nicht mehr Konkurrenzfähig ist, nur weil man Produkt Z nicht kauft.
Das ist die dümmste Argumentation ever. Schließlich wird Produkt Y nicht einfach nur aus Spaß an der Freude gekauft. Sondern hat sich im Laufe der Zeit seine Käufer "erarbeitet."
AMD nagt auch nicht am Hungerstuch, oder steckt Finanziell in Problemen.

(Nur so am Rande Intel VS AMD. Dort hat AMD, mit den ersten beiden Ryzen 1000 und 2000 bewiesen dass man auch wenn man am Boden liegt, den stärksten Konkurrenten mit Fortschritt besiegen kann.)
Daher darf ich davon ausgehen, dass AMD andere Gründe hatte, nicht mehr im Oberklassen und HighEND -Bereich zu liefern.
Diese Gründe wurden bisher nicht bekannt gegeben.
Daher ergibt mein Satz/Frage aus dem ersten Teil,

Wie kann man der Konkurrenz dermaßen das Feld überlassen?!

auch Sinn.
 
MaverickM schrieb:
Tja, vielleicht einfach mal eine Diskussion von Anfang an lesen, statt immer mittendrin rein zu grätschen. :rolleyes:
Ich habe nicht reingekrätscht, sondern Dich auf den Fehler in Deiner Argumentationskette hingewiesen. Nvidia ist in den letzten Jahren immer eingeschritten, wenn sich eine AMD Karte in einer Lücke im Nvidia Line up gut verkauft hat. Nvidia hat das beste PPAC (Performance, Cost Power, Area, Cost*) in der Branche hat mehr Dies als die Konkurrenz und definiert was die notwendigen Features sind. All dies setzt Nvidia rigeros ein um Marktanteile zu holen und zu sichern.

Du kannst jetzt beleidigt spielen, aber Du hast keinen vernünftigen Grund genannt, warum Nvidia es zulassen sollte dass sich AMD oder Intel im Einsteigersegment breit machen. Glaubst Du im Ernst AMD und Intel könnten gegen Nvidia in einem Preiskampf Marktanteile holen? Nvidia hat die bessere Kostenstruktur, tiefere Taschen und kann in diesem Segment 40 USD höher als die Konkurrenz liegen.

Oder so einen Unfug rauszuhauen, Nvidia wäre der Gaming Markt egal. Einem Markt in dem Nvidia im letzten Quartal 3,3 Mrd Umsatz gemacht hat. Und für den Nvidia gerade die nächste Generation an Gaming GPUs vorbereitet. Nvidia macht dies, weil Nvidia diesen Markt so weit dominiert, dass ein Großteil der potentiellen Käufer sich lediglich überlegt, welche Nvidia GPU es denn werden soll oder ob man den Kauf noch aufschiebt.

Da kannst Du nun hingehen die dummen Kunden beklagen und jeden dumm angehen der Deine Meinung nicht teilt. Aber es ist nun Mal so, dass Nvidia in den letzen 20 Jahren viel weniger Fehler als AMD gemacht hat.

*) RDNA2 wäre die Ausnahme gewesen
Ergänzung ()

ArrakisSand schrieb:
Bei der RX 9070XT ist von einem spez. max. boost von 3.0 - 3.1GHz die Rede.
https://x.com/9550pro/status/1571834170900623360

https://x.com/Bullsh1t_buster/status/1588517941192323074

https://x.com/9550pro/status/1872227637894279418
Ergänzung ()

RKCPU schrieb:
nvidia und AMD liefern auch immer Referenz-Designs für Ihre neuen Chips.
Und bei AMD fällt das Design aus dem Himmel?

Die GPUs brauchen die zusätzliche Bandbreite durch GDDR7 nicht. Also bedeutet GDDR7 zuerst einmal nur höhere Kosten.

Erst sobald die 3 GByte Chips tatsächlich auf den Markt kommen, wirkt sich dieses Feature aus. Vielleicht weiß AMD mehr?

Falls Kepler recht hat ist Navi 44 so oder so DAO.
https://x.com/Kepler_L2/status/1872292310660309179

D.h. Navi 44 wäre ebenso kastriert wie Navi 24.

Ich ignoriere jede Angabe von Kepler zur Performance, was Informationen über die Konfiguration angeht hat er eine gute Trefferquote. Allerdings sind Informationen zur Konfiguration nicht mehr offen in den Source Codes. Deshalb ist es ein Hinweis mehr nicht.
 
Zuletzt bearbeitet:
Floppy5885 schrieb:
(Nur so am Rande Intel VS AMD. Dort hat AMD, mit den ersten beiden Ryzen 1000 und 2000 bewiesen dass man auch wenn man am Boden liegt, den stärksten Konkurrenten mit Fortschritt besiegen kann.)
Daher darf ich davon ausgehen, dass AMD andere Gründe hatte, nicht mehr im Oberklassen und HighEND -Bereich zu liefern.
Diese Gründe wurden bisher nicht bekannt gegeben.
Daher ergibt mein Satz/Frage aus dem ersten Teil,

Wie kann man der Konkurrenz dermaßen das Feld überlassen?!

auch Sinn.
Aber ist das so, dass wir hier genügend Einblick haben, dass wir davon ausgehen können, dass es andere Gründe gab?

Ich denke man kann auch nicht einfach mit der Situation im CPU Markt vor Ryzen vergleichen. Meiner Meinung nach, bzw. soweit ich das beurteilen kann, hatte AMD im CPU Markt noch einen deutlich besseren Ruf (trotz Bulldozer), als es AMD heute im Vergleich zu Nvidia im GPU Markt hat.

Ich denke, die Ressourcen sind begrenzt, vielleicht wird selbst bei AMD "wo anders" nun mehr geld verdient, bzw. Marge gemacht und trotz gleichwertigen oder in Teilen sogar besseren Produkten ..
Hatsune_Miku schrieb:
Selbst wo RDNA2 in wirklich allen ausser RT das bessere Produkt im vergleich zu den Ampere Gegenstücken war, wurde es AMD nicht gedankt. Das sogar Ampere ein großes stück gieriger was den verbrauch war hat da auch niemanden gejuckt
hat es AMD nichts gebracht.
 
Zurück
Oben