News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht

Hier glauben scheinbar immernoch Leute das AMD für Gamer produziert und entwickelt anstatt an ihren eigenen Geldbeutel zu denken.
Für Amd gibts aktuell einfach keine bessere Situation, Nvidia gibt die viel zu hohen Preise vor, sind die Buhmänner und Amd frickelt irgendwas zusammen was man in der Mittelklasse plazieren kann womit man noch ordentlich Kohle einfährt,im Idealfall ist das ganze mit wenig Entwicklungsarbeit und Materialkosten durchführbar, den Käufern einreden sie wären wichtig etc bla bla und fertig.

Die Zeiten sind vorbei das mit neuen Gpu Generation irgendwelche MIttelklasse Karten auftauchen die weniger Kosten als ehemalige Topmodelle und identischer Leistung.
Dafür wird auf beiden Seiten schon vorher gesorgt, da gehen Karten frühzeitig EOL oder werden durch einen Refresh ersetzt +- 5% Leistung inklusive höherem Preis.Amd hat das vor Ewigkeiten im Gpu Bereich erkannt, anstatt den Marktführer zu schlagen nutzt man einfach die Situation zu ihren Gunsten.Intel noch zu klein im Gpu Sektor damit sich irgendetwas ändert.
 
  • Gefällt mir
Reaktionen: Aduasen
Mit hoher Wahrscheinlichkeit wird eine neue Karte in der UVP über den Marktpreisen der ungefähr gleichen Leistung liegen, weil eben neu und potentiell effizienter. Daher kann der Preis für eine 8800XT/9070XT durchaus so eintreffen. Jetzt wo die Produktion der 7900GRE eh eingestellt wurde, wird hier der Marktpreis auch eher steigen als sinken oder stagnieren.

Ich hoffe eher auf einen Schub bei der Effizienz, damit AMD hier in der Mittelklasse nicht den Anschluss verliert. Lerztes Jahr hsbe ich mir eine 4070Ti gekauft aufgrund der Effizienz und der daraus folgende kleinere Kühllösung. Die Einbaumaße im Dan A4 sind beschränkt und mit der 4070Ti von Inno3D voll ausgereizt. Bei AMD wäre nicht einmal eine 7700XT passend gewesen, sodass nur eine 7600XT oder 6700XT möglich wäre.

AMD würde ich aber noch nicht völlig abschreiben, nur weil man jetzt mal wieder nichts für die Oberklasse baut. So wie es aussieht, musste AMD das Multi-Chip-Design relativ kurzfristig streichen, sodass nur der Monolith brauchbar war. Den man dann noch einmal grob gesagt verdoppelt hat, damit man nicht zu sehr nach unten absackt. Mal eben ein anderes größeres monolitische Design war da so zu kurzfristig.

Spannender wird die Frage sein, wie dann die darauf folgende Generation aussehen wird. Klappt das als MCM nicht ausreichend genug oder benötigt das einfach noch mehr Zeit zu reifen? Warum wurden die Designs der kommenden Gen wirklich gestrichen?
Kommen eventuell bei der nächsten Gen wieder nur noch monolithische GPUs?

Leider fahren wir mit der aktuellen Situation langsam in ein Monopol, aus den es immer schwerer wird, raus zu kommen, weil propritäre Funktionen eine Bindung erzeugen. Schon jetzt gibt es einfach zu viel Software, die eine NV-GPU voraussetzt, trotz dass es auch wege gibt, AMD nutzen zu können, aber die Softwarehersteller das nicht implementieren. Softwarehersteller haben ja nicht so viel von einer echten Konkurrenzsituation bei GPUs, eher im Gegenteil, weil man sonst eher zwei Wege einbauen muss. NV macht nämlich immer erst mal den Weg über propritärer Technik, damit man sich an ihnen binden muss, egal ob es notwendig wäre oder nicht. Das ist ein Punkt, wo eigentlich die Wettbewerbshüter genauer hinschauen müssten, ansonsten haben wir bald ein echtes Monopol.
 
  • Gefällt mir
Reaktionen: Mr.House, daknoll und kachiri
riOrizOr schrieb:
Ich will ja nicht Schwaz malen, aber ich würde sagen das gut 90% aller Leute hier ziemlich erschüttert sind.

Die High-End-Bubble hier im Forum mit 12% 4090 Nutzern in einer eh schon nischigen Tech-Bubble mag das vielleicht so sehen. Aber der Großteil der Leute kauft halt keine Grafikkarten oberhalb der 500€ Marke. Und AMD möchte möglichst diesen Markt bedienen, weil man dort kompetitiv und meist deutlich besser als nVidia aufgestellt ist.

Insofern alles richtig gemacht. Jetzt muss halt nur noch der Preis auch entsprechend ausfallen, damit man viele Leute davon überzeugen kann, zu wechseln.
Ergänzung ()

Deater schrieb:
Hier glauben scheinbar immernoch Leute das AMD für Gamer produziert und entwickelt anstatt an ihren eigenen Geldbeutel zu denken.
Für Amd gibts aktuell einfach keine bessere Situation, Nvidia gibt die viel zu hohen Preise vor, sind die Buhmänner und Amd frickelt irgendwas zusammen was man in der Mittelklasse plazieren kann womit man noch ordentlich Kohle einfährt,im Idealfall ist das ganze mit wenig Entwicklungsarbeit und Materialkosten durchführbar, den Käufern einreden sie wären wichtig etc bla bla und fertig.

Sorry, aber das ist doch einfach großer Humbug. Als ob eine neue GPU Generation nichts kosten würde... Von den Materialkosten und der Produktion bei TSMC gar nicht erst reden...

Wo ist denn genau das Problem, wenn man den Einstiegs- und Mittelklasse-Markt bedient? Weil ihr in eurer Bubble keine Halo-Produkte habt, die ihr wahrscheinlich eh nicht kaufen würdet...!? :rolleyes:
 
  • Gefällt mir
Reaktionen: JarlBallin und entengruetze
The1whoknocks schrieb:
Bei AMD wird man am Besten wissen, was man für sinnvoll hält, bezogen auf wirtschaftliche Faktoren,
Ganz böse gefragt: Wieso sollte AMD ausgerechnet diesmal richtig liegen?

Wenn AMD keine Nachfolger für 7900XTX, 7900XT, 7900GRE und 7800XT präsentiert, gibt AMD Marktanteil auf. Diese Marktanteile muss AMD erst Mal in den unteren Segmenten hinzugewinnen um den bisherigen Marktanteil zu halten.
The1whoknocks schrieb:
ob dann Nerds im DIY Markt drauf abfahren oder nicht, wird man zur Kenntnis nehmen, mehr aber auch nicht.
Bei den über OEMs verkauften GPUs ist der Marktanteil von AMD noch schlechter als im Gesamtmarkt.
 
kachiri schrieb:
Aber maximal 300 USD für die obere Mittelklasse. WANN gab es das zuletzt? 2014?
vermutlich nichtmal da.
Du hast natürlich recht, Traumfabrik und so, es war etwas übertrieben von mir.
399 wären ein vernünftiger Preis oder 449 oder so.

rico007 schrieb:
Danach kommt was neues und ich hoffe AMD landet dann einen guten Wurf.
Ich will sehen wie sich AMD & Nvidia Kopf an Kopf Kämpfe liefern, denn dann gibt es wieder eine Preisschlacht was uns zu gute kommt.
Ich hoffe auch, dass AMD wieder technisch aufschließen kann.
NV ist hier so dominant, dass man sich echt bald denken kann, dass Intel + AMD einfach komplett aufgeben und alles über der 70-90er Reihe NV überlassen.
Mir wäre ein Kopf an Kopf auch lieber, das sorgt für noch mehr Innovation und bessere Preise.

rico007 schrieb:
Ich mein, ich kann mir eine 5090 leisten, toll find ich die Entwicklung nicht.
Mann muss aber auch Nvidia gratulieren, die liefern seit Jahren ab und der Erfolg gibt ihnen recht.
Denke viele hier speziell in unserem Forum können sich eine Leisten.
Ist jetzt auch nicht so, dass es so viel Geld wäre... ich zieh gerade um und muss ne neue Küche einbauen.... da geht das Geld raus... das sag ich dir...
Nur die Frage ist, damals 1500-2500 für ne 3090, dann 2000-2800 für ne 4090, jetzt bald über 3K für ne 5090?
NV macht doch was sie wollen, die nehmen mit was geht und ich verüble es ihnen auch nicht mal.
Bis auf den Preis hat NV eigentlich immer abgeliefert.
Dafür muss man auch echt mal seinen Hut ziehen.
Sie ziehen durch, haben kaum Treiberprobleme und sind Vorreiter in den Technologien ohne sich auszuruhen (im Vergleich zu Intel zumindest).
Natürlich will ich als Konsument möglichst wenig zahlen, versteht sich von selber, deshalb ja, auch mir ist die Entwicklung nicht passabel.
 
  • Gefällt mir
Reaktionen: freezer255 und Friedulin
ETI1120 schrieb:
Ganz böse gefragt: Wieso sollte AMD ausgerechnet diesmal richtig liegen?
Gegenfrage, lagen sie zu oft falsch? Wohl eher nicht, denn hier greift der gute alte Kapitalismus und das Unternehmen wäre aus dem Markt wohl schon ausgeschieden.
ETI1120 schrieb:
Wenn AMD keine Nachfolger für 7900XTX, 7900XT, 7900GRE und 7800XT präsentiert, gibt AMD Marktanteil auf. Diese Marktanteile muss AMD erst Mal in den unteren Segmenten hinzugewinnen um den bisherigen Marktanteil zu halten.
Wie hoch war der, gerade bei GRE und XTX? 7800XT und 7900XT, ja da bin ich bei dir, die dürften nen brauchbaren Marktanteil haben, aber wahrscheinlich verschmerzbar.
ETI1120 schrieb:
Bei den über OEMs verkauften GPUs ist der Marktanteil von AMD noch schlechter als im Gesamtmarkt.
Wahrscheinlich nicht von der Hand zu weisen, da aber, unabhängig davon wie gut AMD den gesamten Markt abgedeckt hat und wie gut das Lineup war, diese Sparte immer ähnlich scheiße lief, ist hier ein weiterer Abschwung (sofern möglich) eventuell schon eingepreist.

Nochmal, damit wir uns richtig verstehen, ich fände es auch nicht gut, wenn das Höchste der Gefühle für die nächsten zwei Jahre aus dem AMD Lager eine effizientere 4070S mit 16GB wäre und AMD im dGPU Sektor noch unwichtiger wird, andererseits habe ich da die letzten 15 Jahre zu viel Auf und Ab gesehen um da wirklich noch graue Haare zu bekommen.
 
Deater schrieb:
Hier glauben scheinbar immernoch Leute das AMD für Gamer produziert und entwickelt anstatt an ihren eigenen Geldbeutel zu denken.
Für Amd gibts aktuell einfach keine bessere Situation, Nvidia gibt die viel zu hohen Preise vor, sind die Buhmänner und Amd frickelt irgendwas zusammen was man in der Mittelklasse plazieren kann womit man noch ordentlich Kohle einfährt,im Idealfall ist das ganze mit wenig Entwicklungsarbeit und Materialkosten durchführbar, den Käufern einreden sie wären wichtig etc bla bla und fertig.
Ich glaube das reden sich die Leute nicht ein.
Denke schon, dass AMD hier nur das nötigste tut, weil sie resigniert haben vor NV.
Und welche gute Situation?
Die sind raus aus dem Desktop Bereich im OberMittel/Ober/HighEnd.
Im Notebook quasi verdrängt bei den dGPUs.
AMD verliert Stück um Stück Marktanteile. Intel hat <1/2%.
Böse gesagt ist NV = der Markt.
Alles andere ist im 1stelligen % Wert gelandet.
Das kann selbst für AMD auf Dauer nicht rentabel sein.

Und man benötigt ein "Image" eine "Marke" die dominiert, so verkauft man auch unabhängig der Preisklasse an alle Käuferschichten seine Produkte, genau das tut doch NV.
Jeder kennt NV, jeder hasst NV für die Preispolitik, aber keiner hasst NV für die Produkte und den eigentlichen Support, denn der ist gut.
Sogar eine 4060 oder so sind im Vergleich zu AMD "gut genug" für die meisten um Intel/AMD links liegen zu lassen, man kenn halt NV als Marke und kauft das weil es "der Standard" ist.

Denke AMD fährt nur noch Geld mit iGPUs und Konsolen ein, alles andere ist unwirtschaftlich.

AMD muss dringend was am Image, der Außendarstellung und dem gesamtheitlichen Produktlineup machen.
So geht das auf jeden Fall nicht weiter....

GOOFY71 schrieb:
Ich habe mir eine Schmerzgrenze von 1000€ gesetzt, weniger wäre natürlich besser.
Dafür gibts dann sicher eine 4080S (ggf. sogar Refurbished vom Händler mit Gewährleistung).
Die wird schneller sein als alles was jetzt von AMD kommt und hat genau das was du suchst.
Oder du kaufst dir einfach für 1100-1200 eine 4090 mit noch 1 Jahr Garantie, die werden bei Release alle so auf den Portalen landen.
 
Ich bin ja einer, der über die Jahre gerne Radeon gekauft hat. Sie sind auch viel besser als ihr Ruf und zumindest ich bzw. mein Umfeld hatte nie Probleme. Einzig Cyberpunk ist da mal etwas negativ aufgefallen, wenn man wirklich alles eingeschaltet hat. War aber bis jetzt der einzige Titel. Aber auch den konnte man in guter Optik flüssig und ohne Probleme durchspielen.

Treiber Probleme gibt es eigentlich keine, mal mir viel nie was auf. Mal sicher nicht mehr wie bei nVidia. Auch sind die Karten weitgehendst lautlos, ich hatte noch nie laute Lüfter oder Spulenfiepen.

Aber wenn sich dies mit dem Namen bewahrheiten sollte, wäre dies ein sehr schlechter Zug von AMD. Es würde irgendwie billig wirken. Denke da würde sich AMD so richtig an das Bein pinkeln und ihr billig Image fördern. Sie sind doch erst langsam auf dem Weg, dieses abzustreifen. Wäre wirklich sehr schade, sollte sich dies bewahrheiten.
 
MaverickM schrieb:
Die High-End-Bubble hier im Forum mit 12% 4090 Nutzern in einer eh schon nischigen Tech-Bubble mag das vielleicht so sehen. Aber der Großteil der Leute kauft halt keine Grafikkarten oberhalb der 500€ Marke. Und AMD möchte möglichst diesen Markt bedienen, weil man dort kompetitiv und meist deutlich besser als nVidia aufgestellt ist.
Blöd nur, dass man preislich darüber liegt.
 
The1whoknocks schrieb:
Nochmal, damit wir uns richtig verstehen, ich fände es auch nicht gut, wenn das Höchste der Gefühle für die nächsten zwei Jahre aus dem AMD Lager eine effizientere 4070S mit 16GB wäre und AMD im dGPU Sektor noch unwichtiger wird, andererseits habe ich da die letzten 15 Jahre zu viel Auf und Ab gesehen um da wirklich noch graue Haare zu bekommen.
Die relevante Frage ist doch, wie lange der Markt diesen Zustand noch verkraften kann, bis es einen Knall tut.
AMD war nicht gerade beständig was den Kurs angeht, ja, da stimme ich zu, aber mich besorgt die Situation durchaus.
Intel gibt sicher auch bald auf, die sind zu angeschlagen und am Ende kommt AMD vll. noch auf die Idee komplett aus dem dGPU Markt auszutreten, falls das APU Thema präsenter wird.

Das Problem an der Sache ist nur, dann geht NV Marktanteil stramm Richtung 100% und so realistisch muss man sein, NV bastelt an SoC Lösungen für Windows on ARM, soviel ist denke ich durchgesickert die letzten Monate/Jahre.
Und da glaub ich eines: das schlägt ein und dann sieht AMD auch technisch wieder alt gegen diese Lösungen aus.
Ergo kennt man NV vom Namen her besser als AMD und AMD verliert hier auch Marktanteile und alle verlieren am Ende, weil NV alle Sparten beherrscht....

AMD bräuchte einen beständigen "Ryzen" Moment für Radeon.
Aber ich glaube nicht, dass das noch hinhaut, das lässt der Markt so gar nicht mehr zu.
 
  • Gefällt mir
Reaktionen: JarlBallin
@MaverickM, wir hatten das doch schon so oft.

NVIDIA ist halt in fast jedem OEM PC und Laptop.
In meinem Bekannten Kreis werden Fertig PC oder Konsole gekauft.
Mit mir gibt's in meinem Umfeld nur noch 1 Person welche am PC bastelt.
Alienware ist mit anderen MacBook/Konsolen zocker vertreten.

Hier um die Ecke beim Arlt stehen meist Leute mit Laptop oder Arlt zusammen gestellten PC beim Service.

Wer sich dann diese Zeit für den PC Bau nimmt, möchte ein passendes Ergebnis welches AMD als Trittbrettfahrer bei NVIDIAs Preisen nur bedingt bietet.

Dazu sei gesagt: 1 Monat nach Release der 4090 hatte NV über 100.000 ausgelieferte AD102 informiert, während alle anderen Chips der ADA Serie nicht diese Stückzahl aufweisen konnten.

Meine Erfahrung der letzten 25 Jahre war: Karte kaufen, teils sehr teuer.
Nach 2 Jahren max. noch den Wert eines Briefbeschwerers und "Rendite" ähnlich wie Spiele welche beim Gamestop verkauft werden.
Mit der ADA Serie hatte ich nach 1 1/2 Jahren kaum Verlust gemacht, ähnlich wie beim iPhone.

Genau genommen ist unser Hobby sogar günstiger und nachhaltiger geworden!
 
  • Gefällt mir
Reaktionen: Wilfriede
coxon schrieb:
die traurigsten Aussichten

Das tut mir sehr Leid für Dich! (Wird zum running gag)

Hoffe, Du hast trotz der traurigen Aussichten schöne Feiertage. 😅
 
  • Gefällt mir
Reaktionen: coxon
Man kauft sich doch keine grafikkarte nur wegen raytracing oder pathracing
Es stimmt raytracing oder pathracing da schaut die grafik schon toll aus
Ich gebe zu dlss und fsr /frame generation eine tolle sache sind
Es ist nicht zwingend notwenig
weil der vram besonders für 144p oder 4k schnell voll wird wen man 12gb hat
bei raytracing oder pathracing braucht man sicher 2025 min 16gb das reicht eventuell für 1440p
bei 4k muss man schon mit 24/ 32 gb
Wie gesagt kommt auf´s spiel an
zum beispiel stalker 2 oder das Indianer Jones spiel
brauchen für vram für 4k
die neuen amd bin ich zwar gespannt was sie können aber wen die keine highend grafikkarten heraus bringen kann man nur die 7900xt20 /xtx 24gb
und die neuen geforce 5000 serie haben auch nicht viel vram 5060/5070 kommen ja mit weniger raus die 5070ti hat zwar 16 gb und 5080 soll ja mit 16 bzw die 24 gb variante soll ja auch erscheinen und die 5090 32gb dafür über 2000 kosten
bitte nicht falschverstehen 2000 für eine Grafikkarte ist zu teuer
wen man das geld hat kein problem aber ich finde halt es ist zu teuer
sieht man derzeit bei der 4090 die preise
Man möchte ja die grafikkarte ja länger haben und nicht immer eine neue kaufen 3 oder 4 zum beispiel ,
und nicht alle 2 jahre weil prozessoren halten ja im schnitt auch 5 jahre weil viele zum beispiel die ryzen 5700/5800x3d oder 7800x3d oder von intel die 12/13/14 serie haben
was meint ihr dazu
 
Sinatra81 schrieb:
Das tut mir sehr Leid für Dich! (Wird zum running gag)

Hoffe, Du hast trotz der traurigen Aussichten schöne Feiertage. 😅
Nein, meine Feiertage passen zu den traurigen Aussichten, aber danke der Nachfrage! 😝😂
 
  • Gefällt mir
Reaktionen: Sinatra81
Grundgütiger schrieb:
Wer sich dann diese Zeit für den PC Bau nimmt, möchte ein passendes Ergebnis welches AMD als Trittbrettfahrer bei NVIDIAs Preisen nur bedingt bietet.

Ja, wegen genau solch inhaltlich falscher Fehlinformationen steht AMD mit einem schlechten Ruf da.

Grundgütiger schrieb:
1 Monat nach Release der 4090 hatte NV über 100.000 ausgelieferte AD102 informiert, während alle anderen Chips der ADA Serie nicht diese Stückzahl aufweisen konnten.

Kunststück, da die 4080 auch erst einen Monat nach der 4090 veröffentlicht wurde und die anderen Karten noch später... :rolleyes:
Ausgelieferte Chips heißt übrigens nicht verkaufte Karten. Das heißt nur, dass die Board-Partner mit Chips versorgt wurden.
 
  • Gefällt mir
Reaktionen: JarlBallin
DeVIce schrieb:
mama mia .. ist das alles erbärmlich, nvidia verkauft unterhalb der 5090 mehr oder weniger die gleichen karten wie vorher nur mit ein bischen mehr ki und softwaretricks. und amd deren beste rdna 4 karte auf 4080 niveau liefern sollte hängt nun gerade mal die 7900gre ab. wow!
Gut, man könnte auch sagen, niemand braucht momentan wirklich mehr Leistung. Reicht doch alles.
 
  • Gefällt mir
Reaktionen: LatinoRamon
GreatEvil schrieb:
Ich habe früher Igor sehr geschätzt.
Aber wenn das Gesamtsystem brutto an der Dose mit 2 Monitoren nicht mal ansatzweise 70W verbraucht und wir reden hier von Personen und Messsystemen die hauptsächlich für die Luft-, Raum- und "Unterseefahrt" arbeiten / genutzt werden und Igor, CB und pcgh was von 70 bis 100 W nur für die Karte erzähen, weiss ich wer stuß erzählt.
Die Herausforderung nehme ich doch glatt an. Wenn Eure Systeme genauer sind als die Gegenparts von Rohde & Schwarz bzw. Hioki, dann dürften deren Aktien ziemlich schnell fallen. Werden sie aber nicht. Bitte Messaufbau und Protokolle als Beweis. True RMS Messungen hinter einem Schaltnetzteil an der Steckdose haben nämlich ihren ganz eigenen Charme. Die Gleichstrommessung in einer meiner Nubert-Boxen meldet Sekundärseitig reichlich 300 Watt mit 1000 Samples pro Minute, an der Steckdose mit einem Messgerät vor den Boxen sind es nur rund 190 Watt. Da muss man schon etwas anders messen. Aber ich lasse mich da gern überraschen. Ich bringe auch einen promovierten Schiedrichter mit :D

Im Übrigen kann man sogar die Abwärme eines Systems ermitteln und daraus dann auf die zugeführte elektrische Energie schließen. Wundersame Vermehrung gibts nur in der Kirche, aber wir haben ja gerade Weihnachten. Die Thermal Design Guides von NVIDIA stimmen aufs Watt genau. :)
 
  • Gefällt mir
Reaktionen: Mr.House, riOrizOr, DevPandi und eine weitere Person
ElliotAlderson schrieb:

Es sind Gerüchte.

Und die kolportierte 9070XT ist ja auch die einzige Karte, die vorgestellt werden soll.
 
Zurück
Oben