News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht

Taxxor schrieb:
Nichts anderes ist doch im Grunde die 7800XT
Naja. Mit Stock speicher, wie zu release, ist da kaum luft, hast du recht. mit der Freigabe des erhöhten Ram Taktes durch AMD, sieht das schon ein wenig anders aus.

Findet bloß in keinem Testpacour wirklich Anwendung.
 
Dann bleibt die 7900XTX halt eingebaut :)
 
Taxxor schrieb:
Die 4090 wird sie vmtl nicht mal ganz erreichen. Gepaart mit weniger VRAM kann sie eigentlich nicht sonderlich teurer werden als es die 4080 war bzw sogar eher die 4080S, also 1109€, aufgrund des schlechten Kurses aktuell eher 1199-1299€
Wieso die 4080 hatte noch ne 7900xtx als Konkurenz, die aus meiner Sicht die bessere Karte war, jetzt ist das das TOP Modell für Gamer, und ja man wird es nicht ganz erreichen, die 4090 kostet >2000, wenn sie leicht langsamer ist wären 1800 1700 angemessen, wegen dem RAM kannst noch 200-300 Euro abziehen, von daher halte ich meine Ansage für Realistisch.

Bei Monopolen und die 5080 hat nun ein Monopol in der Leistungsklasse die die 4080 nicht hatte, wieso soll das mehr Leistung für selben Preis kommen, wie sollen sie den Aktionären erklären das sie nicht den höchsten Preis nehmen den sie durchsetzen können?
 
duskstalker schrieb:
die gab's zu dem Preis schon mal. habe zwei sapphire 7900gre pure für 520€ bei Kunden verbaut.

aber die Preise für die gre sind mittlerweile fast 100€ gestiegen. für 500€ ne gute Karte, mit RAM oc legt das Ding 10-15% zu. aber die 7800xt liegt bei 450€-500€, da lohnen sich 600€ und drüber für eine gre nicht mehr.
Ja 10-15 % sind es meines Wissens eher nicht, soweit ich weiß eher ~7%. Aber das reicht meiner meinung nach aus, dass man fairer weise nicht mehr sagen sollte, dass die 7800Xt und die 7900gre quasi die gleichen karten sind.

duskstalker schrieb:
ich finde halt den alten Release Preis vom spirituellen Vorgänger Wiederholen halt nicht sonderlich attraktiv. damit AMD mit rdna4 was reißt, müsste das Ding schon für 400€ kommen, und das wird niemals passieren.
stimmt.
 
blackiwid schrieb:
Wieso die 4080 hatte noch ne 7900xtx als Konkurenz, die aus meiner Sicht die bessere Karte war, jetzt ist das das TOP Modell für Gamer,
Du kannst gerne die 5090 als Workstation GPU sehen, wie es einige hier auch schon bei der 4090 getan haben, ändert aber nichts daran, dass sie das Topmodell für Gamer sein wird.

blackiwid schrieb:
und ja man wird es nicht ganz erreichen, die 4090 kostet >2000, wenn sie leicht langsamer ist wären 1800 1700 angemessen
Die 4070 kam auch nicht für 2000€ weil sie nur etwas langsamer als die 3090Ti mit ner UVP von 2249€ war.

Die 9070XT wird auch leicht langsamer als ne 7900XT sein, wären dann 800€ auch okay? Immerhin 200€ weniger als die UVP der 7900XT
 
wieso sollte amd product_name umtransformieren, wenn sich hinterher nicht folgendes ergibt:
9070 schlägt 5080
9060 schlägt 5070
9050 schlägt 5060
 
DevPandi schrieb:
@Quidproquo77 na, da siehst du mal, wohin es führt, wenn ich auch die negativen Gerüchte aufgreife und dazu mal ehrlich meine Meinung schreibe. Jetzt ist es wieder AMD Bashing. ;)
Naja, ich finde deine Äußerungen ehrlichgesagt auch etwas sehr negativ.^^
Es ist doch genau das was aufgrund des kleinen Chips und der Spezifikationen zu erwarten war.
Die kolportierte Chipgröße war ja bisher ein ziemliches Rätsel, weil man damit niemals eine RTX 4080 erreichen kann.
Wenn jetzt die 7900GRE + 5% bei 220W herauskäme, wäre das doch ein guter Chip und mehr oder weniger gleichauf mit der 4070 Super bei etwas geringerer Chipfläche und maximaler Density.

Eventuell hat man eine Steigerung der Raster-IPC auch vollkommen aufgegeben um bei RT ein richtiges Feuerwerk zu zünden und das mit dem Chiplet Ansatz nicht aufgegangen wäre. Ein verdoppelter Chip kommt dann in der nächsten Generation.
DevPandi schrieb:
Entschuldige also, wenn ich hier relativ klar schreibe, dass RDNA 4 enttäuschend ist, wenn die Gerüchte stimmen.
Enttäuschend von der absoluten Rasterperformance ja. Was den Rest angeht, bin ich positiv gestimmt.
GreatEvil schrieb:
Die angeblichen zu hohen Teillastverbräuch kamen ja durch das von Nvidia gesponsorte Messsystem welches sowohl PCGH aus auch CB genutz haben.
Wenn ich eines weiß, dann dass die von Nvidia gesponserten Messsysteme die übrigens nicht nur an Redaktionen verschickt wurden, immer saubere Arbeit geleistet haben. Ob das jetzt LDAT oder PCAT war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: timOC und GogOlo
Experte18 schrieb:
Es ist wie es immer ist seit 20 Jahren. Im Vorfeld werden die AMD Karten immer gehypt um dann zum Lauch zu enttäuschen.Immer das gleiche. Das erlebe ich schon seit 20 Jahren. Mal gucken ob sich das noch Mal ändern wird in 80 Jahren.
Stimmt nicht ganz.

An der HD 7970 hatte NVIDIA schon zu knabbern.

Außerdem sind RX 470/570/480/580 auch bzw. trotzdem zu Highrunnern geworden.

Intel war auch ganz oben, es kommt auch für NVIDIA die Zeit, wenn sie abstürzt.
 
  • Gefällt mir
Reaktionen: Fighter1993
Casillas schrieb:
Ach so? Ich behaupte mal, dass eine 7900GRE für 500€ Stand heute recht erfolgreich wäre.
Die GRE gab es doch lange Zeit für ca. 570€. Eine 9070XT die kaum schneller und etwas günstiger ist, wird nicht viele Käufer finden. Wenn sich AMD die Messlatte so niedrig setzt, muss man wie Intel mit dem Preis argumentieren. Die Karte muss wirklich 400€ kosten, wie damals die 5700XT, allerhöchstens 450€ wegen Inflation und blabla. Wenn man die Karte 50€ billiger als eine Nvidia Alternative macht, wird man in den allermeisten Fällen zu Nvidia greifen, einfach weil Nvidia, Räj Träjsing und DLSS. Das ist leider die Realität, nur mit aggressiven Preisen kann sich AMD Marktanteile versprechen. Ansonsten wird man Intel Arc in der Bedeutungslosigkeit Gesellschaft leisten.
 
Casillas schrieb:
Über AFMF2 wird leider quasi gar nicht gesprochen. Ich hab es bei 3 spielen immer genutzt, ohne für mich ersichtlichen Nachteil. Lief ohne Probleme.
Seit dem es im Adrenalin Treiber eingeführt wurde hat sich AFMF2 sehr gut entwickelt zumindest für RDNA2 und RDNA3 Karten. Bei einigen Games war es sogar ein richtiger Leistungssprung bei in meinen Augen nicht einmal ersichtlich schlechterer Bildqualität.

Muss aber auch sagen das mein noch recht junger MSI MAG Monitor mit IPS Panel da auch einen recht großen Unterschied ausmacht gegenüber meinem alten Gigabyte 32 Zöller mit VA Panel Technik.
 
  • Gefällt mir
Reaktionen: DF86
Taxxor schrieb:
Die 4070 kam auch nicht für 2000€ weil sie nur etwas langsamer als die 3090Ti mit ner UVP von 2249€ war.
Ja ein kompletter Speicherkrüppel der aber noch Konkurrenz von AMD hatte massiv, da kann man nicht einfach die Konkurrenz ignorieren auch erhöht.

Und nein Nvidia hat nicht überall an die OEMs die Losung aus gegeben das die 4090 ne reine Workstationkarte sein soll, bei 5090 ist das der Fall.

Nochmal wie begründest du so ein Geschenk an Gamer ist Nvidia kein Gewinnorientiertes Unternehmen stellen sie gute Preise trotz Monopol ein auch wenn sie mit jeder nicht verkauften Grafikkarte eine Teurere für A.I. verkaufen können? Nur aus Angst AMD könnte in 2 Jahren mal wieder was brauchbares liefern?

Und lass mir doch meine Vorhersage, das ist Glaskugel beweisen können wir es nicht und werden is bald sehen, ich stell halt meine Prediktion mal in den Raum vielleicht ist ja Nvidia ein Gemeinnütziger Verein wie du es glaubst...
 
mscn schrieb:
andererseits startet NVIDIA nicht mit all diesen Variationen in eine Gen, sondern sind mit den Super-Modellen eher Mid-Gen Updates.
Bei AMD war es aber auch eigentlich nur die GRE, die heraussticht, und die war urprünglich ja auch gar nicht für unseren Markt gedacht.

Ansonsten hast du immer größere Zahl = besser und gleiche Zahl+XT = besser.
Ergänzung ()

blackiwid schrieb:
Nochmal wie begründest du so ein Geschenk an Gamer ist Nvidia kein Gewinnorientiertes Unternehmen stellen sie gute Preise trotz Monopol ein auch wenn sie mit jeder nicht verkauften Grafikkarte eine Teurere für A.I. verkaufen können?
Ich begründe es mit der Vorgängerkarte, der 4080 bzw der 4080S.
Ich sehe keinen Grund, warum die 5080 merklich teurer als die 4080S werden sollte.

Der Chip ist genau so groß wie der der 4080 und der Prozess ist auch nicht sonderlich teurer.

Die 4090 ist ja auch nicht merklich teurer als die 3090 geworden($1599 vs $1499), obwohl sie 70% schneller war und auch noch einen deutlich teureren Prozess genutzt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993 und shaboo
Nighteye schrieb:
Ich fand die GCN Zeit bei Radeon total langweilig im vergleich zu der Rasanten Entwicklung im Jahrzehnt davor.
Die R280X kam ewig spät ende 2013 war langsamer als die HD 7970ghz Edition von 2011.
Ääääh.
Das war einfach nur ein Rebrand, die 280X IST(!) nämlich quasi die 7970. Selber Chip, quasi gleicher Takt. Was hast du erwartet?

Und ja, GCN- Zeit war langweilig. Warum?

Nun erstens: 28nm.
GCN war die erste Architektur mit 28nm. Und 28nm war der erste Prozess der entgegen der früheren Prozesse nicht alle 2 Jahre komplett ersetzt wurde. erst 5 Jahre später kam 16nm. Das heißt man war "gefangen" in 28nm und daher waren Fortschritte eher gering
Zweitens: GCN entstand in einer Zeit wo AMD ATI gekauft hat und einsparungen machen musste. GCN blieb also langsamer als erhofft bzw. ineffizienter. Und dann wurde es eben auch nur geringfügig weiterentwickelt.
Die letzte Ausbaustufe, quasi ein GCN 2. Versuch wäre Vega gewesen. Aber auch diesem Projekt wurden während der Entstehung die Mittel genommen und in "Zen" investiert. Was natürlich vom Umsatz her Sinn ergibt.
Daher war GCN von 2 Seiten her "gelähmt"
Nvidia hat sich aber dennoch entschlossen nochmal eine neue Architektur zu entwickeln die - wenn man so will - viel "näher" an 28nm dran ist, diesen Prozess besser nutzt. Daher war Maxwell effizienter als Kepler.
Kurz vor Maxwell Release hab' ich übrigens Nvidia-Aktien gekauft, weil klar war, dass GCN keine großen Sprünge mehr machen würde und Nvidia schon jetzt nicht schlagen kann, Nvidia aber die Nachfolge-Generation in der Mache hatte....
Nighteye schrieb:
Erst Polaris, die RX480 im Jahr 2016 konnte mit einer GTX 970 von 2014 gleich ziehen was Leistung und Verbrauch anging.
weil GCN (siehe oben) eben ineffizient war im Vergleich zu Nvidia und AMD hat hier einen komplett überlegenen Prozess gebraucht um überhaupt mit NV gleichzuziehen.
Nvidia brachte damals aber natürlich auch Pascal in TSMCs 16nm Prozess bzw. wurde die 1050 AFAIR bei Samsung gefertigt - ähnlich der RX460 und das hat dann gut den Effizienzunterschied aufgezeigt.

Dennoch: die 480 hatte schon 8GB RAM und das um knapp über 200€. 9 Jahre später kommt Nvidia immer noch mit 8GB Karten ums Eck (5060), wird dafür aber 300+ verlangen wollen.
Nighteye schrieb:
2012 bis 2016 waren bei Radeon damals die langweiligsten Jahre. Quasi so langweilig wie jetzt wieder mit RDNA 4.
Naja man versucht halt etwas zwischenzuschieben. Warum auch immer, aber am Markt hat man im Moment keine Chance mit dem was man hat und Nvidia legt ja schon nach...
Der Vergleich - weil man nur Mittelklassechips auflegt - ist also passend zu Polaris und der RDNA1 Karte 5700, die Volle Ausbaustufe kommt wohl erst mit dem was nach RDNA 4 kommt, eventuell beglückt uns AMD ja in 1 Jahr dann mit RDNA5 (oder wie auch immer es heißen wird) in 3nm.
 
McLovin14 schrieb:
Mit den kolporierten Daten ist eine 5080 viel, aber kein High-End mehr. Der Chip ist ungefähr die Hälfte des großen Chips. 5080 = ½ x 5090

350 bis 400 mm² Die, 256-bit SI, 16 GB VRAM
Das waren vor 3-4 Jahren etwa die Daten der RTX3070 (abgesehen vom RAM). MSRP 499$

Jetzt werden die Leute eher 999$ dafür berappen müssen.
Meiner Meinung nach ist alles über 700€ high-end.
 
kachiri schrieb:
Joa. Wie bei der 7600 und 7600 XT, wo die 16 GB Variante trotz mehr Takt eigentlich nie wirklich mehr als 2-3% schneller ist...
Zwischen 7600 und 7600XT liegen auch nur 25W dazwischen und der RAM-Takt ist auch identisch. Da kann man deutlich mehr differenzieren, man könnte die 9070 XT mit 18 Gbps ins Rennen schicken, die 9080 aber mit 20 Gbps und das Limit bei der 9070XT erwarte ich bei 250W. Die RX9080 könnte 300 W sich genehmigen, das wären 50W mehr. Und schon wären wir bei einem größeren Unterschied. Aber wie gesagt, es ist nicht gesagt, dass der 9700XT vollausbau ist. Der 9700XT könnte auch "nur" mit 56 bis 60 CU daher kommen. Dann kämen 4 bis 8 CUs noch on TOP bei der RX9080.

Wie gesagt, die RX6900 hatte die Gerüchte damals auch nicht auf dem Schirm, weil die später kam. Die drei PCBs mit N48-Chip waren aber schon in der Gerüchteküche.

1734959226628.png
 
Taxxor schrieb:
Die 4070 kam auch nicht für 2000€ weil sie nur etwas langsamer als die 3090Ti mit ner UVP von 2249€ war.
Laut CB war die 4070 5% langsamer als die 3080 und kostete €660 während die 3080 700€ UVP hatte. Der Vorgänger 3070 war 20% günstiger.

Meine Vermutung ist, die 4080 S wird vorerst am Markt bleiben und die 5080/90 setzen sie preislich und leistungsmäßig darüber an, also €1500 aufwärts.
 
wäre schon hart grenzwertig von AMD, aber sind auch alles nur Gerüchte und wer weis ob sie nicht auch noch ne 9080XT bringen oder dient generell nur als Lückenfüller bis RDNA5 un wollen einfach nur schauen was mit der neuen Architektur geht, ggf. kommt sie ja bei der RT Leistung an eine 4070Super ran

einfach abwarten un Tee trinken bis zum offz. Start und was da ggf. sonst noch von AMD kommen könnte, trotz alledem traurig dass wenn es so kommt und die 9070XT die "Leistungs-Spitze" von RDNA4 bilden sollte, nicht mal an eine 5070 kommen wird
 
metoer schrieb:
Laut CB war die 4070 5% langsamer als die 3080 und kostete €660 während die 3080 700€ UVP hatte. Der Vorgänger 3070 war 20% günstiger.
Bei Ampere kann man das ganze Spiel auch im eigenen Lineup spielen, die 3080 war auch nur halb so teuer wie die 3090 obwohl sie nicht so viel langsamer war, sie hatte halt auch weniger VRAM.

Das gleiche kann man jetzt bei der 5080 auch sagen, warum sollte der Preis in der Nähe der 4090 sein?
 
Zurück
Oben