News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht

Mikash schrieb:
AMD wollte nur Mittelklasse (bis 500 Euro) liefern und das werden sie tun.
Ich gehe eher von mindestens 600€ für die 9070XT aus
 
  • Gefällt mir
Reaktionen: Innocience, SweetOhm, K3ks und 2 andere
Nighteye schrieb:
Raster muss 20% günstiger sein.
Also bei RTX 4070ti Speed, dürfte die RX 9070XT keine 500€ Kosten.
Hast du die Preise einer rtx4070ti(S) mal nachgeschaut? Wir sind da bei 833€ jetzt rechner mal 20% weniger

Wenn du jetzt nur die rtx 4070super mit 611€ im blick hast dann kommen wir ganz knapp an die 500€ mit deinen 20% weniger
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm und Nighteye
AMD kann die neuen Karten auch Sumpfpilz 123 nennen, ist mir relativ egal. Mich interessiert zuerst die Leistung und danach der Preis. Wenn die Gerüchte stimmen und nicht mal die Leistung einer 7900XT erreicht wird, dann ist auch der Preis irrelevant. Das ist zwar bedauerlich, aber überhaupt kein Problem für mich und wenn AMD noch zwei Jahre braucht, dann soll es so sein. Ich weiß schon, warum ich vor drei Jahren eine Grafikkarte mit 12 GB VRAM gekauft habe. Wenigstens werden ich die nächsten zwei Jahre keine Probleme mit Texturen haben. AMD, von mir bekommt ihr zwei Jahre zum nachbessern, nur kein Stress.
 
  • Gefällt mir
Reaktionen: SweetOhm, domian und Convert
ElliotAlderson schrieb:
Das wird AMD auch klar sein, aber kann es nicht sein, dass die Preisvorstellung einfach nicht möglich ist?
Das Problem an der Stelle ist nur halt dann, dass die 9070 quasi nur 10 % schneller als die 7800 XT ist und am Ende genau wieder das kostet.

ElliotAlderson schrieb:
Wenn ich mir anschaue, was TSMC mittlerweile für seine Nodes verlangt oder was die VRAM Chips+das Interface kosten, dann wird mir klar, warum GPUs heutzutage so teuer sind.
Wobei es da auch darauf ankommt bei TSMC. Die Nodes sind besonders in der Anfangszeit deutlich teurer, nur sobald die ersten Produzenten wechseln, werden die Nodes günstiger, auchw weil TSMC die Auslastung hochhalten will.

Und bei Nvidia reden wir je nach Produkt teilweise von Margen von 60 % und Nvidia will diese auch halten. Die Frage ist also an der Stelle eher, wie viel Nvidia wirklich zahlt und was sie dann von den Herstellern wollen.
 
  • Gefällt mir
Reaktionen: Clonedrone und SweetOhm
Dann wird es bei mir wohl doch eher die 7900 XT als 1440p GPU mit ordentlich VRAM und max. 700 €.
Schade, hatte gehofft mit der 8800 XT 9070 XT noch etwas aktuelleres zu bekommen, aber wenn nicht gerade der Preis unterhalb der 7900 XT liegt, warum sollte ich dann zuschlagen?
 
  • Gefällt mir
Reaktionen: SweetOhm, Mr.House und Nighteye
BAR86 schrieb:
wozu man überhaupt eine neue Gen bringt, wenn sie nicht schneller als die alte sein sollte
Siehe Polaris vs Grenada/Fiji.

Dann muss diese neue Gen aber eben auch rundherum stimmen.
 
  • Gefällt mir
Reaktionen: SweetOhm und BAR86
Keine Ahnung wer die Euphorie (gerade hier im Forum war das ja so) hochgebracht hatte, dass die Karte "mindestens so schnell wie die 7900XT" sein würde, waren doch die Eckdaten schon die ganze Zeit so, dass man eher auf 7800XT Niveau landen würde. Denke, die Karte wird jetzt mit der 4070 in Sachen Ray Tracing konkurrieren, bei der Rasterleistung wahrscheinlich ebenso. Eine 5070 wird da nicht die Konkurrenz sein.
 
  • Gefällt mir
Reaktionen: SweetOhm
Darüber hinaus soll AMD das Namensschema anpassen, so dass sich die Leistungsklassen einer Serie – wie bei Nvidia – nicht mehr an der 2. sondern der 3. Stelle der Produktbezeichnung zu erkennen geben: Statt einer Radeon RX 9700 soll es eine Radeon RX 9070 geben.

Alter Latz hoffentlich nicht das bringt mich glatt zum speien.

Ich fand das eigentlich gut so wie sie es bisher gemacht Haben na ja man kann nur abwarten was davon stimmt und was Grütze ist
 
Nighteye schrieb:
GTX 260 meinerseits war Cherry Picking.
Aber die Karten davor verbrauchten ca dass gleiche an Watt (FX5700 Ultra, 6600GT, 7600GT, 8600GT)
Und da gabs immer über 200% Leistungssteigerung jedes Jahr.
Trotzdem ist es Cherry Picking, weil du den Start auf der ultra schwachen 5000er Reihe und das Ende auf der Starken 8000er Reihe setzt.
Zudem sich in der Zeit stark was an der Software geändert hat, SM3 und mit G80 dann der Unified Shader Aufbau, deswegen sagte ich, nimm im Vergleich Features wie RT dazu, dann hast du den gleichen Effekt. Die neue Hardware kann Dinge, die im Nachgang betrachtet einfach sehr viel schneller sind wenn man eben die Spiele daraufhin ausrichtet. Das ist even wie heute Hardware mit RT Fokus in Raster only zu vergleichen oder eben RT in den Fokus zu rücken. Vollkommen logisch, dass die alte Hardware bei RT völlig abstinkt.
Nighteye schrieb:
GTX 1080 verbrauchte max nur 180W. Dass sind ganz andere Zeiten als eine RTX 4090 mit 450 bis 600W.
Ich sprach von der 1080TI, das sind 250-275W. Und selbst WENN das relevant wäre, eine auf 275W schaumgebremste 4090 dreht trotzdem Kreise in besagtem Szenario, einfach weil die alte Kamelle Pascal RT nicht in Hardware beschleunigen kann...

Was definitiv stimmt, dass sich die Zeiten verlängert haben, aber das liegt halt auch an anderen Gründen wie dem breit ziehen der Produktpaletten. Wenn man unten knausert und oben immer mehr drauf legt, sinken die Zuwächse in der Mitte halt. Früher hat man häufiger die ganze Palette hochgesetzt.
 
DevPandi schrieb:
Und bei Nvidia reden wir je nach Produkt teilweise von Margen von 60 % und Nvidia will diese auch halten. Die Frage ist also an der Stelle eher, wie viel Nvidia wirklich zahlt und was sie dann von den Herstellern wollen.
Habe gestern irgendwo aufgeschnappt, dass die Marge bei AMD ~47% beträgt. So weit weg ist man also auch nicht von Nvidia und damit kann man auch keine Kampfpreise erzielen. 13% machen den Kohl bei ~$500 jetzt auch nicht fett.
 
  • Gefällt mir
Reaktionen: ShowOff und Nighteye
SFFox schrieb:
Da wird kein Regler gedreht in der Entwicklung wie schnell eine GPU am Ende wird, da wird geforscht und auf Langzeit gewettet, wie gut eine neue Architektur performen wird mit theoretischen Hochrechnungen. RDNA hatte einen guten Start, aber hinten raus lässt sich langfristig leider nicht so viel damit erreichen, wie man mit GCN am Ball bleiben konnte (u.a. Fine Wine).
Ich fand die GCN Zeit bei Radeon total langweilig im vergleich zu der Rasanten Entwicklung im Jahrzehnt davor.
Die R280X kam ewig spät ende 2013 war langsamer als die HD 7970ghz Edition von 2011.
1734953814640.png

R9 380 welche erst 2015 kam war quasi dass selbe mit mehr Takt und lahmer als eine GTX 960.
1734953571926.png

Erst Polaris, die RX480 im Jahr 2016 konnte mit einer GTX 970 von 2014 gleich ziehen was Leistung und Verbrauch anging.
2012 bis 2016 waren bei Radeon damals die langweiligsten Jahre. Quasi so langweilig wie jetzt wieder mit RDNA 4.
 
  • Gefällt mir
Reaktionen: SFFox
Mit dieser Leistung sollte die Karte mMn max 500$/600€ kosten.
Und das würde ich schon als zu hoch empfinden.
Wünschen würde ich mir da eher 400$/475€
 
  • Gefällt mir
Reaktionen: SweetOhm und Bullgard
Taxxor schrieb:
Und wenn dir PCAT nicht gefällt, konntest du es auch bei Igor nachlesen

Ich kenn den Artikel von igor. Das war einer der Gründe warum wir in der Firma mit EP-Messsystemen mal nachgemessen haben.

Ich habe früher Igor sehr geschätzt.

Aber wenn das Gesamtsystem brutto an der Dose mit 2 Monitoren nicht mal ansatzweise 70W verbraucht und wir reden hier von Personen und Messsystemen die hauptsächlich für die Luft-, Raum- und "Unterseefahrt" arbeiten / genutzt werden und Igor, CB und pcgh was von 70 bis 100 W nur für die Karte erzähen, weiss ich wer stuß erzählt.
 
  • Gefällt mir
Reaktionen: JarlBallin
Das klingt erstmal so als hätten sie sich in die Ecke entwickelt. RDNA 3 konnte nicht so ganz abliefern und RDNA 4 anscheinend auch nicht🤔
 
  • Gefällt mir
Reaktionen: stevefrogs
hmm wenn Nvidia will, könnte man Amd wenn das bei RDNA4 leistungsmässig so kommt, wohl endgültig den Garaus machen im Graka Bereich.

Denn sollte die 9070 mit diesen Leistungsdaten und dann so zwischen 500 und 600 Euro auf den Markt kommen, braucht Nvidia nichts tun als die 5070 mit einem Preisschild von 600-700 Euro versehen.

Dann wars das wohl mit Amd im Consumer Graka Bereich.

Wird wohl aber Gott sei Dank (auch wenn es für die Kunden im ersten Moment toll wäre, auf lange Sicht aber noch schlimmre als jetzt schon) nicht kommen da die Anteile von Nvidia im Consumer Graka eh schon jenseits von gut und böse sind und sie zudem mit Graka Chips die sie im professionellen Umfeld verkaufen noch viel mehr abchashen können
 
Also wenn du als einziger auf ein anderes Ergebnis bekommst, erzählen alle anderen Stuss. Muss sehr bequem sein so ne Sicht zu haben.

AMD zeigte einem diese 35+W auch in der Radeon Software selbst an, lügen die dann auch?
 
  • Gefällt mir
Reaktionen: ElliotAlderson
GreatEvil schrieb:
Fake News!
Ich schreibe das aktuell noch unklar ist, wie Leistung und Preis aussehen, CB aber schon wieder, auch vorab, redaktionales AMD Bashing auffährt.
Du kannst seinen Post ja mit Argumenten entgegen treten. Aber da kommt von dir ja nur heiße Luft.
GreatEvil schrieb:
Also lass deine dreckigen Unterstellungen.
Und das aus deinem Mund. Kann man sich nicht ausdenken. :lol:
 
  • Gefällt mir
Reaktionen: Innocience, Quidproquo77, Holylemon und 2 andere
Igors Zahlen gingen analog zu vergleichbaren Messungen internationaler Outlets.

Die Wahrscheinlichkeit, dass die alle daneben liegen und ihr das intern im Unternehmen als einzige richtig gemessen bekommen habt, ist quasi Null.
 
  • Gefällt mir
Reaktionen: Innocience, ElliotAlderson, Hellyeah und eine weitere Person
NoNameNoHonor schrieb:
waren doch die Eckdaten schon die ganze Zeit so, dass man eher auf 7800XT Niveau landen würde.
Naja, 4000 ?? Shader mit hohem Takt und hoher IPC könnten auch durchaus mehr bringen, und Gerüchte wie RT-Leistung 50% über der 7900xtx gibt's auch. 🤷
Spekulatius dies, Spekulatius das, aber an Wunder glaube ich auch nicht, aber die gestiegene RT-Leistung halte ich für sehr wahrscheinlich.
NoNameNoHonor schrieb:
Eine 5070 wird da nicht die Konkurrenz sein.
Jap, das denke ich auch nicht.

Wir werden sehen.
 
Replay86 schrieb:
Da geht nicht mal ein Ofen an.
Fängt schon bei den Namen an. Wer denkt sich so was aus?
Nvidia macht es idiotensicher. RTX ON/OFF. RTX 4090/4080/4070..... Da weiß selbst der dümmste, wo er dran ist.
Bei AMD muss man erst mal diese Namensliste studieren.
Darum sollte die 4070ti auch 4080 12GB heissen und die 1060 gab es mit 3GB und 6GB wobei die 1060 3GB auch noch weniger Rechenwerke hatte. Ganz einfach zu verstehen, nicht wahr.

Cunhell
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm, xpad.c und eine weitere Person
Zurück
Oben