News „Great Radeon Edition“: AMD soll noch vor RX 9060 (XT) eine RX 9070 GRE vorbereiten

ruthi91 schrieb:
Lies nochmal selbst was du von AMD zitiert hast:
"The Radeon RX 9070 with 16GB of video memory offers a great entry-point to AI"
Deswegen hatte ich ja am Anfang auch geschrieben das ich gerne eine Variante mit 32GB VRAM hätte, dazu gab es ja auch schonmal Gerüchte.
Ob man die dann 9070XTX oder 9080XT oder 9090XT oder sonst wie nennt ist mir egal muss ich sagen :)
 
@KillX Ja, ich befürchte nur die Gerüchte sind schon weiter und es wird vermutlich keine "Gaming Radeon" sondern eine PRO
 
bensen schrieb:
Wir werden sehen. Ich bleibe dabei. Sie werden ganz sicher keinen N48 gegen eine 5060Ti stellen.
bensen schrieb:
Ein 48 CU 192 Bit N48 könnte möglich sein, eben diese hier genannte GRE. Aber die wird eine 5070 von unten angreifen und ist weit weg von einer 5060(Ti).
und ist der Unterschied Leistung gegen die 5070, Preis gegen die 5060ti ! ich wette eine 9070GRE 12GB, wird den Preis einer 5060ti-16GB mindestens halten, die Leistung wird aber bis WUHD weit höher sein und näher an der 5070 liegen wie an der 5060ti-16GB.
Vermute der Preispunkt der GRE wird genau mitig liegen 5060ti-8GB zur 16GB
 
ChrissKrass schrieb:
Wir brauchen nach oben mehr Leistung AMD, damit NVIDIA unter Druck kommt...
Ist die Frage, wie man deinen Ansatz auslegt.

Leider packen auch viele CB'ler eine Radeon Karte nicht mal mit der Kneifzange an - da könnte sie stark sein wie sie will. Würde bedeuten, daß viele dann eine starke AMD Lösung nur als "Preisdrücker" für nVidia sehen.

Wir brauchen eine gesunde richtige Mittelklasse zu real bezahlbaren Preisen, wo beide sich hüten würden, eine Karte mit einer x8 Anbindung auf den Markt zu werfen.

Meiner Meinung nach sind wir jetzt an einem gewissen Scheideweg. FSR4 ist auf Grund der neuen KI Anbindung AMD exklusiv, d.h. AMD schließt auf fernere Zukunft scheinbar sein "FSR geht auch mit nVidia" Thema.

Und um das irgendwie vorzubereiten, ist eine breitere Mittelklasse - auch mit einer 9070 GRE unterhalb der "normalen" 9070 - gar keine schlechte Idee.

Abseits der CB und PCGH Forenblasen dreht es sich nicht alles um 4K oder WQHD mit Raytracing und mindestens 120 Hz, usw.
 
12GB 9070 GRE würde ich mir nur kaufen, um es in 1-2 Jahren wieder zu verkaufen und danach auf 16 GB umzusteigen. 12 GB wäre mir nicht zukunftssicher, aber anscheinend bietet der Gebrauchtmarkt gute Preise für Gebrauchtelektronik vom Privatverkäufer, dann bietet sich das nur an.
 
Ltcrusher schrieb:
viele CB'ler eine Radeon Karte nicht mal mit der Kneifzange an

ich hab es ja mit einer RX 6800 versucht nur leider ist die Karte nach einem 3/4 Jahr abgeraucht...
Und bin damals (weil es nichts anderes gab für einen normalen Preiß) auf eine 3070 gewechselt, die war zwar etwas langsamer nur mit dlss und Raytracing wieder etwas schneller, und jetzt 4 jahre später musste eine neue Karte her. Hatte erst mit einer 4080 super geliebäugelt, nur die zukaufen habe ich im Sommer verpasst also dachte ich mir ok das halbe Jahr kannst jetzt auch noch warten. und so ist es dann die 5080 geworden, hätte AMD etwas vergleichbares gehabt mit 20 oder 24 gb vielleicht hätte ich wieder gewechselt.
 
yamiimax schrieb:
Ach dann zeige mir eine Nvidia Karte für den Preis denn es gibt nur eine:

Beim Preis-Leistunsgverhältnis geht es nicht darum ob es eine Günstigere NVIDIA-Option gibt (das könnten die 5060 XT werden) sondern was für den Preis den es gibt geboten wird und da ist NVIDIA aus meiner sicht etwas besser (das es dennoch gute Gründe für die 9070 gibt habe ich ja aufgeführt)

yamiimax schrieb:
Dann hole einfach eine Nvidia und jammere nicht über den Preis oder warte vielleicht wird etwas günstiger.

Kritik als Jammern darzustellen, ist der stiel bestimmter Politischer Lager mit denen eine Gleichsetzung nicht weniger beleidigend wäre und ich warte ja (zumindest bis sie zur UVP zurück kehrt) - ändert aber eben nichts daran, dass sie auch dann imo etwas zu teuer ist.

yamiimax schrieb:
Ich habe halt gehört das FSR4 nun ebenbürtig der DLSS4 ist.

Dann würden dir die meisten Tests udn vergleiche die ich gesehen habe widersprechen - FSR4 ist etwa DLS3 Niveau (was im vergleich zu FSR3 auch schon ein Riesen Sprung ist)

yamiimax schrieb:
Wenn es um VRam geht ist die 7900 XT eh die beste P/L😂

Ja, und wenn die ein besseres Raytracing und FSR4 hätte wäre sie vermutlich auch super beliebt.
Aus meiner Sicht reichen 16GB aber die nächsten 4 Jahre (fürs Gaming in WQHD) in aller Regel; dass könnte sich aber nach dem erscheinen der PS6 bzw. zu dem Zeitpunkt ändern wenn Tripple-A-Games auch für den PC erscheinen die nicht mehr auch auf der PS5 lauffähig sein müssen, und das dürfte eben in etwa 4 Jahren sein und das ist halt für jene zu bedenken die sich eine 5070Ti oder gar 5080 unter der Prämisse holen diese lange nutzen zu wollen.
 
  • Gefällt mir
Reaktionen: yamiimax
Darkwater schrieb:
Beim Preis-Leistunsgverhältnis geht es nicht darum ob es eine Günstigere NVIDIA-Option gibt (das könnten die 5060 XT werden) sondern was für den Preis den es gibt geboten wird und da ist NVIDIA aus meiner sicht etwas besser (das es dennoch gute Gründe für die 9070 gibt habe ich ja aufgeführt)
Natürlich ist sie besser und hat gute Karten in der 4000 Gen und MFG der neuen Gen ist so geil naja würde deshalb nicht mehr zahlen...
Darkwater schrieb:
Kritik als Jammern darzustellen, ist der stiel bestimmter Politischer Lager mit denen eine Gleichsetzung nicht weniger beleidigend wäre und ich warte ja (zumindest bis sie zur UVP zurück kehrt) - ändert aber eben nichts daran, dass sie auch dann imo etwas zu teuer ist.
Zu teuer wegen was? Und was hat Nvidia preislich in der jetzigen Gen dagegen anzubieten unter 1k?
Ich sehe da nix!
Darkwater schrieb:
Dann würden dir die meisten Tests udn vergleiche die ich gesehen habe widersprechen - FSR4 ist etwa DLS3 Niveau (was im vergleich zu FSR3 auch schon ein Riesen Sprung ist)
"FSR 4 gibt sich in den beiden Spielen im Duell mit DLSS 4 keine Blöße und ist qualitativ derart nah dran, dass die meisten Spieler vermutlich keinen Unterschiede sehen werden. Man muss schon ziemlich genau hinschauen, um die Vorteile von DLSS 4 in den beiden Spielen zu erkennen."

Quelle: https://www.computerbase.de/artikel/grafikkarten/amd-fsr-4-fsr-3-1-dlss-4-dlss-3-vergleich.91650/
Darkwater schrieb:
Aus meiner Sicht reichen 16GB aber die nächsten 4 Jahre (fürs Gaming in WQHD) in aller Regel... PS6...
Ich glaube nicht an einen großen Sprung an Anforderungen... selbst beim erscheinen der PS6 reichen die 16.

Ich glaube nicht das Nvidia in der Mittelklasse je mehr verbaut😂
 
yamiimax schrieb:
Zu teuer wegen was? Und was hat Nvidia preislich in der jetzigen Gen dagegen anzubieten unter 1k?
Ich sehe da nix!

Zu teuer im vergleich zu den anderen Karten bzw. hier eben insbesondere der 5070Ti die bezogen auf die reine Raytracingleistung* ein ähnliches P/L-Verhältnis bietet aber beim DLSS vs. FSR eine Generation weiter vorne liegt.
Und Ja ich wäre bereit dafür etwas mehr zu Zahlen - hätte die 5070 16GB bekommen anstelle aus Upsellinggründen da auf 12reduziert zu sein, wäre das klar meine GPU geworden (ja, die Bildqualität ist im detail mWn besser, mir geht es aber zudem auch um Sachen wie Reflex etc.).

*(wenn es um Rasterleistung ginge verliert sie wie gesagt gegen die AMD-Karten der letzten Generation)

yamiimax schrieb:
Ich glaube nicht an einen großen Sprung an Anforderungen... selbst beim erscheinen der PS6 reichen die 16.

Beim erscheinen ja,1,5 Jahre später (also in 4 Jahren) aber in meinen Augen wahrscheinlich zunehmend nicht mehr.
Ich gehe davon aus dass sie eben nicht nur deutlich schneller ist als die PS5, sondern eben auch über deutlich mehr RAM verfügt (ob jetzt 32GB oder "nur" 24 soll dabei erstmal egal sein), bis dass dann auch von den Entwicklern ausgeschöpft wird werden nochmal 1-2 Jahre vergehen, aber ja, ich gehe davon aus dass beim erscheinen der Karten 16GB als knapp gelten werden - nicht wie 8GB jetzt, aber schon wie 8GB vor ein paar Jahren und jetzt zunehmend 12GB ...
 
Darkwater schrieb:
Beim erscheinen ja,1,5 Jahre später (also in 4 Jahren) aber in meinen Augen wahrscheinlich zunehmend nicht mehr.
Ich gehe davon aus dass sie eben nicht nur deutlich schneller ist als die PS5, sondern eben auch über deutlich mehr RAM verfügt (ob jetzt 32GB oder "nur" 24 soll dabei erstmal egal sein), bis dass dann auch von den Entwicklern ausgeschöpft wird werden nochmal 1-2 Jahre vergehen, aber ja, ich gehe davon aus dass beim erscheinen der Karten 16GB als knapp gelten werden - nicht wie 8GB jetzt, aber schon wie 8GB vor ein paar Jahren und jetzt zunehmend 12GB ...

Die Konsolenanbieter können auch nicht mehr zaubern -- siehe die quasi doppelt so teure PS5 Pro. Und jetzt ne Switch 2 für 500 Euro... Bis 2027/2028 wird natürlich noch was entwickelt werden. Aber ich stelle die Prognose auf, dass man Karten wie die RTX 4090/5090 noch länger in Aktion sehen wird als den "Evergreen" 1080 Ti. Der vor allem deshalb so lange grünte (und gelegentlich sogar noch grünt), weil: Konsolen. Und auch die RTX 4080/5080 sollten eine ganze Weile unterwegs sein.

Wenn schon PS4+PS5 zu Release weit weg von Higher End waren, wird in dieser aktuellen Situation nicht plötzlich ne PS6 auftauchen, die wahnwitzige Specs haben wird. Es sei denn, es kommt noch eine Art PS6 Junior für die Masse, weil die Deluxe-Version schlicht nicht mehr zu üblichen Basis-Konsolenpreisen angeboten werden kann. "Diese Situation" lässt sich in etwa so umschreiben: "Deutlich mehr Leistung kostet ab jetzt auch deutlich mehr Geld."
 
Zuletzt bearbeitet:
@Svennc Ja, bei der 4090 und 5090 würde ich dir recht geben - aber die lange Lebensdauer der 1080 Ti lag eben auch in ihrem für damalige Verhältnisse riesigen VRAM von 11GB und genau dort gehe ich eben von einem spürbaren Zu wachs bei der PS6 aus.
Von der Grundleistung wird sie sicherlich nicht das Rad neu erfinden und lieber mit Framegeneration als mit extrem starken Chips arbeiten, aber beim RAM werden sie, denke ich, deutlich zulegen und dass wird sich wenige Jahre später eben auch beim VRAM-Bedarf bemerkbar machen...
 
  • Gefällt mir
Reaktionen: Svennc
PS6 müsste 1k kosten und natürlich machen das alle

gut das es noch Regler gibt und mir ist hoch auch nicht zu schade und das geht sicher noch mit 16 GB VRam auch noch in 4+ Jahren
 
ChrissKrass schrieb:
Wir brauchen nach oben mehr Leistung AMD, damit NVIDIA unter Druck kommt, und dann wie vorher auch mit 20 und 24 GB Speicher.
Im Grunde klingt das dann so, dass AMD NVIDIA nur unter Druck setzen soll, damit NVIDIA dann die Karten mit so viel Speicher (und mehr Leistung) produziert, wie du und viele andere natürlich auch, es gerne hätten. Nur dadurch verkauft AMD selber keine Karte mehr, wenn AMD nur Mittel zum Zweck ist und eigentlich nur NVIDIA im eigenen Rechner verbaut wird.

Letztendlich hat das vielleicht auch dazu geführt, dass AMD derzeit nicht den High End Bereich bedient, wenn man dort viel weniger mit verdient. Ich kann den Weg, den AMD gewählt hat, schon irgendwie verstehen. Aber lieber wäre es mir, wenn die Marktverteilung 50:50 betragen würde. Dann wäre der Wettbewerb bestimmt auch spannender.
 
  • Gefällt mir
Reaktionen: Icke-ffm
ChrissKrass schrieb:
Wir brauchen nach oben mehr Leistung AMD, damit NVIDIA unter Druck kommt, und dann wie vorher auch mit 20 und 24 GB Speicher.

K.a. warum AmD im Moment keine 9080 (XT) bringt - aber ich gehe mal davon aus dass sie da mit der Architektur Probleme haben (da die 4K Enthusiast:innen wohl nicht ganz so glücklich mit der 16GB 5080 oder dem preis der 5090 sind gebe es ja durchaus eine Lücke für eine noch stärkere AMD-Karte mit größerem VRAM vorhanden, weshalb ich davon ausgehe dass sie nicht bedient werden kann und sicherlich nicht einfach übersehen wurde und deshalb nur die Lücke genutzt wird die durch den kleinen VRAM der 5070 entsteht).
 
Darkwater schrieb:
@Svennc Ja, bei der 4090 und 5090 würde ich dir recht geben - aber die lange Lebensdauer der 1080 Ti lag eben auch in ihrem für damalige Verhältnisse riesigen VRAM von 11GB und genau dort gehe ich eben von einem spürbaren Zu wachs bei der PS6 aus.

Wobei es bis heute kein Spiel gibt, das auch mit 8GB gar nicht läuft...


Regler in PC-Spielen sollte man sich generell endlich als Angebot vorstellen, mittlerweile enorme Leistungsunterschiede zu skalieren. Einstiegs-Hardware konnte zwar noch nie alles auf "Ultra" spielen. Aber heute gilt das mehr denn je, denn die Schere geht immer weiter auseinander. Hohe Einstellungen sind also mehr denn je ein optionales Angebot. Eines, wenigstens ein bisschen was an Extra aus Spielen zu quetschen, die ansonsten exakt genau so auch noch mitunter auf der Series S laufen. Und dafür entwickelt wurden.



Außer bei Chris Roberts, klar. :D

z5mnhvq7z6px.png
 
Zuletzt bearbeitet:
Sam Miles schrieb:
Am Ende wird die GRE der Kassenschlager mit seinen 170W TDP. Einfach alte Graka raus, die GRE rein und das für 399 Euro. Man muss nicht mal das NT wechseln. Das könnte für AMD wirklich sich als gute Karte entpuppen zumal mit 12 statt 8 GB auch das VRAM Minimum eingehalten wird 2025.
Also für den Preis, mit 170-185W TBP und 48 CUs würde ich eine GRE auch als durchaus attraktiv betrachten. Ich weiß aber nicht, ob AMD so weit mit dem Preis runter gehen würde, selbst wenn eine solche Karte mit diesen Specs den Weg nach Europa finden sollte.
 
AnkH schrieb:
Ich verstehe Deinen Punkt, aber betrachte es mal rein rational: es gibt halt aktuell im 5000er Lineup nur 5070, 5070Ti, 5080 und 5090. Beim 4000er Lineup gabs noch die 5060 und die 5060Ti. Und wenn man halt nun das Lineup zur Kategorisierung hernimmt, ist halt eine 5090, tw. eine 5080 "high-end" und eine 5060 "low-end" und alles dazwischen "Mittelklasse". Das hat mit "abgehobener High-End-Sichtweise" nun rein gar nichts zu tun. Die 3000er Serie auch noch in die Betrachtung nehmen, nur damit dann eine 5070 nicht als "Mittelklasse" gilt, sondern plötzlich High-End sein soll? Ja toll, das spielt dann wieder nVIDIA in die Karten, die krankhaft versucht, die 5070 als "High-End" am Markt zu positionieren (punkto Preis zumindest). Geht doch auch nicht auf, oder?
Ich denke schon das "abgehobene High-Sichtweise" die Situation gut beschreibt. Denn über die Jahre ist die Leistung von GPUs massiv gestiegen. Wenn man sich mal die Benchmarktabelle mit GPUs der letzten 12 Jahre von den PCGH-Nachbarn ansieht, dann sieht man das ne 5070 auf dem Niveau einer 3090ti/RX6950 ist. Verglichen mit den heutigen Anforderungen an Ultra-4k Gaming ist die natürlich unzureichend bestückt, aber für <700EUR bekommst heute ne Karte mit der Leistung für die du vor ein paar Jahren noch gut das 2,5-fache hinblättern musstest, aber dann gibt´s halt nur Medium-4k

Das gleiche gilt für die 4060er Karten, die gibt´s für ~300 Euro, und bieten eine Leistung vergleichbar mit ner 2080 Super dessen UVP mal auf dem Niveau einer 5070 war.

Was ich damit sagen will, die Kategorisierung (Einstiegsklasse, Mittelklasse, High-End) ist Murks, weil sich leistungsmäßig alles immer weiter nach oben verschiebt, während die Preise für Leistung sinken. und so werden heutige GPUs mit der High-End-Leistung von gestern und den Produktezeichnungen der Einstiegsklasse schlechter geredet als sie sind. in ein paar Jahren gibt´s die 5090 Power dann auch für 300 Euro, macht es die 5090 dann zu einer schlechten Karte die man nicht mehr empfehlen würde?

Meine Glaskugel verrät mir, das genau das eintreffen wird, wir sind dann bei Ultra-16k Gaming, und die 1%-Elite-Gamerschaft mit alltagsdominantem Kurzzeitgedächtnis wird sich über nutzlose Einstiegs-GPUs mit 32GB VRAM echauffieren.

Aber wann waren Gamer schon mal objektiv?

https://www.pcgameshardware.de/3DMa.../Punkte-Tabelle-Time-Spy-Benchmark-1357989/2/
 
Quantität schrieb:
Was ich damit sagen will, die Kategorisierung (Einstiegsklasse, Mittelklasse, High-End) ist Murks, weil sich leistungsmäßig alles immer weiter nach oben verschiebt, während die Preise für Leistung sinken. und so werden heutige GPUs mit der High-End-Leistung von gestern und den Produktezeichnungen der Einstiegsklasse schlechter geredet als sie sind. in ein paar Jahren gibt´s die 5090 Power dann auch für 300 Euro, macht es die 5090 dann zu einer schlechten Karte die man nicht mehr empfehlen würde?
Du findest also die Betrachtungsweise sinnvoller, dass man eine 4060 nicht als Einstiegsklasse bezeichnet, nur weil sie eine alte Topgeneration schlägt und in uralten Games im 2025 entsprechende FPS liefert? Wie lange bist Du dabei, zwei Wochen? Eine 60er Karte der übernächsten Generation hat noch immer das 80er Modell geschlagen, das ist der Goldstandard im Fortschritt der Computerhardware.

Oder vergleichst Du noch mit der GTX 680 (als Beispiel). Nur, weil die damals 500€ gekostet hat und eine aktuelle 500€ Karte 10x soviel Leistung bietet, ist die aktuelle 500€ Karte plötzlich "Super-Mega-Highend"?

Aktuelle Grafikkartengenerationen werden an den aktuellen Anforderungen (Games und Benchmarks) gemessen und entsprechend ihrer Leistung (und Preis) eingestuft. Nicht im Vergleich zu irgendwelchen Vorgängergenerationen und basierend auf uralten Games/Benchmarks, das wäre ja komplett unsinnig.

Quantität schrieb:
in ein paar Jahren gibt´s die 5090 Power dann auch für 300 Euro, macht es die 5090 dann zu einer schlechten Karte die man nicht mehr empfehlen würde?
Ja, macht es sie, da sie dann zu dem Zeitpunkt auch nur die Leistung einer 300€ Karte bringen wird. Und es vermutlich eben eine ganz neue Karte für 300€ mit derselben Leistung geben wird, die aber noch deutlich weniger Strom verbraucht, die neusten Features bietet.

Kauft doch heute niemand mehr eine RTX 2080 statt einer RTX 4060. Warum auch...

Fazit: die Kategoriesierung in Lowend, Mittelklasse und Highend macht NUR mit der aktuellen (ev. mit der direkten Vorgängergeneration) Generation überhaupt Sinn. Da sich HW immer weiterentwickelt und immer leistungsfähiger wird (wie seit über 30 Jahren üblich...).
 
Zurück
Oben