News „Great Radeon Edition“: AMD soll noch vor RX 9060 (XT) eine RX 9070 GRE vorbereiten

ruthi91 schrieb:
Lies nochmal selbst was du von AMD zitiert hast:
"The Radeon RX 9070 with 16GB of video memory offers a great entry-point to AI"
Deswegen hatte ich ja am Anfang auch geschrieben das ich gerne eine Variante mit 32GB VRAM hätte, dazu gab es ja auch schonmal Gerüchte.
Ob man die dann 9070XTX oder 9080XT oder 9090XT oder sonst wie nennt ist mir egal muss ich sagen :)
 
@KillX Ja, ich befürchte nur die Gerüchte sind schon weiter und es wird vermutlich keine "Gaming Radeon" sondern eine PRO
 
bensen schrieb:
Wir werden sehen. Ich bleibe dabei. Sie werden ganz sicher keinen N48 gegen eine 5060Ti stellen.
bensen schrieb:
Ein 48 CU 192 Bit N48 könnte möglich sein, eben diese hier genannte GRE. Aber die wird eine 5070 von unten angreifen und ist weit weg von einer 5060(Ti).
und ist der Unterschied Leistung gegen die 5070, Preis gegen die 5060ti ! ich wette eine 9070GRE 12GB, wird den Preis einer 5060ti-16GB mindestens halten, die Leistung wird aber bis WUHD weit höher sein und näher an der 5070 liegen wie an der 5060ti-16GB.
Vermute der Preispunkt der GRE wird genau mitig liegen 5060ti-8GB zur 16GB
 
ChrissKrass schrieb:
Wir brauchen nach oben mehr Leistung AMD, damit NVIDIA unter Druck kommt...
Ist die Frage, wie man deinen Ansatz auslegt.

Leider packen auch viele CB'ler eine Radeon Karte nicht mal mit der Kneifzange an - da könnte sie stark sein wie sie will. Würde bedeuten, daß viele dann eine starke AMD Lösung nur als "Preisdrücker" für nVidia sehen.

Wir brauchen eine gesunde richtige Mittelklasse zu real bezahlbaren Preisen, wo beide sich hüten würden, eine Karte mit einer x8 Anbindung auf den Markt zu werfen.

Meiner Meinung nach sind wir jetzt an einem gewissen Scheideweg. FSR4 ist auf Grund der neuen KI Anbindung AMD exklusiv, d.h. AMD schließt auf fernere Zukunft scheinbar sein "FSR geht auch mit nVidia" Thema.

Und um das irgendwie vorzubereiten, ist eine breitere Mittelklasse - auch mit einer 9070 GRE unterhalb der "normalen" 9070 - gar keine schlechte Idee.

Abseits der CB und PCGH Forenblasen dreht es sich nicht alles um 4K oder WQHD mit Raytracing und mindestens 120 Hz, usw.
 
12GB 9070 GRE würde ich mir nur kaufen, um es in 1-2 Jahren wieder zu verkaufen und danach auf 16 GB umzusteigen. 12 GB wäre mir nicht zukunftssicher, aber anscheinend bietet der Gebrauchtmarkt gute Preise für Gebrauchtelektronik vom Privatverkäufer, dann bietet sich das nur an.
 
Ltcrusher schrieb:
viele CB'ler eine Radeon Karte nicht mal mit der Kneifzange an

ich hab es ja mit einer RX 6800 versucht nur leider ist die Karte nach einem 3/4 Jahr abgeraucht...
Und bin damals (weil es nichts anderes gab für einen normalen Preiß) auf eine 3070 gewechselt, die war zwar etwas langsamer nur mit dlss und Raytracing wieder etwas schneller, und jetzt 4 jahre später musste eine neue Karte her. Hatte erst mit einer 4080 super geliebäugelt, nur die zukaufen habe ich im Sommer verpasst also dachte ich mir ok das halbe Jahr kannst jetzt auch noch warten. und so ist es dann die 5080 geworden, hätte AMD etwas vergleichbares gehabt mit 20 oder 24 gb vielleicht hätte ich wieder gewechselt.
 
yamiimax schrieb:
Ach dann zeige mir eine Nvidia Karte für den Preis denn es gibt nur eine:

Beim Preis-Leistunsgverhältnis geht es nicht darum ob es eine Günstigere NVIDIA-Option gibt (das könnten die 5060 XT werden) sondern was für den Preis den es gibt geboten wird und da ist NVIDIA aus meiner sicht etwas besser (das es dennoch gute Gründe für die 9070 gibt habe ich ja aufgeführt)

yamiimax schrieb:
Dann hole einfach eine Nvidia und jammere nicht über den Preis oder warte vielleicht wird etwas günstiger.

Kritik als Jammern darzustellen, ist der stiel bestimmter Politischer Lager mit denen eine Gleichsetzung nicht weniger beleidigend wäre und ich warte ja (zumindest bis sie zur UVP zurück kehrt) - ändert aber eben nichts daran, dass sie auch dann imo etwas zu teuer ist.

yamiimax schrieb:
Ich habe halt gehört das FSR4 nun ebenbürtig der DLSS4 ist.

Dann würden dir die meisten Tests udn vergleiche die ich gesehen habe widersprechen - FSR4 ist etwa DLS3 Niveau (was im vergleich zu FSR3 auch schon ein Riesen Sprung ist)

yamiimax schrieb:
Wenn es um VRam geht ist die 7900 XT eh die beste P/L😂

Ja, und wenn die ein besseres Raytracing und FSR4 hätte wäre sie vermutlich auch super beliebt.
Aus meiner Sicht reichen 16GB aber die nächsten 4 Jahre (fürs Gaming in WQHD) in aller Regel; dass könnte sich aber nach dem erscheinen der PS6 bzw. zu dem Zeitpunkt ändern wenn Tripple-A-Games auch für den PC erscheinen die nicht mehr auch auf der PS5 lauffähig sein müssen, und das dürfte eben in etwa 4 Jahren sein und das ist halt für jene zu bedenken die sich eine 5070Ti oder gar 5080 unter der Prämisse holen diese lange nutzen zu wollen.
 
  • Gefällt mir
Reaktionen: yamiimax
Darkwater schrieb:
Beim Preis-Leistunsgverhältnis geht es nicht darum ob es eine Günstigere NVIDIA-Option gibt (das könnten die 5060 XT werden) sondern was für den Preis den es gibt geboten wird und da ist NVIDIA aus meiner sicht etwas besser (das es dennoch gute Gründe für die 9070 gibt habe ich ja aufgeführt)
Natürlich ist sie besser und hat gute Karten in der 4000 Gen und MFG der neuen Gen ist so geil naja würde deshalb nicht mehr zahlen...
Darkwater schrieb:
Kritik als Jammern darzustellen, ist der stiel bestimmter Politischer Lager mit denen eine Gleichsetzung nicht weniger beleidigend wäre und ich warte ja (zumindest bis sie zur UVP zurück kehrt) - ändert aber eben nichts daran, dass sie auch dann imo etwas zu teuer ist.
Zu teuer wegen was? Und was hat Nvidia preislich in der jetzigen Gen dagegen anzubieten unter 1k?
Ich sehe da nix!
Darkwater schrieb:
Dann würden dir die meisten Tests udn vergleiche die ich gesehen habe widersprechen - FSR4 ist etwa DLS3 Niveau (was im vergleich zu FSR3 auch schon ein Riesen Sprung ist)
"FSR 4 gibt sich in den beiden Spielen im Duell mit DLSS 4 keine Blöße und ist qualitativ derart nah dran, dass die meisten Spieler vermutlich keinen Unterschiede sehen werden. Man muss schon ziemlich genau hinschauen, um die Vorteile von DLSS 4 in den beiden Spielen zu erkennen."

Quelle: https://www.computerbase.de/artikel/grafikkarten/amd-fsr-4-fsr-3-1-dlss-4-dlss-3-vergleich.91650/
Darkwater schrieb:
Aus meiner Sicht reichen 16GB aber die nächsten 4 Jahre (fürs Gaming in WQHD) in aller Regel... PS6...
Ich glaube nicht an einen großen Sprung an Anforderungen... selbst beim erscheinen der PS6 reichen die 16.

Ich glaube nicht das Nvidia in der Mittelklasse je mehr verbaut😂
 
yamiimax schrieb:
Zu teuer wegen was? Und was hat Nvidia preislich in der jetzigen Gen dagegen anzubieten unter 1k?
Ich sehe da nix!

Zu teuer im vergleich zu den anderen Karten bzw. hier eben insbesondere der 5070Ti die bezogen auf die reine Raytracingleistung* ein ähnliches P/L-Verhältnis bietet aber beim DLSS vs. FSR eine Generation weiter vorne liegt.
Und Ja ich wäre bereit dafür etwas mehr zu Zahlen - hätte die 5070 16GB bekommen anstelle aus Upsellinggründen da auf 12reduziert zu sein, wäre das klar meine GPU geworden (ja, die Bildqualität ist im detail mWn besser, mir geht es aber zudem auch um Sachen wie Reflex etc.).

*(wenn es um Rasterleistung ginge verliert sie wie gesagt gegen die AMD-Karten der letzten Generation)

yamiimax schrieb:
Ich glaube nicht an einen großen Sprung an Anforderungen... selbst beim erscheinen der PS6 reichen die 16.

Beim erscheinen ja,1,5 Jahre später (also in 4 Jahren) aber in meinen Augen wahrscheinlich zunehmend nicht mehr.
Ich gehe davon aus dass sie eben nicht nur deutlich schneller ist als die PS5, sondern eben auch über deutlich mehr RAM verfügt (ob jetzt 32GB oder "nur" 24 soll dabei erstmal egal sein), bis dass dann auch von den Entwicklern ausgeschöpft wird werden nochmal 1-2 Jahre vergehen, aber ja, ich gehe davon aus dass beim erscheinen der Karten 16GB als knapp gelten werden - nicht wie 8GB jetzt, aber schon wie 8GB vor ein paar Jahren und jetzt zunehmend 12GB ...
 
Darkwater schrieb:
Beim erscheinen ja,1,5 Jahre später (also in 4 Jahren) aber in meinen Augen wahrscheinlich zunehmend nicht mehr.
Ich gehe davon aus dass sie eben nicht nur deutlich schneller ist als die PS5, sondern eben auch über deutlich mehr RAM verfügt (ob jetzt 32GB oder "nur" 24 soll dabei erstmal egal sein), bis dass dann auch von den Entwicklern ausgeschöpft wird werden nochmal 1-2 Jahre vergehen, aber ja, ich gehe davon aus dass beim erscheinen der Karten 16GB als knapp gelten werden - nicht wie 8GB jetzt, aber schon wie 8GB vor ein paar Jahren und jetzt zunehmend 12GB ...

Die Konsolenanbieter können auch nicht mehr zaubern -- siehe die quasi doppelt so teure PS5 Pro. Und jetzt ne Switch 2 für 500 Euro... Bis 2027/2028 wird natürlich noch was entwickelt werden. Aber ich stelle die Prognose auf, dass man Karten wie die RTX 4090/5090 noch länger in Aktion sehen wird als den "Evergreen" 1080 Ti. Der vor allem deshalb so lange grünte (und gelegentlich sogar noch grünt), weil: Konsolen. Und auch die RTX 4080/5080 sollten eine ganze Weile unterwegs sein.

Wenn schon PS4+PS5 zu Release weit weg von Higher End waren, wird in dieser aktuellen Situation nicht plötzlich ne PS6 auftauchen, die wahnwitzige Specs haben wird. Es sei denn, es kommt noch eine Art PS6 Junior für die Masse, weil die Deluxe-Version schlicht nicht mehr zu üblichen Basis-Konsolenpreisen angeboten werden kann. "Diese Situation" lässt sich in etwa so umschreiben: "Deutlich mehr Leistung kostet ab jetzt auch deutlich mehr Geld."
 
Zuletzt bearbeitet:
@Svennc Ja, bei der 4090 und 5090 würde ich dir recht geben - aber die lange Lebensdauer der 1080 Ti lag eben auch in ihrem für damalige Verhältnisse riesigen VRAM von 11GB und genau dort gehe ich eben von einem spürbaren Zu wachs bei der PS6 aus.
Von der Grundleistung wird sie sicherlich nicht das Rad neu erfinden und lieber mit Framegeneration als mit extrem starken Chips arbeiten, aber beim RAM werden sie, denke ich, deutlich zulegen und dass wird sich wenige Jahre später eben auch beim VRAM-Bedarf bemerkbar machen...
 
  • Gefällt mir
Reaktionen: Svennc
PS6 müsste 1k kosten und natürlich machen das alle

gut das es noch Regler gibt und mir ist hoch auch nicht zu schade und das geht sicher noch mit 16 GB VRam auch noch in 4+ Jahren
 
ChrissKrass schrieb:
Wir brauchen nach oben mehr Leistung AMD, damit NVIDIA unter Druck kommt, und dann wie vorher auch mit 20 und 24 GB Speicher.
Im Grunde klingt das dann so, dass AMD NVIDIA nur unter Druck setzen soll, damit NVIDIA dann die Karten mit so viel Speicher (und mehr Leistung) produziert, wie du und viele andere natürlich auch, es gerne hätten. Nur dadurch verkauft AMD selber keine Karte mehr, wenn AMD nur Mittel zum Zweck ist und eigentlich nur NVIDIA im eigenen Rechner verbaut wird.

Letztendlich hat das vielleicht auch dazu geführt, dass AMD derzeit nicht den High End Bereich bedient, wenn man dort viel weniger mit verdient. Ich kann den Weg, den AMD gewählt hat, schon irgendwie verstehen. Aber lieber wäre es mir, wenn die Marktverteilung 50:50 betragen würde. Dann wäre der Wettbewerb bestimmt auch spannender.
 
  • Gefällt mir
Reaktionen: Icke-ffm
ChrissKrass schrieb:
Wir brauchen nach oben mehr Leistung AMD, damit NVIDIA unter Druck kommt, und dann wie vorher auch mit 20 und 24 GB Speicher.

K.a. warum AmD im Moment keine 9080 (XT) bringt - aber ich gehe mal davon aus dass sie da mit der Architektur Probleme haben (da die 4K Enthusiast:innen wohl nicht ganz so glücklich mit der 16GB 5080 oder dem preis der 5090 sind gebe es ja durchaus eine Lücke für eine noch stärkere AMD-Karte mit größerem VRAM vorhanden, weshalb ich davon ausgehe dass sie nicht bedient werden kann und sicherlich nicht einfach übersehen wurde und deshalb nur die Lücke genutzt wird die durch den kleinen VRAM der 5070 entsteht).
 
Darkwater schrieb:
@Svennc Ja, bei der 4090 und 5090 würde ich dir recht geben - aber die lange Lebensdauer der 1080 Ti lag eben auch in ihrem für damalige Verhältnisse riesigen VRAM von 11GB und genau dort gehe ich eben von einem spürbaren Zu wachs bei der PS6 aus.

Wobei es bis heute kein Spiel gibt, das auch mit 8GB gar nicht läuft...


Regler in PC-Spielen sollte man sich generell endlich als Angebot vorstellen, mittlerweile enorme Leistungsunterschiede zu skalieren. Einstiegs-Hardware konnte zwar noch nie alles auf "Ultra" spielen. Aber heute gilt das mehr denn je, denn die Schere geht immer weiter auseinander. Hohe Einstellungen sind also mehr denn je ein optionales Angebot. Eines, wenigstens ein bisschen was an Extra aus Spielen zu quetschen, die ansonsten exakt genau so auch noch mitunter auf der Series S laufen. Und dafür entwickelt wurden.



Außer bei Chris Roberts, klar. :D

z5mnhvq7z6px.png
 
Zuletzt bearbeitet:
Sam Miles schrieb:
Am Ende wird die GRE der Kassenschlager mit seinen 170W TDP. Einfach alte Graka raus, die GRE rein und das für 399 Euro. Man muss nicht mal das NT wechseln. Das könnte für AMD wirklich sich als gute Karte entpuppen zumal mit 12 statt 8 GB auch das VRAM Minimum eingehalten wird 2025.
Also für den Preis, mit 170-185W TBP und 48 CUs würde ich eine GRE auch als durchaus attraktiv betrachten. Ich weiß aber nicht, ob AMD so weit mit dem Preis runter gehen würde, selbst wenn eine solche Karte mit diesen Specs den Weg nach Europa finden sollte.
 
Zurück
Oben