News „Great Radeon Edition“: AMD soll noch vor RX 9060 (XT) eine RX 9070 GRE vorbereiten

Weedlord schrieb:
Dafür gibt es ja Regler ;)
Gibt es aber will man die wirklich mit einer aktuellen Grafikkarte für 500€+ schon nach links ziehen müssen nur weil der Hersteller meint wenig RAM wäre ne gute Idee?
Man bewirbt die Karten mit RT und Frame Generation, solls aber am besten nicht nutzen weil es den eigentlich schon zu kleinen Speicher noch schneller füllt.
Das Gesamtpaket ist damit doch schon für die Tonne.
 
  • Gefällt mir
Reaktionen: McFly76
TheInvisible schrieb:
auch AMD hat da bei 9070 abgespeckt obwohl in RT schneller als die alte xtx.
Nein die letzten 70er oder eben 700er Karte hatte nur 12gb. Und das mit letzter Gen versuchen zu vergleichen/ein ordnen und daraus ne 9090 im Geiste zu machen, es ging ja grade darum die Namensgebung wieder realistischer und vergleichbarer zu gestalten.
Und ne 9070 die preislich auch ungefähr auf 5070 level ist, hat 4gb mehr. Sicher die 9070xt hat keine 20gb mehr wie ne ähnliche 7900xt oder wenn unbedingt mit der xtx vergleichen willst 24gb, aber man darf auch FSR nicht ganz vergessen, das problem ist das die momentan einfach zu teuer sind, wir vergleichen hier ne 70er neu und gar über UVP Preisen mit den Bestpreisen wo es die 7900er nur was 700 die xt und 900 die xtx gab grob zumindest vielleicht bisschen tiefer, die 9070 wird in nem jahr für 400 und die 9070xt für 500 weg gehen ca. um diese Agressiven Preise zu bekommen muss man eben auf ide meist unnützen >16gb verzichten.

Die 2 neuen 9070er hatten ne UVP von 629 Euro und 689 Euro die 7900er hatten 1150 Euro und 1050 Euro, das heißt AMD hat die Preise fast halbiert, hätte man da 20/24gb installiert, wären sie nochmal 100 Euro teurer geworden damit noch mehr leuten außer Reichweite gelitten, heute oder in nächsten Monaten, wenn dann sollte es ZUSÄTZLICH eine mit mehr VRAM geben aber nicht die 2 Karten, darunter kommt halt direkt die extrem schlechten 60e Karten, gut jetzt eben noch die GRE, ich haba aber Angst das der Preisunterschied bei gleichem Chip nicht gut genug ist, denn man wird da ja nur defekte Chips verkaufen, die alte GRE war vom Preis/Leistung auch nicht gut...

Und wenns der selbe Chip ist, wieso dann 192bit, also lass mich gerne positiv überraschen und nen aggresiven Preis sehen, aber hab da meine Zweifel.

Für mehr als 16gb bräuchte man ja auch 384bit Speicheranbindung oder irgend sowas und das ist recht teuer.
 
Casillas schrieb:
Und "nur" langsameren Speicher zu verbauen wird sicher nicht die notwendigen/erhoften Kostenvorteile bringen.
Natürlich müsste es noch weitere Einschränkungen geben wie z. B. nur 48 CUs. Dafür könnte man teildefekte Navi48 Chips verwenden.
Warten wir einfach mal ab, was da kommt. Mich wundert nur, warum man unbedingt noch eine neue Karte zwischen der 9060 XT und der 9700 einquetschen möchte.
 
DerRico schrieb:
Dann sind die Gamingkarten vielleicht gar nicht so richtig für Dich und Deine Anforderungen gebaut 😉 Ich bin aber sicher, für ein paar Tausender mehr bauen die Dir was passendes :D
Das sind keine "Gamingkarten" sondern GPUs. Welche Berechnungen man damit machen lässt bleibt dem Anwender überlassen. Ich zocke zwar auch viel aber diese Karten werden bei weitem nicht nur zum zocken gebaut.
 
@KillX Hm ne, sind schon explizit Gaming-Hardware. Die einzige Grafikkarte für Normalanwender die auch für was anderes vermarktet wird als Games, ist die 90er Reihe von NVIDIA.
 
SFFox schrieb:
GTO²! Die ließe sich dann ggf. per BIOS oder Pin-Verbindung zur XT freischalten ;)
nein wir machen das wie bei den alten cpus, die lasercuts mit sekundenkleber auffüllen und dann mit silberleitlack ne leiterbahn drüberziehen...ach warn das noch zeiten
 
  • Gefällt mir
Reaktionen: SFFox
EL-Xatrix schrieb:
ach warn das noch zeiten
Kann sich heute keine mehr vorstellen... quasi eine RTX5070 kaufen und eine RTX5090 draus machen :D...
oder aus einer i5 Mittelklasse einen i9 Highend CPU :)
Den Silberleitlack hab ich heute noch in der Kiste für Löt-Utensilien ;) geiles Zeug!
 
wahli schrieb:
Wiederverwertung teildefekter Navi48er Chips? Warum auch nicht.
Warum man nur auf 12GB setzt, verstehe ich nicht.
naja was bringt dir nen beschnittenes interface mit sagen wir ner 18gb version? hast zwar mehr speicher der aber langsammer ist, zudem eventuell noch weniger recheneinheiten und zahlst am ende mehr weil der extra speicher mehr kostet wie ne defekte leitung zu trennen.
oder sollen wir da jetzt 5 verschiedene varianten rausbringen eine mit 192 bit eine mit 128bit und davon jeweil eine mit voller anzahl recheneinheiten, eine mit etwas wenige und noch eine die dann eigentlich auf dem selbem level liegt wie der kleinere chip...
da sind wir dann bei cpus eine zum übertakten eine zum nicht üertakten eine mit grafik eine ohne und dann noch welche mit beschnittenem interface am besten in 4 versionen...da blickt doch otto normalbürger auch schon ne weile nicht mehr wirklich durch...und in nem halbem jahr releasen wir das ganze nochmal mit 100mhz mehr...
 
@Pontus @Pisaro
Das heißt man kann mit diesen GPUs nicht Streamen, Videos beschleunigen, CAD 3D rendering, Etherium schürfen, KI Tools nutzen oder vielleicht sogar einen grafischen Desktop darstellen lassen, weil AMD im Marketing diese für das Gaming vermarktet?
 
  • Gefällt mir
Reaktionen: SweetOhm
Discovery_1 schrieb:
Eine Karte mit weniger als 16GB RAM werde ich nicht kaufen. Ich hoffe daher inständig, dass zumindest die RX 9060 XT mit 16 GB daherkommen wird. Ansonsten darf AMD die Karten gern behalten. Just my two cents.
Ja soll mit 8 und 16 kommen
 
Nuja. Es ist halt Spekulatius aus der Gerüchteküche und für eine Abfallverwertung mit 192Bit Interface muss man jetzt nicht Nostradamus sein. Wunder bei Preis oder Leistung sind da auch nicht zu erwarten. Wenn der Speicher nicht vollläuft passt es eben um sich gegenüber der 9060XT abzusetzen.
 
kachiri schrieb:
FHD Gamer die 500 Euro bezahlen? Du weißt schon warum die 60er GPUs den Steam Chart dominieren?
500 € kannst für eine 4060Ti mit 8 GB auch ausgeben und die 16 GB Variante geht bei 600 los.
Und du glaubst eine 5060 wird da viel günstiger werden/sein ?!? :rolleyes:
Ergänzung ()

K3ks schrieb:
12GB? AMD, I... 🥴
Preislich vermutlich auf Augenhöhe mit einer 5060 8 GB ...:lol:
 
Zuletzt bearbeitet:
bensen schrieb:
Das ist nicht merkwürdig, sondern logisch. Seien Ausführung ist ziemlich abenteuerlich.
Navi48 ist 360 mm² groß. Etwa so groß der GB203.
Dass AMD die 9070 gegen den kleinen GB205 stellen muss, ist schon schlimm genug. Sie werden den aber ganz sicher nicht gegen einen GB206 mit vielleicht 190 mm² setzen.

Ja Nvidia macht Marge ohne Ende. Aber mit einem so großen Die in so niedrige Gefilde, ist für AMD nicht attraktiv.
Sie haben eben nur 2 Chips und dementsprechend Löcher im Portfolio. Es hilft nicht zwanghaft Löcher dann mit zu großen Chips zu besetzen.
Sie haben nur diese zwei Chips, Nvidia hingegen fünf bzw. vier im direkten Konkurrenzumfeld. Das spart auch Geld, schließlich müssen sie weniger Masken auflegen. Und, das sollte nicht vergessen werden: Sie nutzen GDDR6, Nvidia hingegen bei allen Chips abseits des GB207 GDDR7. Und dieser erscheint bislang ziemlich knapp und dementsprechend teuer...
Nvidia setzt übrigens in fast jeder Gen diverse krass teildeaktivierte Chips ein und zwar im Notebooksektor. Gerade in dieser Folge von CB-Funk kam bei @Jan und @Vitche wieder klar zur Sprache, dass AMD aktuell keine Ambitionen in diesem Sektor mittels dGPUs zu hegen scheint. Und wenn, dann vermute ich, sollten sie es ohnehin nur mit ordentlich Wucht versuchen. Anders gesagt: Wenn, dann sollte direkt der Vollausbau der jeweiligen Chips ran, falls AMD dort tatsächlich endlich wieder Marktanteile gewinnen möchte.
Von daher sehe ich dass als unproblematisch. Insbesondere auch, weil...
Casillas schrieb:
...es nun einmal GDDR6 gibt, der die Geschwindigkeitsziele nicht trifft, wie sie auf den HighEnd-Karten gegeben sind. Also ganz praktisch gesprochen: Nur 16GBPS statt 20GBPS.
 
SFFox schrieb:
gab es das auch schon sehr sehr lange vor Daneb CPUs :)
Meinst Du die Deneb CPUs ?
Von denen hab ich noch einen Phenom II X4 945 (C Stepping / 95 Watt) seit 15 Jahren am laufen ... :cool_alt:
Ergänzung ()

DerRico schrieb:
An einen weiter geschrumpften Navi 48 für die 9600XT glaube ich nicht -
Meinst Du eine 9060/XT ?
Diese soll Navi 44 sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerRico und SFFox
KillX schrieb:
Das heißt man kann mit diesen GPUs nicht Streamen, Videos beschleunigen, CAD 3D rendering, Etherium schürfen, KI Tools nutzen oder vielleicht sogar einen grafischen Desktop darstellen lassen,
Wenn Dir 16 GByte ausreichen.
Wenn Du mehr willst wirst Du eben die Pro Variante mit 32 GByte kaufen müssen. Da wird es sogar einen Treiber geben, der für die CAD Programme validiert wurde.
KillX schrieb:
weil AMD im Marketing diese für das Gaming vermarktet?
WAs die Gaming Grafikkarten angeht ja. Es war offensichtlich ein Fehler mehr Speicher als Nvidia anzubieten. Die höheren Kosten und damit auch Preise haben offensichtlich mehr Kunden abgeschreckt als dass die höheren Speicherausstattung gebracht hat.
 
Alphanerd schrieb:
Aber die 9070 ist doch so schnell wie eine 5070.
Die 9070 ist schon um einiges schneller (RR).
Ergänzung ()

SleepzZz schrieb:
Hm, fände ich irgendwie komisch. Die Grafikkarte kann preislich eigentlich nur unattraktiv werden, denke ich. Leistung unterhalb der 9070 (629€) und weniger Speicher als eine potentielle 9060XT mit 16Gb. Vom Namensschema her muss sie sich ja dazwischen anordnen was in einem Preisbereich von 500€-400€ wäre und da sehe ich ehrlich gesagt einfach keinen Raum mehr für eine 12GB Grafikkarte. Mir wäre dafür eine 9060XT mit 12GB und maximal 400€-300€ viel lieber 😐
Finde ich auch.
Deshalb ist für mich die 5070 mit 12 GB ab 650 € ein schlechter Witz !
 

Anhänge

  • GPU Index 2025.jpg
    GPU Index 2025.jpg
    299,2 KB · Aufrufe: 47
  • Gefällt mir
Reaktionen: ro///M3o, SleepzZz und Alphanerd
Zurück
Oben