News Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB

Falls später mal GDDR6 Speicherchips mit der doppelten Kapazität von 32 Gb kommen, müsste man die Grafikkartenplatine gar nicht überarbeiten. Eine solche Grafikkartenversion mit 32GB würde dann halt erst ca. ein Jahr später erscheinen.
 
megaapfel schrieb:
@pacifico Blödsinn. Die Preiselastizität der Nachfrage ist bei Grafikkarten hoch.
Wo warst du die letzten Jahre. Es werden alle Kontingente verkauft, beinahe egal welcher Preis.
 
HITCHER_I schrieb:
Falls später mal GDDR6 Speicherchips mit der doppelten Kapazität von 32 Gb kommen, müsste man die Grafikkartenplatine gar nicht überarbeiten. Eine solche Grafikkartenversion mit 32GB würde dann halt erst ca. ein Jahr später erscheinen.
Gddr6 ist quasi EOL, welche Entwicklung soll's da noch geben?
Ergänzung ()

Norebo schrieb:
Der Typ hier hat ein Vergleichsvideo gemacht, wo er FSR auf einer NV und auf AMD vergleicht und auf der NV Karte sieht FSR echt wie Mist aus - auf der AMD Karte dagegen sehr gut (so ca. Minute 17):

Wird das bei den kommenden Tests berücksichtigt, das die GPU Wahl den Test verfälschen kann?
Meinst du damit das dann endlich dlss-p vs fsr-q getestet werden soll? Vor allem seit dem DLSS4 Release? Bin voll dafür.
Ergänzung ()

jotka24 schrieb:
Wenn Sie aber - und das ist disruptiver, als es sich zuerst anhöhrt, eine relativ preiswerte 90xx XT mit 64GB RAM für den Privatkundenmarkt produzieren würden, wären Sie von heute auf morgen der Nr.1 GPU-Provider für alle möglichen Private und Small Business AI Anwendungen, lokale LLMs usw. Und Nvidia könnte nicht kontern (wg. Ihrer Pricing-Strategie und dem Vorhalten großer VRAM-Bestückungen für den Data-Center-Markt).
Hätten sie schon längst mit der 7900xtx und 48gb machen können, einfach mehr vram draufklatschen ist einfach. Software ist das Problem.
Aber ist ja nicht so als hätte AMD keine Profi Karten die sie teurer verticken können. 32gb ist heute für den Prof Bereich auch nicht mehr so toll wie alle meinen
 
Zuletzt bearbeitet:
TheInvisible schrieb:
Meinst du damit das dann endlich dlss-p vs fsr-q getestet werden soll? Vor allem seit dem DLSS4 Release? Bin voll dafür.
Ich glaube nicht. Ich gehe eher davon aus das er damit aufmerksam machen wollte, das FSR3 auf einer Nvidia Karte schlechter aussieht als auf einer AMD Karte(zumindest in diesem spiel).

Das beispiel mit dlss4 transformer modell kann man auch in dem video sehen und es in den details besser als FSR3. Das bestreitet auch keiner und kann man in dem Video auch sehen,

Das gleiche bei intel karten mit XESS. Es läuft auf Intel Karten besser als auf AMD/Nvidia.

Darum kann man die Qualität eigentlich nur vergleichen wenn man die Entsprechende Hardware auch hat. Den Qualitätsvergleich nur mit einer Nvidia karte durchzuführen wäre somit nicht ideal.
 
daknoll schrieb:
Braves Schäfchen. Braaav. ^^
Wennst du gerne viel Geld für 2. Klassiges aus gibst ist eh deine Entscheidung. AMD/NV sind keine Vereine mit denen man Mitleid haben müsste.
Ergänzung ()

Northstar2710 schrieb:
Ich glaube nicht. Ich gehe eher davon aus das er damit aufmerksam machen wollte, das FSR3 auf einer Nvidia Karte schlechter aussieht als auf einer AMD Karte(zumindest in diesem spiel).

Das beispiel mit dlss4 transformer modell kann man auch in dem video sehen und es in den details besser als FSR3. Das bestreitet auch keiner und kann man in dem Video auch sehen,

Das gleiche bei intel karten mit XESS. Es läuft auf Intel Karten besser als auf AMD/Nvidia.

Darum kann man die Qualität eigentlich nur vergleichen wenn man die Entsprechende Hardware auch hat. Den Qualitätsvergleich nur mit einer Nvidia karte durchzuführen wäre somit nicht ideal.
Fsr sieht immer gleich aus, ist ein statischer Algorithmus. Xess ist klar weil das auf Intel Karten das große Modell verwendet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: N0Thing
TheInvisible schrieb:
Fsr sieht immer gleich aus, ist ein statischer Algorithmus
zumindest in dem video nicht.

Da ich aber keine nvidia karte besitze kann ich das auch nicht nachstellen. Von daher bleibt mir nur das video als vergleich
 
Unlimited1980 schrieb:
Habe hier noch einen gefunden, der Deepseek 671B sogar ziemlich gut ganz ohne GPU zum laufen bekommen hat:

https://x.com/carrigmat/status/1884244369907278106
Das Coole ist, dass die ganze Kiste aus Standard-Bauteilen dafür keine 400 W braucht.

Unlimited1980 schrieb:
Das ist ja ne krasse Entwicklung.
Seit Deepseek (Assembler!!) kann ja NVDA sich CUDA in bezug auf AI ziemlich in den Allerwertesten stecken, wenn jetzt neuerdings komplett zum lokalen laufen von Deepseek auf GPUs verzichtet werden kann... crazy!
Deshalb ist der Markt auch komplett eingebrochen.
 
TheInvisible schrieb:
Hätten sie schon längst mit der 7900xtx und 48gb machen können, einfach mehr vram draufklatschen ist einfach. Software ist das Problem.
Wenn es so einfach ist, stellt sich die Frage, warum sie es nicht machen. Wie gesagt gibt es viele kleine Developer, die sich um so eine Karte reißen würden. Die Software würde folgen, nicht über Nacht, aber es würde auch keinJahrzehnt dauern, wenn 48, 64 oder 96 GB VRAM auf einer bezahlbaren Consumerkarte einen ROCm-Zwang mit sich führen würde. Das würde schnell gehen, dass die Community mit solchen Karten entwickelt.
 
1739715928784.png


Ich finde diesen Chart gerade interessant weil ich sehe das die 9070 XT 4096 Kerne hat aber die 5070 TI und selbst die 5070 deutlich darüber liegt.

Also, die prozentuale Steigerung von 4096 auf 6144 beträgt 50% bei der RTX 5070 und von 4096 auf 8960 beträgt 118.75% bei der 5070 TI

Da wir bereits gesehen haben das sich die RTX 5080 gut übertakten lässt vermuten wir mal das mindestens die 5070 TI sich auch auf 2,8 ghz anheben lässt.

Wie will AMD die NVIDIA 5070 TI oder 5070 schlagen wenn sie keinen aggressiven Preis Punkt setzen? Nvidia MRSP muss ja unterboten werden. Bei der hohen Kern Differenz glaub ich nicht das 9070 XT überhaupt an einer 5070 heran kommt, dementsprechend ist die 9070 XT ein Gegner der RTX 4070.


Einzig tolerierbarer Preis wäre 499$ für ne 9070 XT eigentlich noch weniger xD

Wenn ich lese "Power Coler Red Devil Radeon RX 9070 XT" irgendwas mit 845$ dann gute Nacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
jotka24 schrieb:
Wenn es so einfach ist, stellt sich die Frage, warum sie es nicht machen.
weil die karten dann den Profi karten konkurrenz machen. Dort bekommst du 48gb für 3500€.
 
  • Gefällt mir
Reaktionen: lynx007
Alesis schrieb:
@therealcola

Ich würde nicht einen Shader Vergleich zwischen unterschiedliche Hersteller machen.

Also dann 450 Watt Verbrauch mindestens bei der 9070 XT

irgendwo muss ja die Leistung her geholt werden wenn man so deutlich niedrigere Anzahl an Kernen hat.

Und ja ich weiß man kann das nicht so direkt vergleichen aber der Unterschied ist dennoch beachtlich wie ich finde

1739719164968.png


Min 900 Watt or greater power supply lul
 
the_IT_Guy schrieb:
Frage an die ganzen LLM Nutzer:
Wenn explizit für "KI", wäre es dann nicht besser mal richtig einen raus zu hauen und eine 64GB Karte anzubieten? Oder wäre der Mehrwert zu gering, weil doch zu langsam?

Wen es explitzit für AI gebaut wird, dann wird auch gern noch mehr drauf geklatscht. Das läuft bei AMD dann aber über CDNA, nicht RDNA. Dort arbeitet man auch nicht mehr mittels DDR, sondern schon mit HBM. Da reden wird dann über 4 bis 5 stellige Lösungen.
1739719724308.png

1739720124073.png


Darum verramscht man es ja auch nicht. Wer soviel Speicher will und Braucht kann es ja kaufen. Und es wird ja verkauft und gekauft.... aber halt nicht für 500€... das Reden wir über Preise wofür man ein Auto (Newagen) bekommt.
1739720565979.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: the_IT_Guy und Unlimited1980
joel schrieb:
Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.

Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)

Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.
Sagen die Leut immer, und am ende Kaufen es die Leute trotzdem. Siehe 4060 ...
1739722195551.png


Selbst wen es bei Ihnen anders sein sollte, Sie sind nicht representativ. Die Leute kaufen nach Angebot und Geldbeutel. Und nicht wenige haben nicht das Geld für Ihre neue "Einstiegsklasse". Es gibt heute noch mehr User mit einer 1060 als 4070 Super auf Steam. Nicht wenige wissen garnicht was und wieviel Speicher sie bei einer GPU wirklich brauchen.

Wer 16 GB braucht, sich einbildet es zu brauchen, der kauft auch ein eine 4080 bzw eine 5080. Oder wie Sie eine 5070ti...

Hat aber nichts mit Einstieg zu tun, sondern mit einer Grenze die sich selber setzen. Und wen Sie dafür bereit sind NV Klos zu vergolden, dann ist dem halt so. Aber Einstiegklasse Gaming, war bei NV 4060, und wird die 5060 sein. Noch scheint es also zum Glück genügend zu geben, die man nicht einfach Upsselen kann. Auch wen man an der nicht existierenden 4050/5050 sehen kann, das es sich zumindest seitens NV immer weniger lohnt.

B580, B570 zeigen das weder FHD noch Entrylevel noch lange nicht tot ist. Für NV mag sich das nicht Lohnen. Wen man unter der 4060 nichts anbietet, dann müssen es die Leute halt auch kaufen. Aber diese form der Angebotsbegrenzung funktioniert halt nicht grenzenlos.
1739723349421.png


Das Mag für Sie nicht gelten. Aber das Spielt ja Markttechnisch keine Rolle. Sie kaufen eine 5070ti und gut ist. Würde das nicht funktionieren, würde Sie gar nicht angeboten werden. Die Mehrheit wird aber weiter auf FHD Spielen oder halt zu ner günstigen Alternative wie die B580/B570 bzw. zur 9060 greifen, einfach weil Sie keien Wahl haben. NV kann sich ja auch nur dank des AI Booms erlauben.

Und da kommen wir zum Punkt. Den ist absolut egal ob sie eine GPU unter 16GB kaufen. Entweder sie kaufen eine 5070ti, 800€+, oder halt nicht. Würde es nicht funktionieren, würden Sie es ja nicht machen. Und die Grenzen ziehen Sie ja. Aber auch ohne SIe wird es sowohl GPUs mit weniger als 16GB geben, wie auch Spieler die sie kaufen (müssen). Und wen Dev bin, und darauf angewiesen bin meine Rechnungen zu bezahlen, dann werde ich auf die Steamcharts schauen und sorge tragen das auch morgen noch meine Spiele selbst auf eine 1060 laufen, wenn auch nicht auf Maximum. Whatever.

Die Gaming Welt wird deshalb nicht untergehen.
 

Anhänge

  • 1739722171857.png
    1739722171857.png
    140,5 KB · Aufrufe: 26
  • Gefällt mir
Reaktionen: Unlimited1980
therealcola schrieb:
Also dann 450 Watt Verbrauch mindestens bei der 9070 XT

irgendwo muss ja die Leistung her geholt werden wenn man so deutlich niedrigere Anzahl an Kernen hat.

therealcola schrieb:
Min 900 Watt or greater power supply lul

Nimm das nicht so genau, für die 7800xt Reddevil möchte Powercolor ein 800watt Netzteil. Und die kann maximal 305 watt mehr geht da eh nicht. wenn du das jetzt ins verhältnis setzt wird es bei der 9070xt redeviel 30-40watt mehr sein
 
mhmmhm würde ja dann perfekt auf 4070 Niveau sein die Leistung. Schade eigentlich


ne 7800 XT mit +10%~ Leistung ist mir bisschen zu schwach dann wirds vielleicht doch ne 5070 ti


schonmal mein zelt zusammen suchen für glinde bei alternate kappa
 
BOAH... jetzt hat der Azor aber einen Rausgehauen

90700.05XTXT Max
Gleich mal 320GB VRAM?


https://x.com/AzorFrank/status/1891124125248164349?s=19


Da wird aus der 9070 einfach mal ne 90700... aus XTX wird XTXT und dann auch noch MAX?

Was noch?
Hört sich an wie ein Joke.

P.S.: ist ein joke... muss man mal weiter lesen im thread :D :D :D
 
Zuletzt bearbeitet:
Zurück
Oben