Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB
- Ersteller MichaG
- Erstellt am
- Zur News: Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB
- Registriert
- Juli 2024
- Beiträge
- 602
Wo warst du die letzten Jahre. Es werden alle Kontingente verkauft, beinahe egal welcher Preis.megaapfel schrieb:@pacifico Blödsinn. Die Preiselastizität der Nachfrage ist bei Grafikkarten hoch.
TheInvisible
Lt. Junior Grade
- Registriert
- Jan. 2022
- Beiträge
- 392
Gddr6 ist quasi EOL, welche Entwicklung soll's da noch geben?HITCHER_I schrieb:Falls später mal GDDR6 Speicherchips mit der doppelten Kapazität von 32 Gb kommen, müsste man die Grafikkartenplatine gar nicht überarbeiten. Eine solche Grafikkartenversion mit 32GB würde dann halt erst ca. ein Jahr später erscheinen.
Ergänzung ()
Meinst du damit das dann endlich dlss-p vs fsr-q getestet werden soll? Vor allem seit dem DLSS4 Release? Bin voll dafür.Norebo schrieb:Der Typ hier hat ein Vergleichsvideo gemacht, wo er FSR auf einer NV und auf AMD vergleicht und auf der NV Karte sieht FSR echt wie Mist aus - auf der AMD Karte dagegen sehr gut (so ca. Minute 17):
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Wird das bei den kommenden Tests berücksichtigt, das die GPU Wahl den Test verfälschen kann?
Ergänzung ()
Hätten sie schon längst mit der 7900xtx und 48gb machen können, einfach mehr vram draufklatschen ist einfach. Software ist das Problem.jotka24 schrieb:Wenn Sie aber - und das ist disruptiver, als es sich zuerst anhöhrt, eine relativ preiswerte 90xx XT mit 64GB RAM für den Privatkundenmarkt produzieren würden, wären Sie von heute auf morgen der Nr.1 GPU-Provider für alle möglichen Private und Small Business AI Anwendungen, lokale LLMs usw. Und Nvidia könnte nicht kontern (wg. Ihrer Pricing-Strategie und dem Vorhalten großer VRAM-Bestückungen für den Data-Center-Markt).
Aber ist ja nicht so als hätte AMD keine Profi Karten die sie teurer verticken können. 32gb ist heute für den Prof Bereich auch nicht mehr so toll wie alle meinen
Zuletzt bearbeitet:
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 8.049
Ich glaube nicht. Ich gehe eher davon aus das er damit aufmerksam machen wollte, das FSR3 auf einer Nvidia Karte schlechter aussieht als auf einer AMD Karte(zumindest in diesem spiel).TheInvisible schrieb:Meinst du damit das dann endlich dlss-p vs fsr-q getestet werden soll? Vor allem seit dem DLSS4 Release? Bin voll dafür.
Das beispiel mit dlss4 transformer modell kann man auch in dem video sehen und es in den details besser als FSR3. Das bestreitet auch keiner und kann man in dem Video auch sehen,
Das gleiche bei intel karten mit XESS. Es läuft auf Intel Karten besser als auf AMD/Nvidia.
Darum kann man die Qualität eigentlich nur vergleichen wenn man die Entsprechende Hardware auch hat. Den Qualitätsvergleich nur mit einer Nvidia karte durchzuführen wäre somit nicht ideal.
TheInvisible
Lt. Junior Grade
- Registriert
- Jan. 2022
- Beiträge
- 392
Wennst du gerne viel Geld für 2. Klassiges aus gibst ist eh deine Entscheidung. AMD/NV sind keine Vereine mit denen man Mitleid haben müsste.daknoll schrieb:Braves Schäfchen. Braaav. ^^
Ergänzung ()
Fsr sieht immer gleich aus, ist ein statischer Algorithmus. Xess ist klar weil das auf Intel Karten das große Modell verwendet.Northstar2710 schrieb:Ich glaube nicht. Ich gehe eher davon aus das er damit aufmerksam machen wollte, das FSR3 auf einer Nvidia Karte schlechter aussieht als auf einer AMD Karte(zumindest in diesem spiel).
Das beispiel mit dlss4 transformer modell kann man auch in dem video sehen und es in den details besser als FSR3. Das bestreitet auch keiner und kann man in dem Video auch sehen,
Das gleiche bei intel karten mit XESS. Es läuft auf Intel Karten besser als auf AMD/Nvidia.
Darum kann man die Qualität eigentlich nur vergleichen wenn man die Entsprechende Hardware auch hat. Den Qualitätsvergleich nur mit einer Nvidia karte durchzuführen wäre somit nicht ideal.
Zuletzt bearbeitet:
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 8.049
zumindest in dem video nicht.TheInvisible schrieb:Fsr sieht immer gleich aus, ist ein statischer Algorithmus
Da ich aber keine nvidia karte besitze kann ich das auch nicht nachstellen. Von daher bleibt mir nur das video als vergleich
W
wechseler
Gast
Das Coole ist, dass die ganze Kiste aus Standard-Bauteilen dafür keine 400 W braucht.Unlimited1980 schrieb:Habe hier noch einen gefunden, der Deepseek 671B sogar ziemlich gut ganz ohne GPU zum laufen bekommen hat:
https://x.com/carrigmat/status/1884244369907278106
Deshalb ist der Markt auch komplett eingebrochen.Unlimited1980 schrieb:Das ist ja ne krasse Entwicklung.
Seit Deepseek (Assembler!!) kann ja NVDA sich CUDA in bezug auf AI ziemlich in den Allerwertesten stecken, wenn jetzt neuerdings komplett zum lokalen laufen von Deepseek auf GPUs verzichtet werden kann... crazy!
Wenn es so einfach ist, stellt sich die Frage, warum sie es nicht machen. Wie gesagt gibt es viele kleine Developer, die sich um so eine Karte reißen würden. Die Software würde folgen, nicht über Nacht, aber es würde auch keinJahrzehnt dauern, wenn 48, 64 oder 96 GB VRAM auf einer bezahlbaren Consumerkarte einen ROCm-Zwang mit sich führen würde. Das würde schnell gehen, dass die Community mit solchen Karten entwickelt.TheInvisible schrieb:Hätten sie schon längst mit der 7900xtx und 48gb machen können, einfach mehr vram draufklatschen ist einfach. Software ist das Problem.
Tun sie doch. Nennt sich Radeon Pro W7900jotka24 schrieb:Wenn es so einfach ist, stellt sich die Frage, warum sie es nicht machen.
@stefan92x Ich schrieb Consumerkarte => Consumerpreise
therealcola
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.985
Ich finde diesen Chart gerade interessant weil ich sehe das die 9070 XT 4096 Kerne hat aber die 5070 TI und selbst die 5070 deutlich darüber liegt.
Also, die prozentuale Steigerung von 4096 auf 6144 beträgt 50% bei der RTX 5070 und von 4096 auf 8960 beträgt 118.75% bei der 5070 TI
Da wir bereits gesehen haben das sich die RTX 5080 gut übertakten lässt vermuten wir mal das mindestens die 5070 TI sich auch auf 2,8 ghz anheben lässt.
Wie will AMD die NVIDIA 5070 TI oder 5070 schlagen wenn sie keinen aggressiven Preis Punkt setzen? Nvidia MRSP muss ja unterboten werden. Bei der hohen Kern Differenz glaub ich nicht das 9070 XT überhaupt an einer 5070 heran kommt, dementsprechend ist die 9070 XT ein Gegner der RTX 4070.
Einzig tolerierbarer Preis wäre 499$ für ne 9070 XT eigentlich noch weniger xD
Wenn ich lese "Power Coler Red Devil Radeon RX 9070 XT" irgendwas mit 845$ dann gute Nacht.
Zuletzt bearbeitet:
Alesis
Lt. Commander
- Registriert
- Juni 2022
- Beiträge
- 1.595
@therealcola
Ich würde nicht einen Shader Vergleich zwischen unterschiedliche Hersteller machen.
Denn eine 7700 XT mit 3.456 Shader ist schneller als eine 4060 Ti mit 4.352 Shader.
Ich würde nicht einen Shader Vergleich zwischen unterschiedliche Hersteller machen.
Denn eine 7700 XT mit 3.456 Shader ist schneller als eine 4060 Ti mit 4.352 Shader.
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 8.049
weil die karten dann den Profi karten konkurrenz machen. Dort bekommst du 48gb für 3500€.jotka24 schrieb:Wenn es so einfach ist, stellt sich die Frage, warum sie es nicht machen.
therealcola
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.985
Alesis schrieb:
Also dann 450 Watt Verbrauch mindestens bei der 9070 XT
irgendwo muss ja die Leistung her geholt werden wenn man so deutlich niedrigere Anzahl an Kernen hat.
Und ja ich weiß man kann das nicht so direkt vergleichen aber der Unterschied ist dennoch beachtlich wie ich finde
Min 900 Watt or greater power supply lul
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.991
the_IT_Guy schrieb:Frage an die ganzen LLM Nutzer:
Wenn explizit für "KI", wäre es dann nicht besser mal richtig einen raus zu hauen und eine 64GB Karte anzubieten? Oder wäre der Mehrwert zu gering, weil doch zu langsam?
Wen es explitzit für AI gebaut wird, dann wird auch gern noch mehr drauf geklatscht. Das läuft bei AMD dann aber über CDNA, nicht RDNA. Dort arbeitet man auch nicht mehr mittels DDR, sondern schon mit HBM. Da reden wird dann über 4 bis 5 stellige Lösungen.
Darum verramscht man es ja auch nicht. Wer soviel Speicher will und Braucht kann es ja kaufen. Und es wird ja verkauft und gekauft.... aber halt nicht für 500€... das Reden wir über Preise wofür man ein Auto (Newagen) bekommt.
Zuletzt bearbeitet:
Das Argument wurde bereits berücksichtigt.Northstar2710 schrieb:weil die karten dann den Profi karten konkurrenz machen. Dort bekommst du 48gb für 3500€.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.991
Sagen die Leut immer, und am ende Kaufen es die Leute trotzdem. Siehe 4060 ...joel schrieb:Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.
Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)
Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.
Selbst wen es bei Ihnen anders sein sollte, Sie sind nicht representativ. Die Leute kaufen nach Angebot und Geldbeutel. Und nicht wenige haben nicht das Geld für Ihre neue "Einstiegsklasse". Es gibt heute noch mehr User mit einer 1060 als 4070 Super auf Steam. Nicht wenige wissen garnicht was und wieviel Speicher sie bei einer GPU wirklich brauchen.
Wer 16 GB braucht, sich einbildet es zu brauchen, der kauft auch ein eine 4080 bzw eine 5080. Oder wie Sie eine 5070ti...
Hat aber nichts mit Einstieg zu tun, sondern mit einer Grenze die sich selber setzen. Und wen Sie dafür bereit sind NV Klos zu vergolden, dann ist dem halt so. Aber Einstiegklasse Gaming, war bei NV 4060, und wird die 5060 sein. Noch scheint es also zum Glück genügend zu geben, die man nicht einfach Upsselen kann. Auch wen man an der nicht existierenden 4050/5050 sehen kann, das es sich zumindest seitens NV immer weniger lohnt.
B580, B570 zeigen das weder FHD noch Entrylevel noch lange nicht tot ist. Für NV mag sich das nicht Lohnen. Wen man unter der 4060 nichts anbietet, dann müssen es die Leute halt auch kaufen. Aber diese form der Angebotsbegrenzung funktioniert halt nicht grenzenlos.
Das Mag für Sie nicht gelten. Aber das Spielt ja Markttechnisch keine Rolle. Sie kaufen eine 5070ti und gut ist. Würde das nicht funktionieren, würde Sie gar nicht angeboten werden. Die Mehrheit wird aber weiter auf FHD Spielen oder halt zu ner günstigen Alternative wie die B580/B570 bzw. zur 9060 greifen, einfach weil Sie keien Wahl haben. NV kann sich ja auch nur dank des AI Booms erlauben.
Und da kommen wir zum Punkt. Den ist absolut egal ob sie eine GPU unter 16GB kaufen. Entweder sie kaufen eine 5070ti, 800€+, oder halt nicht. Würde es nicht funktionieren, würden Sie es ja nicht machen. Und die Grenzen ziehen Sie ja. Aber auch ohne SIe wird es sowohl GPUs mit weniger als 16GB geben, wie auch Spieler die sie kaufen (müssen). Und wen Dev bin, und darauf angewiesen bin meine Rechnungen zu bezahlen, dann werde ich auf die Steamcharts schauen und sorge tragen das auch morgen noch meine Spiele selbst auf eine 1060 laufen, wenn auch nicht auf Maximum. Whatever.
Die Gaming Welt wird deshalb nicht untergehen.
Anhänge
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 8.049
therealcola schrieb:Also dann 450 Watt Verbrauch mindestens bei der 9070 XT
irgendwo muss ja die Leistung her geholt werden wenn man so deutlich niedrigere Anzahl an Kernen hat.
therealcola schrieb:Min 900 Watt or greater power supply lul
Nimm das nicht so genau, für die 7800xt Reddevil möchte Powercolor ein 800watt Netzteil. Und die kann maximal 305 watt mehr geht da eh nicht. wenn du das jetzt ins verhältnis setzt wird es bei der 9070xt redeviel 30-40watt mehr sein
therealcola
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.985
mhmmhm würde ja dann perfekt auf 4070 Niveau sein die Leistung. Schade eigentlich
ne 7800 XT mit +10%~ Leistung ist mir bisschen zu schwach dann wirds vielleicht doch ne 5070 ti
schonmal mein zelt zusammen suchen für glinde bei alternate kappa
ne 7800 XT mit +10%~ Leistung ist mir bisschen zu schwach dann wirds vielleicht doch ne 5070 ti
schonmal mein zelt zusammen suchen für glinde bei alternate kappa
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 1.016
BOAH... jetzt hat der Azor aber einen Rausgehauen
90700.05XTXT Max
Gleich mal 320GB VRAM?
https://x.com/AzorFrank/status/1891124125248164349?s=19
Da wird aus der 9070 einfach mal ne 90700... aus XTX wird XTXT und dann auch noch MAX?
Was noch?
Hört sich an wie ein Joke.
P.S.: ist ein joke... muss man mal weiter lesen im thread

90700.05XTXT Max
Gleich mal 320GB VRAM?
https://x.com/AzorFrank/status/1891124125248164349?s=19
Da wird aus der 9070 einfach mal ne 90700... aus XTX wird XTXT und dann auch noch MAX?
Was noch?
Hört sich an wie ein Joke.
P.S.: ist ein joke... muss man mal weiter lesen im thread



Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 222
- Aufrufe
- 34.052
- Antworten
- 59
- Aufrufe
- 8.150
- Antworten
- 213
- Aufrufe
- 17.579
- Antworten
- 184
- Aufrufe
- 18.241
- Antworten
- 172
- Aufrufe
- 15.905