News Radeon RX 9070 (XT): PowerColor zeigt nächste „Red Devil“ und „Hellhound“

Krakadil schrieb:
Genau wegen solchen Beiträgen zahlen viele einen unnötigen Aufpreis.
Das mag sein, aber meine Aussage ist nunmal ein Fakt.
Das hindert nimanden daran eine Powercolor Hellhound zu kaufen, die auch einen
sehr guten Kühler hat oder eine Sapphire Nitro,
seit ein paar wenigen Gen kann man auch Asus TUF nehmen, die XFX Merc sind auch gut,
Asrock Phantom Gaming oder Taichi sind auch sehr gut, Asrock Challenger Pro sind auch gut.

Solange man eine solche Auswahl hat, ist der Preis wegen einer Aussage wie meiner noch lange nicht
beeinflusst.
Ergänzung ()

wahli schrieb:
Und wegen der ganzen Effizienzgeschichte glaube ich nur, dass sich zwar AMD verbessern wird, aber im Endeffekt muss erst mal NVidia erreicht werden. Besser als NVidia werden sie nicht werden.

Dir ist schon klar, dass die AMD 6000er Gen effizienter waren als die 3000er NVs aus der gleichen Zeit?

Die 7000er konnten das wegen dem Multichip Aufbau, der nicht optimal funktionierte nicht sein.

Komischerweise ist das meist nur ein Thema, wenn NV mal wieder etwas in Front liegt, aber zu glauben, dass AMD nicht auf oder gar überholen könnte ist naiv.
Ergänzung ()

aufkrawall schrieb:
Bin von einer 7800 XT auf die 4070S gegangen, und auch wenn der VRAM in manchen Spielen leider drückt, ist die GeForce durch DLSS trotzdem in der Mehrzahl der Fälle die viel bessere 4k-Karte. RT-Reflexionen sind ohne Ray Reconstruction imho auch völlig witzlos. Damit sieht RT selbst mit 50% Auflösung oft viel besser aus als in nativem 4k.

Das sind beides schlicht keine 4K Karten.
Wenn es schon ums Verrecken 4K sein muss, was es abolut nicht muss, sind die beiden eigentlich fehl am Platze. Da würd ich unter einer 4080 nicht mal dran denken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alesis und Lonex88
modena.ch schrieb:
Dir ist schon klar, dass die AMD 6000er Gen effizienter waren als die 3000er NVs aus der gleichen Zeit?

Wobei AMD das vor allem dadurch erreicht hat, dass Sie TSMC 7nm genutzt haben und die 3000er Karten Samsungs sehr angestaubten 8nm Prozess, was sogar nur ein optimierter 10nm Prozess war. Sie hatten also eine Full Node Vorsprung. Und auch das ist nur die halbe Wahrheit. Die Effizient mit zugeschaltetem Raytracing war bei den 6000er Karten deutlich schlechter und schon die 6000er Karten haben ein massives Problem bei Multimonitoranwendungen, Medienwiedergabe etc. Unterm Strich waren die also nicht wirklich effizienter, wenn man alle Bereiche anschaut.
 
Alesis schrieb:
Die 7800 XT ist zu teuer fürs gebotene aus meiner Sicht. Der Witz ist nur dabei, das eine 192bit 12GB Grafikkarte günstiger in der Herstellung ist, als 256bit und 16GB. Die 4070 trotzdem deutlich teurer ist und auch noch beim Kauf bevorzugt wird.
Also kann dein pauschale Unverständnis, wie man nur eine 4070 empfehlen kann, sicherlich nicht objektiv sein.

Mit GDDR6X 21 Gbit bei der NV statt GDDR6 19.5 Gbit,
mit einem monolytischen Chip 294mm2 in 5NM statt einem Chiplet Aufbau mit 1x 200mm2 in 5NM und 4x36mm2 in 6NM.

Würde bezweifeln dass die NV wirklich günstiger zu produzieren ist. Der Ausschuss wird bei der AMD wohl deutlich besser sein. Was den Preis deutlich drückt. Und der Speicher ist um Klassen günstiger im Einkauf.
Ergänzung ()

Shoryuken94 schrieb:
schlechter und schon die 6000er Karten haben ein massives Problem bei Multimonitoranwendungen, Medienwiedergabe

Anfangs vielleicht, aber später mit neuen Treibern sicher nicht mehr.
Arg viel sparsamer in Idle, Video und Multimonitor als eine RX6700XT geht es heute noch nicht.

Was das Raytracing angeht, über das denke ich unter einer 4080 gar nicht nach, die kleinen Klassen sind dafür einfach viel zu schwach. Das ist in der Klasse kein Argument für mich.
 
Poati schrieb:
Denn DLSS hat definitiv andere Probleme, die nichts mit Schärfe oder Bildruhe zu tun haben. Ganz im Gegenteil. Was bei DLSS eher nervig sein kann sind solche Sachen:
Man sollte aber auch die beiden Punkte erwähnen das mal die eine mal die andere Technologie in ein Spiel implantiert wird. Und die andere erst später, teils viel später mit einem Update in Spiel kommt. Was mir besonders bei Nvidia DLSS sauer aufstößt. Ist das man praktisch mit jeder spätestens mit jeder zweiten Generation ein Feature einführt. Was nur noch auf der Aktuellen Generation läuft. Und dazu noch der Vram Mangel. Die 5080 kommt nur mit 16gb. Als Oberklasse ist mir das 2025 aber zu wenig. Ich mein die 5090 hat doppelt soviel Speicher. Bin gespannt ob wir dieses oder nächstes Jahr das erste Spiel sehen wo der 5080 mit 16gb die Puste wegen zu wenig Speicher ausgeht.
Das sind so Punkte neben dem viel zu hohen Preis und dem gebaren vom Nvidia die mich immer wieder davon abhalten mir eine GPU von Nvidia zu kaufen. Hab hier zwar aktuell eine 1660Super im HTPC und eine 1070 für den Notfall liegen.
Aber zur Zeit bin ich vom Grafikkarten Markt und den mittlerweile drei Herstellern nur genervt. Jeder kocht sein Süppchen mehr oder weniger gut. Und ich als Kunde komme mir verarscht vor.
 
  • Gefällt mir
Reaktionen: MaverickM und alkaAdeluxx
Northstar2710 schrieb:
Das liegt doch nur daran, das die Entwickler ihre Maxes out/Ultra/giga presets so voll packen das es jede Karte hinrafft. Man könnte jetzt ihnen die schuld geben das sie keine vernünftigen presets machen, oder einfach nicht blind alles auf max stellen wollen welches optisch wirklich keinen mehrwert bringt. Besonders im verhältnis der Leistungsverluste.
Ich glaube es liegt mehr daran ob man die Spiele vernünftig optimiert. Und sich schon während der Entwicklung überlegt wie man etwas Ressourcen sparend ins Spiel programmiert. Und nicht auf so einen Kackhaufen wie die UE setzt.
Aber vielleicht werden die Entwickler auch von Nvidia und AMD dazu ermuntert so schlecht zu optimieren. Dann müssen die Kunden alle zwei Jahre eine neue Graka kaufen.
 
Mal gespannt wie die preislich so zu Buche schlägt.
 
Bei der ganzen Debatte frage ich mich eher, für welche Spiele aufrüsten? Die Liste an anstehenden Spielen sieht ziemlich mau aus für die nächste Zeit. Vor allem nichts was nicht mit aktueller Hardware gut laufen wird.
 
modena.ch schrieb:
Das sind beides schlicht keine 4K Karten.
Wenn es schon ums Verrecken 4K sein muss, was es abolut nicht muss, sind die beiden eigentlich fehl am Platze. Da würd ich unter einer 4080 nicht mal dran denken.
Das mag für dich Sinn ergeben. Leute sollen aber auch noch andere Dinge als AAA in 4k spielen.
Und 4k ist für mich Pflicht, weil mit 1440p-Target Ray Reconstruction zu künstlich aussieht. Was nützen mir höhere fps, wenn es immer wie Mist aussieht.
Davon mal abgesehen, dass sich Titel wie Hellblade 2 usw. problemlos @Max zocken lassen. Dank Upsampling + FG/Reflex.
Und nein, nativ 1440p sieht nicht besser aus. Im Gegenteil.
 
Wird dieses mal hochwertige Wärmeleitpaste genutzt, oder muss ich diese wieder selbst nach zwei/drei Jahren wechseln?
 
  • Gefällt mir
Reaktionen: Qyxes
Shoryuken94 schrieb:
Wobei AMD das vor allem dadurch erreicht hat, dass Sie TSMC 7nm genutzt haben und die 3000er ....
Wie ist doch egal. Sie waren unterm Strich effizienter. Und da hatte es viele auch nicht gejuckt. Würde mich aber auch nicht jucken bei meinem Nutzerverhalten.
Dann müsste die kiste jeden Tag bei 8 Stunden Volllast laufen bis das den Unterschied macht.
Aber das muss jeder für sich selbst wissen was einem wichtig ist.
 
modena.ch schrieb:
Anfangs vielleicht, aber später mit neuen Treibern sicher nicht mehr.

Nein das ist auch heute noch so, mit dem neuesten Treiber. Sehe ich täglich mit meiner 6800XT. Bei sehr vielen Monitorkombinationen liegt der volle 3D Takt beim Speicher an und die Karte verbraucht 40+ Watt. Das gleiche gilt, wenn man z.B. ein Youtube Video schaut, auch da wird die Karte, selbst mit nur einem Monitor beim Speicher auf einen hohen Takt geschaltet und verbraucht massig Strom.

Das sind die gleichen Probleme, die es auch heute bei den 7000er Karten gibt.

modena.ch schrieb:
Was das Raytracing angeht, über das denke ich unter einer 4080 gar nicht nach, die kleinen Klassen sind dafür einfach viel zu schwach. Das ist in der Klasse kein Argument für mich.

Raytracing wird zunehmend Grundvoraussetzung für Spiele. Die Zahl an Titeln, die ohne überhaupt nicht mehr laufen wird mit der Zeit zunehmen und nicht abnehmen. Und man kann auch mit wesentlich langsameren Karten RT nutzen.

Ja bei AMD wird es schon schwieriger, aber sowas wie Doom Eternal läuft in 1440p z.B. selbst mit einer 6800Xt und RT ganz vernünftig.

anexX schrieb:
Mal gespannt wie die preislich so zu Buche schlägt.

Das wird der wichtigste Punkt bei AMD. Mit dem richtigen Preiskönnte AMD wirklich was reißen. Aber AMD greift oftmals zu Release zu hoch und wird dann erst mit sinkenden Preisen so richtig interessant. Aber mal sehen.

Mein Tipp 9070XT kostet 649$ und gute Custommodelle legen noch mal 100$ drauf.

Czk666 schrieb:
Bei der ganzen Debatte frage ich mich eher, für welche Spiele aufrüsten? Die Liste an anstehenden Spielen sieht ziemlich mau aus für die nächste Zeit. Vor allem nichts was nicht mit aktueller Hardware gut laufen wird.

Ach es kommen doch mehr als genug Spiele 2025 raus. Und gleichzeitig werden die meisten noch genug Spiele aus den letzten Jahren haben, die gespielt werden wollen. Sowas wie Stalker 2 wird im Laufe des Jahres einen Zustand erreichen, dass man es auch freiwillig spielen will und das ist kein Kostverächter bei der Hardware, Space Marine 2 macht aktuell nur mit Framegen wirklich Spaß etc. Im Februar kommt KCD2, AC Shadows und man sollte auch nicht vergessen, nicht alle haben heute aktuelle Hardware. Es gibt mehr als genug Leute, die die RTX 40 zbd RX 7000 Serie ausgelassen haben und es gibt auch noch mehr als genug Leute mit noch älteren karten. 1070, 1080(Ti), 2070Super, RX5700XT etc. sieht man noch häufig genug. Und auch die Displaytechnologie entwickelt sich weiter. High Refresh 1440p Displays werden immer günstiger und sind jetzt so billig, dass sich was anderes kaum lohnt, wenn man nicht auf den letzten Euro achten muss, 4K 144Hz liegt ist sehr günstig geworden und in der 400€ klasse gibt es da einiges. OLED Displays nehmen an Fahrt auf, 240 und mehr HZ sind keine Ausnahme für E-Sport Monitore mehr, sondern bei OLED ziemlicher Standard.
Ergänzung ()

Ghostfacekalle schrieb:
Wie ist doch egal. Sie waren unterm Strich effizienter. Und da hatte es viele auch nicht gejuckt.

Es ging ja explizit im Ursprung darum, ob es AMD schaffen kann die Nvidia Effizienz zu schlagen und das wird bei gleicher Fertigung schwierig.

Und wie gesagt, nein, die RDNA2 war nicht in allen Bereichen Effizienter, wenn man von Volllast Raster absieht. Die beiden waren aber eh so dicht beisammen, dass es keinen relevanten Unterschied gemacht hat.
 
Zuletzt bearbeitet:
flynn9 schrieb:
Danke, ging leider nicht mit meiner Red Devil. Lese gerade beim googlen was von einem LED Kabel, ich muss da mal in der Verpackung kramen.
Ging bei mir auch ohne Kabel.
Allerdings hab ich gerade gesehen, die haben eine Year 2024 Version von der Software, vielleicht ist es da buggy, oder die haben da was geändert.
Ich hab bei meiner 6900xt eine ältere Version von Ende 2022 oder Anfang 2023 genutzt, diese ist aber leider nicht mehr verfügbar, aber immerhin gibt es diese Software, wenn auch in einer Version von vor ein paar Monaten.

Versuch es mal mit der
1736160342146.png
https://www.powercolor.com/download24.htm#sort_3
Das Tool kannst du nach der Änderung des RGB deinstallieren / muss nicht permanent mitlaufen.


(ich glaub das RGB Kabel ist dafür da, dass man die GPU im Takt mit dem restlichen RGB über das Board laufen lassen kann)
 
  • Gefällt mir
Reaktionen: Quidproquo77
ThePlayer schrieb:
Glaube im Frühjahr oder Sommer letztes Jahr gab es ein Gerücht das man RDNA5 schon für 2026 plant.
Du meinst UDNA.
 
@Cempeg Ach so soll das jetzt umbenannt werden. Dann ja.
 
modena.ch schrieb:
Würde bezweifeln dass die NV wirklich günstiger zu produzieren ist.
Ich schrieb letztlich vom PCB. Also kleinere Bandbreite auch beim Chip und weniger Speicher. Ich behaupte sogar, dass deswegen AMD nicht noch günstiger sein kann. Weil die Basis schon teurer ist.
 
  • Gefällt mir
Reaktionen: Shoryuken94 und Quidproquo77
Zurück
Oben