News AMD Radeon RX 9070 (XT): Mehr Details und Hersteller-Benchmarks durchgestochen

Nitrobong schrieb:
ich hoffe die 7000er werden im Preis fallen.
Sind doch schon seit einigen Wochen wieder im AufwĂ€rtstrend đŸ€·â€â™‚ïž

Da sollte man dann nicht allzu sehr warten, werden sicher nur noch abverkauft.
 
Zuletzt bearbeitet:
@Loopman Das ist mir auch aufgefallen. Spekuliere auf ne 7800xt Hellhound fĂŒr max 450. 500 hab ich bei Seite gelegt. Werde wohl nĂ€chste woche aktiv werden wenn man jetzt ab freitag mehr zu den 90xx weiss.
 
MaverickM schrieb:
Es war eine dumme Idee seitens nVidia und wĂ€re eine noch dĂŒmmere, wenn AMD ihn weglĂ€sst.
Es war in dem Moment schlau, so dass die Besorgten nicht alle gleich aufschreien.
Ansonsten ist es natĂŒrlich kacke, auch wenn ich nen Wasserblock anbringen will.
Aber man siehts ja bei Igor, serienmĂ€ssig kocht die Platine eine 5080 FE bei ĂŒber 80 Grad.
Ob das Jahre gut geht....
 
KodosDerHenker schrieb:
Aber das setzt eben auch wirklich voraus...
... dass man seinen Konsum richtig einschÀtzen kann.
Im Schnitt 8 Stunden dĂŒrfte recht unrealistisch sein.
1. weil die Karte in der Zeit nicht dauernd auf Anschlag lÀuft und dadurch 50W mehr verbraucht
2. man ja auch mal Tage nicht zockt, Urlaub, Krank, eventuell soziale Verpflichtung, was also die Zeit in der man Zockt dann vielleicht auf >10 Stunden/Tag erhöht.

Wer wirklich so viel spielt, weil man zB keinen Job hat, der hat wohl generell zu wenig Kohle um 1000€ fĂŒr ne Graka zu bezahlen.
Oder man ist mit Job sozial isoliert, dann hat man sowieso genug Kohle, weil man ja keine großen Kosten außerhalb hat.
Oder man hat keinen Job und trotzdem genĂŒgend Kohle (Privater, dann sollen die paar
 
"Auch ist unklar, inwiefern AMD fĂŒr die Benchmarks auf FSR zurĂŒckgegriffen hat."
So sehr ich mir einen Preis/Leistungsknaller wĂŒnsche, der Nvidia spĂŒrbar Marktanteile abnimmt, bleibe ich noch skeptisch. Wenn AMD bspw. FSR4 auch auf Ă€lteren RDNA Architekturen zum Laufen bekommen hat, dort aber fĂŒr Performance-Einbußen sorgt und die Benchmarks mit FSR4 durchgefĂŒhrt wurden ...
Oder wenn FSR4 qualitativ auf dem Niveau von DLSS4 Performance liegt, ...
Oder wenn FSR4 mehr Performance kostet als DLSS, ...
Oder wenn AMD die mindestens aus Sicht des Marktes empfundene technologische Überlegenheit Nvidias bei der Preisgestaltung nicht berĂŒcksichtigt oder sich nicht an der UVP (sondern den aktuellen Marktpreisen) der Nvidia Karten orientiert wird, ...
Aber zumindest machen die Leaks Hoffnung :)
 
Zuletzt bearbeitet:
-MK schrieb:
N4 und 4N? Na da war bei der Prozessbenennung bei TSMC ja ein richtig kreatives Köpfchen am Hebel.
Das war wohl eher NV, die ihren "5N-Prozess fĂŒr NV" - der ja ein taktoptimierter 5N ist - in N4 umbenennen und alle gehen ihnen auf den Leim und nennen es "4nm". Leider inkl. der Fachjournalisten :confused_alt:

An der Packdichte hier im Vergleich zum (auch) flÀchenoptimierten echten 4N sieht man eben, dass es keiner ist. Der Fortschritt ist ja nicht unerheblich und ggf. das Geheimnis, warum die 9070er mit der kolpotierten hohen Leistung auftrumpfen können - so es denn stimmt.

Am Ende am interessantesten ist natĂŒrlich der Preis: Sollte der N4 von AMD teurer sein als der N5 (4N) von NV, können die Karten nicht preiswert werden, dafĂŒr sind sie zu gross.
 
modena.ch schrieb:
serienmĂ€ssig kocht die Platine eine 5080 FE bei ĂŒber 80 Grad
1. kocht bei 80 Grad gar nix. Ist im Vergleich zu anderen Karten fast schon kĂŒhl
2. Die Customs liefern doch teilweise bei 65 Grad. đŸ€·â€â™‚ïž

Gerade von den Temperaturen doch sicher eine der besten Karten.
 
Loopman schrieb:
Gibt genĂŒgend Leute, auch hier, die die Karte zu dem Preis kaufen konnten.
Die Erstwochen-Preise zĂ€hlen nicht ☝
warum zĂ€hlen Erstwochen Preise in deiner Rechnung nicht? ab wann sind sie fĂŒr dich dann zĂ€hlbar? ..nehme an wenn sie in passable Regionen gekommen sind...
Wenn ĂŒber ein Thema philosophiert wird, werden die aktuellen Preise hergenommen ob diese jetzt höher oder niedriger sind als UVP oder die Karte 2J auf dem Markt ist, ist dabei irrelevant
 
  • GefĂ€llt mir
Reaktionen: Apocalypse
denbaschu schrieb:
Man kann eine GRE bereits heute mit einem 550w NT betreiben.
Ich hatte 4 Jahre lang ne 6900XT mit nem 5800X3D im Rechner. Bei meinem 850W Netzteil ging bei dem Setup nicht mal der LĂŒfter an, der ab ~50% Last anspringt. Und die GRE hat ja nochmal 40W weniger als die 6900XT.
Das was du als richtig richtig spannend bezeichnest, kann man doch seit 4 Jahren kaufen?!
Ich hab gestern eine 7900 XT verbaut (ob ich die behalten soll oder lieber Retoure?) und mein wassergekĂŒhltes Gesamtsystem mit einem 5700X3D liegt in KCD 2 an der Steckdose meistens unter 400 Watt. Ein anstĂ€ndiges 550W-Netzteil dĂŒrfte fĂŒr die 9070 XT noch locker reichen, mit 10-20 Prozent Reserve.
 
CptTehJack schrieb:
"Auch ist unklar, inwiefern AMD fĂŒr die Benchmarks auf FSR zurĂŒckgegriffen hat."
Und?
Das Setting nonmaxed wurde so gewÀhlt, das die GRE nicht bei der Bandbreite limitiert ist.
= genau Das, was man braucht um die Rohleistung und IPC zu vgl. zw. den Generationen.

wĂŒrde denken, high statt ultra, kein FSR oder nur FSR-Quality+Ultra
Das war ĂŒbrigens auch schon beim GRE-Launch so, das man >1440p dann FSR empfohlen hat,
seitens AMD.
 
Zuletzt bearbeitet:
Loopman schrieb:
... dass man seinen Konsum richtig einschÀtzen kann.
Klar, einen PC darf man nicht wie einen KĂŒhlschrank rechnen und die persönliche Situation ist recht unterschiedlich

8 Stunden im Schnitt GPU auf last laufen ist jetzt kein unrealistisches Szenario, 8 Stunden am Tag spielen eine einfache Umschreibung dafĂŒr.
FĂŒr eine genau Rechnung fehlt es so oder so an Daten, Stromverbrauch bei Desktop Nutzung/Idle usw.

Man macht es sich halt einfach und wenn man Ende stehen bleibt das eine Karte ist 200€ billiger und verbraucht im schlechtesten Fall 180€ mehr Strom ĂŒber 5 Jahre dann kann man das fĂŒr die eigene Situation als Grundlage nehmen.
Wenn man es genauer braucht muss man es auch fĂŒr sich selbst genauer rechnen

Aber wie oben schon gesagt, jeder der im Stromverbrauch ein Problem sieht oder fĂŒr dessen persönliche Situation das wichtig ist, sollte von allen Karten nur die 9070 im Blick haben
 
Schmuppes schrieb:
Ich hab gestern eine 7900 XT verbaut (ob ich die behalten soll oder lieber Retoure?) und mein wassergekĂŒhltes Gesamtsystem mit einem 5700X3D liegt in KCD 2 an der Steckdose meistens unter 400 Watt. Ein anstĂ€ndiges 550W-Netzteil dĂŒrfte fĂŒr die 9070 XT noch locker reichen, mit 10-20 Prozent Reserve.
Sehe ich auch so.
Solange die CPU halbwegs sparsam ist, sollte das locker gehen.
Mit Raptor Lake als Grundlage wĂŒrde ich aber mehr Reserve planen.
Bzgl: 7900XT die Frage kannst du dir erst am 5.MĂ€rz beantworten vollstĂ€ndig beantworten. Ich bin vor 2 Wochen auf 7900XT gewechselt. Wasserblock war gĂŒnstig, Karte war gĂŒnstig und die 6900XT ist auch verkauft. Der Wechsel hat mich in Summe 400€ gekostet und ich durfte wieder basteln und Rohre biegen und mal den Kreislauf reinigen. Bin zufrieden damit.

Ich glaube einfach nicht das 9070(XT) da preislich ran kommt die nÀchsten Wochen.
 
Wer am Tag 8h zockt bzw. die Kiste laufen lÀsst wÀhrend der Arbeit sollte eh mal in Sachen Balkonkraftwerk bzw. Solaranlage mit kleinem Speicher voran kommen, wenn es ihm wirklich ums Geld geht.
 
  • GefĂ€llt mir
Reaktionen: Apocalypse
DaHell63 schrieb:
Sehe ich persönlich nicht so,,,wie auch jeder andere wohl da seine eigenen Vorstellungen hat.
Es kommt auf den Kontext an und in diesem speziellen Fall - durschnittlicher Verbrauch einer Grafikkarte mit dem TBP einer Grafikkarte in Relation setzen - ist die Effizienz eine Nebelkerze.

Weder kennen wir die Straßenpreise der RX 9070 XT, noch den durschschnittlichen Verbrauch ĂŒber die gleiche Spiele auswahl. Erst wenn wir beides kennen, können wir hier wirklich ĂŒber die Effizienz urteilen und diese auch in Relation zueinander setzten.

Die Betrachtung der Straßenpreise ist dann der nĂ€chste Punkte und auch da mĂŒssen wir abwarten, was kommt.
DaHell63 schrieb:
Persönlich will ich eine Karte die mit max 200W möglichst viel Leistung bringt.
Die Zeit wird leider wohl nicht mehr so schnell wiederkommen. TSMC, Intel und Co brauchen fĂŒr ihre neuen Prozesse immer lĂ€nger. Nvidia, Intel und AMD nĂ€hern sich mit den "aktuellen" Konzepten auch einer "Schallmauer".

Sofern jetzt nicht irgendwelche Wunder bei Graphentransistoren und Co passieren, werden wir leider erst mal mit der "steigenden" Leistungsaufnahme leben mĂŒssen.
KodosDerHenker schrieb:
5 Jahre ist insofern ein guter Zeitraum als das eben auch der Zeitraum eines Hardware Updates wÀre.
Das Problem ist weiterhin, dass wir hier von laufenden Kosten und von einmal fĂ€lligen Kosten reden und - das ist jetzt reihn hypothetisch - es ist halt ĂŒberschaubarer, wenn man pro Monat 3,20 € mehr als Abschlag in der Stromrechnung hat, als wenn man einmalig 200 € mehr bezahlen muss.
KodosDerHenker schrieb:
Also wenn man jede Generation neue Komponenten kauft juckt einen der Strompreis eh nicht, bei jeder 3. Generation kann das schon ein Argument sein, vor allem wenn es da entsprechende SprĂŒnge gibt.
Wenn eine RTX 5070 Ti 900 € kostet, und die RX 9070 XT 700 €, dann sind das zum Zeitpunkt X 200 € unterschied, die sich zum Zeitpunkt X sehr wohl bemerkbar machen in der eigenen Tasche.

Wenn anschließend die Grafikkarte RX 9070 XT im Monat 4,30 € mehr an Stromkosten verursacht, dann kann man diese 4,30 € ab diesem Zeitpunkt in der eigenen Budgetplanung berĂŒckschtigen.

Klar, man kann dann das ganze auf ein Jahr, auf 2 Jahre oder 5 Jahre hochrechnen, NUR so funktioniert das nicht. WĂŒrde diese Rechnung funktionieren, dann mĂŒsste so mancher Raucher quasi von heute auf morgen aufhören, weil sie da teilweise mehre hunderte von Euro pro Jahr sparen.

Der "ersparte" Betrag von 55 € in diesem Fall auf 5 Jahre, mĂŒsste von diesem Moment an auf ein Sparbuch gelegt werden, damit man das effektiv ĂŒberhaupt mitbekommt.
KodosDerHenker schrieb:
Bei unterschiedlichen Preisen kann es sich schon auszahlen zu rechnen ob die Differenz den Verbrauch kompensiert.
Klar, kann man so machen, nur wenn dir zum Zeitpunkt X nur 700 € fĂŒr eine GPU zur VerfĂŒgung stehen und keine 900 €, dann ist alles, was man dann errechnet, einfach nur eine hypothetische Zahl, die dir sagt, dass du nach 5 Jahren 55 € gespart hĂ€ttest, aber auf Grund der Tatsache, das du nur 700 € gerade hast, nĂŒtzt dir das herzlich wenig.
KodosDerHenker schrieb:
Aber das setzt eben auch wirklich voraus das man auch plant die Hardware entsprechend lange zu behalten, sonst macht es keinen sinn.
Eure Rechnung im ganzen, macht nur Sinn, wenn die Grafikkarte A den gleichen Preis wie die Grafikkarte B hat und beide Grafikkarten beim Budget entsprechend zum Zeitpunkt X in Frage kommen.

Sollte zum Zeitpunkt X aber beide Grafikkarten unterschiedliche Preise habe, dann wird in der Regel die Grafikkarte gewinnen, die zum Zeitpunkt X das beste Angebot darstellt.
 
  • GefĂ€llt mir
Reaktionen: TomH22 und Loopman
Stefan9 schrieb:
Mit angegebenen 300W scheint AMD immer noch nicht die Effizienz von NVidia zu erreichen.
Man sollte die Stromkosten nicht vergessen ... und nicht nur auf den Kaufpreis/Performance schauen!!!
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
50€ mehr pro Jahr das sind 4,16€ im Monat also weniger wie einen Döner. Da kann man doch locker drĂŒber hinwegsehen.
 
Jeden Tag ein paar Stunden zusĂ€tzlich durchgehend den Rechner an, damit außerhalb der Arbeit in Anno Kohle generiert wird... naja wenn man das "unbedingt" machen muss fĂŒr den Seelenfrieden, dann isses es halt so dass die Graka auf 5 Jahre teurer wird...
Ein realistisches sample stellt so eine MilchmĂ€dchenrechnung, selbst in unserem Nerdforum, nur fĂŒr eine Person dar, wie es aussieht.
 
  • GefĂ€llt mir
Reaktionen: Ghostfacekalle
DevPandi schrieb:
Sollte zum Zeitpunkt X aber beide Grafikkarten unterschiedliche Preise habe, dann wird in der Regel die Grafikkarte gewinnen, die zum Zeitpunkt X das beste Angebot darstellt.
HĂ€ngt eben vom Preisunterschied und dem VerfĂŒgbaren Budget ab

Es bleibt halt bei der Rechnung das sie ein guter Ansatz ist um bewusst zu halten was 50W mehr Verbraucht am Ende praktisch bedeutet.

SpĂ€testens wenn man jemanden sagt das er die Karte 5-6 Jahre behalten muss damit es sich auch auszahlt, und auf das kommt man ja nur mit einer entsprechenden MilchmĂ€dchenrechnung, fĂ€llt das Argument bei den meisten eh schon flach, obwohl es fĂŒr diese vorher gut geklungen hat.
 
Captain Mumpitz schrieb:
Leistung auf dem Niveau einer 7900GRE mit etwas Raytracing und brauchbarer Effizienz nehm ich gerne
Wenn der Preis stimmt, bin ich auch dabei. Darf auch gerne ein bißchen mehr Leistung haben :D

PapabÀr schrieb:
Also abwarten und Tee trinken !
Exakt und in der Zwischenzeit ein bisschen, ohne belastbare Informationen, spekulieren đŸ”
Sun-Berg schrieb:
wenn neben Kinder/Arbeit/Soziales 8h/Woche ĂŒbrigbleiben fĂŒr Gaming.
Und das ist schon viel 😅
 
KodosDerHenker schrieb:
8 Stunden im Schnitt GPU auf last laufen ist jetzt kein unrealistisches Szenario
Doch, eigentlich schon.
Um das zu schaffen musst du, wie ich schon schrieb, entweder arbeitslos oder sozial isoliert sein, oder beides zusammen.
Der Anteil dieser Nutzer dĂŒrfte recht ĂŒberschaubar sein.
 
  • GefĂ€llt mir
Reaktionen: Orok91, Apocalypse, Ghostfacekalle und 2 andere
@Loopman Ein "normaler" Mensch arbeitet 8 Stunden, schĂ€ft 8 Stunden und hat dann noch 8 Stunden Zeit fĂŒr den Rest
Ein arbeitsloser hÀtte 16 Stunden Zeit zu spielen
Sozial isoliert wĂŒrde auch auch heißen nicht mit Freunden spielen, wo ein großteil der sozialen Kontakte ohne weiteres online laufen

das ganze schließt auch aus das der Rechner fĂŒr irgendwas anderes außer spielen verwendet wird und keine Render ĂŒber Nacht laufen oder der PC fĂŒr irgendein anderes Hobby verwendet werden kann

"Ich kann die GPU nur 8 Stunden am Tag auslasten wenn ich Arbeitslos wÀre oder keine sozialen Kontakte hÀtte"
Und da endet diese Annahme auch schon und lĂ€sst sich nicht pauschal von deiner persönlichen Situation auf alle anderen ĂŒbertragen.
 
ZurĂŒck
Oben