News Radeon RX 9070 XT: Vorstellung am 28. Februar, Tests am 5., Handel am 6. März

Taxxor schrieb:
Also ich hab für meine 6800XT 1200€ gezahlt und die 3080er waren genau so teuer. Da wäre die 3080 auf Sicht von 2020-2025 die bessere Wahl gewesen

Diese Aussage wundert mich dann auch gar nicht, wenn wiederum das deine Meinung ist:
Taxxor schrieb:
Da würde ich lieber den Textureregler von Ultra auf Hoch zurück stellen, als auf der anderen Seite RT Settings reduzieren zu müssen

Ich glaube nicht alle, bzw. sogar gar nicht so viele sind dieser Meinung.
Gerade da du die RT Settings dann gar nicht anfassen willst und noch nicht einmal abwägst.


Da sieht man halt auch mal wieder, wie sehr es absolut notwendig ist bei diesen Diskussionen zu differenzieren.

Rasterleistung am wichtigsten vs. RT Leistung am wichtigsten,
ist auch nochmal was anderes, als zu sagen RT Max Settings ist am wichtigsten (und dafür opfere ich gerne alles andere).
 
  • Gefällt mir
Reaktionen: daknoll, iron_monkey und MiroPoch
MiroPoch schrieb:
Wer damals die 10 GB Version gekauft hat, muss heute mit ziemlicher Sicherheit öfter die Regler bedienen als die 6800xt Käufer.
Kann man so oder so sehen. Die 3080 10 GB war zu Release gerade mal 6 % vor der 6800 XT. 4 Jahre später sind es eher 15 %, auch in UHD. Ich hatte hier mal eine Weile lang diese Entwicklung verfolgt. So geht der 6800 XT heute zwar nicht der Speicher aus, aber die Leistung liegt Teils deutlich hinter der 3080. Für mich war die 3080 eine Karte, die 2 Jahre lang zum nahezu halben Preis einer 3090 sehr gut ihren Dienst verrichtet hat. In dieser Zeit war auch der Speicher praktisch nie ein Problem. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Unlimited1980
Tzk schrieb:
Keine Ahnung was die gedreht haben um 200+ fps zu erreichen
Hast du den Artikel gelesen? FullHD, FSR4 und Frame Generation. Es steht alles da.

btt.: das klingt zumindest interessant. Ich bin sehr gespannt. Vermutlich wird die Wahrheit, wie sehr oft, irgendwo dazwischen liegen.
 
  • Gefällt mir
Reaktionen: mdPlusPlus
Capthowdy schrieb:
Kann man so oder so sehen. Die 3080 10 GB war zu Release gerade mal 6 % vor der 6800 XT. 4 Jahre später sind es eher 15 %, auch in UHD.
In den von dir verlinkten Tests wurde mit ziemlicher Sicherheit die 3080 12 GB gebencht. Außerdem liegen die 6800xt und 3080 im Raster in der CB Grafikkarten Rangliste gleichauf. Nur in 4k gibt es kein Ergebnis für die 3080 (warum wohl?). Keine Ahnung, woher die Differenz kommt. Ich vertraue da CB schon mehr. Ich denke, du hast RT Titel und Raster einfach zusammengewürfelt.
 
  • Gefällt mir
Reaktionen: DirtyHarryOne, eXe777, Icke-ffm und 2 andere
MiroPoch schrieb:
Habs eben gecheckt. "Extrem Hoch" im traditionellen Chinesisch ist bei uns die "Ultra" Einstellung.
Danke!

Dann wäre es ja mal interessant, was da die 7800 XT schafft, dann würde man sehen, was da doch an Plus "rüberkommt".

Gut, das wäre erst mal ein Spiel, abber dennoch interessant.
 
  • Gefällt mir
Reaktionen: MiroPoch
Ich könnte später meine 6900XT nehmen. Diese ist ja ähnlich zu einer 7800XT
 
  • Gefällt mir
Reaktionen: MiroPoch und DevPandi
Casillas schrieb:
Ich glaube nicht alle, bzw. sogar gar nicht so viele sind dieser Meinung.
Gerade da du die RT Settings dann gar nicht anfassen willst und noch nicht einmal abwägst.
Natürlich würde ich sie auch runter stellen, wenn es mit max Settings nicht gut genug läuft.

Aber es ging ja darum, dass man bei der 3080 früher Settings reduzieren müsste, und das gilt halt nur für ein einziges Setting, nämlich die Texturqualität, überall anders muss man entweder bei beiden reduzieren oder nur bei der 6800XT.

Und bevor ich 3 verschiedene RT Settings von Ultra auf Niedrig stelle, würde ich halt lieber mit ner 3080 die Texturen von Ultra auf Hoch stellen und alles andere auf Ultra lassen können.
 
Seit wann interessieren Benchmarks, wo nur Zahlen mit eingeschaltetem Frame Gen zu sehen sind?
Ist nicht zum Vergleich die Rohleistung (also ohne DLSS/FSR und ohne FG) interessanter ?
 
  • Gefällt mir
Reaktionen: iron_monkey
Taxxor schrieb:
Aber es ging ja darum, dass man bei der 3080 früher Settings reduzieren müsste, und das gilt halt nur für ein einziges Setting, nämlich die Texturqualität, überall anders muss man entweder bei beiden reduzieren oder nur bei der 6800X
Reden wir hier nicht von Grafikkarten, die jetzt 5 Jahre auf den Buckel haben? Bei der 6800 XT muss man bei RT ohnehin schon immer Abstriche machen. Bei der 3080 muss man bei Texturen ein paar Abstriche machen und ggf. bei RT, wenn beides "donnert".

Aber am Ende des Tages, muss man eh bei beiden Grafikkarten die Settings runter stellen, wenn man bei vielen neuen Spielen 60 fps oder mehr haben will.

Ehrlich: Weder RDNA 2 noch Ampere sind wirklich "gut" gealtert. Beide Karten haben spezifische Vor- und Nachteile.
 
  • Gefällt mir
Reaktionen: mydayyy
Völlig unabhängig davon, dass es hier um AMD geht...

Bin ich der einzige 'alte Sack' dem dieses Angetease mit unvollständigen Informationen zu einem Produkt, bei dem sowieso der Veröffentlichungstermin quasi fest steht, so richtig auf den Sack geht?

Bringt das Ding auf den Markt und fertig.
Dann weiß jede/r was es tatsächlich kann und auch kostet.
 
  • Gefällt mir
Reaktionen: Hells_Bells, Icke-ffm, RexCorvus und 2 andere
MiroPoch schrieb:
In den von dir verlinkten Tests wurde mit ziemlicher Sicherheit die 3080 12 GB gebencht.
Nein, wurde und wird sie nicht. CB testet ausschließlich die 3080 Founders Edition und diese existiert überhaupt nicht mit 12 GB VRAM. Wo es relevant ist, wird in den Tests auch regelmäßig auf die 10 GB der 3080 eingegangen. Wenn du die Tests nicht liest, dann spekuliere hier bitte auch nicht so völlig absurd rum. "Mit ziemlicher Sicherheit", darüber kann ich nicht mal mehr müde lächeln.

MiroPoch schrieb:
Außerdem liegen die 6800xt und 3080 im Raster in der CB Grafikkarten Rangliste gleichauf.
Die Spiele in diesem Ranking sind ja auch nicht ausschließlich aus 2024, wie die in meiner Liste. Es geht um die Entwickluing, die zeigt man nicht mit Spielen aus 2020.
 
MiroPoch schrieb:
kannst jeden beliebigen test nehmen, z.B. Kingdom Come

1739530036702.png



Das 12GB Modell ist extra ausgeschrieben wenn es getestet wurde, was so gut wie nie gemacht wurde
 
  • Gefällt mir
Reaktionen: Quidproquo77, iron_monkey und Capthowdy
Taxxor schrieb:
Das 12GB Modell ist extra ausgeschrieben wenn es getestet wurde
Erstens das und zweitens steht dort (meistens) explizit 3080 FE. Es gibt keine 3080 FE mit 12 GB.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey
Aduasen schrieb:
Bin ich der einzige 'alte Sack' dem dieses Angetease mit unvollständigen Informationen zu einem Produkt, bei dem sowieso der Veröffentlichungstermin quasi fest steht, so richtig auf den Sack geht?

Bringt das Ding auf den Markt und fertig.
Dann weiß jede/r was es tatsächlich kann und auch kostet.
Du sprichst mir aus der Seele
 
  • Gefällt mir
Reaktionen: mydayyy
Solange der Preis stimmt, seh ich nichts schlechtes an der Karte.
 
  • Gefällt mir
Reaktionen: Ituran
KodosDerHenker schrieb:
Vor allem die 4090 wird erst gut wenn sie auch viel Strom zieht, die 5090 soll das Problem ja gelöst haben
Das ist laut gängiger Berichterstattung ziemlicher Unsinn. Die RTX 4090 verliert im Gegenteil kaum, wenn man ihre TDP begrenzt und benötigt die spezifizierte Leistung demnach nicht. Die RTX 5090 verzeichnet da stärkere Verluste. Ist eben ein im gleichen Prozess vergrößerter und damit ans Limit der Architektur gepeitschter Chip, da war das so auch mehr oder weniger zu erwarten.
Experte18 schrieb:
Langweilig eine Karte die man jetzt schon mehrfach von beiden (Amd-Nvidia) Herstellern kaufen kann was Leistung angeht.:kotz: und die paar FPS.mehr bei raytracing ändern daran auch nichts.:pcangry:
Das trifft auf fast sämtliche Blackwell-Geforces doch aber auch zu :D

Ich persönlich bin auf die RX 9070 XT durchaus gespannt. Der Preis muss halt passen. Dass es in dieser Generation keine Leistungssprünge mehr geben wird, ist ja längst klar.
 
  • Gefällt mir
Reaktionen: mydayyy und Obvision
BxBender schrieb:
Schon mal Folien von Nvidia und Intel angeschaut? lol

Natürlich ist alles vor einem offiziellen Test bei PCGH oder Computerbase nur Eigennutz und Best Case.

Generell ist ein Bench in FullHD nur Rotz, da 4090 und vor allem 5090 voll ausgebremst werden können, wenn das Spiel und das Setting es ermöglichen, weil die CPU bremst, insbesondere bei Intel Prozessoren, die viel langsamer sind als ein X3D.
Und wie bremst dann diese CPU nur auf ner 5090 aber auf der AMD nicht?? Das passt nicht...
 
pioneer3001 schrieb:
Die Frage ist nur ob die RT-Kerne nicht nur gleiche FPS in RT, sonder auch in PT liefern können.
Wieso verkrampft man sich so stark auf PT? Bei ~2 Spiele pro Jahr ist das unrelevant.
Ist doch bisher nur fürs Marketing, wo du drauf anspringst.
Es kommen pro Jahr tausende neue Spiele raus, davon über hundert AAA Games und letztes Jahr 2 Stück mit PT soweit ich weiß.
 
  • Gefällt mir
Reaktionen: mydayyy, daknoll, danyundsahne und eine weitere Person
@OpenSystemFan Gut, dass du das schreibst. Was zeigt, dass du wohl ein Wort hinzu interprtiert hast, was ich so nicht geschrieben habe. Dazu noch mal mein Selbstzitat:
conf_t schrieb:
Ja. Eine Mär ist das. Früher(tm) war das auch zu treffend (z.B. Volcan Island) aber eine 7800xt reift erstaunlich....
Wie du selbst sehen kann, habe ich nie
OpenSystemFan schrieb:
dass es seit Volcanic Island so ist.
geschrieben, oder behauptet oder ähnliches. Auch keinen zeitlichen Zusammenhang bzgl. Dauer, was das Wort "seit" tun würde, hergestellt. Ich habe die Generation einfach nur als eines von vielen Beispielen genannt. Warum du in deiner Antwort darauf mir was von einer 3080 und 6800 erzählen musst ist mir bis jetzt nicht klar, nur, dass dort auch eine deutliche Verbesserung bei AMD auftrat, gab es bei Vega64 aber auch ggü der 1080ti. Du kannst auch von mir aus eine x-beliebige andere AMD Karte aufführen, wo es mal zutraf, dass sie durch Treiberoptimierungen deutlich zulegte über die Zeit. Wäre halt genauso random und bezugslos zu meiner Aussage.

Bei einem muss ich mich korrigieren, die Chips hießen nicht Volcan Island, sondern Volcanic Island aka Radeon 300, habe halt das "ic" vergessen.

Damals haben die Chips (und andere) von der Umstellung vom Catalyst Treiber auf den Crimson und CrimsonRelive profitiert. Aber wie gesagt, das ist jetzt nichts spezfisches für diese GPU.
 
Zurück
Oben