News Radeon RX 7900 XT(X) Red Devil: PowerColor stellt seine beiden roten Teufel jetzt offiziell vor

Syrato schrieb:
Wenn du aber in einer CB Umfrage keine Enthusiasten findest, wo dann?

Schau dir mal an, was für Hardware vorhanden ist. Da taugt vielleicht ein Drittel, wenn überhaupt, für vernünftiges RT. Ich lese da auch nicht, dass nur 12% Interesse an RT haben. Über 40% gaben an, dass es auf die Leistungseinbußen ankommt, ob RT genutzt wird (siehe vorhandene Hardware).
 
Illithide schrieb:
Was hat der Preis damit zu tun? So gesehen müssten alle Apple-Nutzer die dollsten IT-Kenner sein. Das Gegenteil ist der Fall. Die Leute zahlen die Marke gerade, weil sie sich in der Sache unsicher sind.

Verstehe ich jetzt nicht. Grafikkarten für diese Preise werden nicht von der breiten Masse gekauft. Das ist überhaupt nicht mit einem Massenprodukt wie bspw. iPhones zu vergleichen, die es im Handyvertrag gibt.
 
@SKu hast du schon Tests zur 7900xtx vorliegen, oder woher weisst du, dass die 7900xtx in RT hinter der 4080 liegt?
Und nein, für mich hat RT 0 Wert, warum sollte ich es dann in die Bewertung, füe mich, miteinbeziehen?
@Arik1125 da hast du recht, aber gibt es Spiele, wo aktiviertes RT nicht fast alle FPS auffrisst?
 
  • Gefällt mir
Reaktionen: Benji18
Für dich, klar. Das ist dann subjektiv. Für eine objektive Beurteilung kann man aber nicht RT ausschließen.

Mit DLSS finde ich den Verlust in Ordnung. Aber klar, RT kostet viel Leistung, bestreitet niemand. Mir ist es die Qualität wert, aber ist natürlich alles subjektiv.
 
Arik1125 schrieb:
Schau dir mal an, was für Hardware vorhanden ist. Da taugt vielleicht ein Drittel, wenn überhaupt, für vernünftiges RT. Ich lese da auch nicht, dass nur 12% Interesse an RT haben. Über 40% gaben an, dass es auf die Leistungseinbußen ankommt, ob RT genutzt wird (siehe vorhandene Hardware).
Woraus man nur den Schluss ziehen kann, dass Hardwareenthusiasten und ggf. -Kenner eben gerade nicht zwangsläufig Wert auf RT (um jeden Preis) legen. Nicht andersherum.
 
Hat auch keiner behauptet, dass dies um jeden Preis so ist. Zu sagen, dass sich nur 12% interessieren ist aber nicht korrekt und kein Ergebnis aus dieser Umfrage.
 
@Jan sollte ich morgen eher früh aufstehen, oder liest sich CB eher zum Kaffee am Nachmittag gut? ;)
 
Syrato schrieb:
der woher weisst du, dass die 7900xtx in RT hinter der 4080 liegt?
Er weiß das natürlich nicht - ich genau so wenig.

Ich halte es aber für plausibel, dies u. a. auch aus dem (einen) Blender-Benchmark abzuleiten, der bisher gelistet wurde (Disclaimer: Sofern kein Fake natürlich).
 
  • Gefällt mir
Reaktionen: Benji18
Dai6oro schrieb:
Ganz ehrlich. Das ist doch in den überwiegenden Fällen total sinnfrei auch ganz ohne irgendwelche Bugs. Früher war es noch möglich, wenigstens einigermaßen gute OC Ergebnise zu bekommen. Heutzutage sind doch max 10% mehr drin und das dann bei einer Leistungsaufnahme, die jenseits von gut und böse ist. Also ehrlich gesagt verstehe ich diesen ganzen OC Fokus nicht mehr. An 5% oder 10% wirds nicht scheitern. Ich hab da lieber Ruhe im Karton.

Das meine ich auch. Wenige Prozentpunkte mehr Geschwindigkeit erkauft mit aberwitziger Leistungsaufnahme
und höherem Betriebsgeräusch der Grafikkarte. Das Ergibt für mich einfach wenig Sinn, aber wer dennoch
Spaß damit hat: von mir aus gerne.

Die oben erwähnte "Ruhe im Karton" ist mir persönlich da auch weitaus lieber.
 
SKu schrieb:
Nicht, wenn die 4090 FE zugrunde gelegt wird. Bei 1.859 € wären das 24 % höhere Kosten, dafür wäre die 4090 aber auch wesentlich schneller im Bereich RT unterwegs und wird dabei wohlmöglich auch noch die energieeffizientere Karte sein.
ich sprach von den Customs (bei round about 1500€) .... der 7900XTX, was kosten die customs der 4090?
Legt man nämlich die kosten der FE von AMD zugrunde die mit 999$ (gesetzt der Doller =Euro Kurs bleibt weiter so gut) angegeben ist dann kostet die 4090 für 10-20% mehr Leistung 800 taken mehr, damit kann ich mir dann schon fast ne 2 FE kaufen xD od. die 7900XT fürn zweitrechner ;-)
 
  • Gefällt mir
Reaktionen: Illithide
Übrigens: aktuell hagelt es von Vergleichsvideos zur 7900XT(X) auf YT, glaube kaum, dass die alle Fake sind...
 
Benji18 schrieb:
ich sprach von den Customs (bei round about 1500€) .... der 7900XTX, was kosten die customs der 4090?
Legt man nämlich die kosten der FE von AMD zugrunde die mit 999$ (gesetzt der Doller =Euro Kurs bleibt weiter so gut) angegeben ist dann kostet die 4090 für 10-20% mehr Leistung 800 taken mehr, damit kann ich mir dann schon fast ne 2 FE kaufen xD od. die 7900XT fürn zweitrechner ;-)
Nur wird der Abstand mehr als 10-20% betragen. Die XTX wird sich nahe der 4080 einordnen.
 
Dogbrothers schrieb:
Es gibt nur einen 8 PIN PCI Express Stecker (150Watt)
Die Antwort war auch nicht ernst gemeint :)
 
  • Gefällt mir
Reaktionen: Dogbrothers
Arik1125 schrieb:
Nur wird der Abstand mehr als 10-20% betragen. Die XTX wird sich nahe der 4080 einordnen.
also die Benchmarks die geleakt wurden sagen dazu etwas anderes, aber mal auf die offiziellen tests warten.
 
  • Gefällt mir
Reaktionen: Illithide
Jupp, bin gespannt. Mal schauen, was heute um 15 Uhr hier auf CB passiert ;-)
 
Benji18 schrieb:
also die Benchmarks die geleakt wurden sagen dazu etwas anderes, aber mal auf die offiziellen tests warten.

Also ich schaue gerade RT Videos, da sind es mehr als 20%. Aber stimmt, ohne RT sind es eher 10-20%, was ich bisher gesehen habe.
 
mscn schrieb:
DLSS3 und Raytracing geht klar an NVIDIA.

Zwar OT, aber...mir geht die Entwicklung da in eine vollkommen falsche Richtung. Was nutzt einem die vermeintliche FPS-Krone mit Fakeframes, wenn viele Spiele heute mit Shader und/oder Streaming-Gestotter nerven.

Gestern mal Forgotten City angespielt und ob des unoptimierten Geruckels nach zehn Minuten gleich wieder deinstalliert.

Da hinterfrage ich tatsächlich die Sinnhaftigkeit meiner Investition in einen 13700k nebst 4090. Aber die meisten scheint sowas ja nicht zu stören, vielleicht ist man mittlerweile auch zu sehr daran gewöhnt.

Dann doch fast lieber 60 fps, wie auf den Konsolen, die dafür aber absolut konstant.

Haben Konsolen nicht dedizierte Chips für die Shaderkompilierung? Das würde ich lieber auf meiner Grafikkarte sehen als RTX wenn ich ehrlich bin.
 
  • Gefällt mir
Reaktionen: Illithide, Benji18 und shy-Denise
Mayima schrieb:
Zwar OT, aber...mir geht die Entwicklung da in eine vollkommen falsche Richtung. Was nutzt einem die vermeintliche FPS-Krone mit Fakeframes, wenn viele Spiele heute mit Shader und/oder Streaming-Gestotter nerven.

Gestern mal Forgotten City angespielt und ob des unoptimierten Geruckels nach zehn Minuten gleich wieder deinstalliert.

Da hinterfrage ich tatsächlich die Sinnhaftigkeit meiner Investition in einen 13700k nebst 4090. Aber die meisten scheint sowas ja nicht zu stören, vielleicht ist man mittlerweile auch zu sehr daran gewöhnt.

Dann doch fast lieber 60 fps, wie auf den Konsolen, die dafür aber absolut konstant.

Auf den Konsolen hast du kein/kaum RT und häufig nur 30/40 FPS im Qualitätsmodus.
 
Zurück
Oben