Wechsel von AMD RX 6900 XT -> RTX 4070 Ti?

WhizKey schrieb:
Es ist ein bekannter Fehler.
Jetzt wo du es sagst. Ist mir nie aufgefallen.
ruthi91 schrieb:
Reflection MSAA auf aus stellen
Das funktioniert tadellos.

WhizKey schrieb:
Meinst du das hab ich nicht schon versucht? Es sieht dann genauso aus wie wenn man es auf an hat und es dargestellt werden soll. Tut es aber ja nicht. Ist in Cyberpunk etc auch so

Verwechselst aber nicht MSAA mit Reflektion MSAA, oder? Also ich habe es tatsächlich verwechselt :D
 
Nein ich mein nicht MSAA also Anti Alasing mein ich nicht, sondern Reflektionen MSAA oder wie das auch immer heiĂźt...

Nun, also denke Ich ich bleibe erstmal weiterhin bei meiner RX 6900 XT. Jedes Spiel läuft ja tadellos, auch wenn ich so hart runtergetaktet habe um das Spulenfeepen nicht mehr zu hören (siehe Screen)




Der Thread würde sich dann wiederrum ändern, lohnt sich denn die RX 7900 XTX? Was wäre da besser als meine RX 6900 XT?

EDIT: Die Reflexionen MSAA von 8x auf 0x also aus zu stellen klappt jetzt Plötzlich... Auf NVIDIA zu wechseln ist erstmal für mich hinfällig. Nichts desto trotz würde Ich mich über eine Info wegen der RX 7900 XTX freuen, ob sich das lohnen würde. (Allgemein)
 

Anhänge

  • 1687629077000.png
    1687629077000.png
    136,9 KB · Aufrufe: 171
Zuletzt bearbeitet:
WhizKey schrieb:
lohnt sich denn die RX 7900 XTX? Was wäre da besser als meine RX 6900 XT?
Die 7900 XTX hat ca 40% mehr Leistung, ob das fĂĽr dich genug Belohnung ist must du selbst wissen.
 
  • Gefällt mir
Reaktionen: Dai6oro und Whizhy
Das stimmt allerdings, viel nimmt die sich jetzt nicht. Wenn das Spulenfiepen in hohen FPS Bereichen (100+) nicht hörbar wäre bei der neuen Karte, wäre das für mich dann wohl der eigentliche Kaufgrund. Hmpf.... Ich überlege und warte noch paar Freundliche Beiträge von anderen hier ab.
 
Ich hab ja zwei Jahre vermeintlich an dem Spulenfiepen gelitten, bis ich beim Wechsel festgestellt habe das es noch dasselbe ist, weil es vom Coolermaster-Netzteil kam, welches ich damals zeitglich mit der 6900XT erworben hatte.
 
Hier gab es mal eine Umfrage bezĂĽglich Fiepen.
 
@Cat Toaster

Danke!
Spulenfiepen kommt nicht zu 100% nur ausschlieĂźlich vom Netzteil!
Warum glauben das die "Daus" nur immer...


@WhizKey

Behalte die 6900XT und befasse dich mal damit die "richtig" wie man UV betreibt.
Man bekommt das immer in Griff, auch ganz ohne groĂźartig an Leistung zu verlieren,
es ist sogar oft möglich mehr Leistung zu haben.
MPT ist hier das Zauberwort!
 
  • Gefällt mir
Reaktionen: Revolvermann01
@MehlstaubtheCat

Ich sagte es war bei mir so, weil es mit der 6900XT zur 4090 EXAKT dasselbe war. Dann habe ich das Netzteil ausgetauscht und es war Ruhe. Dann habe ich die 6900XT in meinen HTPC gesteckt mit einem ebenfalls anderen Netzteil da war immer noch Ruhe. Als wird es wohl an dem einen speziellen Netzteil gelegen haben, wenn es das einzige Teil war was sich in der Gleichung geändert hat.

Nur mal so von Dau zu Dau. Ich wollte damit sagen, es KĂ–NNTE auch MAL am Netzteil liegen, nicht das es IMMER SO BEI ALLEN ist.
 
  • Gefällt mir
Reaktionen: OldboyX und Minimax83
MehlstaubtheCat schrieb:
@Cat Toaster

Danke!
Spulenfiepen kommt nicht zu 100% nur ausschlieĂźlich vom Netzteil!
Warum glauben das die "Daus" nur immer...


@WhizKey

Behalte die 6900XT und befasse dich mal damit die "richtig" wie man UV betreibt.
Man bekommt das immer in Griff, auch ganz ohne groĂźartig an Leistung zu verlieren,
es ist sogar oft möglich mehr Leistung zu haben.
MPT ist hier das Zauberwort!

Das hab ich schonmal probiert, mit den selben einstellungen wie im Thread angegeben, sobald ich unter 1010 Volt gehe geht nix mehr... und lasse ich es auf 2400MHz ist das Spulenfiepen katastrophal
 
Zuletzt bearbeitet:
Würde die für 1.079€ erhalten bei Otto mit dem Kunden+Treue Rabatt
1687638268310.png
 
Meine Meinung. Kaufe nicht bei Otto.
Sind deine 100€ wirklich Rabatt, oder Guthaben? Kannst du ggf. irgendwas für 100 € kaufen, was bei Otto nicht teurer ist und gut weiterzuverkaufen ist und dann weiterverkaufen? Grafikkarte dann woanders kaufen.

Bei Mindfactory (Mindstar) gerade im Angebot:
1687639786063.png
 
  • Gefällt mir
Reaktionen: Revolvermann01 und djducky
kurz nein der sprung wäre maximal +10-25%
Um einen Wechsel zu Rechtfertigen muss min +60% mehr sein und da ist ne rtx4080 als erstes zu nennen
Amd derweil Wechsel zu rx7900xtx lohnt sich auch gleiche Leistung wie die rtx4080.
ich würde die rx6900xt behalten bis amd rdna4 (gleicher chipaufbau mehr Auslastung höherer Takt +-45tf vs deine 23tf) und nvidia den refresh rtx5080 bringt (ad102 108sm)
Was Taktraten bei rdna2 angeht nun das schwankt von Auslastung abhängig gemäß amd Philosophie Takt bis
2,3ghz liegen immer an können aber je nach PT bis zu 2,7ghz gehen das macht mal locker +17% aus
Was im ĂĽbrigen bei allen rdna2 sku so ist
je kleiner die sku desto eher die 2,6ghz im schnitt
ZurĂĽck zur Frage nun wegen dieser Ungenauigkeit ist alles unterhalb der rtx4090 meh.

rdna3 Vorteil mehr vram 24gb vs 16gb ein chip der nur 2,34 Operationen pro cu schafft geplant sind 3 Operationen vs standard 2 Operationen von rdna2.
Was schlimmer wiegt mehr als 2,6ghz fĂĽhrt zu weniger Auslastung und zu extremen strombedarf.
quasi ist OC komplett raus eher sollte man die gpu Untertakten und mehr Strom geben, die Leistung bleibt am ende gleich aber die gpu wird effizienter.
Was bei einer tbp von 350w angeraten ist vs der rx6900xt diese dann nur noch 250w ziehen wird vs der rx6900xt bei 400w.
Deine gpu wird erst bei release der n2p chips kommen das wäre frühestens 2026 mit rdna5 bzw rtx50 name noch unklar
n2p verspricht -40% Stromanforderung Reduzierung der spannung bei gleicher Leistung (=20% mehr Takt)
Flächenreduktion von min 40% (gaa) vs n3 was ebenfalls -10% Fläche reduziert
Der Takt wird kaum steigen bei n3p angeblich sollen 10% sein daran zweifle ich aber eher sehe ich 5%.
Amd vorzustellen wird schwer da die arch nochmals deutlich angepasst wird nach dem Desaster bei rdna3

amd idee die alu mehr Ausführungen per cu zu ermöglichen führt daher zurück das man ein problem hat bei mcm
Anstatt mehr alu in dem gcd zu setzen was definitiv bei dem design was bewirkt hätte aber die Fläche zu groß wird. und somit teuer
hatte man eben zusätzliche fp32 Operationen pro cu ermöglicht das wird aber von der Latenz des sram behindert quasi es ist nicht genug Speicher für mehr Ausführungen vorhanden und genau das wollte man einsparen sram skaliert schlecht bei shrinks
Daraus folgt das der imc bzw die cu immer in zeitnot ist wer denn, den sram beanspruchen kann bzw welche daten fĂĽr die fp32 operation berechnet werden kann
Ein Ingenieur hat mal erwähnt das von den 4 operationen nur 2 sicher und von den anderen 2 nur 17% ausgelastet werden kann also am ende 2,34
Geplant war aber 2,6 affaik 30%
Und das bei einer Taktfrequenz von 3,2-3,6ghz leider hat man festgestellt das bei höheren Takt die auslastung sinkt bis auf 2 operationen und es zu fehlern kommt.
also muss die spannung rauf damit die Datenintrigität gewährt bleibt
Das ist ein direkter design Fehler. Und kann nur dann gefixt werden wenn das design neu gestaltet wird. Mit rdna4 erwarte ich maximal das der Takt gesteigert wird und die Auslastung gleich bleibt und rdna5 ein völlig anderen Ansatz.
mehrere gcd zu verbinden wurde sogar komplett aufgegeben das problem ist der interposer der passiv ist.
Es braucht zwingend einen aktiven nur ist da die Fertigung nicht soweit

Wie man sieht amd rdna3 ist kompliziert aber leider ein Fehlschlag dafĂĽr passt das aufholen in dxr
Vor 2026 würde ich an deiner stelle nix ändern.
 
  • Gefällt mir
Reaktionen: arcDaniel
syfsyn schrieb:
Was Taktraten bei rdna2 angeht nun das schwankt von Auslastung abhängig gemäß amd Philosophie Takt bis
2,3ghz liegen immer an können aber je nach PT bis zu 2,7ghz gehen das macht mal locker +17% aus
Was im ĂĽbrigen bei allen rdna2 sku so ist
je kleiner die sku desto eher die 2,6ghz im schnitt
Meine RX 6800 macht stock keine 2.3GHz..nicht mal max in der Spitze (ohne Eingriff). Geschweige denn 2.6GHz.
Die gehen nicht mal max oc...vielleicht kannst Du mir mit deiner unendlichen Weisheit weiterhelfen?
 
Da amd Takt bis angibt kann das sein aber wäre ziemlich untypisch da die meisten rdna2 chip eben deutlich höher Takten
daher ahne ich das ein cpu limit grift.
Um das festzutellen mal capframex und paar spielen die werte Protokollieren.
leider ist das Tool was nur fps und gpu load angeben kann nicht ideal daher diese tool kann man selber festlegen was protokolliert wird und diese als graphen darstellen nicht so schön wie mit capframex aber immerhin aussagekräftig
Hwinfo64 mit general logview
Das sieht dann so aus.

Werte gpu clock, gpu load, vram clock, cpu clock unter maximale frequenz, gpu hotspot, cpu maxed thread last, frametime und fps. alternative noch cpu coretemp bzw tctl bei amd
di2bsp.png


OS win 11 pro
r7 3800xt
32gb ram
rtx3060

Meine werte dienen als bsp wie man das darstellt
Aufnehmen und auswerten musste selber machen dazu die folgende schlussfolgerungen

Wenn in solchen Graphen dann bei gpu load unter 90% geht und der Takt der gpu unter 2,0ghz fällt liegt ein cpu limit vor.So reagirt amd gpu immer da die Logik Takt bis ist.
Wenn die hotspot temp über 95°c geht throttelt die gpu runter.
Wenn die cpu nicht höher taktet als amd 4,0ghz intel 4,2ghz liegt ein wärme problem der cpu vor
Auch die ccd temp bzw coretemp der cpu im Auge haben über 90°c sollte die Kühlung geprüft werden.

Darum nutzt man solche tools
 
@WhizKey
Ich bin ja vor einem ähnlichen Wechsel also von einer 6800XT zu einer 4070. Ja ich lese gerne die Meinungen hier in Foren, man muss aber sehr gut aufpassen in wie weit die Argumente und Ratschläge eine Grüne oder Rote Brille tragen.

Grob gilt in meinen Augen aber (jetzt wirklich grĂĽn oder rot):
-was zocke ich, was habe ich vor zu zocken
-in diesen Spielen, welche Features möchte ich nutzen und auch welche kann ich verzichten
-ebenfalls Anwendungen/OS betrachtet

Als ich meine 6800XT gekauft habe gab es kein Spiel was mich interessiert hat und wirklich von Nvidia Features profitiert hätte. Ampere war mir bei gleicher Leistung auch zu Stromhungrig und ich bewundere den Einsatz von AMD im OpenSource Bereich.

Nun möchte ich aber im Spätsommer mit der Finalen Version von Baldur's Gate 3 und hier es halt so, dass DLSS bessere Resultate bringt als Nativ! Da die TAA Implementierung sehr zu wünschen übrig lässt und FSR1 es auch nicht besser macht.
Ein Spiel welches ich sicher im 3stelligen Stundenbereich zocken werde... Alleine wegen diesem Spiel lohnt sich für mich persönlich der Wechsel schon. (Natürlich kann ich DLSS auch in anderen Spielen nutzen, wo ich bis dato darauf verzichtet habe)

In die Zukunft gesehen, möchte ich Final Fantasy auf dem PC zocken (PS5 hat 1 Jahre die Exklusivrechte). Im Moment packt die PS5 im Performance Modus keine festen 60fps (sehr oft hat man nur um die 40fps), zudem reden wir hier von einer Auflösung von 1080p welche teil runter bis auf 720p fällt. Dies wird weder eine 6800XT oder eine 4070 besser machen. Ich glaube auch nicht dass es eine 7900XTX schaffen wird. Das Spiel in 4K60 (DLSS/FSR Quality) dar zu stellen. Vielleicht eine 4090...

Was will ich damit Sagen, die aktuellen Generationen, werden eine Portierung, welche in einem guten Jahr erscheint, nicht mit den eigentlichen PC Vorteilen, darstellen können. Also warten auf RTX5000 oder RX8000.

Deshalb habe ich auch keine 4080 bestellt, da ich schon fast mit Sicherheit bei der nächsten GPU Gen wechseln werde.
 
Also ich glaub das Upgrade zu einer RTX 4070 Ti oder einer RX 7900 XTX (Bevorzugt) ist glaub ich für mich hinfällig da diese ein 3x 8 Pin anschluss benötigen. Und ich nur 2x 8 Pin habe an mein Netzteil :-/
 
@WhizKey bei einem 800W Netzteil? :watt: Kannst du mal den Typenschild von deinem Netzteil posten oder genaueres Modell?
Ergänzung ()

Ach ja sind Modelle der RX7900XTX mit 2x8Pin PCIe AnschlĂĽssen.
RTX 4070 TI hat 1x 16-Pin PCIe 5.0 (via Adapter: 2x 8-Pin PCIe)
Ergänzung ()

Und bei Mindfactory ist gerade Angebot für 899€ mit 2x8Pin
 
Zuletzt bearbeitet:
ZurĂĽck
Oben