Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Mein Senf: DLSS hab ich immer an. Bisher ist das Bild immer gleich oder manchmal sogar hĂŒbscher als nativ.
Raytracing: bisher nur aus Fun kurz an gemacht und NUR durchgehend im Stream fĂŒr Guardians of the Galaxy angemacht. Dort ist es nicht so verschwenderisch.
Quake RTX wird wohl das nÀchste Game in dem ich es nutze. Also ja, eher selten der Fall.
Welche Frage stellt sich hier wenn du schon eine Karte hast?
Bei gleichem Preis ist m.E. die 3080ti die bessere Karte wenn du mit dem Stromverbrauch und der AbwĂ€rme klarkommst. Noch besser finde ich die 3080 12GB weil noch erheblich gĂŒnstiger.
Mehr noch als RT Leistung , keine Frage kann schon gut aussehen, begeistert mich auch eher DLSS wie mein Vorposter.
naja.. auch wenn cyberpunk ziemlich verbuggt war.. habe ich es mit RTX gezockt.
manche games die jetzt kommen werden das einfach brauchen.
und cyberpunk sieht wirklich geil aus mit RTX bis man sich halt irgendwann satt gesehen hat.
ist aber mit jedem spiel so, irgendwann geht halt die luft raus.
bei forza horizon 5 z.b. gibt es RTX nur im showroom. das hatte ich eine ganze weile aktiviert.
bis ich das dann einfach deaktiviert hatte weil einfach garkein unterschied zu bemerken war.
kommt halt immer aufs game drauf an.
ich fahre mit 825mv bei 1725mhz mit meiner 3080 Ti Tuf.
in forza statt 350w im powerlimit bin ich bei entspannten 260-280w und das merkt man deutlich.
vorallem an der lĂŒfterdrehzahl und das das spulenfiepen das bei mir wenig ist sich sogar komplett aufgelöst hat.
wieviel fps habe ich verloren?
ca 5-8fps..
juckt es mich?
So siehtâs aus sieht schöner aus und hast mehr fps als native. Also spricht nur dafĂŒr als dagegen.
Man muss auch erwĂ€hnen das es unterschiedliche Einstellungsmöglichkeiten gibt also fĂŒr wqhd eignet sich QualitĂ€t dann gibts noch Performance, Ultra-Performance, Ausgeglichen etc.
Dann muss sich ja was gewaltig geĂ€ndert haben. Die DLSS Integration in den meisten Spielen war bisher meiner Meinung nach nichts Wert in WQHD. In Kombination mit DSR, sprich 4K und Quality Mode sieht das natĂŒrlich anders aus. Aber jedem das Seine.
Ganz ehrlich, auch wenn du bei den genannten Spielen kein RTX brauchst, wĂŒrde ich jetzt die Karte nicht unbedingt wechseln. Die 6900XTXH wird dir nochmal 5% mehr FPS bringen aber das macht dann auch keinen Unterschied! Aber wenn du dir die MĂŒhe machen willst, wĂ€re die AMD Karte wohl ein kleines bisschen schneller. WĂŒrde dann aber auf den Refresh 6950 XT warten und schauen ob die Preise der 3080ti Ă€hneln.
Ja ist auch das beste von der BildqualitĂ€t her. Ich hab mal ultra Performance probiert aber das Bild sah sehr sehr schwammig aus. Deshalb fĂŒr WQHD ist QualitĂ€t das beste finde ich
habe da damals mit division 2 alles durchgetestet wie ich konnte.
auf stock fuhr ich da eingependelt in dem game bei 1665mhz.
division 2 is einer der games die richtig an leistung ziehen, deswegen war das mein stabilitÀtstest.
wenn ich da aber auf 1800mhz möchte dann mĂŒssten es zumindest 800mv sein um nicht am PT zu kratzen.
wobei ich mir ziemlich sicher bin das dies wieder am PT kratzen wĂŒrde und wĂ€re sogar instabil.
auch wollte ich da mindestens 20-30w unter dem PT von 350w sein.
hier hab ich schon alles durchgetest da fuhr ich noch leicht geÀnderte werte
von 800mv und 1710mhz..
bin aber auf 825mv hoch und 1725mhz um auf der noch stabilieren seite zu sein.
mit den 825mv und 1725mhz denke ich bin ich bei um die 330-340w in division 2.
alle anderen games wie bereits berichtet zieht die karte viel viel weniger an watt.
bei forza horizon 5 z.b. bin ich zwischen 260-280w und weit weg vom PT das 350w ist.
Ich hÀtte eine Frage zum Vram und dessen Temperaturen.
Zuerst sei gesagt: Ich weià das der Vram bis 100° (110°) warm werden darf. Auch möchte ich die WÀrmeleitpads der Karte nicht tauschen, die Karte öffne ich nicht. Es geht nicht um Mining, sondern um Spiele (falls das relevant sein sollte).
Beim Grafikchip kann man mit Untervolten Temperaturen senken (habe ich gemacht), ist so etwas Àhnliches auch mit dem Vram möglich, sprich die Temperaturen zu senken ohne merklich Leistung zu verlieren?
Untervolten kann man beim Vram scheinbar nicht, aber den Takt senken, ist es bei den 80Ti oder 90er (ohne Ti) Karten sinnvoll punkto Temperaturen den Takt des Vram etwas zu senken, hat ein wenig Taktreduzierung (sagen wir 1 bis 5%) einen nennenswerten Einfluss auf dessen Temperaturen?
Klar kannst du auch den Takt des Vram senken und selber schauen was bei deiner Karte es an Temperaturen bringt.
Aber wieso sollte man das machen wo doch der Vram eins der besseren Features von Ampere ist und die Temps in der Spec sind? Wenn dir weniger Leistung reicht, klar kannst du machen.
Ist schon klar das ich das machen kann, wenn ich Daheim wĂ€re wĂŒrde ich es auch machen, komme aber erst am Wochenende nach Hause.
Aber die frage zielte eher auf Erfahrungsberichte ab, wird doch sicher welche geben die das schon getestet haben, vor allem bei dem vielen Themen das der Vram so warm wird.
VRAM runtertakten habe ich nicht probiert. Aber +700MHz haben ihn zumindest nicht wÀrmer werden lassen. Denke, da wird ein Absenken des Taktes (Spannung senken geht ja nicht) nix bringen.
Eine undervoltete GPU kann indirekt auch die VRAM-Temperatur senken, da insgesamt weniger AbwĂ€rme ĂŒber den KĂŒhler abgefĂŒhrt werden mĂŒssen.
Als Alternative, wenn du nicht die WĂ€rmeleitpads tauschen willst, könntest du zusĂ€tzliche LĂŒfter im GehĂ€use bei der Grafikkarte plazieren. Da gibts auch extra Halterungen fĂŒr ein paar Euro, oder welche mit LĂŒftern. Diese sind dann wahrscheinlich aber nicht die leisesten.
Denke ich auch. Könnte man die VRAM Spannung Ă€ndern wĂ€re es wohl eher möglich. Was hast du denn fĂŒr ne Version der Karte? Gibt meine ich welche bei denen der VRAM einen eigenen KĂŒhler hat und deshalb weniger Verbesserung wenn die GPU undervoltet wird. Da kann man nicht so stark profitieren wenn weniger Leistung von der GPU abgefĂŒhrt werden muss.