Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Weil die im Markt kaum bekannt ist, wurden wir das die Tage auch schon von andere Stelle gefragt. Aber aktuell sieht das zeitlich mehr als mies aus. :-(
Ich habe Fragen zum DLSS. Bsp eines GPU.
ohne DLSS: 150FPS
mit DLSS: über 150FPS
Ich gehe davon aus dass der Stromverbrauch bei beiden Szenarien identisch sind?! Wenn man zB einen FPS-cap von 60 aktiviert, geht der Stromverbrauch der beiden gleichviel runter oder die eine verbraucht noch weniger dank DLSS?!
Wenn die Karte mit Upscaling mehr FPS liefert, ist jeder einzelne Frame schneller berechnet. D.h. mit Framelimit verbringt die Karte mehr Idle Zeit was in der Regel den Stromverbrauch weiter verringert.
Ja wäre schön wenn CB einen GPU Test machen würde mit einem Einsteiger-, Mittel- und Highend Grafikkarten mit dem Fokus auf Stromverbrauch.
Stromverbrauch von DLSS Aus, DLSS Qualität, DLSS Balanced und DLSS Performance sowohl unlimitiert als auch mit einem fps-cap von 60 in 1080p (sowie in höheren Auflösungen).
Insbesondere die Umfrage zum Stromverbrauch zeigt, dass die User/Leser mehr über die GPUs/CPUs bezüglich Stromverbrauch wissen wollen.
Ich würde nicht viel Wert legen auf die verschiedenen DLSS-Stufen. Bei so geringer Auflösung in fullhd -vermute ich-, dass in der Regel nur noch die höchste Qualitätsstufe optisch gut genug ist. Daher finde ich für solch einen Vergleich DLSS oder FSR oder XeSS der höchsten visuellen Qualität ausreichend.
Ich nutze die gtx1050, aber sie ist schon 5 Jahre alt. Mein Vorgänger hielt 7 Jahre (gtx460) und die Unterschiede zwischen den beiden sind Tag und Nacht (sowohl Leistung als auch der Stromverbrauch).
Ich wüsste nicht wer der nächste Nachfolger sein soll? Der Sprung zum gtx1650 ist viel zu schwach (für den Preis von 190€). Der Stromverbrauch im Idle-wert (sowohl 1 sowie 2 Monitore Betrieb) und youtube-Wiedergabe sind vom gtx1650 höher als vom gtx1050 -.-.
Intel scheint wohl keine Interesse zu haben einen neuen Nachfolger zu präsentieren wie zB RTX3400 oder RTX3300 sein könnte.
up.whatever schrieb:
Wenn die Karte mit Upscaling mehr FPS liefert, ist jeder einzelne Frame schneller berechnet. D.h. mit Framelimit verbringt die Karte mehr Idle Zeit was in der Regel den Stromverbrauch weiter verringert.
Das wäre super! Ich habe schon mit dem Strommessgerät letztes Jahr gemessen und geärgert wieso ~5fps unterschied schon ~15w ausmacht beim gtx1050.
25fps = 60w, 26fps 75w
55fps = 75w, 56fps 90w (alle werte als Gesamt-PC)
Der Stromverbrauch steigt nicht linear sondern stufenweise! Anhand meines Beispiels sieht man das der Stromverbrauch ab 26 und 56fps plötzlich steigt. Es gibt keinen Unterschied zwischen 28 und 53 fps zB.
In vielen Spielen getestet und alle verbrauchen stufenweise Strom.
Welche GPU soll ich behalten ?
Hab einen Ryzen 7 5800x3D
Zocken tuhe ich in 1440p, am liebsten natürlich auf Ultra.
Würde aber in Zukunft auch gerne wieder mitm Streamen anfangen.
Soll ich die :
RX6800 XFX hier behalten, oder die GIGABYTE RTX 3070 Vision OC ?
3070 : 609€
RX6800 : 579€
Ding ist, bislang hab ich beide nur mit einem I7-7700k testen könne.
Neue CPU kommt Montag / Dienstag.
Auf dem I7-7700k lief nur leider z.B. Assassins Creed Origins mit nur 65 FPS (Dx11 Problem)
Auf sowas würde ich halt ungerne verzichten .
Was ist da jetzt genau die Frage ? bei WQHD würde ich mir keine 8GB VRam Karte mehr holen, wenn du die Texturen immer auf Anschlag ziehen willst, komme jetzt schon teils in einigen Games über 10GB VRam Verbrauch raus und wird in Zukunft nicht besser. Bei FullHD wäre die 3070 noch in Ordnung aber nicht bei WQHD.
Du bestellst 2 GPUs um sie auszupacken und zu testen und fragst erst dann Welche du nehmen willst?
Kein feiner Move von dir.
Entweder du streamst über die CPU, dann wäre es knapp mit dem 5800X3D oder du holst dir eine Nvidia, würde hier Minimum eine Karte mit 10GB empfehlen und streamst dann mit ihr.
Für WQHD würde ich keine Grafikkarte mit weniger als 10GB VRam holen.
Was ist an der lage gut wenn alle Grafikkarten noch immer überteuert über uvp sind. und die blabbern wegen grösseren kosten der Hersteller. Was interessiert mich das? Ich bekomme deswegen auch nicht mehr Lohn.
Nachdem das Urteil über den Preis der 4080 zunächst auch bei mir negativ ausfiel im Vergleich zur 4090 basierend auf der UVP, muss man jetzt schon wieder etwas relativieren. Bei der 4080 hat Nvidia offenbar den "Job" der Scalper gleich selbst übernommen, so dass man diese Karte jetzt immerhin auch zur UVP realistisch bekommen kann, während bei der 4090 fast 300€ draufgerechnet werden müssen.
Man darf gespannt sein, ob die 4070 (Ti) von Nvidia am Ende tatsächlich so positioniert wird, wie die letzten Gerüchte sagen. Damit wäre sie quasi DOA und wird mit hoher Wahrscheinlichkeit noch weniger absetzen als die ohnehin nicht erfolgreiche 4080.
Aber gut, erst wenn die Lager für Monate voll bleiben und der Absatz weiter unter den Erwartungen bleibt, dann wird man vielleicht die Preise anpassen. Oder man macht einen auf 3070 Ti und verkauft die größeren Chips einfach teil-deaktiviert als kleinerer Chip um irgendwie noch das Ding an den Man zu bekommen
Am Ende wird man sich aber so oder so auf nen ordentlichen Rückgang bei Nvidia gefasst sein müssen, wobei der zugegebenermaßen nur etwas dem Preis geschuldet sind: der Tod von Mining sowie Inflation sind hier wohl die größeren Gründe, erst auf Platz 3 gefolgt vom Preis.
Klappt problemlos in der Zielgruppe. Die 4090 löst alle "Probleme", die man hatte: UWQHD, 4K, Raytracing, Ultrasettings, gestörte fps. Die 4090 ist ein Monster.
Gibt ja auch keine Alternative, AMD hat sich verabschiedet aus dem 4090 Kampf.
Mein kleiner local PC Bauer vor Ort hat diesen Monat in beiden Filialen bereits 11 individuelle Komplettsysteme mit einer 4090 verkauft. Ich war einer von den Kunden.
Die nächsten 2 Systeme mit der 4090 bauen und verkaufen sie diese Woche. Das läuft easy, und nun kommt noch das Weihnachtsgeschäft. on top = noch mehr 4090 Nachfrage.
Interesse bzgl RDNA3 und 4080 = 0.
Gut gehen jetzt auch einzeln durch die Millimeterannäherung an den "UVP" die 3070er und 3080er.