Gerithos
Lt. Commander
- Registriert
- Mai 2020
- Beiträge
- 1.733
In dem segment? Ja, das ist immerhin die high end Variante.Tobias123 schrieb:Bin ich der einzige, der auch eine auf 300 Watt gedrosselte Karte als nicht mehr zeitgemäß ansieht?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In dem segment? Ja, das ist immerhin die high end Variante.Tobias123 schrieb:Bin ich der einzige, der auch eine auf 300 Watt gedrosselte Karte als nicht mehr zeitgemäß ansieht?
Eine 3090 gibt es zum Teil bereits für knapp unter 1000€ neu. Auf den Gebrauchmarkt ist die eher so um die 750-800€ wert.Benni1990 schrieb:Wer bei der Karte nicht zuschlägt ist selber schuld und alle die eine 3090 haben bekommen noch halbwegs gutes Geld und können mit knapp 1000€ auf eine 4090 umsteigen besser und Billiger geht es nicht
Nicht auszuschließen, weil die neue Serie, überträgt man deren Leistungsgefüge auf die alte Serie, diese eigentlich obsolet macht.Schrank schrieb:der glaubt ihr die 4080 16 GB wurde nur so teuer angekündigt um die Preise der 30er-Serie noch hoch halten zu können und wird eibrechen wenn die Leute merken dass die Preis/Leistung schlecht ist?
Weil die alten Grafikkarten direkt im Müll landen? Wer aufrüstet verkauft seine alte Karte oder gibt sie in der Familie weiter, und diese müssen dann keine neue Karte kaufen. Das Gerede von Ressourcenbedarf und Ressourcenverschwendung ist einfach falsch.habla2k schrieb:Verbrennt euer Geld wie ihr wollt, aber vielleicht könnte man über solchen Überfluss und Ressourcenverbrauch mal nachdenken.
Ja genau es gibt 4k 240 Hz Monitore und braucht man mehr? Eigentlich nicht oder? Solang die monitor hersteller doch nicht anfangen dp 2.0 zu verbauen ist es doch überflüssig. Anderseits kann man hier ja natürlich in beide Richtungen argumentieren und sagen das die monitor hersteller das auch von den gpu Herstellern abhängig machen.Ayo34 schrieb:Naja, die Karte ist gerade rausgekommen und wird auch in einigen Jahren noch laufen. Auch jetzt gibt es schon 4k - 240hz Monitore. Mit DLSS3.0 erreicht man auch entsprechende Framezahlen. Schon Schade, dass da dann Displayport 1.4 limitiert. Benutzt man dann HDMI2.1 für den Spiele-PC?
PCIE5 oder 4 ist hingegen völlig egal, da die Grafikkarte auch mit PCIE4 die volle Leistung abruft. Auch in der Zukunft wird da niemals von PCIE5 profitiert. Das wird vielleicht bei der nächsten, schnelleren Grafikgeneration ein Thema.
Mracpad schrieb:Bitte was?
Erstmal prognostiziert AMD nur 50% mehr Fps/Watt.Max007 schrieb:7900 XT: 12.288 Cores, xxx% in 4K (?)
6900 XT: 5.120 Cores, 100% in 4K
Bei der 4090 steigt die Leistung in 4K fast linear zur Anzahl der Cores (FPU 32 ALU).
Wenn man das einfach so auch auf RDNA 3 anwenden kann, dann ...
Vollkommen richtig hätte Nvidia doch 1000watt Bios geben können und jeder begrenzt wie er es will und was er brauch und alle anderen drehen halt die 1000watt auf und freuen sich und jeder ist zufriedenTobias123 schrieb:Bin ich der einzige, der auch eine auf 300 Watt gedrosselte Karte als nicht mehr zeitgemäß ansieht?
Tobias123 schrieb:Bin ich der einzige, der auch eine auf 300 Watt gedrosselte Karte als nicht mehr zeitgemäß ansieht?
Zahle Versand, entsorge die Karte für dich fachgerechtSKu schrieb:Ich benötige einen Abnehmer für meine 3090 FE, die 4090 ist einfach ein zu nettes Spielzeug, um es ignorieren zu können.
GerryB schrieb:Erstmal prognostiziert AMD nur 50% mehr Fps/Watt.
(hat nicht direkt mit Shaderanzahl linear skalen zu tun, sondern eher wie weit man über Sweetspot taktet,
also könnte man mehr Shader niedriger takten bei deutlich weniger Volt sofern man die Auslastung gleichmäßig hinbekommt mittels OREO)