S
Scrush
Gast
dann versuch mal auif 1440p 144hz 144fps zu erreichen. wirds nixRNG_AGESA schrieb:dieser monitor setzt quasi eine 3090 voraus..
für alles andere reicht auch eine 3060
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
dann versuch mal auif 1440p 144hz 144fps zu erreichen. wirds nixRNG_AGESA schrieb:dieser monitor setzt quasi eine 3090 voraus..
für alles andere reicht auch eine 3060
Unterschied zur 1080Ti, die Farben sind die auflösungen, 4K gelb bis 1080p blau, grün ist Perf/wattthommy86 schrieb:was bedeuten jetzt die farben in Prozente?
Linmoum schrieb:Relevant ist auch nicht ob sie mehr werden, sondern wie viel.
350W sind dann übel, wenn es nur 50-60% zu einer 2080Ti. Nach aktuellen Gerüchten von VCZ scheint es ja sogar 7nm zu werden. Das würde die Geschichte noch schlimmer machen, als mit Samsungs 8nm.
MiniM3 schrieb:3070 mit 220W..das wäre dann eine interessante Karte! Bin gespannt ob es ins Budget passt oder ob ich den Schmuck meiner Frau versetzen muss.
ZeroStrat schrieb:Ich bin so gespannt auf die Karten. Ich bin fast noch mehr gespannt darauf, wo meine wirkliche Schmerzgrenze preislich liegt und ob das noch weiter verschoben wird. Bei 1500 Euro für die 3090 bin ich aber raus. Dazu käme dann noch der WaKü-Block. Ne sorry, dann muss einfach passen.
Willst du mir jetzt ernsthaft weiß machen, dass 8 GB auf der 3070 viel Speicher ist?Fighter1993 schrieb:Was glaubst du denn warum Nvidia so viel Speicher raushaut, weil AMD zur Konkurrenz geworden ist.
Nvidia war immer dafür bekannt "Speicherkrüppel" rauszubringen.
Ich würde mich eher fragen warum sie so hoch ist, irgendwas müssen die Karten verdammt viel schneller können als ihre Vorgänger, sonst wäre das ja nicht so von 12nm auf 7nm.#stype schrieb:Die TDP ist so hoch, ich neige fast dazu, dass sowas reguliert werden müsste
24GB VRAM samt Speichercontroller sind da schon mal gut 100W von diesen 350W, bei der 3070 sieht man ja, dass sich die TDP zur 2070S nur um 5W erhöht hatDarkscream schrieb:Ich würde mich eher fragen warum sie so hoch ist, irgendwas müssen die Karten verdammt viel schneller können als ihre Vorgänger, sonst wäre das ja nicht so von 12nm auf 7nm.
Solange auch doppelt so schnell … nehmen es noch genug. Aber um ehrlich zu sein, da hätte es noch einen halben Preis gebraucht bei mir. ;-)rockfake schrieb:Für mich klingt dass.. nach Rückschritt. Doppelt so groß, doppelte Verbrauch, vermutlich doppelt so teuer. Ich warte auf AMD
Igor sagte doch mal was von 2.5W pro Modul und die 3090 hat 24 davon. Das wären 60W für den RAM ohne controller. Es sei denn GDDR6X verbraucht einiges weniger als GDDR6Darkscream schrieb:Der Speichercontroller müsste nun 70W alleine schlucken (ohne Ram), zumindest wenn ich deine Rechnung und die von Igor zusammensetzte.
Ardenda schrieb:Hier ein Update für dich. Die 3090 kostet weit über 2k
https://www.gamestar.de/artikel/nvidiartx-3090-haendler-preise-vram,3361371.html
Ja genau und auf 12GB runter gerechnet eben nur 30W. Die verbrauchen eher mehr als X Version.Taxxor schrieb:Das wären 60W für den RAM ohne controller