Bright0001 schrieb:Schau mal, jetzt sind wir schon vier.![]()
Mach fünf daraus.

Also ohne großes Übertackten sollte es das noch stemmen können? Und bequiet haut derzeit nur die ganz fetten Netzteile vom neuen Dark Power Pro 12 raus.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Bright0001 schrieb:Schau mal, jetzt sind wir schon vier.![]()
Also in den letzten Jahren des Stillstands musste man nur mehr oder weniger sinnlose Dinge wie MSAA 8 auf 4 stellen o.Ä. sonst alles max. mit 1080 Ti locker möglich mit nem WQHD oder FHD Moni.MiaSanMiaaa schrieb:Was ist in 5 Jahren? Oder 10 Jahren? In 2 Jahren ist nicht der VRAM der Punkt, wieso du nicht mehr alle Regler auf max stellen können wirst.
Taxxor schrieb:Und schon ziemlich weit weg von den "up to 1.9x" aus der Nvidia Präsentation ^^
Bei AMD heißt es aktuell, dass das Ziel von 1.5x übertroffen worden sein soll und man mit RDNA2 eher bei 1.6x landet.
Hallo Birne hier Apfel...Pisaro schrieb:Anderes Beispiel in meinem Fall: Ark. GTX 1080 Ti 11GB vs. RTX 2080 Super 8GB. Die 2080S bringt eigentlich immer höhere FPS, bringt mir nur in diesem Fall nichts wenn die 8GB am Anschlag sind und so Microruckler/sehr schlechte Frametimes entstehen im Vergleich zu der 1080 Ti![]()
Renegade334 schrieb:Ohne extremes OC sollte das kein Problem sein. Lass dein System ohne GPU mal 150W verbrauchen, dann hast du immer noch 400W für GPU und 50W Spitzenlast (Kurzzeitig darf das Netzteil bis 600W belastet werden) über.
Und das wirst du wohl selbst mit Benchmarks nicht erreichen, geschweige denn im Normalbetrieb.
//edit: Wenn ich mir das Video von Igor anschaue sieht es eher nach 100W System und 450W GPU aus
Aber trotzdem hat man noch 50W Reserve (laut beQuiet für 30 Sekunden + die minispikes werden vermutlich schon von den Kondensatoren abgefangen).
Hate? Ich bitte dich.. aus dem Alter bin ich raus.CrustiCroc schrieb:Ihr müsst echt nen mega Hate gegenüber Nvidia haben, oder seid einfach nur neidisch auf die geile Leistung die euch die Konkurrenz nicht bieten kann.
Pisaro schrieb:Was für ein extrem, wirklich extrem dummer Vergleich. Das heißt also das eine GPU-Generation immer mehr ziehen darf wenn sie schneller wird? Sehr gut, dann viel Spaß mit GPUs die irgendwann über 1K Strom ziehen.
Wenn ich dafür die Entsprechende Leistung bekomme und diese auch Benötige klar wieso nicht?
1000€ Strom im Jahr sind 83€ im Monat...wenn ich mich da aufrege müsste ich erstmal das rauch aufhören was mich 200€ im Monat Kostet, von daher...
Es ist immer eine Persönliche Sache und Einstellung und vor allem auch eine Sache des Geldes was man hat im Monat...wenn ich bei ALDI an der Kasse hocken würde, dann hätte ich zu diesen dingen bestimmt auch eine andere Einstellung, aber da ich zum Glück in der Schule aufgepasst habe "erlaube" ich mir so einen Luxus einfach
Jeder wie er mag!
T670i schrieb:Ich zum Beispiel.Ja die 330W werden knapp mit meinem E11 550W.
Da mein 3700X aber kein Schluckspecht ist, müsste das gerade so gehen.
Aber zur Not eben das Powerlimit auf 270W begrenzen.
Quelle?Zock schrieb:Schon von den Problemen der PS5 gehört ? TSMC scheint gewaltig Probleme zu haben, 50% bekommen die aktuell nur aus einem Wafer vieleicht hatte Nvidia Angst das es bei so einem komplexen Chip Probleme gibt und Samsung hat das bessere Paket geliefert.
Die 1080 Ti kam doch lediglich verzögert, 80er Tis gab es ja schon vorher.Neo772™ schrieb:Nein das ist Quatsch, da Nvidia damals die 80er die Top Modelle waren.
Zudem waren die Verkäufe bei Turing einfach enttäuschend
Ja, die 3090 ist wieder ein anderes Thema, an dem Preis sieht man schon, dass AMD da keine Chancen eingeräumt werden.Vexz schrieb:Ja, aber das ist nur die halbe Miete. Die 3090 wird AMD wohl nicht schlagen können. Es gibt genügend Leute, die richtig viel Asche für die maximale Performance ausgeben werden, weshalb die 3090 dennoch so viel teurer sein wird.
und es müsste Spiele geben die das unterstützen... in Masse.MarcoMichel schrieb:Ich werde noch eine Generation warten müssen, bis ich mit 3 Stück 4K-Bildschirme auf 60 hz vernünftig zocken kann. Denn die Grafikkarte müsste dafür ziemlich genau das Dreifache an Leistung haben, was heute eine 5700XT hat. Die nächste 4090er Generation könnte also für mich in Frage kommen. Da ich besimmt keine 1400,- Euro für eine Grafikkarte ausgebe, könnte es erst eine 5080er sein, mit man mit 3 Stück 4K-Bildschirmen auf 60 Herz vernünftig zocken kann. Das dauert noch ca. 5-6 Jahre. Mist
Matthias80 schrieb:Wer hier rumheult 11GB... 10GB zu wenig... der ist mMn Banane.
Limitiere doch einfach die FPS in den Spielen, dann geht die Leistungsaufnahme automatisch mit runterMiniM3 schrieb:Kann man im nvidia software den Powerlimit für jedes Spiel abweichend einstellen?
Macht kein sinn cs esports Titel mit vollem tdp und 1000 fps zu spielen...