• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Watch Dogs Legion braucht viel Leistung für 4K und RT

VYPA schrieb:
Ganz im Gegenteil :D
Die 8/10GB reichen gut aus, um Shooter in WQHD/4k mit sehr hohen Fps anzeigen zu lassen. Für Rollenspiele wird es ja allen Gerüchten zu Folge im nächsten Jahr die S/Ti Varianten mit 16 bzw. 20 GB VRAM geben - so kann man je nach gespieltem Genre entscheiden was benötigt wird :love:

Kauf dir bitte die PCGH Augabe 10/20 am Kiosk.
Schlage Seite 29 auf und lies dir die Vorabinfos zum RTX Benchmarkparcour durch.
Danach kaufst du dir garantiert keine 3070 oder 3080 mehr.
Spiele verlangen mittlerweile in FullHD schon 8GB RAM.
Und 11GB RAM der 2080 Ti werden auch in UHD schon langsam zum limitierenden Faktor.
Es ist also de Facto Unsinn einfach weiterhin wie die grüne Lederjacke zu behaupten, 6 oder 8GB RAm Karten wären noch Top aktuell und ohne Einschränkung voll nutzbar.
Klar laufen die Spiele, vielleicht sogar noch mit hoher Bildrate, aber man merkt zumindest (messbar) die schlechteren Frametimes.
4 Kerner sind auch tot, messbar und fühlbar, trotzdem gibt es in den Foren weiterhin die Posaunen und Trompeten, die dem einfach widersprechen.
Die lassen sich von Testergebnissen einfach nicht belehren.
Es gibt Tests, die sogar mit Videobeweis daherkommen, wonach eine 2060 6GB Karte in etlichen Spielen gegenüber einer 2070 mit 8GB eingebrochen ist, bei Wolfenstein sogar so extrem eingebrochen ist, so dass sogar der größte Fanboy damit niemals spielen wollen würde, nicht einmal geschenkt.
Natürlich kann man Auflösung, Details udn was nicht alle reduzieren, aber bei einer neuen KArte für etliche hundert Euro will das eigentlich niemand gleich von Anfang an, oder? Und am Ende wird es ja von Tag zu Tag ja nur noch schlimmer, wenn den einmal erst die ersten richtigen Kracherspiele auf den MArkt kommen. Und die kommen erst noch, es gibt ja auch noch keine Next-Gen Konsolenspiele, die eine "Big Navi" Karte als Minimum für volle Details zwingend vorraussetzen werden.
Man muss es also nehmen wie es ist: die 3070 8GB ist lediglich jetzt noch gut genug für FullHD mit RTX, die 3080 reicht gerade noch so für WQHD, erst mit der 3090 und 24GB kann man sich die nächsten 5 Jahre in UHD entspannt zurücklehnen.
Wer also mit den kleinen Karten Raytracing betreiben will, sollte lieber auf Suer oder Ti Varianten hoffen udn warten, selbst wenn die dann 100 Euro teurer werden, würde sich der dann hoffentlich doppelte Speicher langfristig mehr als deutlich bemerkbar machen (nämlich dadurch, dass man nichts merkt), die Lebensspanne wird dadurch auch merklich verlängert, und am Ende holt man sich bei Ebay für dei KArte ja auch wieder etwas mehr Geld ab.
 
  • Gefällt mir
Reaktionen: cruse und tukse
Das die 4-Kerner tot sind, habe ich gestern ja bereits an anderer Stelle (widersprochen) geäußert.
Damit wird bei mir wahrscheinlich auch recht bald ein neuer Unterbau fällig.

Aber mal sehen, wie das Ding in UHD mit hohen Einstellungen läuft.
RT werde ich wohl (vorerst) komplett vergessen können.
 
BxBender schrieb:
Spiele verlangen mittlerweile in FullHD schon 8GB RAM.
Spiele aktuell viel CoD Warzone. Dort hab ich die Details etwas reduziert, um in WQHD auf 90-115fps zu kommen. Damit bekomme ich (laut Einstellungs-Menü) kaum 4GB voll.
 
BxBender schrieb:
Danach kaufst du dir garantiert keine 3070 oder 3080 mehr.
Spiele verlangen mittlerweile in FullHD schon 8GB RAM.
Ich werde deine Worte in Erinnerung behalten, aber trotzdem zu 3080 greifen.
Ich hab HZD installiert btw und werde auch in WD:Legion reinschauen.
Ich will aber einfach nicht warten.
 
Ravager90 schrieb:
Den zweiten Teil habe ich vor lauter Fremdschämen ob der Story und der Charakter direkt nach 30 Minuten gelöscht. Die Dialoge und die Handlung war für mich psychisch nicht tragbar, da einfach nur oberpeinlich.

Der erste Teil war immerhin angenehm düster, die Hipster Truppe aus Teil 2 war ja ein absolutes No-Go, das das Spiel regelrecht zerrissen hat.

Auf der anderen Seite: Erinnern wir uns für einen Moment schnell an Charaktere aus anderen Games wie z.B. die Zwillings-Damen aus Wolfenstein: Youngblood mit ihrem "Hell yeah, Dude!" alle 2 Sekunden - dagegen sind die Hipster wiederum tiefgründige Charaktere aus einem Werk der Weltliteratur, lol...
 
  • Gefällt mir
Reaktionen: cruse
cruse schrieb:
Ich werde deine Worte in Erinnerung behalten, aber trotzdem zu 3080 greifen.
Ich hab HZD installiert btw und werde auch in WD:Legion reinschauen.
Ich will aber einfach nicht warten.

Ich stütze mich bei meinen Aussagen oft auf Testergebnisse aus der PCGH Print, und bilde mir dazu meine eigene Meinung.
Raff vertraue ich bei GPU-Tests blind, da er seine Tests absolut glaubwürdig gestaltet und auch abseits der normalen Benchmarks massig viele Extratests vollführt, die die Wahrheiten über so manche Fehlaussagen von Marketingleuten und weniger gut geschulten "Fachkollegen" aufdecken.
Auch hat Dave das ebenso mit seinen CPU-Tests alles offengelegt, was woanders echt oft genug untergeht.

Derzeit ist es wirklich noch so, dass der Speicher einer 3080 für alles ausreicht.
Es gibt das eine oder andere Spiel, was den Speicher schon jetzt in UHD knacken kann bzw. in Bedrängnis bringt.
Ich achte bei einem Kauf - vor allem bei dem Preis - aber unbedingt auf eine gewisse Langlebigkeit.
Die pure Leistung ist wirklich beeindruckend, das habe ich nie in Frage gestellt.
Allerdings wird die Leistung lediglich 1:1 durch den Stromverbrauch erkauft, es gibt quasi Null Effizienzgewinn durch Technologieverbesserung.
2080 Ti 80 Watt, 3080 78 Watt @wolfenstein 60fps als Beispiel nochmal genannt.
Wer Vega 64 2.0 hoch 2 haben möchte und es auch noch kühlen kann, meinetwegen, der Nordpol schmilzt auch so schnell genug weg.
Ich würde aber lieber auf jeden Fall erst einmal Big Navi und einen sehr wahrscheinlich kommenden Konter der 300er mit doppelt Speicher abwarten, ehe man vorschnell viel Geld ausgibt udn dann später merkt, dass man die Arschkarte gezogen hat.
Die Kauflust ist sicher da (gnaaa, mehr mehr mehr ), aber man sollte sich nicht nur vom Benchmarkbalken blenden lassen.
Ich selbst bin mit meiner 1080 imemr noch sehr gut zufrieden, der Lüfter säuselt leise, das Ding wiegt kaum was, mein dickes Silent-Gehäuse wirkt leer.
180 Watt zu 320 Watt bzw. 220 Watt zu 370 OC sind schon eine Hausnummer!
Klar ist die 3080 bereits im Regelfall locker 60% schneller als eine 2080 und bietet Raytracing, udn ist somit vielleicht locker doppelt so schnell wie die alte 1080, aber selbst im Vergleich dazu wird ja sehr viel der Zusatzleistung auch durch Stromaufnahme erkauft, gell?
Daher wäre für mich nur eine 3070 interessant.
Sie bietet hoffentlich noch 70% mehr Leistung, 220 Watt Einstiegsverbrauch (270 OC?) wäre aber schon hart an der Grenze (Hitze im PC), nochmal 8GB RAM sind aber der absolute Knackpunkt und für mich ein No-Go, selbst für FullHD.
Ich habe keinen Bock darauf, dass die Spiele nach und nach ihre Texturen und LOD's reduzieren müssen, nur um mit der Knauserkarte irgendwie klarzukommen.
Bei Red Reremption 2 fehlt z.B. schon ein Teil des Bildes, wenn man die 970 mit 3,5GB Krüppelram damit laufen lassen möchte. Ratet mal, wie in 4 oder 5 Jahren dann der Test der 3070 in Red Redemption 3 lauten wird. ^^
 
Daß PCGH immer den Extrem Staus abbildet ist Dir klar?
Nach deinen ganzen zusammengewürfelten Ausführungen (von der GTX 970 über die Vega zur RTX 3080), haben wir bis dato nicht mal eine Karte die WQHD tauglich wäre. Wenn max dann aber richtig... PCGH like eben :D.
Einstellungen anfassen verboten, sonst könnten ja andere Werte rauskommen.
 
DaHell63 schrieb:
Daß PCGH immer den Extrem Staus abbildet ist Dir klar?
Nach deinen ganzen zusammengewürfelten Ausführungen (von der GTX 970 über die Vega zur RTX 3080), haben wir bis dato nicht mal eine Karte die WQHD tauglich wäre. Wenn max dann aber richtig... PCGH like eben :D.
Einstellungen anfassen verboten, sonst könnten ja andere Werte rauskommen.

Mir ist selbstverständlich klar, dass PCGH Benchmarkszenen heraussucht, die eher dem Worst Case entsprechen.
Aber darum geht es ja.
Ich will nicht wissen, wie viele Bilder ich in Spiel x in einem einzelnen Raum an Frames maximal bekommen kann, wenn ich dafür dann draussen in einem drittel der Spielzeit dafür dann vor mich hin ruckel.
Bei Anno ist auch ein gewaltiger Unterschied zwischen Tutorialmission und Millionenmetropole festzustellen.
Die Ingamebenchmarks der Spiele sind nämlich meistens schon mal Bockmist, das passt oft gar nicht.
Weil die Last zu gering ist, oder CPU oder GPU im Limit sind, was in dem Moment aber nicht getestet werden soll.
Kauf dir doch einfach die Karte deiner Wahl und drehe dann diverse Details runter. Juckt mich nicht, solange dir das Spielen dann trotzdem Spaß macht.
Das ist ja auch das Wichtigste, dass man selber zufrieden ist.
Ich selbst spiele lieber weiter mit meiner 1080 in FullHD und stelle einfach von Ultra auf Hoch runter und spiele ebenfalls flüssig - aber umsonst.
Die 3070 und 3080 werden jedenfalls früher als später den Geist wegen Speichermangel aufgeben.
Das ist so sicher wie das Amen in der Kirche.
Diese Karten sind quasi in der Spitze doppelt so schnell wie meine Karte, aber sie werden zeitgleich in die Tonen wandern, nur wegen dem RAM.
Denn die Spielengines machen da absolut keinen Unterschied raus.
Die werden irgendwann 8GB oder auch 10GB Karten von den höchsten EInstellungen im Optionsmenü ausschließen (DOOM etc.), oder einfach Details weglassen (diverse Spiele), oder direkt anfangen zu ruckeln.
Und Raytracing benötigt sogar noch mehr RAM als normales Rendering, das darf man nicht vergessen!
Wenn du also mit einer 3070/3080 mit RTX on zockst udn ich mit meiner 1080 ganz normal, dann fängts bei dir sogar noch eher an Probleme mit den Details zu geben.
Wer durchschnittlich 600 oder 800 Euro für eine Karte hinblättert, erwartet eindeutig mehr für sein Geld als schon alsbald Regler nach links zu schieben, oder?
Es fehlt also abseits der nominell höheren Frames der wirkliche Mehrwert gegenüber Mittelklassekarten für 200-300 Euro.
Darum geht es.
Und die Strom- und Hitzewerte sind ja auch nicht von schlechten Eltern, dass muss auch jeder für sich entscheiden.
Für mich sidn die Karten jedenfalls eine sehr große Enttäuschung, das mag jeder anders sehen.
 
Ich weiß nicht was Du jetzt hören willst.
Du nimmst Dir das Recht heraus (natürlich zurecht :D) deine Einstellungen von hoch
auf ultra zu stellen. Oder andere diverse Regler nach links zu verschieben.
Warum wetterst Du dann gegen die RTX 3080? Ist es da dann in 2 Jahren (?) nicht erlaubt
die Regler nach links zu schieben? Oder sogar jetzt schon. Es ist ja nicht so, daß wir eine
Grafikkarte am Markt haben die alles auf max schafft.
Und eine GTX 1080 war bei Release mit 800€ ja auch kein Kauf vom Wühltisch.
Meine GTX 1080Ti war mit 899€ ja auch nicht gerade billiger.
Lieferbar ist ja zur Zeit eh nichts und wenn die Karten mit mehr Gb rechtzeitig kommen
kaufe ich halt die. Ich habe aber auch kein Problem mit einer 3080 10GB, wenn demnächst
nichts anderes kommt.

Über sinnhaftigkeit bei einem Hobby...ich glaube da braucht man überhaupt nicht abfangen
zu diskutieren.
Es wechseln genug von einer RTX 2080Ti zur RTX 3090...sogar von einer T-REX wird
gewechselt. Meine Meinung dazu...ja warum nicht.
 
Zuletzt bearbeitet:
DaHell63 schrieb:
Ich weiß nicht was Du jetzt hören willst.
Du nimmst Dir das Recht heraus (natürlich zurecht :D) deine Einstellungen von hoch
auf ultra zu stellen. Oder andere diverse Regler nach links zu verschieben.
Warum wetterst Du dann gegen die RTX 3080? Ist es da dann in 2 Jahren (?) nicht erlaubt
die Regler nach links zu schieben? Oder sogar jetzt schon. Es ist ja nicht so, daß wir eine
Grafikkarte am Markt haben die alles auf max schafft.
Und eine GTX 1080 war bei Release mit 800€ ja auch kein Kauf vom Wühltisch.
Meine GTX 1080Ti war mit 899€ ja auch nicht gerade billiger.
Lieferbar ist ja zur Zeit eh nichts und wenn die Karten mit mehr Gb rechtzeitig kommen
kaufe ich halt die. Ich habe aber auch kein Problem mit einer 3080 10GB, wenn demnächst
nichts anderes kommt.

Über sinnhaftigkeit bei einem Hobby...ich glaube da braucht man überhaupt nicht abfangen
zu diskutieren.
Es wechseln genug von einer RTX 2080Ti zur RTX 3090...sogar von einer T-REX wird
gewechselt. Meine Meinung dazu...ja warum nicht.

Also meine 1080 OC von KFA2 hab ich meine ich erst 1 Jahr nach Serienvorstellung im Angebot für unter 500 Euro gekauft, als der Mining-Boom kurzzeitig eine Talfahrt gemacht hat (und dann wieder hoch ging).
Eigentlich wollte ich auf Vega warten, aber die kam ja nicht im Spätherbst, sondern war fast erst ein Jahr später wirklich im Laden zu haben.
Man muss abseits vom Geldwert den Vergleich sehen.
Die 1080 war mit 8GB ausnahmsweise großzügig und zukunfstauglich mit Speicher bestückt (980 hatte 4GB).
Der Verbrauch war im Gegensatz zu einigen bisherigen Karten auch vergleichsweise gering, nämlich 180W, vorher hatten schon einige Karten mit weit über 200 Watt zu kämpfen.
Ich glaube meine R9 290 OC mit i7 3770K OC hat 400W gezogen.^^
Die Abmessungen der 1080 sind auch sehr human für die Leistung.
Jetzt, einige Jahre später, kommt also eine megafette Heizplatte namesn 3080 auf den Markt, mit Schrumpf-RAM nach heutigem Maßstab.
Die Karte ist also genau das gegenteil der 1080.
Also warum sollte man sich dann nicht in Foren gegen diese Karte aussprechen und den Mitmenschen eien Kaufwarnung aussprechen?
Die Karte ist sogar so schlecht, dass sie als erste Karte überhaupt es geschafft hat, im Testlabor und auch privat etliche Netzteile (die eigentlich offiziell zugelassen sind) abzuschießen und Sicherheitsschaltungen anspringen zu lassen, die den Rechner sofort ausschalten?
Bei PCGH.de haben sich in der Umfrage mehrere Redakteure negativ über die Karte ausgesprochen.
Die Karte zieht standardmäßig 320 Watt, in OC 370 Watt, kurze Lastspitzen gehen aber weit darüber hinaus.
Jeder kann, darf und soll seinem Hobby frönen wie er will, darüber urteile ich nicht.
Wer jetzt schon eine 3090 für 1800 Euro vorbestellt hat, meinetwegen.
Mir geht es einzig und alleine nur darum, dass NVidia einige Unwahrheiten udn Halbwahrheiten verbreitet, und auch Details verschweigt, schließlich geht es wie bei Intel nur ums Geld.
Und schlechte designte Produkte sollte man auch so hinstellen dürfen, denn nichts anderes ist das hier.
Das ist eine noch schlimmere Keule als AMD mit Vega gemacht hat, da wäre man mit weniger Volt und Watt auch besser gefahren.
Aber NVidia hat jetzt zusätzlich auch noch zu wenig Speicher spendiert.
Und die unkontrollierbaren Lastspitzen sind dann der absolute Gnadenstoß.
Ich möchte nicht wissen, wie viele User am Ende verärgert die Karte zurückschicken, einen Garantiefall daraus machen, oder einfach nur gefrustet ein neues dickes Meganetzteil kaufen müssen, damit die Karte überhaupt stabil läuft und nicht dauernd aus geht.
Meiner Meinung nach geht das alles überhaupt nicht.
Das ist so kein gutes Produkt, was man überhaupt wem empfehlen kann, selbst wenn man den Preis absolut ausblendet.
Ich hoffe, ich werde jetzt halbwegs verstanden.
 
BxBender schrieb:
Es gibt das eine oder andere Spiel, was den Speicher schon jetzt in UHD knacken kann bzw. in Bedrängnis bringt.
naajaaa
hatte damals die 970 und hab mit der gta5 auch schon in uhd gezockt (DSR) mit ~40-60 fps
bei shooter missionen und "pvp" hab ich zwar dann dsr ausgemacht für besseres maushandling, aber ansonsten lief es ganz ok - und da war der speicher auch auf über 3,5 gb und das ohne ruckler (ok, gsync moni)
viele games - paradebeispiel ist cod - packen den speicher aber auch einfach nur voll.
hdz hat ihn richtig vollgemacht, das erste game überhaupt bei mir.

am ende darf ich jetzt eh warten, bis der kram besser lieferbar ist und da das ganze
schätzungsweise sich erst in einigen monaten einpendelt kann ich auch gleich noch auf die "besseren" versionen warten, in der hoffnung dass das nicht erst im sommer 2021 passiert.
BxBender schrieb:
Sicherheitsschaltungen anspringen zu lassen, die den Rechner sofort ausschalten?
die spitzen hast du immer, deswegen plant man auch die NTs generell groß genug. die blocken aber auch kurze spitzen so weg, bzw sollten ^^
hab z.b. direkt ein 600W NT geholt, damals das größte SFX, bei mir gehts grad noch so.

P/L technisch, also most bang for the buck hat auf jeden fall die 3080. die 3090 ist für 1500€ einfach too much, die 3070 hat zu wenig rohleistung, wenn mans mit der 3080 vergleicht.
das ist jedenfalls meine sicht.
daher schiel ich grad auf die 3080, wobei ich grad unentschlossen bin was die genaue karte angeht. die Asus karte ist schon ganz nett, vor allem leise.
 
cruse schrieb:
naajaaa
hatte damals die 970 und hab mit der gta5 auch schon in uhd gezockt (DSR) mit ~40-60 fps
bei shooter missionen und "pvp" hab ich zwar dann dsr ausgemacht für besseres maushandling, aber ansonsten lief es ganz ok - und da war der speicher auch auf über 3,5 gb und das ohne ruckler (ok, gsync moni)
viele games - paradebeispiel ist cod - packen den speicher aber auch einfach nur voll.
hdz hat ihn richtig vollgemacht, das erste game überhaupt bei mir.

am ende darf ich jetzt eh warten, bis der kram besser lieferbar ist und da das ganze
schätzungsweise sich erst in einigen monaten einpendelt kann ich auch gleich noch auf die "besseren" versionen warten, in der hoffnung dass das nicht erst im sommer 2021 passiert.
die spitzen hast du immer, deswegen plant man auch die NTs generell groß genug. die blocken aber auch kurze spitzen so weg, bzw sollten ^^
hab z.b. direkt ein 600W NT geholt, damals das größte SFX, bei mir gehts grad noch so.

P/L technisch, also most bang for the buck hat auf jeden fall die 3080. die 3090 ist für 1500€ einfach too much, die 3070 hat zu wenig rohleistung, wenn mans mit der 3080 vergleicht.
das ist jedenfalls meine sicht.
daher schiel ich grad auf die 3080, wobei ich grad unentschlossen bin was die genaue karte angeht. die Asus karte ist schon ganz nett, vor allem leise.

Mit einem 600 Watt Netzteil würde ich erst gar nicht den Versuch starten eine 3080 anstellen zu wollen.
Wenn in Tests sogar 750 Watt Markennetzteile abschalten müssen, weil kurzzeitige Lastspitzen von 500 Watt durch die Karte fließen können?
Erst dahct eich auch NVidia übertreibt es maßlich mit den Angaben udn das gilt nur für No-Name aus China. Weit gefehlt. Markennetzteil neuerer Bauart. Und nicht einmal das ist dann garantiert stabil lauffähig.
Eine 3070 ist klar schwächer als eine 3080, ist aber mit 220 Watt Startgebot beim Verbrauch aber weeesentlich stromsparender und hardwareschonender.
Da limitieren 8GB natürlich noch mehr als die eh schon geizigen 10GB.
Aber für mich als 1080p Spiele rund 120hz Freund wäre das sogar fast eine ordentliche Aufrüstmöglichkeit für einfach nur mehr Frames in neuen Games.
Nur Raytracing brauch tman damit dann nicht wirklich langfristig damit iN Augenschein nehmen, wenn Wolfenstein udn Co schon jetzt voll reinschlagen.
Aber nur für etwas mehr Leistung in FullHD nehme ich nicht im Schnitt 600 Euro in die Hand.
Und was die RAM-Auslastung angeht:
Leute schwören immer, dass sie selbst auf alten Karten mit sehr wenig RAM trotzdem imemr und überall hohe Bildraten haben und keine Ruckler feststellen können.
Mag sein, das liegt dann aber an der guten Streaming-Engine, die gekonnt Details ausblendet.
Bei etwas älteren Karten ist es übrigens völlig normal und legitim, das sman aus Performancegründen Details runterregelt, um somit den Neukauf hinauszuzögern, was nich tnur dem geldbeutel, sondern auch der Umwelt dienlich ist. Jede Produktion ist schlecht für den Ressourcenverbrauch, CO2-Ausstoß, Umwelt- udn Landschaftszerstörung durch Raubbau, noch größere Produktionshallen etc.
Ich bin kein Öko, aber wenn man sich ein wenig zurückhält udn nicht imerm gleich alles sofort udn dann auch noch das schädlichste Produkt udn auch noch viel davon zulegt, hilft das ja auch ein wenig für eure Nachkommen, die auch noch was von der Welt haben möchten. Kleinvieh macht auch Mist. :-)
 
1. Hat Nvidia auch bei den Vorgängerkarten immer große nts empfohlen - hat es hier jemanden interessiert, wenn ich das erwähnt hab?: nein - man wurde meistens ausgelacht und teilweise kamen gleich einige mit Verschwörungstheorien das nvda NT Hersteller pushen will und was weiß ich
2. Hab ich nirgendswo gelesen, dass 750w nts, die nvda übrigens empfiehlt, abschalten
Zudem schreibt Nvidia selbst: "Je nach Systemkonfiguration kann auch eine niedrigere Nennleistung funktionieren."
3. In den meisten Tests kommt es in der Spitze zu maximal 400w, der Rest von meinem Rechner verbraucht nicht arg viel, ich übertakte auch nix - in Gegenteil ich werde das Powerlimit vermutlich senken in anspruchsvolleren Titeln, siehe cb Test hier

Fazit:
Mein nt wird vermutlich erstmal ausreichen

Leistungstechnisch wird vermutlich DLSS ein mega Wurf - ich werde es jedenfalls gut austesten. Damit sollte gute Optik mit RT und guten FPS möglich sein. Ich will jedenfalls nicht 4k oder 8k erreichen, mir reicht es wenn er auf wqhd hochskaliert. Ich bin gespannt wie es aussieht und wie es läuft.
Aber erstmal müssen die Dinger lieferbar sein - und da weine ich grad noch etwas.
 
Zuletzt bearbeitet:
cruse schrieb:
1. Hat Nvidia auch bei den Vorgängerkarten immer große nts empfohlen - hat es hier jemanden interessiert, wenn ich das erwähnt hab?: nein - man wurde meistens ausgelacht und teilweise kamen gleich einige mit Verschwörungstheorien das nvda NT Hersteller pushen will und was weiß ich
2. Hab ich nirgendswo gelesen, dass 750w nts, die nvda übrigens empfiehlt, abschalten
Zudem schreibt Nvidia selbst: "Je nach Systemkonfiguration kann auch eine niedrigere Nennleistung funktionieren."
3. In den meisten Tests kommt es in der Spitze zu maximal 400w, der Rest von meinem Rechner verbraucht nicht arg viel, ich übertakte auch nix - in Gegenteil ich werde das Powerlimit vermutlich senken in anspruchsvolleren Titeln, siehe cb Test hier

Fazit:
Mein nt wird vermutlich erstmal ausreichen

Leistungstechnisch wird vermutlich DLSS ein mega Wurf - ich werde es jedenfalls gut austesten. Damit sollte gute Optik mit RT und guten FPS möglich sein. Ich will jedenfalls nicht 4k oder 8k erreichen, mir reicht es wenn er auf wqhd hochskaliert. Ich bin gespannt wie es aussieht und wie es läuft.
Aber erstmal müssen die Dinger lieferbar sein - und da weine ich grad noch etwas.

320/330 (im Test)-420 (OC Custom) Watt ist bereits die normale Aufnahme durch die Grafikkarte, je nach Modell.
500 Watt ist laut Meldung die kurzfristige Lastspitze (kann man sich vermutlich als Miniblitz vorstellen?^^), nicht der nominell reale Verbrauchswert, die angeblich laut Info kurzfristig anliegen kann, weswegen die Netzteile ja selbst in einer 750 Watt Version auch abschalten können, geschenen z.B. bei einem Seasonic Markennetzteil. Schau mal bei PCGH.de vorbei, die haben schon ein paar Vorfälle gehabt. Vielleicht liegt es auch nur an der schlechten Qualität der Testkarten und ihre zahlreichen schlechten Bauteilen und merkwürdigen unnormalen Übertaktungen, über die nun die ganze Zeit diskutiert wird.
Ich sag ja nicht, dass generell weniger auf keinen Fall funktioniert, aber man mus sja davon ausgehen, dass bei weniger Watt eher was schief läuft, als wenn man z.B. gleich zu 1000 Watt greift.
Ausserdem ist bei einem 650 Watt Netzteil kriegsentscheident, ob man dann einen stromsparenden Ryzen 3600/3700X mit 65W(88W Last) oder aber einen Intel irgendwas mit bis zu 250 Watt Heizkörper dazu eingebaut hat.
Muss jeder selbst entscheiden, ob er ein Risiko eingehen möchte, da evtl. nochmal 100-150 Euro dazu auf den Tisch legen zu müssen, nur damit die Kiste überhaupt erst einmal im Spiel anbleibt.
 
  • Gefällt mir
Reaktionen: cruse
Zurück
Oben