Lohnen sich 3 Fans?

xxMuahdibxx schrieb:
oder max 240 wie mit 12 Pin pwr Stecker... Bringt fast nichts..

interessante aussage hast du dazu tests, oder foren in denen sich über 4070 OC ausgetauscht wird?

und warum max 240w mit 12pin stecker? geht da nicht mehr?

wie gesgat das waren nur emien überlegungen beim kauf einer 4070, aber sicherlich speilt die bestmögliche stromversorgung eine rolle.

das es keine 4070 mit 2x 8pin gibt, ist 100% nvidia zu verdanken, die keinerlei interesse haben das jemnd ordentlich saft auf die 4070 gibt. asus hat nicht ohne grund keine strix im sortiment.
 
hier ist ein gigabyte bios bis 320w

https://www.techpowerup.com/vgabios/258499/258499


die frage war aber: warum der 12 pin stecker deiner meinung nach bis 240w zieht, obwohl im bios 320 stehen?

oder anderes gefragt: hast du persönliche erfahrungen? worauf beziehen sich die 240w in igors test, auf das spezielle modell im test oder ganz allgemein auf ALLE denkbaren 4070er modelle? quelle?
Ergänzung ()

xxMuahdibxx schrieb:
Alleine wenn man vergleicht 200 vs 220 Watt = 3,5 Prozent mehr Leistung... Für was....

frag das den 3090 ti nutzer :)

wenn am ende 10% mehrleitung drin sind wäre das doch eine nice sache :)

wichtig ist doch am ende des tages nur, nur das die 4070 OC eine 3080 OC weghaut, oder?
(mit unter dem strich weniger verbrauch, und da legt die 3080 mit 450w schon ordentlich vor)
 
Zuletzt bearbeitet:
Ist doch toll das man auch noch mehr Watt einstellen kann....

Bringt was ?

Fast gar nichts...
 
JacobMeier schrieb:
wichtig ist doch am ende des tages nur, nur das die 4070 OC eine 3080 OC weghaut, oder?
(mit unter dem strich weniger verbrauch, und da legt die 3080 mit 450w schon ordentlich vor)

ich zitiere mich nochmal selber

ich denke mal, das das unsere mission ist :)
ob das möglich ist, auch aufgrund der reduzierten speicherbandbreite, lasse ich mal dahingestellt, aber die 4070 wird sicherlich auch von mem-oc profitieren
 
Wird sie aber nicht... Alleine wenn man bedenkt von 200 Watt auf 220 nur 3,5 Prozent schneller...

Also bei 300 Watt liniar weiter gedacht 17,5 Prozent maximal... Real maximal 10 Prozent.

Lohnt gar nicht.
 
xxMuahdibxx schrieb:
Also bei 300 Watt liniar weiter gedacht 17,5 Prozent maximal... Real maximal 10 Prozent.
Lohnt gar nicht.

wieso lohnt das nicht? dann zieh ich bei FHD und WQHD an der 3080 locker vorbei, auf UHD ziehe ich gleich (bzw leicht vorbei). Nehmen wir noch DLSS3 (framegeneration) dazu wird das eine low end UHD Karte.

mit 320 watt. 650 münzen. 12 GB Speicher, DLSS 3, RT ON. ist doch nice.
und der option auf deutlich ausgeklügeltere optionen darunter.

allemal besser das teil auch noch bei 320w betreiben zu können, wenn man die power braucht, als diese option nicht zu haben und nen 8pin krüppel rumzueiern, weil nvidia das so wollte.

ich frage mich nur, warum gigabyte damit durchgekommen sind :)

wie gesagt das alles unter der prämisse das da auch +10% leistung rauskommen und die 320w ankommen.
 
Zuletzt bearbeitet:
JacobMeier schrieb:
wieso lohnt das nicht?
wie gesagt das alles unter der prämisse das da auch +10% leistung rauskommen und die 320w ankommen.
Weil du in dem Fall 10% mehr Leistung rausholst für 60% mehr Stromverbrauch. Man spült die Effizienz den Gulli runter.
Von den + xx% mehr Lautstärke und Hitze im Raum ganz zu schweigen, also selbst wenn wir den Strompreis mal ignorieren.

Total unverhältnismäßig.

10% mehr wird niemals den Unterschied ausmachen zwischen flüssig und unspielbar.
Das sind 66 fps statt 60 fps. Oder 33-34 fps statt 30 fps.
Ich behaupte, mit Freesync/G-Sync werden die wenigsten das wirklich spüren können ohne einen direkten A:B Vergleich, wenn man den fps-Counter mal deaktiviert, und sich nur auf das Gameplay konzentriert & seinen Spielspaß.


10% mehr Leistung bedeutet in der Regel, dass du evtl eine einzige Grafikeinstellung von Hoch auf Ultra ziehen kannst. Und das auch nicht jede, es gibt welche die reduzieren die fps direkt um 20-25% - ja, nur wenn man die eine falsche Grafikeinstellung von Hoch auf Ultra stellt.

Also völlig selbstredend, dass sich das nicht lohnt.
Es lohnt sich 100 mal mehr zu undervolten & höchstens ganz leichtes OC für den Sweet Spot.


Ich werde vorraussichtlich diesen Sommer auch inr ichtung einer RTX 4070 gehen, und die wird als erstes auf höchstens 0,900 Volt undervolted, evtl eher 0,800 bis 0,850v mit welcher Taktrate auch immer das dann stabil läuft.
So lief meine 1080 schon seit Jahren, starker 0,8v UV mit 140 Mhz weniger Takt (aber +500 Memorytakt). Weniger als 5% Leistungsverlust, die ich dank G-Sync niemals spüren konnte verglichen zu Stock, oder gar etwas OC.
Aber plötzlich hatte ich auch beim Zocken ein leises System. Nicht nur Leise, es war beim Zocken genau so leise wie im Idle, es gab keinen Unterschied. Ein Traum.
 
Darkseth88 schrieb:
Es lohnt sich 100 mal mehr zu undervolten & höchstens ganz leichtes OC für den Sweet Spot.

theoretisch ist das natürlich alles richtig, und im 24/7 betrieb wird man vermutlich (sofern die power nicht gebraucht wird) natürlich stark undervolten.

 
xxMuahdibxx schrieb:
Also bei 300 Watt liniar weiter gedacht 17,5 Prozent maximal... Real maximal 10 Prozent.

Breaking down numbers:

Auf synthetische Benchmarks bezogen

  • ist das beste Ergebnis (Grafikscore) einer 4070 beim Time Spy 21065
  • durchscnittlicher Score ist 17860

ein Zuwachs von 17,94%

gehen wir von einem durchschnittlichen OC Grafik Score von 19500 aus, der mit Stock erreichbar sein sollte,
sind wir tatsächlich bei einem Zuwachs von 9,81% der realistisch mit stockgear erzielt werden könnte.

mit 320w doch keine schlechtes result, und auch wieder ca 100w weniger als die 3080 die ähnliche ergebnisse liefert, aber eben im 450w bereich

d.h. ob ich nun average zocke und 200w (4070) vs 320w (3080), delta 120w
oder im OC bereich antreten lasse mit 320w (4070) vs 450w (3080), delta 130w

ist das delta gleich, die ersparnis gleich, und der OC effekt stimmig und spürbar.

natürlich macht das im 24/7 gebrauch wenig sinn, aber cool ist es allemale



stellen wir hier mal den average der 4070ti in den raum von 22754 mit sagen wir 285w (4070ti max OC: 26450)
ist das teil ca. 16/17% schneller mit 285w ggü unserem 4070 OC modell mit 320w und angenommenen 19500

d.h. wir lagen gar nicht mal so falsch, wenn man bissel leistungsverlust bei der 4070 ti und UV bis 220w einkalkuliert, das die OC 4070 knapp an die 4070 ti UV rankomt. Die Stromkosten spielen quasi eine untergeordnete Rolle, weil niemand 4 stunden täglich mit max last über 4 Jahre hinweg zocken wird.

und die effektivität ggü der 3080 ist, egal auf welchem Level, deutlich spürbar, vermutlich im extremen UV noch ausgeprägter.
 
Zuletzt bearbeitet:
JacobMeier schrieb:
ich frage mich nur, warum gigabyte damit durchgekommen sind :)
Frag dich erst einmal ob dieses BIOS ein original ist oder ein gemoddetes...

Oh wohl nicht... Weil

Warning: You are viewing an unverified BIOS file.


Also was bringt es ... 10 Prozent mehr oder weniger ist völlig egal..3080 hin oder her vorne oder hinten... Egal wichtig ist doch das die FPS da sind und nicht wie viel man vor oder hinter einer anderen Grafikkarte bin.

Sorry First World Problem..
 
xxMuahdibxx schrieb:
Frag dich erst einmal ob dieses BIOS ein original ist oder ein gemoddetes...

Oh wohl nicht... Weil

Warning: You are viewing an unverified BIOS file.

eher nicht gemoddet, sondern extrahiert und von einem user hochgeladen.

man kann ja das bios extrahieren (z.b. per GPUZ) und dann hochladen. das sind die unverifizierten.

aus eigener erfahrung kann man die unverifizierten biosse verwenden, davon abgesehen: eine garantie gibt es auch für die verifizierten nicht, oder denkst du du könntest techpowerup verklagen wenn was schief geht.

also du kannst dir da nichts drauf einbilden, wenn das bios "verifiziert" ist wenn du es (unsachgemäß) benutzt, das sind dann meistens die von den herstellerseiten (zum update freigegeben werden), die unverifizierten sind die die von den Karten heruntergezogen werden. machmal sind das auch dieselben, bzw manchmal werden die karten mit biossen vertreiben, die nicht auf der herstellerseite zum update veröffentlicht werden.

spielt keine rolle, wichtig ist erstmal das größe, quelle (handelt es sich um ein 4070 bios das du auf eine 4070 flashen willst) und anschlüsse stimmen (wobei letzteres auch wumpe ist), wenn es grundsätzlich nicht passt meckert nvflash sowieso, und wenn die anschlüsse teilweise nicht stimmen funzen halt einige nicht.
 
Zuletzt bearbeitet:
JacobMeier schrieb:
eher nicht gemoddet, sondern extrahiert und von einem user hochgeladen.

und wer sagt das es dabei nicht gemoddet wurde ?

Originales BIOS angesehen oder einfach nur vermutet ?
 
nö, nennt sich unverifiziert

Ich habe auf unverifizierte zurürckgegriffen, weil es gar keine verifizierten 4070 gigabyte biosse bei TPU gibt ;)

du willst doch jetzt sicherlich nicht sagen das jeder user der eine 4070 von gigabyte benutzt sein eigenes bios gemoddet hat, oder?

weil offensichtlich gibt es ja 4070er von gigabyte und meine vermutung ist, das diese genau die biosse auf den karten haben, die wir unter den unverifizierten finden, und wie die dahin kommen habe ich ja oben geschrieben.
 
Zuletzt bearbeitet:
arcDaniel schrieb:
Ich habe jetzt eine Asus 4070 TUF bestellt. Ok komplett overkill für eine 200W Karte, aber auf eine 2 Lüfter Version würde ich verzichten. Hatte vor meiner 6800XT eine Sapphire 6700XT Pulse und diese zog ja auch “nur” 225W, war aber nicht leise zu betreiben. Meine aktuelle ist auch ne TUF und die fängt erst bei 300W dauerlast an hörbar zu werden (und das in einem Dan A4 H2O).
 
JacobMeier schrieb:
also ist eine 4070 ti mit fettem UV +15%, während eine OC 4070 +10% hat, und damit ist die 4070 ti UV nur noch 5% schneller also die 4070 OC
Ähm... So funktioniert das nicht... Zum einen wären 15 % UV bei vielen Karten schon instabil, zum anderen geht UV im Idealfall eben mit keinem Leistungsverlust einher.

JacobMeier schrieb:
wie man ja auch hier wieder sieht. strom shaming etc.
Nö, das hab ich nicht behauptet. Ich habe dich nur drauf hingewiesen, dass die Kosten nicht der einzige Gesichtspunkt sind, unter dem man den Stromverbrauch betrachten kann.

Aber klar spiele ich. Und ich nutze sogar eine 4090. Die zieht mit 200 W allerdings Kreise um deine 300 W+ 4070. ;)
 
  • Gefällt mir
Reaktionen: Apo
wrglsgrft schrieb:
Richtig wäre zu sagen, dass drei Lüfter eines Typs mehr Luft bei gleicher Drehzahl bewegen können. Oder dass sie bei gleicher bewegter Luftmenge mit niedrigerer Drehzahl laufen. Oder dass drei Lüfter bei gleicher Drehzahl mehr Geräusche emittieren als zwei Lüfter.
Das hab ich doch schon ganz am Anfang gesagt.
wrglsgrft schrieb:
Zum einen sind mehr Lüfter immer lauter als weniger Lüfter
Das ist schon richtig dumm (ich meine die Aussage, nicht dich). Warum sollte denn die Lautheit von der Anzahl abhängen?! Die Lautheit hängt von der Drehzahl ab. Die Kühlleistung hängt von der Fördermenge an und die wiederum von ebenfalls von der Drehzahl. Also sind mehr Lüfter bei gleicher Kühlleistung grundsätzlich leiser.
 
di26 schrieb:
Das ist schon richtig dumm
Nope.
di26 schrieb:
Warum sollte denn die Lautheit von der Anzahl abhängen?!
Weil Schall eine Änderung des Luftdrucks ist. Wenn drei Schallquellen bei gleicher Lautstärke agieren, erzeugen sie drei mal so viel Druck, wie wenn nur eine Schallquelle agiert. Und das wird dann lauter empfunden.

di26 schrieb:
Also sind mehr Lüfter bei gleicher Kühlleistung grundsätzlich leiser.
Bei gleicher Drehzahl sind sie lauter. Und damit kommen wir wieder zu dem Denkfehler, dem du aufsitzt:
Die Kühlleistung ist primär vom Kühler abhängig. Ein Szenario, wo ein baugleicher Kühler wahlweise mit zwei oder drei Lüftern betrieben wird, gibt es in der Praxis nicht.

In der Praxis gab es aber schon oft Grafikkarten die, obwohl sie nur mit zwei Lüftern ausgestattet waren, schneller, leiser und kühler waren, als Modelle mit drei Lüftern.

Und damit bleibt am Ende eben die von mir getätigte Aussage bestehen, dass man pauschal nicht sagen kann, dass Grafikkarten mit mehr Lüftern besser wären als welche mit Weniger Lüftern.
 
wrglsgrft schrieb:
doch, ganz sicher
wrglsgrft schrieb:
Bei gleicher Drehzahl sind sie lauter.
Genau das ist der springende Punkt: Sie hätten ja eine viel niedrigere Drehzahl für die gleiche Kühlleistung.
wrglsgrft schrieb:
Denkfehler, dem du aufsitzt
Moment, den Denkfehler machst du!
wrglsgrft schrieb:
Ein Szenario, wo ein baugleicher Kühler wahlweise mit zwei oder drei Lüftern betrieben wird, gibt es in der Praxis nicht.
Gegenbeispiel: So alle CPU-Kühler in Tower-Bauweise.
wrglsgrft schrieb:
In der Praxis gab es aber schon oft Grafikkarten die, obwohl sie nur mit zwei Lüftern ausgestattet waren, schneller, leiser und kühler waren, als Modelle mit drei Lüftern.
Das lag dann nicht an den Lüftern sondern an dem drumherum.
wrglsgrft schrieb:
Und damit bleibt am Ende eben die von mir getätigte Aussage bestehen, dass man pauschal nicht sagen kann, dass Grafikkarten mit mehr Lüftern besser wären als welche mit Weniger Lüftern.
Quatsch. Du kannst das schon pauschal sagen, aber nur, wenn der Rest der GraKa gleich ist.
 
Zurück
Oben