Neue Graka für Skyrim mit HD-Texturen

  • Ersteller Ersteller Painkiller71
  • Erstellt am Erstellt am
Die kostet aber auch 100,-€ mehr, also deutlich über meinem Budget, und für "fast 20% schneller" mir den Aufpreis nicht wert. Ob ich nun mit 50fps oder 60fps zocke ist mir egal.

Aber danke für den Vorschlag.
 
So Karte ist da, eingebaut, und getestet.

Wie zu erwarten, hat sie einen Vcore-Lock von 1,25V.
Dadurch zieht sie mir bei jedem Game so locker bis zu 140Watt mehr aus der Dose als die HD-5870, das habe ich so doch nicht erwartet...
Nur im Startscreen von Skyrim, wo ja nur das Logo dreht und man sein Spiel Laden/Starten kann (also praktisch keine/kaum Grafikleistung nötig), 250Watt
Also macht die HD-7950, sobald der 3D-Modus läuft gleich volle Power, egal ob nötig oder nicht?? Weil nur für ein schwarzes bild mit drehendem Logo, brauch man ja nicht die volle Leistung abrufen!

Im Spiel selber 240-300Watt. Das sind bis zu 140 Watt mehrverbrauch als mit der "alten" Graka.
Habe aufgrund dieser hohen Verbrauchswerte jetzt mal den Gigabyte-Support geschrieben, ob Sie mir ein modifiziertes Bios, mit niedrigeren Werten schicken können.

Edit:

Habe mir vom Nachbarn mal den Monitor ausgeliehen, weil ich mit dem Bios F43 ja kein HDMI-Bild mehr bekomme, sondern nur DVI, und ich an mein TV nur HDMI anschließen kann.
Furmark 10 min. laufen lassen, keine fehler oder absturz und der verbrauch ist um 60 Watt gesunken. In Skyrim max, 240Watt
 
Zuletzt bearbeitet:
Mit was misst du den Stromverbrauch? - 140W mehr als eine 5870 (welche schon viel schluckt) halte ich für nicht möglich bzw. richtig.

Edit:
Hier ne 5870 zieht alleine(!) 170W unter Spielelast:
http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index4.php

ne 7950 Boost zieht alleine(!) 180W (Powetune default) bzw. 225W:
http://ht4u.net/reviews/2012/amd_radeon_hd_7950_boost_edition_test/index6.php

Das wäre ein Delta von 10-50W (grob). Und du willst ein dreifaches mehr verbrauchen?
Da sind 100% andere Dinge, welche Strom fressen und die du wohl letztes mal nicht mitgemessen hast (Boxen, TV, etc.pp).
 
Zuletzt bearbeitet:
Der Verbrauch bezieht sich auf den gesamten PC, also Messgerät an Steckdose und daran den PC angeschlossen.

Mit der HD-5870 hatte ich in Skyrim max.190 Watt, jetzt mit der HD-7950 komme ich bis zu 300 Watt Verbrauch (Gesamter PC, schwankt zw. 240W - 300W)
Im IDLE hat sich nix getan, 50 Watt gesamt PC. Hatte ich alles extra noch vor dem Einbau der neuen Graka gemessen.
 
Zuletzt bearbeitet:
Dann kann ich mir das nurnoch evtl. so erklären:
deine 5870 war nicht ansatzweise ausgelastet (evtl VRAM-Limit wie bei meiner 5850+25%Takt, also in etwa einer 5870), deine CPU infolge dessen auch nicht.
Mit der neuen haste dann halt eine "gscheite" Auslastung, was auch in mehr Verbrauch resultiert.
Und natürlich mehr fps - wovon ich ausgehe.

Dennoch: deine Werte kommen mir sehr komisch vor bzw. "unerklärbar".
Vielleicht gibts noch andere Meinungen, wie das zu Stande kommen kann.
 
Mit dem F43 Bios (Vcore max. 1,09V), habe ich ca.60 Watt weniger Verbrauch, dann würde es ja mit den 50Watt Mehrverbrauch zur 5870 ungefähr hinkommen.
Hatte ich aber schon gelesen, das die Karten mit V-Lock 1,25V bis zu 80Watt mehr ziehen.

Aber leider kann ich dieses Bios nicht nutzen, da dann das HDMI-Signal nicht mehr geht, ich es aber brauche...
 
Zuletzt bearbeitet:
Hmm, hätte ich nicht erwartet, dass das dann so viel ausmacht.
Die Spannung ist ja dann übertrieben hoch.

Ist der V-Lock mit jedem Programm vorhanden?
Es gibt ja hier und da Programme/GPUs die sich nicht abkönnen.

Afterburner, EVGA Precision, Sapphire Trixx
könnteste ja mal ausprobieren, wenn es funzt, ist kein Biosflash nötig sondern es wird alles per Software geregelt.
Aber ich denke, dass der Lock wohl "softwaretechnisch nicht umgehbar" ist.
 
Die Werte die du erreichst sind irgendwie unglaublich, so unglaublich dass ich selber erst mal nachmessen musste.
Kann es sein das dein Messgerät einen weg hat? Ich habe bei mir gerade eine idle-Vollast (Furmark) Differenz von 195W gemessen, bei 1,25V (1100/1400MHz). Bei 1,2V (1100/1400MHz) sind es 180W.

Selbst wenn die Karte 20W im idle zieht (was viel für eine 7950 wäre), komme ich so auf "nur" 215W für die gesamte Karte mit OC.
Also irgendwas passt hier ganz und gar nicht :D
 
Habe es gerade mit einem weniger Grafik aufwendigem Spiel getestet.

Und zwar mit Test Drive Unlimited 2. Grafikeinstellungen: 1920*1080 / 60Hz / AA 8* / Sehr Hoch

F43 Bios konstante 182 Watt

FX1 Bios 190 - 240 Watt

Was mir nur aufgefallen ist, das mit dem F43 Bios mein IDLE-Verbrauch um 20 Watt gestiegen ist. Also statt 50 Watt dann 70 Watt.

Edit:

Was ich noch sehr komisch finde, ist der Test mit Furmark.
Dieser Test soll ja angeblich die Graka an ihre Grenze bringen.

Bei 1920*1080 Full-Screen 8*MSAA Burn-In Test zieht mir der PC "nur" 212 Watt.
Skyrim aber bis zu 300 Watt..mmmhhh Moment.
Habe es eben nochmal getestet, und nun habe ich in Skyrim einen konstanten Verbrauch von 205W-215W??????
Gestern hatte ich immer min.240W-max.300W. schwankte immer dazwischen.

@SaarL

Ja alle Programme getestet. Vcore wird entweder garnicht angezeigt bzw. ist dann ausgegraut...

Edit:

Neues Problem!!
Habe ich mal verschoben, da anderes Thema, nach: https://www.computerbase.de/forum/threads/catalyst-13-1-und-13-2-beta-bluescreen.1178505/page-2

Letzter Edit, versprochen ;):

Habe nun noch Bioshock Infinite und Tomb Raider getestet (alles auf Ultra).
Nun komme ich bei allen auf einen Verbrauch von 205W - 220W, in kurzen Spitzen bis zu 235W.
Damit kann ich erstmal leben (besser als 300W). Mal schauen was mir der Gigabyte-Support auf meine Bios Anfrage antworten wird....

Danke an euch allen hier für eure Hilfe/Unterstützung.

Sorry, nochmal ich.

Ich gebe es auf. Gestern habe ich zum Test mal mit Afterburner die Taktraten auf 900/1100 geändert.
Gerade festgestellt, das die Graka diese Einstellung behalten hat, obwohlich Afterburner garnicht gestartet habe.
Habe dann jetzt die Taktraten wieder auf 1000/1250 gestellt, und nun zieht mir der PC bei jedem Spiel 240W-300W aus der Leitung.
 
Zuletzt bearbeitet:
Also entweder zieht die neue Rev. 2 eine ganze Ecke mehr (was ich mir eigentlich nicht vorstellen kann) als meine Rev. 1, oder hier stimmt definitiv etwas nicht.

Gerade noch mal ein Test mit 1.094v (laut Afterburner), 900/1250MHz gemacht und so komme ich auf eine Idle-Last-Differenz von "nur" 145W, dh. 160-165W für die ganze Karte und das scheint mir doch etwas zu wenig zu sein.

Evtl. ist noch ein anderer so nett und checkt mal seine Leistungsaufnahme :)
 
Ich habe eben nochmal Test´s gemacht mit Furmark und Prime95, da ich ja vorher unbewußt, niedrigere Taktraten bei der Graka hatte:

Furmark 1920*1080/8*MSAA/FullScreen = 230W - 257W (schwankt hin &her)

Prime95 Blend-Test = 101W

Furmark & Prime zusammen laufen lassen = 266W - 290W

Far Cry 3 Test:

CPU-Auslastung bei allen 4 Kernen ca.50%

MSI-Afterburner zeigt mir bei GPU-Auslastungs-Monitor sprünge im sek. Takt von 65% auf 99% und wieder auf 65% und das immer so weiter...
 
Zuletzt bearbeitet:
Desto mehr Werte ich mir angucke, desto mehr glaube ich, dass man unsere "Messgeräte" oder zumindest meines, mal messen sollte :rolleyes:
Wenn die normale 7950 V2 (925MHz) im Furmark schon 266W ziehen kann, dann wird das mit +85MHz bestimmt nicht weniger sein :lol:

edit: Hast du auch Sprünge beim GPU-Takt? Wenn ja, dann erhöhe mal das Powertunelimit.
 
Die Sprünge lagen wohl am Fenster-Modus. Eben in Fullscreen gab es keine Sprünge mehr, im OSD waren es 50 - 60% GPU-Auslastung und im Monitoring waren auch keine Sprünge mehr.

Es wäre vielleicht nett/schön, wenn jemand der die Gigabyte mit dem Vcore-Lock hat, mal seine Verbrauchswerte posten würde.

So hat man ja keine Vergleichswerte.

Edit:

Hatte in Skyrim diese GPU-Auslastungs Sprünge (aber nur im Monitoring) im OSD waren keine Sprünge zu sehen,aber der Takt ging immer von 1000 & 900 hin und her (aber nur alle paar sek.).
Habe dann das Powerlimit auf 20 gestellt, und nun ist meine GPU-Auslastung immer auf 99%. Ist das normal??
 
Zuletzt bearbeitet:
Ich hab genau die selbe Karte.
Also ich komme mit dem System in der Sig auf maximal 300 Watt für den gesamten PC. (getestet über 1 Monat, 300 Watt ist der Wert, den mein Messgerät als absolutes Maximum registriert hat)

Im Gegensatz zu meiner HD5850 hat sich wenig geändert, bis auf die Tatsache, dass der Gesamte PC im Idle (wenn der Monitor aus geht) dank Zero Core power nur noch halb so viel strom verbraucht. Vorher ca. 100 Watt, jetzt 50 und teilweise sogar kurzzeitig 20-30 Watt.

Wenn ich mich richtig erinnere hat mein System mit ner HD5850 maximal so ca ~250 Watt gezogen.


Von anderen BIOS versionen würd ich die Finger lassen, da dann in einigen Benchmarks die Leistung sinkt. Sprich, da stimmt wohl was nicht mit der korrekten Auslastung der Karte.

Ich hab den Lüfter auf maximal 50% Drehzahl begrenzt und die maximale Temperatur geht nicht über 70°C. Meine HD5850 war lauter und wärmer. Von den damaligen Geforce 8000 Chips braucht man ja gar nicht erst reden. Da waren 90-100 ^C GPU Temperatur normal....

Zudem sind die OC ergebnisse die andere mit der Karte bei weniger Spannung erzielen nicht allgemein übertragbar. OC und das Ausloten von Takt und Spannung abhängig von der Güte des Chips ist was ganz anderes, als ne Massenfertigung, in der alles zu funktionieren hat. Klar, dass hier auf ne höhere Spannung gesetzt wird, um den betrieb bei den 1GHz takt für jeden Chip zu gewährleisten. Zudem ist der Kühler gut genug, um die Wärme bei niedriger Drehzahl in Griff zu kriegen.



Satsujin schrieb:
Nun machst du das gleiche Spiel mit dem Speicher. Dabei brauchst du nicht unbedingt ans Limit gehen, denn Speicher-OC bringt bei den 79XX so gut wie nichts. Ich selber lasse meinen Speicher nur auf 1400MHz laufen, weil ob 1400-1450-1500MHz ist gehoppst wie gesprungen :)

Speicher OC bringt schon was. Bei meiner Karte ist z.B. bei mehr als 1080 MHz schon schluss (deshalb 1075 MHz Kerntakt). Dadurch konnte ich in den meisten Spielen nur entsprechend 5-7% mehr Leistung rausholen. Dadurch dass ich jedoch den Speicher auch noch übertaktet habe 1500 MHz = 20% mehr. Konnte ich im schnitt die Leistung durch mein OC insgesamt um 10 bis maximal 15 % anheben. Besonders in Crysis 3 kam ich in vielen Szenen von z.B. 42 FPS auf 48 FPS, was beachtlichen 15% Steigerung gegenüber dem standard OC entspricht.

Ich war ja erst sehr enttäuscht, dass die Karte nichtmal 100 MHz mehr Takt mitmacht. Das VRAM OC war bei mir aber dann der "schlüssel" zu nem anständigen OC Ergebnis. Sicherlich geht der Speicher noch weiter, hab ich noch nicht getestet. Allerdings will ich es hier nicht übertreiben, da der VRAM allgemein sehr empfindlich auf zu starkes OC ragieren kann und daher schnell mal kaputt geht.... Zudem will ich nicht höher als 50% Lüftergeschwindigkeit gehen. Ich würde niemals mehr Lautstärke für mehr Takt in Kauf nehmen. ;-) Wobei so ein 1200/1500 OC schon was richtig feines wäre. Die 7970 GHz würde dann wohl die Rücklichter sehen.^^
 
Zuletzt bearbeitet von einem Moderator:
@Laggy.Net

Wir beide haben ja fast das gleich System. CPU, GPU, MainBoard ist das gleiche.

Was hast du denn für ein Verbrauch beim zocken? Alle Spiele (Far Cry 3, Bioshock Infinite, Tomb Raider, Skyrim) ziehen bei mir 220 bis 275 (in Spitzen) Watt aus der Dose
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Speicher OC bringt schon was.

Ich habe nie behauptet das Speicher OC gar nichts bringt, sondern wollte damit (1400-1450-1500MHz) nur ausdrücken, dass extremes Speicher OC so gut wie nichts bringt. Bei extremen GPU-Takt kann das aber auch wieder anders aussehen, was ich aber mit meiner Karte nicht testen kann, da bei 1175MHz Feierabend ist (bei 1.25V) und bei dem GPU-Takt machte es noch keinen spürbaren Unterschied, ob der Speicher nun mit 1500MHz oder nur mit 1400MHz läuft.

Die Unterschiede waren ca. so, wie sich eine XFX 7950 DD BE (900/1375MHz) von der Konkurrenz mit 900/1250 absetzt, nämlich im 0,X FPS-Bereich :)
XFX vs. Asus vs. Sapphire
 
@Satsujin

Also IMHO macht es schon nen Unterschied soo gering ist der Unterschied nicht:

Bioshock Infinite Integrated Benchmark (settings: 2,2,1,4 = Ultra DX11 DoF, 16:9, 1920x1080)

900/1250 : 58 FPS (HD7950 Boost)
1000/1250 : 62 FPS (HD7950 Gigabyte)
1075/1250 : 64 FPS
1075/1400 : 66 FPS
1075/1500 : 68 FPS (Die 7970 GHz schafft 69 FPS laut PCGH)

Ergebnisse sind nur leicht gerundet (maximal +/- 0,2 FPS)

Wie man sieht, macht zwei drittel des gesamt Performance Gewinns des OC bei mir nur der Speichertakt aus!

Mit Core Takt und Standard Speicher Takt kommen 3,5% mehr Leistung raus, wenn ich zusätzlich den VRAM Takt erhöhe komm ich auf insgesamt 10% mehr Leistung. Klar, der Sprung von 1400 auf 1500 ist in absoluten Zahlen nicht mehr viel, aber es sind immerhin 3%, was genauso viel ist, wie bei mir das OC des Core Taktes.

Und wie gesagt, wirkt sich das ganze in Crysis 3 noch stärker aus. Klar, das mag von Spiel zu spiel ganz unterschiedlich sein. Aber am VRAM takt sollte man nicht aus dem Gedanken "bringt eh nicht viel" sparen. Von deinen 0,X FPS ist da jedenfalls wenig zu sehen. ;-)





So, zurück zum Thema. Hab grade nochmal genau nachgemessen und jetzt noch Monitor, LED Lampe und Lautsprecher rausgerrechnet sind immerhin 40 Watt. Die hatte ich vorher nicht berücksichtigt. Sorry.

Hab das ganze mit Standardtakt gemessen (1000/1250)

Bioshock Infinite Benchmark: Max 245 Watt
Tomb Raider Benchmark: Max 230 Watt

Mit OC und Powertune +20 sinds jeweils ca 10 Watt mehr.
 
Zuletzt bearbeitet von einem Moderator:
Also ich glaube so langsam, das mit meiner Graka was nicht stimmt....

Bioshock Infinite Benchmark: max. 278 Watt (das sind nur 12 Watt weniger, als wenn ich mit Furmark & Prime95 Vollast erzeuge = 290 Watt)

Tomb Raider Benchmark: max. 264 Watt

Bei beiden Benchmarks hatte ich alles auf höchste Einstellungen. Außerdem springen GPU-Last und Takt immer hin und her.
Das kann man ja mit MSI-Afterburner Power-Limit auf 20 lösen, aber dann zieht sie mir ja noch mehr Strom....max. 287 Watt

Deine Werte erreiche ich, wenn ich die Taktraten auf 800/1000 runtersetze.
 
Zuletzt bearbeitet:
Zurück
Oben