Offizieller HD7970/7950 Overclocking/Undervolting Thread

tgp001 schrieb:
VRM Temperaturen und artefaktfrei in bspw. Max Payne 3 (ist das sehr empfindlich)?

VRM Temps kann man beim Referenzdesign wohl nicht auslesen. Ich hab aber Wakü drauf, sprich, die liegen definitiv im grünen Bereich. ;) (Edit: Hab die GPU-Z Version geupdatet, jetzt gehts, ich guck gleich mal).
Die Karte müsste auf den Settings von dem Screen auch stabil so laufen, ich habs allerdings nicht direkt getestet, sondern erstmal weiter gebencht. Was dabei rumgekommen ist, seht ihr im Anhang.
Dann habe ich direkt die zweite Karte eingebaut, die macht aber leider nicht mal 1,2GHz bei 1,3V mit (GHz Edition Vapor-X). Damit habe ich dann mal einen Vantage im Xtreme Preset laufen lassen.

Mich juckts in den Fingern, von der Spannung noch höher zu gehen, aber ich find keine Möglichkeit dazu. Die Sapphire kann das sowieso ab, bei dem Custom-PCB und zum Benchen würde ich das meiner Non-GHz@Wakü auch antun. Gibts da ne Möglichkeit abgesehen vom Flashen des Matrix-BIOS?


Edit: http://www.hardwareluxx.de/communit...e-lesen-860456-post18657202.html#post18657202
Jetzt isse freigeschaltet :)
 

Anhänge

  • Valley_DX11.jpg
    Valley_DX11.jpg
    275,1 KB · Aufrufe: 578
  • VantageX_MGPU.jpg
    VantageX_MGPU.jpg
    263 KB · Aufrufe: 537
Zuletzt bearbeitet:
Habe die Gigabyte 7950 WF2 V2, meine alte die defekt war und von HWV ausgetauscht wurde machte so 1100Mhz Core clock mit danach gab es Grafik Fehler die neue macht jetzt 1200MHz ohne Fehler mit. VCore ist leider locked aber solang es so läuft werde noch Afterburner heute freischalten und schauen wie weit ich so gehen kann.
 
Spawa-Temps lagen bei meiner übrigens bei 51 bzw. 60°C bei 1,33V durch nen kurzen Benchmark. Ungefähr so auf dem Niveau befinden sie sich auch, wenn ich mit meinen Alltagssettings 1250/1600@1,2V längere Zeit spiele.

Bin gerade dabei, Settings zu testen, bei denen ich die Leistung nicht so brauche. Dafür habe ich mir erstmal 1050/1500 vorgenommen, also das GHz-Niveau, das reicht ja auch für das meiste.^^ Bisher bin ich bei eingestellten 1,025V (real ~0,98).
 
Zuletzt bearbeitet:
Euphoria schrieb:
Ok einfachste Möglichkeit ist es wohl einen Monitor an die IGP anzuschließen (falls vorhanden)
Dann wird der nicht von der Grafikkarte "erkannt"
Ist jedoch nur sinnvoll, wenn man sowieso nur auf einem Bildschirm spielen möchte.

Leider hat sich ein unschöner Nebeneffekt herausgestellt. Software wie z.B. Photoshop funktioniert nicht auch BluRay Wiedergabe geht nicht.

Hat denn wirklich niemand eine Idee wie man 2D Takraten bei einer HD 7950 senken/erzwingen kann (im Multimonitorbetrieb)
40 Watt mehr im Idle ist einfach nicht hinnehmbar.
 
Die sind nunmal höher wenn du nen zweiten Monitor anschließt. Da gabs mal bei der 5000er Serie nen Problem mit Bildflackern, weil die höheren 2D Taktraten manchmal nicht vernünftig übernommen wurden, wenn du nen zweiten Moni dranhattest.
Um das Signal über einen zweiten Anschluss rauszukriegen ist in diesem Fall ein weiterer Taktgeber notwendig, und um den zu befeuern braucht es wohl höhere Taktraten, nehme ich an ;) Bin mir auch nicht mehr ganz sicher, ist schon ein paar Jährchen her, aber irgendwie so wars... Jedenfalls, selbst wenn du die Taktraten erzwingen würdest, würde es wohl relativ bald zu Bildfehlern und -flackern kommen, daher würde ich den Mehrverbrauch lieber akzeptieren. Stell meinetwegen die Helligkeit von dem Monitor etwas runter dann haste auch deine 20W gespart^^
 
Problem ist nur, dass es sowohl mit 4870, als auch mit 5830 ohne Probleme mit ATI Tray Tools funktionierte die Taktraten auf 150/200 runterzuregeln.
Jetzt regeln ja die GPU ordentlich auf 300 MHz runter, nur der Speicher bleibt bei voller Leistung, was halt den riesigen Stromverbrauch verursacht.
Ich hatte noch nie von solchen Problemen gehört, es funktioniert ja auch.
Mur finde ich keine Möglichkeit das dauerhaft zu machen bzw. den automatischen Wechsel zwischen 2D und 3D. Es hatte mal mit AfterBurner funktioniert, soweit ich das lesen konnte aber kanns nicht nachvollziehen wieso die Option nicht angezeigt wird.
Deswegen frage ich die Community, weil da die Erfahrungen sicher größer sind und jemand vielleicht doch einen Weg finden konnte.
 
Zuletzt bearbeitet:
hmm, also ich hatte bei der 5770 und der 6870 das gleiche "problem". ist ja auch eigtl. bekannt, dass AMD im multimonitor mehr verbraucht,
NV hat das irgendwie besser gelöst. anfangs hatte der afterbruner bei den 7000ern nen bug (zumindest bei mir), dass taktraten auf 300/150 im 2D bei multimonitor gesenkt wurden. effekt war: das bild fängt an zu flackern und der monitor schaltet sich ab.

ich deaktivier meinen tv im CCC solange ich ihn nicht brauche. sind dann zwar immer wieder 5 clicks, die ich machen muss, aber daran störe ich mich nicht.

der einzige weg, den ich kenne, wäre eine bios mod.
 
Nein, ein BIOS Mod ist nicht die Lösung, da Multi Monitor Taktraten nicht im BIOS gespeichert sind ..... :( leider

Die Einzige Lösung dagegen ist nur Displayport Anschlüsse zu verwenden!

Aber wie gesagt, 150/300 funktionieren auch im 4 Monitor betriebt mit 2x DP +HDMI->DVI+DVI problemlos mit einer HD7970. Ich hab nur keine Ahnung wie ich das hin bekomme....


btw Alienate.Me, schon mal versucht mit AMD CCC PreSets ?Ich hab mit einer Tasten Kombi Wechsel von 4 auf 1 Monitor, sollte auch für den externen gehen oder ?
 
Hilft wirklich DP zu verwenden? :o
Habe davon noch nie was gehört.
Das wäre nämlich die Lösung, da meine Monitore DP haben :P
Müssen dann dafür beide Monitore über DP angeschloßen sein?
Ich müsste mir nämlich erst ein Mini DP -> DP Adapter + Kabel besorgen.
 
oh, dann hab ich wohl mist erzählt ^^ dachte, man könne das im bios umschreiben.

ist ja wirklich ein wunder bei dir, kann man dich beneiden :)
sobald bei mir der speicher auf 150 runter geht, wird der monitor schwarz, sobald ich fenster verschiebe :/

thx, für den tipp mit dem voreinstellungen ;) habe ich noch nie beachtet im CCC und jetzt ists wieder ein stück komfortabler :)
 
@Haldi
Ok danke für die Info, habe nur 2 Monitore, deswegen sind es für mich "Alle" :D
Ich werd mir dann mal die Tage die Kabel und Adapter bestellen und das ganze testen :)

Dann ist aber die Frage, rein theoretisch wird ja dann kein HDCP und keine BluRays funktionieren, da bei AMD ja immer der Dual Link DVI dieses unterstützt und auch bei meinen Monitoren nur DVI Anschluss das beherrscht (Dell U2312HM)
 
Zuletzt bearbeitet:
Dumme Frage auf die ich bis jetzt noch keine Antwort gefunden hab:

Wenn ich meine 7970 HIS IceQ Turbo von Stock auf irgendein OC bringe (MSI Afterburner, Haken bei "OC@Startup laden" ist drin), verliert die Karte die Einstellungen nach wenigen Minuten unter 3D Last. Also es stürzt nix ab, aber im GPU-Z sehe ich dann einfach, dass der Takt wieder auf stock ist.

Bin neu bei OC, haut mich nicht :(
 
bleibt der OC takt stabil, wenn du das power limit erhöhst?
 
Hallo zusammen ich hab leider auch einen griff ins klo gemacht mit der 7950 von gigabyte als rev.2 also vcore locked.
Nun habe ich heute mal gemessen wie so der verbrauch ist.
Ich habe 1150/1250 getaktet und ein idleverbrauch von 100 watt wenn ich jetzt der graka richtig auf die ketten gehe also 99% last laut gpu-z komme ich auf einen verbrauch von 400 watt das macht also 300 watt nur für die 7950 das find ich etwas viel zumal ich noch eine bestellt habe.
Was zum henker hat sich gigabyte daei gedacht den vcore zu locken?!

Wie sind eure erfahrung so zum stromverbrauch?
Mfg sepp
 
Zuletzt bearbeitet:
@Sepp2303

ich hatte auch diese Graka mit dem Vcore-Lock und hatte bei meinem System in Games einen max. Verbrauch von 290 Watt, das mir auch zuviel war. Mit meiner HD-5870 kam ich auf höchstens 190 Watt.

Hier mal mein Problem-Thread mit der Karte:

https://www.computerbase.de/forum/threads/neue-graka-fuer-skyrim-mit-hd-texturen.1203735/

Habe diese Karte dann zurückgeschickt und mir diese gekauft:

http://www.heise.de/preisvergleich/msi-r7950-tf-3gd5-oc-be-twin-frozr-iii-v276-031r-v276-044r-a901037.html

Die hat kein Vcore-Lock und läuft bei mir mit 1000Mhz@1,044V und komme nun auf ein Gesamt Verbrauch von max. 200 Watt. Also bis zu 90 Watt weniger als mit der Gigabyte.

Die neuen Gigabyte WF3-Modelle finde ich daher auch nicht mehr als empfehlenswert.
 
Zuletzt bearbeitet:
Zurück
Oben