Neue Graka für Skyrim mit HD-Texturen

  • Ersteller Ersteller Painkiller71
  • Erstellt am Erstellt am
Was meinst du mit hin und her springen? Geht s runter auf den 2D Takt oder nur runter auf 900 MHz? So oder so, normalerweise sollte die Karte im 3D Modus konstant mit 1000 MHz takten, da sie keinen Boost oder ähnliches hat. 3D Modus = 1000 MHz, da gibts eigentlich nix dran zu rütteln. Wenn die runtertaktet, obwohl sie unter Last ist und nicht zu heiß wird stimmt in der Tat etwas nicht.


EDIT: Wie siehts eigentlich mit der reinen Leistung aus? Kommst du z.B. im Bioshock Infinite Benchmark auch auf die 62 FPS?

Wenn du testest, nutze im Benchmark bitte nacheinander die Optionen 2,2,1,4. Denn wenn du deine eigenen Einstellungen übernimmst (auch wenn die schon auf maximum sind) unterscheiden sich zumindest bei mir die FPS. gegenüber dem integrierten preset.
 
Zuletzt bearbeitet von einem Moderator:
Da du einer von wenigen bist der diesen Standpunkt vertritt, muss man ich da schon ein bissel dran rütteln. Sorry vorweg! :D

Hast du Screenshots zu den Zahlen, sind das Mittelwerte oder von jeweils einem Durchlauf? Ich habe leider kein Bioshock Infinite, ergo kann ich den Benchmark auch nicht selber laufen lassen :(

Wie erklärst du dir, das man mit relativ geringen Speichertakt meistens vergleichbare Ergebnisse bekommt. Einfach mal zwei Beispiele mit frei zugänglichen Benchmarks (;)).

Aktuelle 3DMark
7950 mit 1175/1800MHz = Graphics Score 8350
7950 mit 1175/1450MHz = Graphics Score 8308

Das sind 24% mehr Speichertakt, aber das Ergebnis ist nur um 0,5% höher = Messtoleranz.

Heaven 4.0
7970 Matrix Platinum 1200/1650MHz: Ergebnis 934, AVG FPS 37,1, Min. 14,5 FPS Max. 87,8 FPS
Anhang anzeigen 326147

Gigabyte 7950 WF3 1175/1450MHz: Ergebnis 936, AVG FPS 37,2, Min. 21,2 FPS Max. 78,0 FPS
Heaven 4.0.jpg

Die 7970 hat 2% mehr Kerntakt, 13,8% mehr Speichertakt, 4 Compute Units mehr, aber die Max. FPS sind nur um 12,6% höher wovon der Hauptanteil sehr wahrscheinlich durch die 4 Compute Units und den 25MHz Kerntakt kommt.

Ich bin gerne Bereit auch noch andere Benchmarks laufen zu lassen! Vorschläge? :)

edit:
Laggy.NET schrieb:
So oder so, normalerweise sollte die Karte im 3D Modus konstant mit 1000 MHz takten, da sie keinen Boost oder ähnliches hat.

Aber sicher doch :)

Gigabyte schrieb:
Core clock OC to Base 900/ Boost 1000 MHz
http://www.gigabyte.de/products/product-page.aspx?pid=4121#ov
 
Zuletzt bearbeitet:
@Laggy.NET

Der Takt springt im OSD immer von 1000Mhz auf 900Mhz und zurück.
Die GPU-Last springt auch immer zwischen den Werten 100% und 55% hin und her. Die GPU-Temp ist 57 Grad.

Und jetzt nochmal den Benchmark nach deinen Vorgaben gemacht (Bioshock Infinite):

Es gibt ja 2 Durchläufe, beim ersten habe ich dann max. 277Watt und pendelt dann extrem zwischen 233 - 277Watt hin und her.
Beim zweiten habe ich max. 250 Watt

Die FPS liegen zwischen 33fps - 85fps.
 
OK, dass die offiziell nen Boost haben soll ist mir wirklich neu. Selbst bei gedrosseltem Lüfter und 80°C Temperatur hat die noch NIE also wirklich noch kein EINZIGES mal mit 900 MHz getaktet. Ich habe immer zu jeder Zeit den eingestellten Takt anliegen.
Würde die rauf und raunter takten, wie für ne boost edition üblich, wäre mir das ja anhand des Afterburner aufgefallen. Aber der zeigt IMMER nen geraden strich beim Taktverlauf an.


Und nun ja. Die Benchmarks. Ich kann dir ja mal Screenshots schicken. Bei Crysis 3 ist das wegen fehlender Benchmarkoption natürlich schwieriger zu bewerkstelligen. Aber mir wärs zumindest den Aufwand wert, dass ich von zwei Savegames exakt an der Stelle einmal mit standardtakt und einmal mit OC Takt screenshots mit FPS anzeige mache. Vielleicht hab ich ja ne "wunderkarte" nun, mir ist das ja furz pips egal, wie man sichs erklärt. Was zählt sind die FPS, die am Ende rauskommen und die sind nicht erfunden.


Edit: Hier die Screenshots.
Default.pngOC.pngC3 Default.jpgC3 OC.jpg

In Crysis 3 18 % mehr Performance gegenüber dem Standardtakt von 1000/1250. Zudem sieht man in den Bioshock Benchmarks schön den Verlauf des Taktes. Es gibt da schlicht zu keiner Zeit weder rauf noch runtertakten.
Ich finde die Werte ja selbst sehr erstaunlich, aber es ist nunmal Tatsache.
 
Zuletzt bearbeitet von einem Moderator:
So, habe eben mal das FX1 BIOS von der Gigabyte Homepage auf die Karte geflasht, in der Hoffnung das es vielleicht was bringt... Aber leider hat sich nix geändert.

Werde die Karte wohl zurückschicken (14 Tage Rückgaberecht), da mir der Stromverbrauch zu hoch scheint, und die Taktrate auch nicht stabil bleibt.

Edit:

So sieht es bei mir aus mit Bioshock Infinite:

Screenshot (2).pngScreenshot (3).png
 
Zuletzt bearbeitet:
@Laggy.NET

Danke für Screenshot, aber hey, du vergleichst da ja deine Max. OC Werte, mit den Werkstakt! Das der Unterschied so größer ist, ist doch klar :D
Kerntakt sollte bei beiden gleich sein und dann vergleiche mal 1400MHz mit 1500MHz Speichertakt. Würde mich stark Wundern, wenn die 100MHz da noch was reißen.

@Painkiller71

Zurückgeben? Bei welcher Karte glaubst du denn, dass du da sparsamer bei wegkommst?

Hast du einen Catalyst schon mal einfach drüber gebügelt? Bei mir gab es deswegen mal Probleme mit Taktschwankungen und nach einem sauberen deinstallieren und neuinstallieren, hielt die Karte den Takt wieder ohne Probleme :)
(Ein normales deinstallieren hatte nichts gebracht, erst als ich mit dem AMD-Tool deinstalliert habe, hatte ich keine Probleme mehr!)
 
@Satsujin

Ja klar, alles schon gemacht.
Aber es muß ja ein Grund haben, warum das System von Laggy.NET über 30Watt weniger benötigt als meines, denn wir haben bis auf den RAM und SSD exakt dasselbe System (CPU, Graka, Mainboard)....
Außerdem kannst du ja auch an meinen Bildern sehen das ich extreme schwankungen in GPU-Last unf Takt habe, die bekomme ich zwar mit Power Limit auf 20 weg, dann zieht sie aber auch wieder 10 Watt mehr.

Das heißt, mein System hat mit Furmark & Prime95 290Watt Verbrauch.
Diese 2 Testprogramme sollen ja das System voll auslasten und soll so im normalen Betrieb nicht vorkommen.

Wenn ich jetzt ein Game zocke (egal welches) komme ich teilweise auf bis zu 281Watt, was nur 9Watt unter Vollast bedeutet, und meine CPU hat auf allen 4 Kernen nur max 50%.

Da muß doch irgendwas nicht stimmen...bzw. die Graka zieht unnötig Leistung. Warum und wieso weiß ich nicht....
 
Zuletzt bearbeitet:
@Satsujin

Mit 1075/1400 komm ich an der Stelle ziemlich exakt auf 47 FPS. Der VRAM Takt wirkt sich in dem Spiel wirklich 1:1 auf die FPS aus.

1400 -> 1500 Mhz = 7% mehr Takt
47 FPS -> 50 FPS = ~6,5% mehr FPS

Und im Grunde sollten die ersten Screenshots ja auch schon deutlich zeigen, wie viel der Speichertakt ausmacht. Mit nem GPU OC von +75 MHz, sind rechnerisch maximal 7.5 % mehr FPS möglich. Folglich können die restlichen 7,5% EDIT: es wären 10,5% nur vom Speicher kommen.


@Painkiller71

Nun, 30 Watt sind eigentlich wirklich nicht viel. Je nach effizienz des Netzteils, verbauten Lüftern, deren Drehzahl und Anzahl der Festplatten können sich die Werte schon mal unterschieden.

Klar, der schwankende Takt ist so ne sache. Ich kann nur sagen, was ich mit meiner Karte beobachte. Kann ja auch gut sein, dass Gigabyte mittlerweile wieder was am BIOS geändert hat. Weis man ja nicht. Im endeffekt musst du wissen, was du machst. im Grunde kannst du aber nichts verlieren, wenn du eh in den 14 Tagen rückgaberecht bist, kanns ja mit ner neuen nur besser werden ;-)
 
Zuletzt bearbeitet von einem Moderator:
@Painkiller71

Du hast 6 Festplatten mehr verbaut, oder eine Hand voll Lüfter mehr drin, oder Peripherie die ordentlich frisst, schlechteres Netzteil verbaut, oder einen zweiten TFT angeschlossen (ach halt das ging ja nicht :evillol:), oder, oder, oder...

Okay wenn du den Treiber schon mal mit dem AMD-Tool deinstalliert hast, dann gehen mir die Ideen aus :(
Wie sieht bei "nur" +5% aus?

@Laggy.NET

Ein Fall für Scully und Mulder!!!
 
Hier nochmal ein Log von GPU-z.

Wie man sieht springen GPU Core Clock, GPU Load und VDDC immer munter hin und her.
Das kann so doch nicht gedacht sein...

Screenshot (4).png
 
Mich macht hier weniger der GPU Takt sorgen sondern viel mehr die Auslastung der GPU. Die sollte eigentlich immer bei 90-100% sein. Bei dir geht die Auslastung jedoch teilweise auf unter 10%. Da läuft gewaltig was schief.


Satsujin schrieb:
@Laggy.NET

Ein Fall für Scully und Mulder!!!

Was willst du mir denn damit sagen? ^^
Ich wär ja dafür, dass wir das Thema einfach lassen, gehört schließlich nicht hier her. Wollte ja nur zeigen, dass das VRAM OC in einigen Spielen genauso wichtig ist und genauso gut skaliert wie das GPU OC.
 
Zuletzt bearbeitet von einem Moderator:
@Painkiller71

Hast du die Schwankungen in der Auslastung in jedem Spiel?

Laggy.NET schrieb:
Was willst du mir denn damit sagen? ^^

Das ich das ganze mysteriös finde und weiter untersucht werden muss.
Nur heute nicht mehr, da ich schon längst am MWO daddeln bin :freaky:
 
So, hier mal von Tomb Raider.

Was meint Ihr, ist das so in Ordnung oder eher nicht??

Screenshot (5).jpg
 
Ne normal ist das nicht. Nur woran das liegt, ist eine interessante Frage. Das es an der Karte liegt, kann ich mir nur schwer vorstellen, eher Software (wie zb. Afterburner), GPU-Bios, oder eine olle Stromsparfunktion.
 
Er hat doch schon geschrieben, das es weg ist wenn er das Powerlimit erhöht. Das scheint bei manchen Karten auch ein Problem sein , da es ja viele hier im Forum andauernd die Frage stellen wie sie das wegbekommen. Scheint nicht bei jeder so zu sein ( bei mir ist es nicht ) aber ab und zu....
 
Painkiller71 schrieb:
@Laggy.NET

Und jetzt nochmal den Benchmark nach deinen Vorgaben gemacht (Bioshock Infinite):

Es gibt ja 2 Durchläufe, beim ersten habe ich dann max. 277Watt und pendelt dann extrem zwischen 233 - 277Watt hin und her.
Beim zweiten habe ich max. 250 Watt

Die FPS liegen zwischen 33fps - 85fps.

Habe jetzt meine Vapor-X HD 5780 wieder eingebaut, und den Benchmarktest von Bioshock Infinite gemacht, dort liegt jetzt der Verbrauch bei max. 207Watt. also 70 Watt weniger.

Dann habe ich Tom Raider gespielt, und dort liegt der Wert bei max.177 Watt, das sind bis zu 100 Watt weniger. Wenn ich das Power Limit auf 20 gestellt habe, um die GPU und Taktsprünge bei der 7950 loszuwerden, zog sie sogar bis 281 Watt (immer der gesamt PC-Verbrauch)

Warum und wieso die Gigabyte HD-7950 WF3 soviel zieht, weiß ich nicht und läßt mich vermuten, das mit der irgendwas nicht in Ordnung sein kann.

Und hier noch mal ein GPU-z-Log von Tomb Raider mit der 5870, dort gibt es keine Sprünge, und schließe daher andere Hard/Softwareprobleme aus.

Screenshot (6).jpg
 
Zuletzt bearbeitet:
Ich habe jetzt dem Gigabyte-Support mein Problem gemeldet, und warte ab was die sagen. Wenn die das Problem nicht lösen dann geht die Graka eben zurück.
Weiß nur nicht ob ich die gegen eine "andere" 7950 tauschen soll, oder evtl. die 660 Ti....

EDIT:

Letzte Frage.

Ich habe jetzt mit Power Limit auf 15 keinerlei Sprünge mehr im GPU-Last und Takt. Desweiteren ist beim Watt-Verbrauch zu beobachten, das der relativ konstant ist.

Die Frage die ich mir stelle, ist jetzt, ob ein Mehrverbrauch von bis zu über 100Watt gegenüber der HD-5870 "Normal" ist, es kommt mir einfach zuviel vor:

Tomb Raider HD-5780 = max.177 Watt

Tomb Raider HD-7950 = max.265 Watt

Bioshock Infinite HD-7950 = max.280 Watt
 
Zuletzt bearbeitet:
Painkiller71 schrieb:
Die Frage die ich mir stelle, ist jetzt, ob ein Mehrverbrauch von bis zu über 100Watt gegenüber der HD-5870 "Normal" ist, es kommt mir einfach zuviel vor:

Wenn ich mir die Daten von HT4U so angucke, dann wird das schon in Ordnung sein. Deine OC 7950 ist fast 70% schneller als eine 5870 (2GB), brauch aber "nur" gute 40% mehr Strom dafür.
Du darfst nicht vergessen deine 7950 auf Leistungsniveau einer Standard 7970 und die kann unter Volllast mal eben 295W aus der Dose ziehen.

Sicherlich zieht eine 660TI weniger Strom, hat dafür aber auch eine ganze Ecke weniger Leistung. Das ist eher der etwas schnellere Pendant zur 7870.
 
Ok, wenn das denn so ist mit dem Verbrauch, dann kann ich mich ja auf eine saftige Stromrechnung nächstes Jahr "freuen" :( da ich relativ viel zocke....

Hauptsache ist erstmal, das es so stimmt und die Graka keinen "defekt" hat.

Satsujin schrieb:
Du darfst nicht vergessen deine 7950 auf Leistungsniveau einer Standard 7970 und die kann unter Volllast mal eben 295W aus der Dose ziehen.

LLastet Furmark nicht die Karte voll aus??? Denn da habe ich 260 Watt in Games habe ich aber mehr, das finde ich ja so merkwürdig....
 
Zuletzt bearbeitet:
Zurück
Oben