Sapphire Vapor-X Radeon HD 4870, 2048MB GDDR5

Also du kannst im CCC (treiber center von ATI) Die taktraten ganz nachunten stellen (wie ichs mache) den Lüfter einstellen (obwohl den hört man eh nicht) und dann noch n Performence Profiel....

Das CCC startet immer mit dem zuletzt ausgewälten profiel !

Ich habe es so gemacht (tastenkomination-CCC)


Windows = 500Mhz - 450 Mhz = CTRL+ALT+W (für windows betrieb)

Game= 790Mhz - 1020Mhz = CTRL+ALT+G (für Game betrieb)


Jeoch macht die Spannung nichts ! (die spannung der Graka bleibt !)

Als bsp.

Windos ist gestartet... du bist im W-profiel, du möchtest nun ne Runde GTA4 ode sowas zocken = CTRL+ALT+G, kurzer refresh des Bildes und fertig.... du bist fertig mit GTA4 = CTRL+ALT+W, wieder kurzer refresh des bildes fertig. (der refresh ist wirklich fast unbemerkbar) DAS IST SCHON ALLES, bei nächsten Start wird dann dein W-Profil geladen.

Ich denke dadurch hast du sicherlich ERSPARNISS denn : STROM = Abwärme = die Karte ist im W ca. 10°C kühler, wennn nicht mehr....

mfg Asus... Falls du noch fragen hast frag^^;)

EDIT: 176Watt gesammtes system... mit 48701GB jedoch wurde da ein Quad verwendet ! mit meine Trick sparst du sicherlich 20-30WATT !, heiss das gesammte system würde mit Quad = 145Watt saugen.... kommt der Nvidia gleich oder verdammt nahe !

EDIT2: ICH mach dir n clip vom Refresh wenn du willst ! ?
 
Zuletzt bearbeitet:
@TE

Hallo, ich will dir die Karte ja nicht aufzwingen aber...

https://www.computerbase.de/2009-01/test-nvidia-geforce-gtx-285-sli/23/#abschnitt_leistungsaufnahme

Schau noch mal auf dieser Liste ! ich orientier mic hdanach dort habe ndie 260er, alle weit über 100Watt... Also insegsammt ! Die 1GB ATI dort kannst du zum vergleich nehmen - die 20-30Watt...

Aber wenn ich ehrlich bin würde ich die GTX260 sowieso behalten, die is TOP !

mfg Asus, Grüsse aus Luzern :p

EDIT: habe ganz vergessen um was es hier geht ! willst du u.a. ne neue CPU ?
 
y33H@ schrieb:
Falsch, dass ist die TDP. Real schluckt die Radeon deutlich mehr.
Im Idle? Unter normaler Spielelast? Mit Furmark? Im Vergleich zur TDP?... Sorry, aber nur mit "Real schluckt die Radeon deutlich mehr.", kann man fast nichts anfangen.

.xXASUSXx. schrieb:
Also du kannst im CCC (treiber center von ATI) Die taktraten ganz nachunten stellen (wie ichs mache) den Lüfter einstellen (obwohl den hört man eh nicht) und dann noch n Performence Profiel....

Das CCC startet immer mit dem zuletzt ausgewälten profiel !

Ich habe es so gemacht (tastenkomination-CCC)


Windows = 500Mhz - 450 Mhz = CTRL+ALT+W (für windows betrieb)

Game= 790Mhz - 1020Mhz = CTRL+ALT+G (für Game betrieb)


Jeoch macht die Spannung nichts ! (die spannung der Graka bleibt !)

Als bsp.

Windos ist gestartet... du bist im W-profiel, du möchtest nun ne Runde GTA4 ode sowas zocken = CTRL+ALT+G, kurzer refresh des Bildes und fertig.... du bist fertig mit GTA4 = CTRL+ALT+W, wieder kurzer refresh des bildes fertig. (der refresh ist wirklich fast unbemerkbar) DAS IST SCHON ALLES, bei nächsten Start wird dann dein W-Profil geladen.


Mit den ATT funktioniert das alles per Automatischer Übertaktung. Ist viel angenehmer und ziemlich leicht einzustellen. Einziger Nachteil ist, dass man automatisch nur zwischen zwei Profilen switchen kann und dann z.B. kein UVD Profil hat. Das müsste man sonst höchstens manuell aktivieren.
 
Danke Asus, werde noch a bissel abwarten, da mein Wunsch CPU noch nicht auf dem Markt erschienen ist !

Ist ein AMD Phenom II X2 550 BE, 2x 3.10GHz, boxed ! http://geizhals.eu/at/a429793.html

Ok, ok, viel sagen dass es nicht mehr lohn eine Dual Core zu kaufen, aber ich brauche Quads nicht !

Zu Surfen, Videos schauen, und ab und zu Spielen genügt mir ein X2!

Und GTA4 ist nicht mein ding !

Ich Spiel FEAR2, Rainbow Six Vegas 2 ect.ect. für solche Spiel ist eben ein X2 550 BE ausreichend und er wird ca. 90,00€ kosten !
Motherboard ist Gigabyte GA-MA790XT-UD4P und DDR3 Speicher!
 
Zuletzt bearbeitet:
Im Idle? Unter normaler Spielelast? Mit Furmark? Im Vergleich zur TDP?
Idle mehr, unter normaler Spielelast mehr, mit Furmark mehr, im Vergleich zur TDP unter Einsatz des Furmark mehr. Ergo immer mehr als die GTX260-216 wenn man so will *g*
 
y33H@ schrieb:
Idle mehr, unter normaler Spielelast mehr, mit Furmark mehr, im Vergleich zur TDP unter Einsatz des Furmark mehr. Ergo immer mehr als die GTX260-216 wenn man so will *g*

Idle stimmt, da ist AMD irgendwie faul.

Mit Spielelast wäre ich vorsichtig.
http://www.pcgameshardware.de/aid,684995/Leistungsaufnahme-Grafikkarten-56-Modelle-im-Spieletest-mit-GRID/Grafikkarte/Test/
Man erkennt deutlich, dass HD4870 mit GTX260 in etwa gleich aufliegt. Wenn man mal die ASUS EAH4870 MATRIX mit der ASUS ENGTX260 MATRIX vergleicht, so braucht die Radeon 136Watt und die und die Geforce 146Watt bei Race Driver: Grid. Hinzu kommt, die Radeon ist noch leicht übertaktet, die Geforce afaik nicht. Außerdem sind die Radeon schneller bei Race Driver: Grid, werden also sogar gut ausgelastet.

Im Furmark stimmt auch, dass die HD mehr verbraucht. Allerdings muss man das auch im Verhältnis zur Leistung bringen, sonst ist es witzlos. Da hab ich allerdings keine Ahnung, welche Karte mehr FPS macht.
 
Von den Fps auf die Auslastung zu schließen, funktioniert (oft) nicht. Im Furmark, also Synthie, geht das. Hier ist die Radeon der Geforce meilenweit voraus.

Eine 55nm GTX260-216 kommt auf 121 Watt, die erste HD4870 auf 134 Watt und wenn man alle mittelt, bleibt die Geforce sparsamer.
 
Zuletzt bearbeitet:
y33H@ schrieb:
s.Eine 55nm GTX260-216 kommt auf 121 Watt, die erste HD4870 auf 134 Watt und wenn man alle mittelt, bleibt die Geforce sparsamer.
Bei dafür aber auch weniger Fps. Aber okay, bei anderen Spielen wo die Radeons nicht so gut in den Fps abschneiden sieht es mit der Leistungsaufnahme wahrscheinlich ähnlich aus, von daher würde ich sagen, liegt es auch am Treiber. Könnten die Catalyst-Programmier nämlich in jedem Game mehr Fps bei gleichbleibender Leistungsaufnahme rausholen dürfte man theoretisch auch nicht über den geringen Mehrverbrauch unter Last meckern, denn eine Karte die mehr leistet sollte auch mehr Strom ziehen dürfen.

y33H@ schrieb:
Von den Fps auf die Auslastung zu schließen, funktioniert (oft) nicht. Im Furmark, also Synthie, geht das. Hier ist die Radeon der Geforce meilenweit voraus.
Aber dann kann man den Furmarkverbrauch zwischen Radeon und Geforce ja nicht wirklich miteinander vergleichen, da wie schon gesagt eine Karte die mehr leistet doch logischerweise auch mehr verbrauchen darf (Neue Chipgenerationen mal ausgeschlossen).
 
Lonely Shepherd schrieb:
Könnten die Catalyst-Programmier nämlich in jedem Game mehr Fps bei gleichbleibender Leistungsaufnahme rausholen
Mehr Fps sind Optimierungen die wohl mit einer besseren Auslastung einhergehen, ergo auch die Leistungsaufnahme anziehen. Sind die Optimierungen anderer Natur, hast du freilich Recht. An dieser Stelle sei aber gesagt, dass NV in den letzten Monaten mehr rausgeholt hat gegenüber den Launchtreibern.
Lonely Shepherd schrieb:
Aber dann kann man den Furmarkverbrauch zwischen Radeon und Geforce ja nicht wirklich miteinander vergleichen, da wie schon gesagt eine Karte die mehr leistet doch logischerweise auch mehr verbrauchen darf
Der Furmark wird idR auch nur als Worst-Case genommen. Vom Fps/Watt-Verhältnis her geben sich die GTX260-216 und die HD4870 nicht viel, letztere ist schneller und schluckt mehr. Und das finde ich ok - mehr Leistung darf mehr Strom saugen. Wobei mehr Fps bei geringerer Leistungsaufnahme freilich das Optimum ist.
 
Zurück
Oben