News Wird auch die Radeon HD 4830 von ATi „grün“?

ich verstehe deine ausführungen nicht so ganz. die auslastung ist doch schon ohne die theoretischen 160 * 5 gleichgroßen shaderoperationen kein problem, siehe besagten furmark. der ist auch nicht speziell auf 160 * 5 identische shader-op ausgelegt.
und das beispiel mit crysis hat auch wenig damit zu tun. ati hat hier einige prozent leistung gefunden, mit dem letzten treiber hat nv die ebenfalls gefunden (19%) und das alte verhältnis wieder hergestellt.

auch deine 70% erschließen sich mir nicht. die auslastung der 5d-shader ist bei jeder operation anders, und zwar von shader zu shader. also sind alle 160 5d-shader unterschiedlich stark ausgelastet. wie kannst du da einen durchschnittswert ermitteln? gibt es dazu irgendwelche aufzeichnungen?
 
Realsmasher schrieb:
Die Sache ist nur das in der Realität diese 100% vollast praktisch unmöglich sind.
Post #54 hast du schon gelesen, besonders den Link?
Dann zählt Bioshock wohl nicht zur Praxis, die 4% zu Furmark können nicht der ausschlaggebende Grund sein.

Realsmasher schrieb:
[...]
Das zeigt ungefähr wo wir uns heute befinden : bei ~70%.
Das Problem an deiner Rechnung ist, das du zwar zwischenzeitlich erwähnst das eine GPU aus mehr als nur ALUs besteht, es am Ende dennoch ignorierst.
 
Post #54 hast du schon gelesen, besonders den Link?
Dann zählt Bioshock wohl nicht zur Praxis, die 4% zu Furmark können nicht der ausschlaggebende Grund sein.

4% ?

gehen wir das mal anhand der 4850 durch : (ist die mit der geringsten differenz !!!)

furmark gesamtsystem(ht4u) : 266W

Furmark nur karte (3dcenter) : 148,2W

Restsystem zieht also 117,8W

bioshock ohne restsystem demnach : 139,2W


Das macht 6,47% mehr für furmark. das besagt allerdings nicht das hier die shader auf >90% laufen, da nicht nur die shader etwas von der Leistung ziehen.

Klar wird das schon dadurch das die 4890 in bioshock nichtmal gegen die alte 260 ne chance hat.


Mal ganz davon abgesehen das der test mir ohnehin suspekt ist.

bei der 4850 sollen es nur 6,5% Unterschied sein, bei der 1gb 4870 sind es satte 22,6% zwischen bioshock und Furmark.

Bei den meisten anderen 48xx sind es auch über 15%.



Das Problem an deiner Rechnung ist, das du zwar zwischenzeitlich erwähnst das eine GPU aus mehr als nur ALUs besteht, es am Ende dennoch ignorierst.

wenn die karte schneller ist als eine Nvidia Karte mit weniger Shaderleistung, woran wird dann wohl liegen ?

An den tollen ROPs der 4000er Serie ja wohl kaum ;)

Andersrum : wenn sie langsamer ist können die shader unmöglich voll ausgelastet sein, denn dann wäre sie schneller.

Einzige ausnahme wären hier sinnlosberechnungen oder unterschiedliche Berechnungen bei NV/Ati, was durch den Treiber zwar theoretisch möglich wäre, aber sicher nicht in dem Ausmaß.



Willst doch nicht ernsthaft erzählen Bioshock liefe mit >90% shaderlast auf den 4800ern wenn das Spiel darauf kriechend lahm ist.



die auslastung ist doch schon ohne die theoretischen 160 * 5 gleichgroßen shaderoperationen kein problem, siehe besagten furmark. der ist auch nicht speziell auf 160 * 5 identische shader-op ausgelegt.


gut möglich das nichtmal furmark 100% maximale Hitze erzeugen kann, aber mit 100% rechnet es sich nunmal schöner als wenn man sagt furmark hätte 90 oder was weiß ich.

Ob furmark speziell darauf ausgelegt ist (durch Sinnlosberechnungen versteht sich) kann ich nicht sagen, kenne den code nicht.

Fakt ist jedoch das es weit über jedem liegt was sich so erreichen lässt. (die komische ausnahme mit der 4850 mal außen vor, die karte hat eh kein hitzeproblem)
 
Nach meiner Hochrechnung hat bei dieser GPGPU Anwendung eine ATI Grafikkarte eine Auslastung von min.>95%. Leider gibts keine Stromverbrauchsmessungen mit der Anwendung: https://www.computerbase.de/forum/t...it-der-gpu-rechnen.426771/page-2#post-5483252
Mit einer Welle neuer GPGPU Programmen wird die Auslastung dann öfter auf 100% zugehen, so unwahrscheinlich ist das auf jeden Fall nicht!

Und wie Unyu auch schon sage, wenn es Bioshock(2007) schon schafft den Furmark Konkurrenz zu machen, was soll dann erst in ein paar Jahren ein neues Game mit der Karte machen?
http://ht4u.net/reviews/2009/msi_r4830_t2d512/index10.php


Gibt es den keine Tests zu Programmen die eine CPU besser auslasten als Prime? Würd mir gern mal ein Bild machen was man bei der CPU noch rauszukitzeln kann, hast du da Links? 44,6Watt für den Q9300 sind schon arg wenig und ich vermute mal das Intel die TDP von 95Watt nicht zu Spaß so hoch angesetzt hat. Das Intel CPUs über der TDP laufen mit den besseren Auslastungstools wage ich mal zu bezweifeln, das glaube ich erst wenn ich einen Test sehe.
http://ht4u.net/reviews/2009/amd_phenom2_am3/index9.php
Das AMD nicht nur bei den GPUs mit der TDP die Kunden hinters Licht führen will, hab ich selber schon letztes Jahr beim Phenom 9850(125W TDP braucht aber 140Watt) festgestellt. Glatte Kundentäuschung betreiben die munter seit einiger Zeit: https://www.computerbase.de/forum/threads/phenom-9850-9850-be-satt-125w-mit-140w-tdp.414858/
Und schon allein aus Prinzip kann ich sowas weder bei CPUs noch bei GPU durchgehen lassen. Meinetwegen 5-10Watt über der TDP währen nicht schlimm, aber 100Watt wie bei der 4870X2...
NV ist auch nicht unschuldig so ist es ja nicht(GTX 295) und ATI hat ja bewiesen das es geht wenn sie wollen, 4830, HD 4600, HD 4400 im mid bzw. low end wird nix riskiert und sauber die Specs eingehalten. Wenns ums große Geld geht wird hald doch nach Norm gefahren, natürlich auch bei 100% Last!

MfG Kasmo
 
Zuletzt bearbeitet:
100W bei der 4870x2 ?

in crysis sind es 80W drunter, in 3dmark06 auch 20W.

wenn DICH die umbenannte furmark.exe interessiert, bitte. Die meisten Käufer jedoch wohl nicht.


wenn es Bioshock(2007) schon schafft den Furmark Konkurrenz zu machen

schafft es aber nicht, lies meinen post. bei fast allen 4800ern sind es 15% unterschied zwischen bioshock und furmark, bei der 1gb veriante sogar über 22%.

damit bleibt man locker in der tdp.

und wieso sollten neue Spiele fordernder sein ?

Crysis liegt sogar noch weiter darunter. das alte 3dmark06 hingegen verbraucht mehr.

Ich kann hier keine Tendenz erkennen und das ist auch logisch : je komplexer die Berechnungen sind umso weniger wird optimiert.


Gibt es den keine Tests zu Programmen die eine CPU besser auslasten als Prime?

natürlich nicht.

a) gibt es ohnehin nahezu keine kritischen Tests zu Intel CPUs
b) wäre Intels TAT auf einer AMD cpu nicht mit maximaler Auslastung verbunden.

Keine ahnung ob sie nicht das programm mittlerweile sogar entschärft haben.

Auf meinem E6600 erreiche ich mit TAT(Version von 2006) 10° mehr als mit 2 Instanzen Prime.

Da prime die temperatur um 20° zum idle steigen lässt(40->60°) kann man ganz grob(!!!) sagen das es wohl irgentwo richtung 50% mehr hitze sein muss.


Aber wen juckt das ?

Mich juckt nichtmal prime weil ich das im normalen Betrieb nie erreiche.

Komme mit TAT auf 70°, Prime auf 60° aber im Log von Speedfan steht nirgends etwas größer 53°.


Nach meiner Hochrechnung hat bei dieser GPGPU Anwendung eine ATI Grafikkarte eine Auslastung von min.>95%

wo ist deine Rechnung dazu ?

Ich sehe in dem Post nur die theoretische Angabe der 1200GLOPs welche die 4870 nunmal hat. und weiter ?

Ich wiederhole mich ungern, aber man kann nicht alles auf 5 parallele, unabhängige Berechnungen hin optimieren.


Weiß aber auch nicht wo das Problem ist wenn es ginge. In dem Fall sind die Ati Karten problemlos den Nvidias überlegen und müssen sich mit dem Verbrauch des GT300 oder was auch immer kommt messen.

An der tdp-Angabe sehe ich damit immer noch kein problem, denn die typische Wärmeabgabe liegt in den allermeisten Fällen sogar (weit) darunter.


Der wirkliche Nutzer wird an keiner Stelle veräppelt, höchstens der verrückte ich-benenn-furmark-um Bencher.
 
Unyu schrieb:
Post #54 hast du schon gelesen, besonders den Link?
Dann zählt Bioshock wohl nicht zur Praxis, die 4% zu Furmark können nicht der ausschlaggebende Grund sein.
Ja, in dem Artikel:

-wird gesagt die TDP solllte das absolute Maximum + Reserve sein
-wird die Relevanz der TDP für Kühlung UND Stromversorgung genannt. Wie stark die Stromversorgung entworfen wurde, lässt sich imho nicht aus der TDP ableiten.
-und vor allem: wird beim Vergleich zwischen Bioshock und Furmark nicht die enorme CPU-Last von Bioshock verursacht berücksichtigt. Damit ist keinerlei Vergleich bzgl. des Stromverbrauchs der Grafikkarte möglich. Bei mir hat das Spiele beide Kerne immer sehr gut ausgelastet, wodurch ich nicht denke, dass man das einfach vernachlässigen kann.

Das sind alles Punkte bei denen ich dem Verfasser des Artikels nicht zustimmen kann.
 
Realsmasher schrieb:
a) gibt es ohnehin nahezu keine kritischen Tests zu Intel CPUs
b) wäre Intels TAT auf einer AMD cpu nicht mit maximaler Auslastung verbunden.

Das ist leider eine traurige Wahrheit.

Realsmasher schrieb:
An der tdp-Angabe sehe ich damit immer noch kein problem, denn die typische Wärmeabgabe liegt in den allermeisten Fällen sogar (weit) darunter.

Der wirkliche Nutzer wird an keiner Stelle veräppelt, höchstens der verrückte ich-benenn-furmark-um Bencher.

Richtig. Man muss immer Regel von Extremfällen unterscheiden und man sollte gerade im IT-Markt das Heute vom Morgen trennen, gerade weil eben dieser Markt so erschreckend kurzlebig ist.
In nahezu jeder wissenschaftlichen Messung hat man immer Querschläger bzw. Peaks. Dewsweiteren kann ich immer hingehen und beispielsweise an eine LED die doppelte Spannung anlegen, die sie eigentlich ab kann. Und was will ich mit so einer Belastungsprobe beweisen? Das ich das Bauteil zerstören kann, wenn ich will? Der Sinn dieser Versuchsanordnung ist eher fragwürdig als professionell.
 
Unyu schrieb:
Post #54 hast du schon gelesen, besonders den Link?
Dann zählt Bioshock wohl nicht zur Praxis, die 4% zu Furmark können nicht der ausschlaggebende Grund sein.

Der Link ist Unsinn. Bioshock hat eine deutlich hoehere CPU Auslastung hat. Hier findet eine deutliche Verschiebung des Verhaeltnisses von GPU zu CPU statt.

Wenn man aber ein Spiel sucht, was wirklich ordentlich Last auf die Grafikkarte bringt, solltet ihr mal "Lord of the Rings Online" versuchen. Das ist bisher das einzige Game, mit dem ich meine (passiv gekuehlte) Grafikkarte zum abschalten bringen kann.
Wer das ganze mal ordentlich testen will braucht dafuer kein Geld hinlegen, sondern nutzt die kostenlose Trail von Lotro.


Edit:
Ich hab mir den Test auf HT4U mal etwas genauer angeschaut und habe da folgendes Problem:
Ich habe eine passiv gekuehlte 4850. Diese ist im Gegensatz zu der dort getesteten 4850 http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index30.php um 15Mhz hoeher getaktet (sprich 640 Mhz)

Die dort fuer Idle angegebene Temperatur ist selbst bei meiner passiv gekuehlten Graka ca. 10 Grad tiefer. Jemand ne Ahnung warum?
 
Zuletzt bearbeitet:
dein passivkühler hat warscheinlich eine höhere passive kühlleistung als der standardkühler durch eine größere kühlfläche.

Dadurch das sich letzterer im idle nur sehr langsam dreht ist es problemlos möglich das deine temperatur niedriger ist.

Das selbe Phänomen habe ich bei meinem prozessorkühler. Während der neue im cpu-idle stillsteht und die cpu trotzdem sehr kühl bleibt musstebeim alten boxed der lüfter durchgehend laufen.
 
Ist keine schlechte Idee, weiss schon jemand wenn sie in Deutschland auf den Markt ist? Und was sie kosten soll?
 
Realsmasher schrieb:
dein passivkühler hat warscheinlich eine höhere passive kühlleistung als der standardkühler durch eine größere kühlfläche.

Dadurch das sich letzterer im idle nur sehr langsam dreht ist es problemlos möglich das deine temperatur niedriger ist.

Haette nicht gedacht, das dies moeglich ist. Klingt aber vernuenftig.


Lübke schrieb:
@GreatEvil: das ist nicht direkt vergleichbar. andere umgebungstemperatur, andere gehäusekühlung, andere abwärme vom restsystem...
du kannst die temperatur von grafikkarten nur unter den gleichen bedingungen vergleichen...

Das stimmt schon, aber da im idle selbst mein einziger Gehaeuseluefter nicht laeuft und auch kein Luefter da ist, der die warme Luft aus dem Gehaeuse blaest, bin ich eigentlich davon ausgegangen, das die Umgebungstemperatur bei mir deutlich hoeher ist.
 
Kasmopaya schrieb:
Das AMD nicht nur bei den GPUs mit der TDP die Kunden hinters Licht führen will, hab ich selber schon letztes Jahr beim Phenom 9850(125W TDP braucht aber 140Watt) festgestellt. Glatte Kundentäuschung betreiben die munter seit einiger Zeit: https://www.computerbase.de/forum/threads/phenom-9850-9850-be-satt-125w-mit-140w-tdp.414858/
Wie wurde gemessen? Mit oder ohne Wandlerverlußte?
Wenn es der Wert inkl. der Wandlerverlußte ist (Wirkungsgrad wird meist auf 85% geschätzt), dann handelt es sich bei dem Wert ebend nicht um den Verbrauchswert des Prozessors und rechnet man die 85% Wirkungsgrad des Wandlers raus, dann sind wir nicht bei 141W sondern nur noch ca. 120W und du hast hier mit Falschaussagen versucht zu argumentieren, was man auch fast schon als Verleumdung deuten kann.
 
Zurück
Oben