Test Radeon HD 4770 im Test: ATis erste 40-nm-Grafikkarte überzeugt durchweg

gruffi schrieb:
Und siehe da, man spart immerhin 8 W, womit man zumindest sämtliche GT200 basierten Karten hinter sich lässt.
Wahnsinn, eine 80€-Low-End-Karte verbraucht mit einem manuellen Eingriff 8 Watt weniger als eine in 3D bald 3x so schnelle High-End-Karte per default. Und eine GTS 250 ist immer noch drunter.
gruffi schrieb:
Was grundsätzlich der Unterschied GDDR3 vs GDDR5 ausmacht, ist damit allerdings immer noch nicht geklärt.
Der reine GDDR5 ist sparsamer, erfordert aber etwas mehr PCB-Komplexität und einen anderen bzw. überarbeiteten MC. Und der in den RV7xx ist wohl etwas zu frisiert ...
gruffi schrieb:
während HT4U die 4770 immer noch mit 400 MHz RAM Takt gemessen hat
Eine HD4k mit GDDR5 bekommst du nicht soweit runter wie eine Geforce mit DDR3, die stürzen bei 100 MHz ab.
gruffi schrieb:
Dazu brauche ich nur mal ein paar Benchmarks anzuschauen und sehe, dass nVidia zB unter 8xAA stärker einbricht.
Wenn, dann 8xQ. Und zum was weiß ich wie vielten Mal, das 8x MSAA gibt sich optisch nichts, die Geforces mögen das nur nicht sooo sehr. Das hat sich mit aktuellen Treibern aber gebessert und Titel wie FC2 zeigen, dass auch AMD mit 8x MSAA abkacken kann.
gruffi schrieb:
Gesamtheitlich ist AMD aber dennoch tendenziell etwas besser.
Schneller. Besser impliziert imo optisch qualitativer - und das ist nicht der Fall.
gruffi schrieb:
Und damit für das Gro der Spieler irrelevant
Nur weil man sich mit befassen muss, ists automatisch uninteressant? Jeder, der sich ne Karte kauft, die schnell genug für xS/SSAA ist, sollte sich eh überlegen, ob er das Geld ausgibt bzw. sich Gedanken über diese Investition machen.
gruffi schrieb:
obwohl es bei ihrem Hersteller genügend Modelle gibt, wo das ebenfalls zu kritisieren wäre
Bei den G800 wurde es zurecht kritisiert, bei den G92(b) mittlerweile auch [etwa 88GT oder 96GT]. Die GTS 250 und die GTX200 sind hier aber super [von der GTX 295 mal abgesehen] - gerade angesichts der GDDR5-Modelle von AMD. Das ist ein Faktum und dieses zu benennen ist mehr als rechtens.

Und wie ich bereits oft genug gesagt habe: 30-60 Watt nur fürs rumidlen sind verdammt noch mal zu viel - egal von welchem IHV die Karte ist.

paokara schrieb:
Zeig mir eine andere Grafikkarte, die annähernd gleich schnell ist und durchschnittlich weniger Strom zieht.
Im Falle der HD4770 oder HD4850? Eine GTS 250 zieht weniger und ist in 3D beiden Karten in der Regel messbar überlegen.
paokara schrieb:
Du kannst den Speicher manuell heruntertakten und sparst etwa 10 Watt.
Es ist gut, dass dies funktioniert. Schlecht ist, dass man es manuell machen muss [und damit beispielsweise die Garantie verliert für etwas, was eigentlich Sache des IHV ist].
paokara schrieb:
Das Dual Slot Referenzmodell soll angeblich sehr leise sein.
Ja, es ist leise. Laut AMD wird es das RefDesign aber dummerweise nicht im Handel geben.
paokara schrieb:
Was für Punkte gibt es sonst noch?
Ein Modell an (fast) alle Reviewer raus geben, tolle Werte ergattern, kaufen kann es aber keiner [der niedrige 2D-/3D-Wert entsteht u.a. auch durch den kühlen Chip]. Das erweckt falsche Eindrücke bzw. die Karte wird besser dargestellt als die, die der Kunde real kaufen kann.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Wahnsinn, eine 80€-Low-End-Karte verbraucht mit einem manuellen Eingriff 8 Watt weniger als eine in 3D bald 3x so schnelle High-End-Karte per default.

Welche High-End-Karte wäre denn 3x so schnell wie ne 4770? Und in welchen Settings sollte das sein? :freak:

y33H@ schrieb:
Besser impliziert imo optisch qualitativer - und das ist nicht der Fall

Das ist Ansichtssache! Wer wert auf "besseres" AA legt ist bei ATI/AMD richtig, wer "besseres" AF will bei nVidia. Und den meisten ist es sowieso egal, da zählt nur der Balken.

y33H@ schrieb:
Nur weil man sich mit befassen muss, ists automatisch uninteressant? Jeder, der sich ne Karte kauft, die schnell genug für xS/SSAA ist, sollte sich eh überlegen, ob er das Geld ausgibt bzw. sich Gedanken über diese Investition machen.

irrelevant != uninteresant
Warum sollte sich Otto-normal-Gamer dafür interessieren wenn er sich eine Graka kauft, egal ob sie 100 oder 500€ kostet? Der startet das Spiel, geht in die Grafiksettings und dreht erstmal alle Schieber soweit nach rechts und die Details so hoch wies geht. Wenns flüssig läuft freut er sich, wenn nicht dann dreht er die Regler wieder runter bis es flüssig ist. Mag sein das dich und mich das interessiert, für das gro der Spieler ist es, wie es gruffi schon sagte, irrelevant.

y33H@ schrieb:
Im Falle der HD4770 oder HD4850? Eine GTS 250 zieht weniger und ist in 3D beiden Karten in der Regel messbar überlegen.

Messbar: ja; spürbar: kaum bis gar nicht. Und das gilt auch nur unter Idle. im Falle der 4770 sinds 5-10W (je nachdem welches Review man liest) Unter last sieht weder die GTS 250 noch die 4850 Land gegen die 4770.
 
johnieboy schrieb:
Welche High-End-Karte wäre denn 3x so schnell wie ne 4770? Und in welchen Settings sollte das sein?
GTX 285, ab 1.920. Ich weiß, mieser Vergleich wegen dem VRAM.
johnieboy schrieb:
Das ist Ansichtssache!
Wie oft noch?! 8x MSAA ist bei beiden IHVs optisch zu weit über 90% identisch. Das ist keine subjektive Ansichtssache, sondern eine objektive Tatsache:
CB schrieb:
Somit sehen manche Winkel auf einer ATi- und andere auf einer Nvidia-GPU besser aus – im Schnitt geben sich beide Kandidaten nichts.




Weiter im Text ...
johnieboy schrieb:
Wer wert auf "besseres" AA legt ist bei ATI/AMD richtig, wer "besseres" AF will bei nVidia.
Bis auf 24x ED-CFAA ist das AA nicht per se besser. Die xS-Modi etwa bügeln das ganze Bild - das kann keine aktuelle Radeon ohne größere Umwege - und AMDs AAA verfälscht des öfteren den Content - letzteres ist aber Geschmackssache. TSSAA oder TMSAA machen das nicht, bei nV kann man zudem wählen, bei AMD nicht. Und nicht wählbare BQ ist wie ich finde ein Minus, da man nie weiß ob man gute BQ bekommt (TSSAA) oder die "Sparversion" (TMSAA oder EATM).
johnieboy schrieb:
Und den meisten ist es sowieso egal, da zählt nur der Balken.
Leider.
johnieboy schrieb:
Warum sollte sich Otto-normal-Gamer dafür interessieren wenn er sich eine Graka kauft, egal ob sie 100 oder 500€ kostet?
Mit einer 500€-Karte nur mit maximierten Ingame-Details zu zocken ist Verschwendung. Schnellere Karten werden gebaut um bei gleicher Optik mehr Fps zu erzielen und mehr Optik. Und unter mehr Optik fallen nicht nur die Spieledetails wie Texturen oder Shader, sondern auch FSAA oder AF. Das mag vielen gar nicht direkt bewusst sein, aber es ist so.
johnieboy schrieb:
Unter last sieht weder die GTS 250 noch die 4850 Land gegen die 4770
Eine GTS 250 ist idR schneller als eine HD4850 und schluckt nahezu das gleiche (siehe unter anderem CB]. Im Vergleich zur HD4770 schluckt die GTS 250 rund 15% mehr, auf die Leistung bezogen also ebenfalls gleichauf - im idle aber beiden Radeons überlegen.
 
Zuletzt bearbeitet:
@y33H@

Ich glaube ich habe mich falsch ausgedrückt. Ich habe nämlich das europäische Referenz-Design der Hersteller gemeint, welches relativ leise sein soll:

http://techreport.com/articles.x/16820/11

Im Falle der GTS 250 muss ich dir jedoch teilweise widersprechen. Klar verbraucht sie im Idle weniger als eine HD 4770 aber unter Last ändert sich dieses Bild DEUTLICH:

https://www.computerbase.de/artikel...770.1008/seite-22#abschnitt_leistungsaufnahme

Sie verbraucht etwa 40 Watt mehr als eine 4770. Klar kann man jetzt sagen, dass der PC die meiste Zeit im Idle ist, aber der zusätzliche Aufpreis zur GTS 250 entscheidet das Ganze meiner Meinung nach zu Gunsten der HD4770.

Was für Unterschiede gibt es eigentlich zwischen dem Referenzmodell von ATI und dem "europäischen" Referenzmodell?

Gruss
 
y33H@ schrieb:
GTX 285, ab 1.920. Ich weiß, mieser Vergleich wegen dem VRAM.

Stimmt

y33H@ schrieb:
Wie oft noch?! 8x MSAA ist bei beiden IHVs optisch zu weit über 90% identisch. Das ist keine subjektive Ansichtssache, sondern eine objektive Tatsache:

Nur weil zufällig der CB-Redakteur auch deiner Meinung ist ist das noch lange keine Tatsache.
Ich hab ne 4870 1GB, ein Kumpel ne GTX 260 216. Und wir sind beide der Meinung das bei AMD/ATI das AA im vergleich zur nVidia besser aussieht, bei AF ist es umgekehrt. Daher Ansichtssache ;)


y33H@ schrieb:
Mit einer 500€-Karte nur mit maximierten Ingame-Details zu zocken ist Verschwendung

Bin ich deiner Meinung und und uns beiden mag das klar sein, aber vielen eben nicht.
 
paokara schrieb:
Klar verbraucht sie im Idle weniger als eine HD 4770 aber unter Last ändert sich dieses Bild DEUTLICH
Rein nominell ja. Hierbei ist aber zu beachten, dass die geringere Leistungsaufnahme mit weniger Fps einhergeht. Vom Fps/Watt-Verhältnis her geben sich HD4770 und GTS 250 unter Last nichts, die Geforce aber ist idle sparsamer. Ergo die effizientere Karte.
paokara schrieb:
aber der zusätzliche Aufpreis zur GTS 250 entscheidet das Ganze meiner Meinung nach zu Gunsten der HD4770
Dafür hast du wie gesagt mehr 3D-Power und bist idle sparsamer. Vom Fps/Watt-Verhältnis her ist die GTS 250 genau genommen wie bereits erwähnt daher sogar besser. Dies bezahlt man aber im wahrsten Sinne des Wortes auch.
paokara schrieb:
Sie verbraucht etwa 40 Watt mehr als eine 4770
Das Gesamtsystem benötigt 40 Watt weniger, nicht die Karte. Das ist ein Unterschied.
paokara schrieb:
Ich habe nämlich das europäische Referenz-Design der Hersteller gemeint, welches relativ leise sein soll [...] Was für Unterschiede gibt es eigentlich zwischen dem Referenzmodell von ATI und dem "europäischen" Referenzmodell?
Der "Eierkühler" verfügt über keine Pipes, wirbelt die Luft im Case herum und bläst sie nicht nach draußen und ist bei gleichen Temps lauter. Absolut gesehen ist er aber recht ruhig und Hitzeprobleme sind weit entfernt. Nichtsdestotrotz wirst du kaum zwei "Referenz-Kühler" finden, die so weit auseinander liegen hinsichtlich ihrer Konstruktion und Leistung.




EDIT
johnieboy schrieb:
Nur weil zufällig der CB-Redakteur auch deiner Meinung ist ist das noch lange nicht objektiv.
Ich hab ne 4870 1GB, ein Kumpel ne GTX 260 216. Und wir sind beide der Meinung das bei AMD/ATI das AA im vergleich zur nVidia besser aussieht, bei AF ist es umgekehrt.
Nun, das ist keine Meinungsache. Das EER und das Samplemuster lassen sich objektiv aufzeigen. Wolfgang ist also nicht der Meinung, AMD und nV geben sich praktisch nichts, sondern er zitiert ein nachweisbares Faktum.
johnieboy schrieb:
Bin ich deiner Meinung und und uns beiden mag das klar sein, aber vielen eben nicht.
:)
 
Zuletzt bearbeitet:
paokara schrieb:
Was mich einfach stört ist die Tatsache, dass bei der Veröffentlichung der HD4850 niemand über den Stromverbrauch unter Last gemeckert hat.

Ich kann dich beruhigen bzw. du irrst dich. Ich hab z.B. gemeckert, und wie. Und nicht nur über den Stromverbrauch, sondern auch über die Hitzeentwicklung und den Lärm, den die Karte im anfänglichen Referenzdesign verursacht hat. Und ich bin immer noch der Meinung, die HD4850 wurde noch im Prototypenstatus auf den Markt geworfen und ist vielleicht nach 6 - 9 Monaten so weit gewesen, dass man sie als "ausgereift" bezeichnen konnte. Angesichts der Tatsache, dass die 4850 bei ihrer Einführung gut doppelt so teuer war, eine absolute Frechheit.

Diese Ansicht hat mir hier im Forum einige Ohrfeigen eingebracht. Und ich versteh es einfach nicht. Was habt ihr gegen Gemecker? Gemecker bei den Kunden führt in der Regel zu einer Reaktion des Herstellers, die sich positiv auf das Produkt auswirkt. Was wollt ihr eigentlich, Jungs? Dass alle mit euch hurra schreien, der Hersteller sich auf seinen Lorbeeren ausruhen und unausgegorenen Müll verticken kann? Kann doch nicht euer Ernst sein oder?
 
OMG y33H@, kannst du mal bitte den Unsinn sein lassen, jeden einzelnen Satz zu sezieren. Das kann man sich ja mittlerweile nicht mehr anschauen und ist höchst Augenkrebs fördernd. ;)


Zum Thema, unter Idle ist es weniger von Bedeutung, was die Karten unter Last leisten. Daher ist dein Einwand zur Leistungsaufnahme unberechtigt. Und welche GT200 basierte Karte soll denn 3 mal so schnell ein? :rolleyes: Wenn du mal die zwei aktuellsten Modelle gegenüberstellst, HD 4770 und GTX 275, so liegen etwa 50% Leistungsunterschied dazwischen. Aber eben genauso so gross ist der Unterschied bei der Idle Leistungsaufnahme laut HT4U. Ein Vergleich ist also durchaus gegeben, auch wenn beide Karten in einem anderen Segment positioniert sind.
Und was besser bezüglich AA/AF bedeutet, hatten wir doch schon geklärt. Wie du das siehst, spielt dabei keine Rolle. Es ist halt nicht nur die optische Qualität, sondern auch die Performance. Nur beides zusammen ist aussagekräftig. Dass es kein Problem ist, schnelles AA zu implementieren, was aber scheisse ausschaut, genauso wie optisch tolles AA, was aber sau langsam ist, brauche ich dir hoffentlich nicht zu erklären.
Und ja, wenn sich Leute erst mit irgendwelchen Treiber Einstellungen rumplagen müssen, ist es für den Markt irrelevant. Denn dann bräuchten wir auch nicht über die Idle Leistungsaufnahme diskutieren, die sich manuell auch absenken lässt. Und wie johnieboy schon korrekt anmerkte, irrelevant ist nicht gleichzusetzen mit uninteressant. Niemand hat etwas dagegen, wenn du dich mit der Materie auseinandersetzt, um das bestmögliche herauszukitzeln. Nur darfst du das nicht auf den Markt projizieren und davon ausgehen, dass das für jeden selbstverständlich ist.

y33H@ schrieb:
Hierbei ist aber zu beachten, dass die geringere Leistungsaufnahme mit weniger Fps einhergeht. Vom Fps/Watt-Verhältnis her geben sich HD4770 und GTS 250 unter Last nichts
Natürlich nicht. :rolleyes: Darf ich dich mal an deine heissgeliebten Furmark Messungen erinnern, wo HT4U zwischen HD 4770 und GTS 250 einen Unterschied von über 70% bei der Leistungsaufnahme ermittelt? Ich sehe aber nicht mal ansatzweise, dass die GTS 250 so viel schneller wäre. Durchschnittlich maximal irgendwas zwischen 0 und 15%.
Insgesamt ist der RV740 zweifelsfrei der klar effizientere Chip. Leistungsaufnahme unter Idle hat eben vor allem etwas mit Stromsparmechanismen zu tun und weniger mit dem Silicon selbst.
 
Ach, wenn es gut für Radeons ist, wird der Furmark auf einmal zitiert? Interessant. Hast du neben den Verbrauchsmessungen auch mal geschaut, wie viel Prozent bei der Leistung sich die Karten im Furmark geben?


gruffi schrieb:
Zum Thema, unter Idle ist es weniger von Bedeutung, was die Karten unter Last leisten.
Da kann ich gleich ne IGP nehmen. Eine Karte, die idle mehr schluckt als eine andere und dabei in 3D lahmer ist bei ähnlicjem Verbrauch, ist ineffizienter. Zumal idle der häufigere Zustand ist, imo.
gruffi schrieb:
Insgesamt ist der RV740 zweifelsfrei der klar effizientere Chip.
Ein Chip alleine macht keine Grafikkarte. Und nein, eine HD4770 ist nicht effizienter - das habe ich bereits aufgezeigt (idle schluckt die Radeon default mehr, 3D die Geforce, dafür ist diese prozentual so viel schneller wie sie mehr zieht).
gruffi schrieb:
Leistungsaufnahme unter Idle hat eben vor allem etwas mit Stromsparmechanismen zu tun und weniger mit dem Silicon selbst.
Und wo fangen die Stromsparmechanismen bei AMD an? Im Chip, genau. Und hier sitzt auch das "Böse" - der Speichercontroller. Also doch Silizium. Zumal der Treiber oder die Stromsparmechanismen ohne Silizium eh nicht funktionieren.
gruffi schrieb:
Es ist halt nicht nur die optische Qualität, sondern auch die Performance.
Aus dieser Perspektive ist 8x MSAA auf einer HD4k "besser" also auf einer GTX200, da optisch gleich, idR aber schneller. Wenn du besser in Zukunft als "optisch gleich, aber schneller" benennst, habe ich damit kein Problem.
gruffi schrieb:
Und ja, wenn sich Leute erst mit irgendwelchen Treiber Einstellungen rumplagen müssen, ist es für den Markt irrelevant.
Ein Grund, warum Konsolen so gut gehen: Die tumbe (?) Masse hat kein Bock sich mit etwas zu befassen. Traurig, aber offenbar ein Erfolgskonzept.
gruffi schrieb:
OMG y33H@, kannst du mal bitte den Unsinn sein lassen, jeden einzelnen Satz zu sezieren.
Nein, sorry. Ich diskutiere die Details aus.
gruffi schrieb:
Das kann man sich ja mittlerweile nicht mehr anschauen und ist höchst Augenkrebs fördernd.
Augenkrebs krieg ich auch bei AMDs AF ;-) Kleiner Joke am Rande *g*
 
Zuletzt bearbeitet:
|nsb|urmel schrieb:
Was habt ihr gegen Gemecker? Gemecker bei den Kunden führt in der Regel zu einer Reaktion des Herstellers, die sich positiv auf das Produkt auswirkt. Was wollt ihr eigentlich, Jungs? Dass alle mit euch hurra schreien, der Hersteller sich auf seinen Lorbeeren ausruhen und unausgegorenen Müll verticken kann? Kann doch nicht euer Ernst sein oder?
Ich finde Gemecker bei verbesserungswürdigen Punkten total sinnvoll. Natürlich fände auch ich persönlich es besser, wenn alle Karten im Idle nur noch soviel wie ne IGP ziehen würde. Aber von manchen liest man dieses Gemecker immer und immer... wieder, so als ob sie sich ihr Gemeckere in irgendeine Textdatei gespeichert hätten um uns in jeden Thread damit per Copy & Paste zuzudröhnen. Das ist echt ätzend ständig zu lesen.:kotz:

gruffi schrieb:
Und ja, wenn sich Leute erst mit irgendwelchen Treiber Einstellungen rumplagen müssen, ist es für den Markt irrelevant. Denn dann bräuchten wir auch nicht über die Idle Leistungsaufnahme diskutieren, die sich manuell auch absenken lässt.
Weise gesagt! Aber viele Leute urteilen hier leider mit zweierlei Maß.

y33H@ schrieb:
Ach, wenn es gut für Radeons ist, wird der Furmark auf einmal zitiert? Interessant. Hast du neben den Verbrauchsmessungen auch mal geschaut, wie viel Prozent bei der Leistung sich die Karten im Furmark geben?
Und du lässt es aufeinmal aus, wenn es gut für Radeons ist.
Letzters würde mich aber auch mal interessieren, wobei ich sogar glaube, dass sich die Karten nicht viel geben werden, da man ja häufig hört, dass die Radeons doch ziemlich gut ausgelastet werden beim Furmark.
 
Wenn die GTS 250 im Furmark prozentual nicht so viel mehr leistet wie sie mehr schluckt, ist sie hier ineffizienter. Allerdings könnte ich dann auch wieder mit dem beliebten "ist nicht praxisnah" ankommen ;-)
 
Furmark ist höchstens für Furmark selbst relevant, wie HT4U schön zeigen können: http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/index4.php

In Sachen Auslastung bzw. Stromaufnahme ist der Grad der Realitäts- bzw. der Spielnähe auch bei nvidia fern von Gut und Böse: http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/index3.php

Die hohe Varianz der Stromaufnahme zwischen den Spielen zeigt aber auch, wie schwierig eine praxisnahme, und übertragbare Aussage zur Stromaufnahme sein kann. Deutlich wird eigentlich nur: die Tendenz ist übertragbar, nicht der absolute Wert.
 
y33H@ schrieb:
Ach, wenn es gut für Radeons ist, wird der Furmark auf einmal zitiert?
Nein. Für mich ist der Furmark weiterhin Käse. Und gerade Radeons rückt man damit in ein falsches Licht, da der Unterschied zu praxisnahen Workloads gravierender ist als bei nVidia. Aber DU klammerst dich ja immer daran und argumentierst damit. Also nimm es mir nicht übel, wenn ich dir den Unsinn mal konkret vor Augen halte, gerade da es dir hier als wenig objektiver nVidia Verfechter nicht schmecken wird. ;)

y33H@ schrieb:
Hast du neben den Verbrauchsmessungen auch mal geschaut, wie viel Prozent bei der Leistung sich die Karten im Furmark geben?
Das habe ich doch nun schon gesagt. Die GTS 250 braucht gut 70% mehr Leistung. Darum ging es doch. Oder was meinst du? Performance? Dann kannst du das gerne nachreichen. Dazu steht bei HT4U jedenfalls nichts. Seltsamerweise höre ich das Argument bezüglich Furmark das erste mal von dir. Sonst war es doch auch nie von Bedeutung. :rolleyes:

y33H@ schrieb:
Eine Karte, die idle mehr schluckt als eine andere und dabei in 3D lahmer ist bei ähnlicjem Verbrauch, ist ineffizienter.
Ja, das hat aber nichts mit dem Thema zu tun, da, wie ich oben gezeigt habe, die Relation vergleichbar ist. Die Frage bleibt also, warum der RAM Takt nicht abgesenkt wird. Rein technisch gesehen ist die HD 4770 die effizientere Karte.

y33H@ schrieb:
dafür ist diese prozentual so viel schneller wie sie mehr zieht
Das ist sie definitiv nicht. Fakten belegen das. Da brauchst du dir nichts einzureden. Und bevor du noch weiter zweifehafte Aussagen in den Raum wirfst, würde ich dich bitten, für deine Behauptungen erstmal Quellen zu bringen. Ich habe das immerhin getan. Auch wenn mir bewusst ist, dass Furmark nicht repräsentativ ist.
Wenn du bei HT4U aber mal ein bisschen weiter stöberst, wirst du auch eine Übersicht zur Leistungsaufnahme der GTS 250 in diversen Spielen finden, siehe hier. Durchschnittlich ergibt das etwa 100 W. Die HD 4770 braucht aber selbst unter Furmark lediglich ca 80 W, was der Worst-Case sein sollte und einen Unterschied von 25% bedeutet. Der Unterschied bezüglich praxisnahen Anwendungen sollte also noch um einiges grösser ausfallen. Die GTS 250 liefert dabei aber maximal 10-15% mehr Performance. Und jetzt darfst du nochmal nachrechnen, wer hier effizienter ist. ;) Ehrlich gesagt würde mich alles andere auch stark verwundern. Schliesslich wird der RV740 Chip in 40 nm Strukturen gefertigt und macht immer noch den grössten Teil der Leistungsaufnahme der Grafikkarte aus.
Also tue uns bitte den Gefallen und hör auf, hier weiterhin irgendwelchen Unsinn zu kolportieren.
 
Zuletzt bearbeitet:
Es ist höchst interessant zu lesen, wie sich hier die Leute Seite für Seite ANDAUERND mit immer wieder fast den gleichen Argumenten verbal prügeln - sehr amüsant um ehrlich zu sein :D

Das geht hier schon bestimmt ein Dutzend Seiten so, der "Klügere" sollte doch endlich mal nachgeben, ihr dreht euch ja nurnoch im Kreis.

mfg
 
gruffi schrieb:
Die Frage bleibt also, warum der RAM Takt nicht abgesenkt wird.
Wirf nur mal kurz auf die Preislage der letzten Monate.
oder les AMDs Statement vom September 2008: http://www.rage3d.com/interviews/atichats/undertheihs/

"Eine Taktsenkung ist eben nur beim ehemals 400€ Topmodell möglich."

"Die Performance Karten haben eine typische Leistungsaufnahme, das lösen des Softwareproblems ist eine gänzlich unwichtige Angelegenheit."


gruffi schrieb:
Rein technisch gesehen ist die HD 4770 die effizientere Karte.
Klar, beim Vergleich modifiziert vs unmodifiziert.
Da du im einstelligen Watt Bereich argumentierst darfst du solche grobe Klumben nicht einfach unter den Teppich pressen.
 
gruffi schrieb:
Seltsamerweise höre ich das Argument bezüglich Furmark das erste mal von dir. Sonst war es doch auch nie von Bedeutung.
Wir sprechen nun auch von der Effizienz und nicht von der maximalen Leistungsaufnahme/Temperatur wie bisher. Und bei der Effizienz zählt Watt/Fps [bei gleicher BQ]. Und dass AMD mit den HDs im Furmark die Hütte rockt, ist hoffe ich bekannt - dir wie mir. Und ich bezweifle mal, dass eine GTS 250 überhaupt an einer HD4770 vorbeiziehen kann, ergo ist sie imo im Furmark klar ineffektiver.
gruffi schrieb:
Rein technisch gesehen ist die HD 4770 die effizientere Karte.
Im stock-Zustand nicht, aufgrund des MC.
gruffi schrieb:
Und bevor du noch weiter zweifehafte Aussagen in den Raum wirfst, würde ich dich bitten, für deine Behauptungen erstmal Quellen zu bringen.
Ich nahm Werte von CB:



Und bevor du mir mit den 4% Differenz kommst - ich habe mal die 1G mit einfließen lassen, die die Fps teils deutlich steigern. Zudem sprach ich von "ähnlichem" Verbrauch ... und 4% sehe ich als ähnlich an, zumal hier noch der Fakpor Messschwankung mit reinspielt und das RefDesign zum Einsatz kam. Nimmt man die HT4U-Werte, muss ich dir aber natürlich Recht geben.
gruffi schrieb:
Schliesslich wird der RV740 Chip in 40 nm Strukturen gefertigt und macht immer noch den grössten Teil der Leistungsaufnahme der Grafikkarte aus.
Ein reiner Shrink senkt die Leistungsaufname nicht per se. Hier kommen VCore usw. mit hinzu.
 
Zuletzt bearbeitet:
Unyu schrieb:
Wirf nur mal kurz auf die Preislage der letzten Monate.
oder les AMDs Statement vom September 2008: http://www.rage3d.com/interviews/atichats/undertheihs/

"Eine Taktsenkung ist eben nur beim ehemals 400€ Topmodell möglich."

"Die Performance Karten haben eine typische Leistungsaufnahme, das lösen des Softwareproblems ist eine gänzlich unwichtige Angelegenheit."
Du hast aber ne ziemlich freie Art zu übersetzen.:freak:

Aber ich muss sagen, ich bin positiv überrascht. Und zwar darüber, dass es wohl mal ein Interview gegeben hat, wo nicht nur langweilige Dinge wie "Unsere neuen Karten machen noch mehr FPS.", "Unsere Karten sind ohnehin die besten." gesagt wurden, sondern auch mal ein wenig tiefer in die Materie eingeblickt wurde.

Er sagt ja praktisch, das Absenken des RAM-Taktes, ist auch für die HD 4870 möglich. Aber es erfordert einiges an Software-seitiger Arbeit und im Moment seien andere Dinge wichtiger.

Da kann ich nicht mit ihm übereinstimmen. Ich meine, das Interview war vom 18.09.08. Mittlerweile hätte man das doch durchaus implementieren können.
 
In dem Interview sind noch ein paar "nette" Sachen drin ... ziemlich übel, was da teils erzählt wird bezüglich AI und CF :(
Andrew Dodd schrieb:
I don’t think users have much to gain by adjusting so many different settings – one of our key messages behind Catalyst AI is that every optimization we do only enhances the performance of applications with absolutely no degradation in image quality, and users can verify this for themselves by comparing an application with Catalyst AI on vs. off.
Andrew Dodd schrieb:
We believe that our Crossfire solution (which uses AFR) delivers a great user experience, and that the micro stuttering issue isn’t really an issue at all for end users – In fact I can honestly say that it can’t be seen at all.
Andrew Dodd schrieb:
We want to make the experience as seamless as possible to the end user, our customers shouldn’t have to worry about how many GPUs are on their graphics accelerator – as long as it delivers a great experience, that’s all that counts. For the rare cases where an application has not been profiled, and does lead to slower performance, we always try to fix this as quickly as possible through our monthly ATI Catalyst updates.
 
Zuletzt bearbeitet:
gruffi schrieb:
Wenn du bei HT4U aber mal ein bisschen weiter stöberst, wirst du auch eine Übersicht zur Leistungsaufnahme der GTS 250 in diversen Spielen finden, siehe hier. Durchschnittlich ergibt das etwa 100 W. Die HD 4770 braucht aber selbst unter Furmark lediglich ca 80 W, was der Worst-Case sein sollte und einen Unterschied von 25% bedeutet. Der Unterschied bezüglich praxisnahen Anwendungen sollte also noch um einiges grösser ausfallen. Die GTS 250 liefert dabei aber maximal 10-15% mehr Performance. Und jetzt darfst du nochmal nachrechnen, wer hier effizienter ist. ;) Ehrlich gesagt würde mich alles andere auch stark verwundern. Schliesslich wird der RV740 Chip in 40 nm Strukturen gefertigt und macht immer noch den grössten Teil der Leistungsaufnahme der Grafikkarte aus.
lol auf einmal wird wieder mit HT4U argumentiert.
Letztens hieß es noch:
gruffi schrieb:
Mal abgesehen davon schaue ich mir die HT4U Messungen auch nicht mehr an. Ich gehe davon aus, dass sie grundsätzliche Fehler in ihrer Messtechnik haben.
 
@ 436 von y33H@ bzw. "PCGH_Marc"

Die Rechnung ist falsch. Man kann nicht das Gesamtsystem heranziehen um die Effizienz einer Grafikkarte zu beurteilen.

Wenn ich ein besonders starkes und stromfressendes System verwende (wie das von Computerbase) werden so Unterschiede minimiert und die stärkere Karte steht unverhältnismäßig gut da.

Nach der Rechnung wäre eine GTX 285 zigmal effizienter als eine 4670, was ich nicht gerade für korrekt halte.

Die einzigst richtige Lösung wäre eine Karte direkt zu vermessen und diesen Stromverbrauch ins Verhältnis zur gebotenen Leistung zu setzen.
 
Zuletzt bearbeitet:
Zurück
Oben