Test Radeon HD 5770 im Test: Nicht ganz die optimale Leistung für 140 Euro

Ich glaube wirklich, dass AMD bei der Planung der Chips Cypress und Juniper von der Verfügbarkeit von schnellerem GDDR5-Speicher ausgegangen ist.
Ich denke mit dem heutigen Kenntnisstand diesbezüglich, hätten sie damals den Cypress und den halben Cypress alias Juniper als 384bit SI (respektive 192bit SI) Chip geplant.
Wahrscheinlich haben sie nicht mit der Insolvenz von Qimonda gerechnet, und die haben wahrscheinlich schnelleren GDDR5 versprochen?


Volker schrieb:
Weil wir mit einem 2-GHz-Dual-Core-Prozessor durchweg am CPU-Limit wären und sich so keine Aussage über die Grafikkarte treffen lässt.
Oh je der Chef persönlich muss die Standardfragen beantworten, am besten man schreibt es in Klammern hinter die 4Ghz CPU, dann muss man es nicht immer wieder schreiben, wobei das wird dann bestimmt wieder überlesen. :rolleyes:


Volker schrieb:
Wir hatten 2 Karten, HT4U hatten auch 2. Und wir alle hatten bei den vier Karten Probs mit dem Lüfter. Andere englische Magazine wohl auch noch. Einige aber wiederum nicht. Es kann demnach eventuell ein Prob geben, weil, wie schrieb da jemand, "AMD 2 Cent einsparen wollte".
AMD fängt also schon wieder das sparen an und hier wird ein noch günstigerer Preis gefordert. Ein Teufelskreis. CPUs sind ja in der Regel zu teuer, weil es nur ein Chip ist, aber bei Grafikkarten zählt das ganze Paket.(Vram, Spannungswander, PCB) Man sollte langsam davon weg kommen bei Grafikkarten immer um jeden € zu feilschen... Bei CPUs sollte man dagegen mehr Preisdruck ausüben.(vorallem Intel)

@Dav|id: aber er hat schon recht. bei der 3870 war es mal kurz ein thema, aber hat auch nicht wirklich viele interessiert. bei der gtx200 wurds kaum zur kenntnis genommen und auch bei der 5770 schreiben so viele, dass sie von der karte enttäuscht sind, wegen der paar fps, die ihr zur 4870, einer der größten stromfresser schlechthin, fehlen...
Traurig aber wahr! Liegt wohl daran weil die meisten ihre Strom noch nicht selber bezahlen müssen?

y33H@ schrieb:
@ [TLR]Snoopy

Ich kenne Peters Sicht - danke. Auf den HD3k/HD4k ist der Furmark gedrosselt, unbestreitbar. Schaut man sich aber die Fps der HD5k an - die sind einfach viel zu gering. Das riecht massiv nach Drossel, genauso wie die Temps. imo.
http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index6.php
400Watt Furmark Lastverbrauch(5870 X2), nicht auszudenken wenn es eine Drosslung tatsächlich gibt und die Karten mit 100% laufen würden -> 500Watt? Also 400Watt kommt theoretisch schon recht nah an 100% ran. Geschätzt ist die Drosslung max. auf 90%

Karten durch en Furmark zu schicken empfinde ich eher als langweilig und unsinnig.
Für dein Netzteil ist es nicht langweilig. Prime + Furmark = 100% Systemlast sollte jeder sein Netzteil damit testen... Unsinnig auch nicht, man will ja ein 100% stabiles System haben.


GPGPU ist nicht mit Furmark vergleichbar, sollte man auch wissen ;-).
Warte du nur, DX 11 und Compute Shader dürften der HD 5000 gehörig einheizen...


Eines aber interessiert mich: Gesetzt den Fall, ich kühle den Cypress einer HD5870 mit ner WaKü, die VRMs aber überhaupt nicht und starte den Furmark oder OCCT. Stürzt die Karte dann ab oder throttelt sie sich bis in den 2D-Mode? Oder geht sie in den 2D-Mode und schmiert dann doch noch ab? Habe es bisher nicht getestet
Nice, ein Fall für PCGH in Gefahr :)

Aber ich sehe es hier ziemlich wie y33H@, einfach weil AMD die Karte mit der Rechenleistung ausstattet, aber dann die Platine so designed, dass dabei die Karte abfackelt?

Versprechen vs. Realität? Ich komm mir da als Kunde an sich verarscht vor. Ist halt interessant, dass mit etwas geworben wird, was die Karte grillt und du es deswegen nicht nutzen kannst.
Auch ein Punkt warum man 100% Last packen sollte. 100% agree. Mit DX 11 und Compute Shader wird das auch für Otto normal plötzlich interessant. Vorallem Win 7 prescht da vor.


Natürlich hast du recht, man erhält nicht das was versprochen wird. Aber wo ist das schon so?
Und man soll sich einfach damit abfinden und es durchgehen lassen -> nicht mit mir...
Man will ja für sein hart erarbeitetes Geld 100% Leistung und Qualität haben und nicht 90%


MfG Kasmo
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Man will ja für sein hart erarbeitetes Geld 100% Leistung und Qualität haben und nicht 90%

Wenn du das schreibst, dann verstehst du aber den Sinn meines Beitrages nicht.
Schließlich spielt man keinen Furmark. Zudem sehe ich keine Qualitätsprobleme bei der Karte.

Kasmopaya schrieb:
Und man soll sich einfach damit abfinden und es durchgehen lassen -> nicht mit mir...

Hat doch niemand behauptet. Wenn dus nicht durchgehen lassen willst, dann kauf die Karte nicht.^^

Kamopaya schrieb:
Warte du nur, DX 11 und Compute Shader dürften der HD 5000 gehörig einheizen...

Bis jetzt habe ich nichts negatives darüber gehört. Zudem wird AMD sich da kaum ne Blöße geben
Zudem wird die Karte in anderer Weise ausgelastet. Scheint ja so, als würdest du wollen, das die Karte abraucht, was sie auch ohne Drosselung nicht tun würde.

BTW war die Insolvenz von Qimonda schon lange sogut wie durch. Das wusste AMD schon kurz nach Fertigstellung der HD4k, nicht umsonst haben sie sich da schon nach nem neuen Lieferanten bemüht.
 
Zuletzt bearbeitet:
Schließlich spielt man keinen Furmark. Zudem sehe ich keine Qualitätsprobleme bei der Karte.
Mit 100% Leistung meine ich die versprochenen Flops auf der Verpackung, die bekommt man nicht.
Hat doch niemand behauptet. Wenn dus nicht durchgehen lassen willst, dann kauf die Karte nicht.^^
Richtig, GTX 380 Fermi wirds wohl werden ^^
Zudem wird die Karte in anderer Weise ausgelastet. Scheint ja so, als würdest du wollen, das die Karte abraucht, was sie auch ohne Drosselung nicht tun würde.
Nur mal so ein Beispiel, eine gute Karte muss unter 100% Last im Quad Bündel 100% stabil laufen. Unter extremsten Bedingungen, ohne Murren funktionieren. Dann ist es eine perfekte Qualität, auf die man sich verlassen kann. Man muss es nicht unbedingt brauchen, aber sie muss vorhanden sein!
Die will ich auch von ATI sehen, so hoch sind nun mal die Ansprüche im GPGPU Bereich zb. an eine HD 5870 X2
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
 
Zuletzt bearbeitet:
Nuerne89 schrieb:
diese nörgelei wegen der lautstärke unter windoof nervt. jeder halbwegs erfahrene pc-nutzer kann die lüftersteuerung selber anpassen und nen modifiziertes bios draufflashen oder programme wie ati tray tools nutzen. reserven hat der kühler ja gerade unter windows genug....

Gut, Du übernimmst dann also schriftlich die Garantie im Schadensfall eine neue Karte für mich zu kaufen? Nein? Dachte ich mir.
 
@ y33h@:
ich hab ne sehr schlechte Nachricht für dich:
es gibt dort draußen im RL noch ne Menge anderer Produkte, die so kostruiert sind... mein Lieblingsbeispiel ist, auch wenns eig. um was anderes geht, immer noch das Flugzeug-Beispiel: Jedes Flugzeug hat risse in der Haut/Gerüst, runterfallen tun sie trotzdem net & werden auch trotzdem als voll intakt beworben/verkaufr/verwendet. Würdest du nen Flugzeuug ohne Risse bauen wollen, nunja, das ginge, zumindest so Lange, bis du das Ding in die Luft kriegen sollst... :D
 
y33H@ schrieb:
. Denn das sagt (meiner Meinung nach) aus, dass die Karte in ihrer Gesamtheit seitens des IHVs nicht dafür ausgelegt ist, unter Volllast zu arbeiten - ansonsten bräuchte man ja keine Drossel, wenn die Volllast kein Problem wäre (einfache Logik).

Ja, ja, die liebe Logik. :)
Der Begriff Logik an sich ist sehr gefährlich. Weisst du warum? Weil sie jeden Irrtum (Fehler/ Missverständniss usw) ausschließt.

Dein Argumentationsgang zielt bzw impleziert (auf) folgendes:
=> "Jedes/ Ein Spiel belastet die Grafikhardware absolut gleichmäßig."
Und genau das ist alles andere als korrekt, geschweige denn logisch.
Gegenanzeige? Wahrscheinlich keine. ;)
 
KeepXtreme schrieb:
Würdest du nen Flugzeuug ohne Risse bauen wollen, nunja, das ginge, zumindest so Lange, bis du das Ding in die Luft kriegen sollst
Hmpf, hiermit verweigere ich ergo meinen Hawaii-Urlaub :D

@ MacPok

Ich sprach nur vom Furmark. Und der ist recht gleichmäßig. Oder was meintest du?
 
Ganz einfach:
Du hast versucht Furmark in Bezug zu anderen Anwendungen, insbesondere Games (FPS) zu setzten. Das sagte deine Argumentation jedenfalls aus.
Ergo: seit wann kann man Furmark spielen?


Edit: Du hast es sogehen nicht nur versucht, sondern getan.
 
Kannst du besagten Post bitte verlinken oder shotten? Danke. Ich bin grade nicht sicher, ob ich dich richtig verstehe.
 
Du beschwerst dich über die Volllastdrossel.
Du beschreibst keine Kriterien für die Volllastdrossel außer Furemark und führst folgendes auf:

y33H@ schrieb:
Gesetzt den Fall, der Furmark geht voll auf die FLOPS, sollte eine HD5870 doppelt so schnell sein wie eine HD4890 - mit 24x Edge-Detect packt die das ja. Im Furmark ist sie aber nur 32 bis 44% schneller. (Scherz!)
(Mal im Ernst: Das war in dieser Ausführlichkeit kein Scherz mehr, oder?)

y33H@ schrieb:
Furmark ist Theorie - und eine Anwendung, die so fordert und in der Praxis von Relevanz ist, existiert meines Wissen derzeit nicht.[...] Allerdings kann ich mich dem faden Beigeschmack einfach nicht erwehren :(In der Praxis mit dem theoretischen Exempel Furmark *lach*Bei AMD ist die Differenz zwischen theoretischen FLOPS und in der Praxis erreichten größer als bei NV und dann kommt noch hinzu, dass die FLOPS - wenn sie denn mal wie wohl im Furmark ausgereizt werden - zum Kollaps/Drosseln der Karten führen. Wie gesagt, für den Endanwender egal, aber eben fader Beigeschmack.

Erst wird gesagt, dass Furmark Theorie sei, auf der anderen Seite wird dies bemängelt und mögliche, wenn auch nie in der Art nachgewiesene, Konsequenzen aufgeführt.
Was genau soll ich denn jetzt anderes verstehen als dass jede bzw. eine Karte X in Game X (sogesehen in noch keinem Game tatsächlich nachgewiesene) Furmark´sche Fehlfunktion repliziert?
Ich nehme der Sachlichkeit halber deinen "faden Beigeschmack" wohlwollend zur kenntniss.
Der Rest ist mir aber schleierhaft. Du sagst es ja teilweise selbst: Wo bitte schön entspicht die Furmark´sche Theorie der Realität, wo doch noch keine Karte (weder GeForce, noch Radeon) annähernd ähnliche Verhältnisse bzw. Ergebnisse als diese Abstürze erzielt hat? Was soll an diesen (nicht nur deinen, sonderen auch anderen ) Aussagen (nach) Intention sein? Dass eine Radeon HD5870/50 HD5770/50 unter Furmark einbricht und es in 5 Jahren bei Game X auch tun wird? Wo ist der ultimative Beleg (vlt. anhand der Vorgängergenerationen)?
Wenn es so viele Anzeichen oder Ausfälle gegeben hätte, würde wahrscheinlich ganz CB kopf stehen, aber jende gab es nicht.
Kurz um: Einen (auch nur zurückhaltenden/ bescheidenen) Rückschlüss oder eine Skepsis anhand von Furmark zu formulieren, halte ich für extremst wackelig und somit für unberechtigt/unbelegt bzw. unangebracht. - wie schon immer.
Nix für ungut. :)
 
Zuletzt bearbeitet:
Ich übertrage Furmark nicht auf Spiele.


(Mal im Ernst: Das war in dieser Ausführlichkeit kein Scherz mehr, oder?)
Das "(Scherz!)" gehört nicht zu der zitierten Aussage, das hast du versehentlich mit gequotet.
 
Volker schrieb:
Es ist halt das Schönheitsproblem, dass sie leicht langsamer und dabei teurer ist als eine 4870.
Momentan vielleicht, in konkreten Tests. Aber doch nicht generell. Mit DX11 sieht man ja schon ganz gut, dass selbst die "Kleine" eine 4870 problemlos überholt. Zudem habe ich die Windows Treiber in Verdacht, dass hier noch Optimierungsbedarf für die neue Generation besteht. Wie man zB bei Phoronix nachlesen kann, liegt die 5770 unter Linux auf Augenhöhe mit der 4870, sogar leicht darüber.
Und da die neuere ein deutlich besseres Feature Set hat, ist ein Mehrpreis zur 4870 mehr als gerechtfertigt. Ich frage mich, wo da ein Schönheitsproblem sein soll. Warum begreifen die Leute es nicht, dass man nicht nur für die FPS bezahlt? So schwer ist das doch nicht ...

Kreisverkehr schrieb:
Aber ich sehe es hier ziemlich wie y33H@, einfach weil AMD die Karte mit der Rechenleistung ausstattet, aber dann die Platine so designed, dass dabei die Karte abfackelt?
Wer sagt das? Du solltest nicht alles ernst nehmen, was y33H@ erzählt. Und er erzählt viel, wenn der Tag lang ist. ;)
AMD hätte nicht so viele Shader verbaut, wenn man diese am Ende nicht vollständig nutzen kann. Das wäre ja selten dämlich und ist so sicher wie das Amen in der Kirche. Wie weiter vorne schon geschrieben wurde, weder Spiele noch GPGPU kann man mit Anwendungen wie Furmark vergleichen. Wobei ja selbst bei Furmark nichts darüber bekannt ist, dass die 5xxx Karten drosseln würden. Dann wären sicherlich auch die bisher gemessenen Leistungswerte geringer.

y33H@ schrieb:
Gesetzt den Fall, der Furmark geht voll auf die FLOPS, sollte eine HD5870 doppelt so schnell sein wie eine HD4890 - mit 24x Edge-Detect packt die das ja. Im Furmark ist sie aber nur 32 bis 44% schneller.
Vermutung, Furmark skaliert ebenfalls mit der Bandbreite?
 
gut das warten hat ein ende ... steig ich doch von der 4850 auf die 5850 um der leistungssprung is mir echt zu gering zur 5770 ...
 
Kasmopaya schrieb:
Traurig aber wahr! Liegt wohl daran weil die meisten ihre Strom noch nicht selber bezahlen müssen?

komisch, ich zahle für meine 3 zimmer wohnung samt 4870 stromschleuder und sehr vielen anderen spielzeugen nur 26€ für strom...komisch,gell?


gruß
 
Ich zitiere mal den "ATi Catalyst Radeon HD 5000 Serie" Treiber

"ATI Radeon HD 5900 Series" = ati2mtag_Evergreen, PCI\VEN_1002&DEV_689C
"ATI Radeon HD 5900 Series " = ati2mtag_Evergreen, PCI\VEN_1002&DEV_689D

Also abwarten und Finger weg von den ganzen HD 57k, 58k Zeugs ;)
 
GreatEvil schrieb:
Wieviele Games rufen denn das "Problem" hervor? Keins!? Danke fuer das Gespraech

Nur weil ich "nur" Spiele, diese [meine] Spiele die Karte programmbedingt nicht vollständig auslasten können, kann man auch übern Tellerrand schauen und seltsam finden, dass bei den 4870er die Karten ihre beworbene, volle Leistung nicht entfalten können. Vom Chip her kein Ding, aber PCB/SpaWas sind halt "billig" gekühlt.

gruffi schrieb:
Wer sagt das? Du solltest nicht alles ernst nehmen, was y33H@ erzählt. [...]
AMD hätte nicht so viele Shader verbaut, wenn man diese am Ende nicht vollständig nutzen kann. Das wäre ja selten dämlich und ist so sicher wie das Amen in der Kirche.

Naja, dass die HD4k gedrosselt wird, ist offiziell und somit ist zumindest bei den HD4k der Fall, dass du deine FLOP/s, bzw. du deine Shader nicht vollständig ausnutzen kannst.

Bei HT4U geht man bei den HD5k davon aus, dass durch den Hardwareseitigen Schutz keine Ausbremsung stattfindet, während y33H@ davon ausgeht, dass andere Indizien für ein Ausbremsen sprechen. Bin mal gespannt, wie hier die Geschichte ausgeht.

@ Schinzie

26€/? ... Die HD4870 ist im Idle eine Stromschleuder, oder wie würdest du es formulieren, wenn ein Produkt die doppelte bis dreifache Menge an Strom für die gleiche "Leistung" verballert wie ein Konkurrenz/Vorgänger/Nachfolgeprodukt?

Kleinvieh macht auch Mist.

e:/ Jetz kann ich auch mit der Moralkeule à la Umweltschutz kommen... Wie war das, dass man durch das Ausschalten aller Geräte (also "Aus" statt Stand-by) ein AKW abschalten könnte?

Generell: Meine nächste geplante Karte ist übrigens eine 5850 bis jetzt, eben weil ich "nur" spiele, aber trotzdem interessiert mich der technische Aspekt und der Stromverbrauch (im Idle) ist mir nicht egal... Und damit wieder zur 5770: Ich finde, sie ist trotz jetz geringerer Leistung den Aufpreis zur 4870 wert, eben wegen dem Stromverbrauch und DX11, offiziellem SGSSAA, etwas besserem AF ... Je nachdem wie lange man die Karte betreiben will, amortisiert sich der jetzt noch höhere Preis im Nutzungszeitraum...
 
Zuletzt bearbeitet:
Kreisverkehr schrieb:
Naja, dass die HD4k gedrosselt wird, ist offiziell und somit ist zumindest bei den HD4k der Fall, dass du deine FLOP/s, bzw. du deine Shader nicht vollständig ausnutzen kannst.
Wir sprechen aber immer noch von der 5000er Serie. Und dass bei der 4000er Serie die Shader nicht vollständig genutzt werden können, dafür fehlt jeglicher Beweis. Und nein, Furmark ist keiner. ;)
Übrigens, solche Mechanismen zur Drosselung scheint es bei der Konkurrenz wohl genauso zu geben.
 
Kreisverkehr schrieb:
@ Schinzie

26€/? ... Die HD4870 ist im Idle eine Stromschleuder, oder wie würdest du es formulieren, wenn ein Produkt die doppelte bis dreifache Menge an Strom für die gleiche "Leistung" verballert wie ein Konkurrenz/Vorgänger/Nachfolgeprodukt?

ich hatte meine 4870 ja mit profilen gedrosselt,somit hat sie im idle ca. 30 watt weniger gezogen und konnte als akzeptabel bezeichnet werden.

Und damit wieder zur 5770: Ich finde, sie ist trotz jetz geringerer Leistung den Aufpreis zur 4870 wert, eben wegen dem Stromverbrauch und DX11, offiziellem SGSSAA, etwas besserem AF ... Je nachdem wie lange man die Karte betreiben will, amortisiert sich der jetzt noch höhere Preis im Nutzungszeitraum...

SGSSAA kannst du bei der Leistung und Bandbreite gar nicht nutzen, es gibt bis dato nur einen DX11 titel (was jetzt noch nichts zu heißen hat), AF ist besser, geb ich dir recht. Hab bei Crysis einen netten Vergleich zwischen meiner 4870 und 5870 machen können... die 5770 ist klar besser als die 4870 im referenzdesign, ja,weil diese auch laut ist. allerdings bin ich der meinung,dass man für 30€ weniger eine leisere und schnellere Karte kriegt,die man mit ein wenig Handarbeit auch sparsam designen kann.

Einzig AF und DX11 fehlen ihr dann. SSAA kannst du bei ihr auch aktivieren,wobei das noch Probleme macht. Allerdings geht die Kühlung und die Qualität der 5770 referenz gar nicht, da wäre ne VaporX ist ähnlcih wünschenswert.

Mark3Dfx schrieb:
Ich zitiere mal den "ATi Catalyst Radeon HD 5000 Serie" Treiber
;)

alter schwede,das wärs, eine high end serie vom Cypress.


gruß
 
Zuletzt bearbeitet:
die bandbreite kann man nicht mehr viel steigern,damit ist sie für höhere Auflösungen plus Bildverbesserung nicht zu gebrauchen..sprich ab 22" mit MSAA sowie AF.

Der Lastverbrauch,wenn man sie übertaktet, dürfte sich noch um 20watt unterscheiden...20watt, das ist eine schreibtischsparlampe.

und sparsamer kriegt man die 5770 au nema.

Edit:

Was aber geil wäre,wäre eine schön übertaktete 5770 (vor allem der VRAM) mit einem leisen Alternativkühler (VaporX, AcceleroS1 etc). Dafür würde ich dann auch gerne 160 ausgeben und jede 4870 hinter mir lassen.

gruß
 
Zuletzt bearbeitet:
Zurück
Oben