Test Radeon HD 5770 im Test: Nicht ganz die optimale Leistung für 140 Euro

Schaffe89 schrieb:
Nunja 2 HD5770 sind so schnell wie eine HD5870.
Wie das denn? Eine HD5770 ist weniger als eine halbe HD5870. Zudem kommt die Skalierung und die µRuckler dazu.
Schaffe89 schrieb:
Und die Skalierung liegt bei 80%, also besser als bei der HD4870.
Warum sollte eine HD5770 besser skalieren als eine HD4870?
Schaffe89 schrieb:
Der Verbrauch ist auch nicht sonderlich hoch.
2x HD5770 verbraten idle bald das doppelte einer HD5870 und in 3D sowieso.
 
Ziemlich Kritischer Einsteig von dir. Erinnert ziemlich an Polemik.
Habe schließlich das CF nicht in den Himmel gelobt.
Hab es ja lediglich für Bastler vorbehalten. Wenn beide Karten bald nur 115 Euro kosten und die HD5870 immernoch bei 300 rumdümpelt, kann da ein Bastlerherz durchaus schwach werden, nicht zuletzt wegen 2x1024mb und guter Übertaktbarkeit.
y33H@ schrieb:
Wie das denn? Eine HD5770 ist weniger als eine halbe HD5870.
Was haben Specs jetzt bitte mit der Leistung zu tun die hinten rauskommt.
Du hast doch selbst angeprangert, dass die HD5870 nicht ihr potential ganz ausnützt.
Die Skalierung einer 2ten HD5770 war besser als bei einer 2ten HD4870.
In 3D verbrauchen sie nicht das doppelte, wie kommst du darauf?
Furmarkwerte zählen nicht. ;-)

Edit: Unter last sinds 30Watt mehr Verbrauch. Die Leistung liegt meistens ein paar Prozentpunkte drüber.
µruckler will ich nicht unterschlagen, das wäre lächerlich. Welche Skalierung kommt dazu? Die Skalierung ist gut.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Ziemlich Kritischer Einsteig von dir. Erinnert ziemlich an Polemik.
Lange nicht mehr so gelacht.
Schaffe89 schrieb:
Du hast doch selbst angeprangert, dass die HD5870 nicht ihr potential ganz ausnützt.
Aber die HD5770 tut es oder wie? :lol:
Schaffe89 schrieb:
Was haben Specs jetzt bitte mit der Leistung zu tun die hinten rauskommt.
Du kannst mit einer halbierten HD5870 diese mit AFR nicht überholen, das ist technisch nicht möglich.
 
@ Schaffe89

Nein, der VRam addiert sich nicht.

@ gruffi

Nein, der Chip kann eben nicht alle Shader auslasten, weil da AMD die HD4k ausbremst und bei der HD5k stehts noch im Raum. Nur weils Spieler leistungsmäßig egal sein kann, bedeutet es nicht, dass es nicht auch Spieler interessiert.

Warum regt sich eigentlich keiner bei Prozessoren auf, wenn man mit Prime o.ä Programmen auf Stabilität testen, wenn man dennoch nur spielt? Vor allem, weil Grakas und Hauptprozessoren nicht vergleichbar sind.
 
Kreisverkehr schrieb:
Nein, der VRam addiert sich nicht.

Wo hätte ich das behauptet? Meinte den vergleich zu 2x 512mb.
Klar dass 2x512 oder 2x 1024mb sich nicht addiert. War vielleicht etwas ungeschickt ausgedrückt, da hast du recht.

y33H@ schrieb:
Du kannst mit einer halbierten HD5870 diese mit AFR nicht überholen, das ist technisch nicht möglich.

Und wieso erreichen dann 2 HD5770 die FPS einer HD5870? Ich versteh dein Argument nicht. Einmal redest du so und dann mal wieder so rum.
Aber wir erreichen bereits das im Kreisdrehen/Polemik.
 
Zuletzt bearbeitet:
@ Schaffe89

Dachte, du meinst dass die durch 2*1024MB im Gegensatz zu den 1024MB der 5870 im Vorteil wären. Deswegen bin ich auf die Idee gekommen, dass du den Vram addierst.
 
y33H@ schrieb:
Du kannst mit einer halbierten HD5870 diese mit AFR nicht überholen, das ist technisch nicht möglich.

Hmm, versteh ich nun auch nicht, aber wahrscheinlich weiß ich zu wenig über AFR.

AFR bedeutet doch im Endeffekt, dass jede GPU an einem Frame rechnet. Das heißt bei Crossfire mit 2GPUs, es werden immer an 2 Frames gleichzeitig gerechnet. Dazu ist noch Kommunikation zwischen den GPUs notwendig.

[Theorie an]
In kleinen Auflösungen und Einstellungen haben doch nun das Crossfire-gespann den (eig. zweifelhaften, siehe Inputlag) Vorteil mit dem gleichzeitigem Rendern an 2 Frames ihre 2x800 ALUs + 2x40 TMUs + 2x16 ROPs besser auslasten zu können, als die Einzelkarte mit der Berechnung von einem Frame ihre 1600 ALUs + Rest. Und dieser Vorteil könnte mehr FPS generieren, als die Kommunikation zw. den GPUs wegnimmt.
In größeren Auflösungen und Einstellungen wird auch die Einzelkarte ihre 1600 ALUs besser auslasten können, und sie wird durchgängig vorbeiziehen.
[/Theorie aus]

Hier im CB-Test kann die 5870 erst in 25x16 mit 4/8xAA durchgängig an dem CF-Gespann 5770 (die ja eine "halbe" 5870 ist) vorbeiziehen, in niedrigeren Auflösungen liegt dagegen das CF-Gespann vorne, in der niedrigsten mit 3% im Schnitt am "Deutlichsten".
Mal ohne Blick auf die "Qualität" der FPS formuliert und ohne CF loben zu wollen, nur theoretisch betrachtet ohne die praktischen Missstände von Doppel-GPU.

Wie kommt das, wenn yeeh@s obige Aussage stimmt?

Gruß
Raubwanze
 
Zuletzt bearbeitet:
DAs problem ist, dass in größeren Auflösung die HD5870 schlichtweg nicht vorbeizieht, sieht man ja am Test.
 
@Schaffe

hmm, jetzt mal nur das Performance-rating herangezogen:

Bis 19x12 8xAA liegt das CF mit bis zu 4% vorne
Mit 25x16 no AA beide gleich,
mit 25x16 4xAA liegt die Einzelkarte mit 8% vorne.

Generell ging es mir ja darum, warum ein CF mit AFR aus techn. Gründen nicht an eine gleichstarke Einzelkarte in der Theorie vorbeiziehen kann, laut yeehas Aussage, dies aber in der realen Welt der FPS trotzdem passiert. Deshalb auch mein spekulativer theoretischer Erklärungsversuch oben.

Gruß
Raubwanze

EDIT: Welche Werte? Mich interessieren die techn. Gründe, die dagegen sprechen und eine mögliche Begründung, warum es in der Realität trotzdem passiert, und hier in Regelmässigkeit, dass CF schneller ist als die gleichstarke Einzelkarte.
 
Zuletzt bearbeitet:
Die theoretischen Werte von y33H@ sind schon richtig nur sind die für mich uninteressant.
Weil ich Leistung möchte.
 
Wenn ich etwas sportliches mit vier Räden will,
binde ich mir doch auch nicht zwei Suzuki GSX-R 1000
für je 12'000 EUR zusammen. Ich kaufe mir einen
Honda Civic Type R für 22'000 EUR. :D
 
Zuletzt bearbeitet:
Kreisverkehr schrieb:
Nein, der Chip kann eben nicht alle Shader auslasten, weil da AMD die HD4k ausbremst
Wie oft denn noch, wir reden von der 5000er Serie. :rolleyes: Und weder bei der 5000er noch bei der 4000er Serie ist irgendetwas davon belegt. Da kannst du noch so viele vermeintliche Indizien als aussagekräftig ansehen, das ändert an den Fakten nichts. Im Gegenteil, GPGPU Anwendungen, die auch ATI vollständig unterstützen, zeigen bisher eher das Gegenteil, indem sie die Relation von theoretischer Performance auch real gegenüber der Konkurrenz widerspiegeln.

Kreisverkehr schrieb:
Warum regt sich eigentlich keiner bei Prozessoren auf, wenn man mit Prime o.ä Programmen auf Stabilität testen, wenn man dennoch nur spielt?
Keine Ahnung, ob du mich konkret ansprichst. Ich sage aber schon länger, dass Prime kein geeignetes Tool ist, um auf Stabilität zu testen.
 
@ gruffi

Bei der HD4k ist es Fakt, alleine schon daher belegt, dass "früher" exe-Umbennung eine deutlich höhere Last erzeugte im Furmark. Das kannst du nicht abstreiten.
So, und jetzt - ich wiederhole mich - kommen wir zur HD5k: Bei dieser ist es nicht bewiesen, die eine Quelle spricht von keiner Drosselung, die andere spricht von einer Drosselung auf Grund von Indizien.

Da die Drosselung eigentlich unnötig ist bei der neuen Serie, möchte ich wissen, ob hier die Hardware - schon wieder - nicht für Vollast ausgelegt ist, oder ob sich das geändert hat.

Bei doppelter Präzision wird nur 1/5 der theoretischen FLOP/s ausgenutzt, aber wenn einfache Genauigkeit verlangt ist, kommen wir zur maximalen Auslastung.
Was ist, wenn ich 4 X2 auf nem 790FX stecke, um diese 8GPUs unter extremsten Bedingungen an einem Problem mit einfacher Genauigkeit rechnen lassen will, sei es zum Passwort-Knacken um die Verschlüsselungssoftware/Sicherheit des PW zu prüfen?

Muss ich dann auf eine GTX295 zurückgreifen, die theoretisch weniger leistet, aber dafür überlebt und ohne Drosselung am Ende mehr leistet?

Prime ist ein theoretisches Teil, was den Prozessor auslasten soll, CoreDamage ist von theoretischer Natur. Diese theoretischen Programme werden zur Bestimmung der maximalen Leistungsaufnahme von Prozessoren bestimmt, aber komischerweise meckert da keiner, dass es nicht praxisbezogen sei. Warum nicht? Dabei sind die Grakas doch viel leichter durch ihre massive parallele Architektur doch viel leichter Auszulasten als ein Prozessor, der quasi das Mädchen für alles ist im Gegensatz zur Graka?
 
gruffi schrieb:
... Ich sage aber schon länger, dass Prime kein geeignetes Tool ist, um auf Stabilität zu testen.
Mal so ganz nebenbei: Was nimmt man dann? Weil ich teste Notebookstabilität vorerst mmernoch damit, dass ich mprime/Blend im Hintergrudn laufen lasse, während ich bezogen auf Notebookhardware sehr grafiklastige Spiele spiele. Ich weiß nicht wie ich mir sonst helfen soll. :confused_alt:
 
Kommt drauf an sie man Vollast definiert.

Kreisverkehr schrieb:
Muss ich dann auf eine GTX295 zurückgreifen, die theoretisch weniger leistet, aber dafür überlebt und ohne Drosselung am Ende mehr leistet?

Tja ganz sicher nicht. Übertreibung.
Ich denk gar nicht mal dass, wenn eine Drosselung drinnen ist die etwas mit der zu hohen Auslastung zu tunnhat.
 
DriveByFM schrieb:
Warum sind die denn im DX11 schneller als in DX10.1 ich dachte das würde mehr Performence kosten wie bei DX9 und DX10:D

Lies den Test doch erstmal durch - da steht geschrieben, warum dies so ist :freaky:;)

y33H@ schrieb:
Lange nicht mehr so gelacht. ...
Aber die HD5770 tut es oder wie?


und schon lange nicht mehr so asoziales Verhalten beobachtet :freak:



Wenn sich Menschen an Testberichte halten - und lt. dem Performance-Rating die 5770 im CF durchweg schneller ist, als eine 5870 - ist doch dieser Gedanke nicht ganz so abwägig.

Naja - wer auf 2560x1600 4xAA/16xAF spielt - würde hier nicht so groß rumblasen, da eine Mittelklasse hier wohl kaum reizt.

Aber gibt ja Menschen, die einen eher schmalen Horizont haben.
 
Zuletzt bearbeitet:
@Kreisverkehr

Wofür implementiert man Schutzmechanismen?
Ab wann springt die Volllastdrossel an? Wie Verhält sich diese Drossel in der Realität? Werden sämtliche Volllastspitzen mit ihr abgefangen?
Ist das Furmark´sche Ergebniss überhaupt auf irgendeine realitätsnahe Anwendung übertragbar?
Welches software-seitige Kriterium deckt Furmark überhaupt ab bzw. welche software-seitigen Rückschlüsse kann man sich anhand dieser Ergebnisse erlauben?
 
Zurück
Oben