Test Radeon HD 5770 im Test: Nicht ganz die optimale Leistung für 140 Euro

Zwirbelkatz schrieb:
In meinem Gesamtpaket ist der Stromverbrauch ebenfalls enthalten, dort sieht sie kein Land.
Wenn man die 5770 so takten würde, das die so schnell wäre wie eine GTX 260, wie wäre dann der Verbrauch ;).
Dazu kommt, das ich mit dem Stomverbrauch kein Problem habe, weil ich mir einfach ein vernünftiges Bios bastel :)
 
Daniel D. schrieb:
Habe ich das überlesen, oder ist der Verfasser kaum auf die hervorragende Skalierung in CF eingegangen? Von den Mikroruckler mal abgesehen...
Gerade die Situation um die Mikroruckler würde mich auch brennend interessieren, obwohl ich vermute, daß sich diesbezüglich nichts getan hat.
 
Also ich würde ja bei allen HD5xxx erstmal mit nem dremel die slotblenden bearbeiten, weil da arg zuwenig luft aus dem gehäuse gepustet wird.

Bei meier HD4870 hab ichs auch schon gemacht und dir wurd dadurch ne ganze ecke kühler & leiser, weil der lüfter nich mehr so dagegen powern muss.
 
Tectrex schrieb:
Wenn man die 5770 so takten würde, das die so schnell wäre wie eine GTX 260, wie wäre dann der Verbrauch ;).

Nene, Moment mal. Die GTX260 liegt ca. 50% über dem Stromverbrauch unter Last. Da muss man schon nen Voltmod mit Atombetrieb fahren, damit sich das Ergebnis einstellt ;)
Übrigens verbrauchen diese Karte in Relation zum Mehrwert durch Übertakten einen nur sehr geringen Mehraufwand an Strom:

Klick

Vermutlich wird man die HD5770 mit DX11 gar nicht mehr takten müssen und sie wird der GTX260 ohnehin den Rang ablaufen. Dafür wiederum hat sie kein CUDA, das sind beides so ominöse Vorteile, die bislang meist eigentlich in Wirklichkeit keine sind.

Der Lastverbrauch im idle interessiert mich hier nicht, beide machen das ganz gut. Aber nicht jeder frickelt an seiner Karte mit dem RivaTuner herum.

uuuuu.jpg


Wenn in einem Monat der Artikel gelesen wird, werden sich dann einige Wundern, welche sich dann auch über die Preisgestaltung informieren, dass das Fazit bezüglich der Preise nicht stimmt.
Ich bezweifle doch stark, dass sich der Großteil logisch informiert. Son Test wird von vielen leider als bare Münze genommen und man darf wieder wochenlang dagegen anschreiben.
 
Zuletzt bearbeitet:
schade das die lücke zwischen 5770 und 5850 so groß ist, damit habe ich nicht gerechnet.

dann werde ich wohl ein paar euro drauflegen müssen, aber das lohnt sich ja, da die 5850 deutlich schneller ist.
 
Nettes Stück Grafikbeschleuniger, mit ein paar Schwächen, die hoffentlich bald der Preis und eine ordentlich eingestellte Lüfterregelung ausbügelt.

Wenn man die Architektur der Chips Juniper und Cypress anschaut, so scheint der Juniper eine rel. günstige Methode seitens AMD zu sein, einen Midrangechip zu entwerfen.
Es sieht imho so aus, als müsste einfach ein Cypress-Die in der Mitte geteilt werden, um 2 Junipers zu erhalten. Natürlich ist das in der Realität nicht so, aber die Entwicklung einer funktionierenden Maske für diese Fertigung sollte AMD dementsprechend leicht gefallen sein und günstig dazu.
Es scheint so, als wäre der Cypress "2-fach-modular" ähnlich eines Schmetterlings geplant und gefertigt, für den Juniper musste dann lediglich ein "Flügel" gekappt werden.

Die ganze Architektur der beiden Chips zeigt jedoch eine Schwäche, die Speicherbandbreite auf Grund des SIs. (viel schnelleren GDDR5 bekommt man im Moment nicht.)
Nunja AMD wird sich dabei was gedacht haben, vlt. auch während der Planungen angenommen haben, dass evt. deutlich schnellerer GDDR5 zum Releasezeitpunkt hin verfügbar wird. Leider ist dem nicht so, und man kitzelt aus dem jetzt vorhandenen mit eff. 4800 schon fast das letzte Quentchen raus.

Gruß
Raubwanze
 
Zuletzt bearbeitet:
Dav|id schrieb:
Hallo Computerbase.de

Mal "Butter bei den Fischen" Wieviel Geld bekommt Ihr für eure zwar gute, aber ganz klar nVidia lastige Beurteilungen ?


MfG

Gehts noch? Nur weil sie die Wahrheit sagen musst Du die FanBoykeule auspacken.


Ich hätte mir auch erhofft, dass sie zwischen 4870 und 4890 liegt und dazu sauleise. Na ja wird wohl nichts.
 
Warum wird immer noch bei Anno 1404 die Version 1.0 genommen? Mich würde interessieren, ob ein offizieller Test mit dem neuen Update + ATi-Grafikkarte die Grafikfehler echt verschwinden wie von mehreren schon berichtet wurde. Auf so einen Test von euch warte ich, weil dann würd ich mir auch die aktuellen CCC-Treiber installieren. Zumal das Update für Anno 1404 ja schon ein paar Tage draußen ist.
 
Diese Karte macht CF erstmals richtig interessant. Man hat dann Leistung wie 4870X2 , aber nen Verbrauch wie eine GTX275. Das ist echt super. ich glaube, da wandern 2 Stück zu mir :)
 
Beim dem Unterschied zwischen HD5770 und HD5850 habe ich einen kleinen Funken Hoffnung auf eine mögliche HD5790... Wär doch mal ne Tolle Sache, eventuell mit mehr SI.
 
ReptileX2 schrieb:
Wär doch mal ne Tolle Sache, eventuell mit mehr SI.

ATi Radeon HD5790
G-Ram: 1536 MiB GDDR5 @ 2800 Mhz
Speicherinterface: 192 Bit
Chiptakt / Shadertakt: 925 Mhz
FLOPs (MADD/ADD): 1.600 GFLOPs
Stromverbrauch: 100 Watt

:lol: :cool_alt:
*schwelg*
 
Danke für den Test!

Im Gesamtpaket eine gute Karte, jetzt fehlt im Portfolio nur noch eine Karte zwischen 5770 und 5850, vllt 5790 oder sogar eine 5830.
 
MMn braucht die ganze Serie mehr Speicherbandbreite.
Mich wunderts ja, dass die Karte nicht mit den vorab vermuteten 1120 SPs gekommen ist, so klafft doch eine recht große Lücke zwischen 5850 und 5770. Nicht unwahrscheinlich, dass da noch was kommt. Die Zeiten, in denen die x770 schneller ist als die x830 der selben Serie, sind eben vorbei^^
 
ReptileX2 schrieb:
Beim dem Unterschied zwischen HD5770 und HD5850 habe ich einen kleinen Funken Hoffnung auf eine mögliche HD5790... Wär doch mal ne Tolle Sache, eventuell mit mehr SI.

Zwirbelkatz schrieb:
ATi Radeon HD5790
G-Ram: 1536 MiB GDDR5 @ 2800 Mhz
Speicherinterface: 192 Bit
Chiptakt / Shadertakt: 925 Mhz
FLOPs (MADD/ADD): 1.600 GFLOPs
Stromverbrauch: 100 Watt

Sorry, ich denke mehr SI wirds nicht geben, das würde eine Neuentwicklung des Chips bedeuten, so einfach lassen sich da 64bit nicht dranhängen.
Um die Lücke zu schliessen, muss der Juniper für eine 5790 noch enorme Taktreserven haben, oder, und das halte ich für wahrscheinlicher, man beschneidet einen Cypress um etwa 5 Shadercluster + die 20 dranhängenden TMUs + Taus, behält das 256SI mit den 32 ROPs und pappt eff. 3200-3600 GDDR5 dran. Voila 5830 geboren.
Nuja vlt. gibts auch beides.

AMD wäre es mit Sicherheit lieber einen Juniper hochzutakten und mit nicht vorhandenem 6-7Gbit/s-GDDR5 zu bestücken,um eine 5790 zu realisieren. Man könnte da deutlich mehr Gewinn einfahren als bei einem beschittenen Cypress.
Aber ein Zwischending aus Juniper und Cypress mit 192bit SI werden sie wohl nicht neu entwickeln. (zumal die Pläne schon lange in der schublade liegen müssten, um das zeitnah zu realisieren)

ZUM SI noch mal allgemein:
Ich glaube wirklich, dass AMD bei der Planung der Chips Cypress und Juniper von der Verfügbarkeit von schnellerem GDDR5-Speicher ausgegangen ist.
Ich denke mit dem heutigen Kenntnisstand diesbezüglich, hätten sie damals den Cypress und den halben Cypress alias Juniper als 384bit SI (respektive 192bit SI) Chip geplant.

Gruß
Raubwanze
 
Zuletzt bearbeitet: (Rechtschreibung ausgebessert)
@Wanze
Du hast Recht, eine HD5830 scheint mir persönlich auch logischer. Der "Gap" ist einfach zu groß zwischen der HD5770 und der HD5850.
 
so habe mir die 5750 gegönnt, da ich einfach nicht mehr leistung brauche, bzw die auch völlig ausreicht. einzig die lautstärke ist ein wenig unangenehm, aber ich denke das wird sich noch regeln lassen können!
 
Leichte610 schrieb:
Warum wird immer noch bei Anno 1404 die Version 1.0 genommen? Mich würde interessieren, ob ein offizieller Test mit dem neuen Update + ATi-Grafikkarte die Grafikfehler echt verschwinden wie von mehreren schon berichtet wurde. Auf so einen Test von euch warte ich, weil dann würd ich mir auch die aktuellen CCC-Treiber installieren. Zumal das Update für Anno 1404 ja schon ein paar Tage draußen ist.

Ja wir wissen das, nur wird ein Test nicht von heute auf morgen und auch nicht an zwei Tagen geschreiben. Dir ist vielleicht aufgefallen, dass es einige Artikel im Bereich der Grafikkarten in den letzten 14 Tagen gab. Wieviel Zeit hat man dann nebenbei, um ein Spiel zu patchen und die Karten da alle nochmal neu zu vermessen? Genau, gar keine! Ein Update komtm da sicher, wenn es auch mal einen finalen Treiber von AMD für alle neuen Karten gibt. Solange wir uns da mit Vorabversionen rumschlagen, brauchen wir über einen Spielepatch kaum Worte verlieren.
 
Zurück
Oben