Test Neue ATi-Grafikkarten im Test: Radeon HD 4850 und eine Vorschau zur HD 4870

sehr schön ATi!!!!
die 280gtx dürfte dann auf alle fälle von der neuen X2 eingeholt sein...
also ganz ehrlich die P/L bei nvidia stimmt auf gar keinen fall -.-

ich freu mich schon auf den start der 70er....
wie siehts eigentlich aus mit dem verbrauch?
hab ein 530 watt be quite und wollte eigentlich CF...
egal ob jz die 4850er oder die große schwester...
geht das überhaupt?
 
Wirklich ein schöner Test. Hat Spaß gemacht, ihn zu lesen. Ich glaub jetzt werde ich mich endlich von meiner X1950 Pro trennen.

Da hat ATi also die Stream-Prozessoren um den Faktor 2,5 erhöht - nicht schlecht. Aber das Verhältnis von TMUs zu Stream-Prozessoren hat sich nicht verbessert. Die TMUs wurden auch "nur" um den Faktor 2,5 erhöht. Damit ist das doch immer noch ein Flaschenhals, oder nicht?

Ich weiß ja, dass man die unterschiedlichen Architekturen von ATi and nVidia nicht vergleichen kann. Aber mittlerweile hat ATi mehr Vec5 Shader ALUs als nVidia Skalare Shader-Prozessoren. Warum ist die 9800 GTX denn immer noch gleich auf (in 1280er Auflösung mit AA/AF, darüber ist die 4850 etwas schneller) mit 4850?

€dit: Gut, wahrscheinlich ist es der Shadertakt bei nVidia, der hier den Unterschied macht. G92 scheint mir die effizientere Architektur zu sein.
 
Zuletzt bearbeitet:
Freynhofer:


Wenn du wirklich eine überteuerte 98GTX+ kaufst die jede normale 98GTX packt, die aber auch überteuert ist, tust du mir leid !
Zumal es sich nicht mehr ändern wird, musst halt auf einen S1 zurück greifen, kostet dich weniger als eine masos überteuerte Nvidia Karte zu kaufen !
 
Wolfgang schrieb:
.... beim RV770 [....] fallen die Leistungssteigerung bei der reinen Auflösungsskalierung ohne Anti-Aliasing sowie anisotroper Filterung deutlich geringer als in den vorherigen Testsituationen aus. Zwar kann sich der RV770 aufgrund der höheren Rohleistung durchgängig vor den RV670 setzen, von den Werten eines GT200 ist die GPU aber noch weit entfernt.

Die Auflösungsskalierung hängt doch auch von der Speicherbandbreite ab. Radeon HD4870 wäre hier zur GTX 280 und HD3870 ein angemessener Vergleichsgegner.

---

BTW. Warum ist bei der GeForce 9800 GTX Hybrid-SLI ein Kreuzchen in den technischen Daten, anstatt eines Häckhens? GeForce 9800 GTX unterstützt doch HybridPower.
 
Zuletzt bearbeitet:
rEpLaYmEr schrieb:
Die Vorschau der 4870 schaut schlecht aus für ATi, da muss man wieder sagen: Nvidia ist derzeit immernoch in der Lage, ATi zu dominieren...schade ATi, wieder nicht geschafft das echte High-End Segment anzugreifen
Dir ist aber schon klar, ATI hat einen Mainstream Chip entwickelt, nVidia hingegen einen High-End Chip, der nur schlappe 125% grösser ist? :rolleyes: Und dabei kann sich nVidia gerade mal 10-20% leistungstechnisch absetzen. Wer hatte da wohl das bessere Konzept? Und die 4870 X2 kommt ja auch noch. ;)

Cursy schrieb:
Da hat ATi also die Stream-Prozessoren um den Faktor 2,5 erhöht - nicht schlecht. Aber das Verhältnis von TMUs zu Stream-Prozessoren hat sich nicht verbessert. Die TMUs wurden auch "nur" um den Faktor 2,5 erhöht. Damit ist das doch immer noch ein Flaschenhals, oder nicht?
Sieht jedenfalls nicht so aus. Man sollte nicht vergessen, die Shaderleistung beim RV770 wurde ja auch für andere Sachen implementiert, zB Physik.

Cursy schrieb:
Ich weiß ja, dass man die unterschiedlichen Architekturen von ATi and nVidia nicht vergleichen kann. Aber mittlerweile hat ATi mehr Vec5 Shader ALUs als nVidia Skalare Shader-Prozessoren. Warum ist die 9800 GTX denn immer noch gleich auf (in 1280er Auflösung mit AA/AF, darüber ist die 4850 etwas schneller) mit 4850?

€dit: Gut, wahrscheinlich ist es der Shadertakt bei nVidia, der hier den Unterschied macht. G92 scheint mir die effizientere Architektur zu sein.
Du sagst es, der Shadertakt ist bei nVidia deutlich höher. Das gleicht vieles aus. Man sieht aber, dass der RV770 noch enorm viel Potenzial hat. G92 bricht bei hohen Einstellungen ziemlich weg. Und GT200 kann sich kaum erkennbar absetzen. RV770 scheint daher momentan die effizienteste Architektur zu sein. Da braucht man sich nur mal die Chipgrössen anschauen, 256 mm² (RV770) vs 330 mm² (G92) vs 576 mm² (GT200).

@topic
Die Leistungsaufnahme ist in der Tat ungewöhnlich hoch. Ich denke, ihr habt ein wenig aussagekräftiges Ergebnis mit UT3 @ 2560x1600. Ein Spiel alleine ist eher ungeeignet für sowas. Man müsste schon eine ganze Reihe von Spielen und Einstellungen testen, um einen aussagekräftigen Mittelwert zu bekommen. Hardwarecanucks hat zB ganz andere Werte für Load (3dmark06 peak):

HD 4850 = 100%
9800 GTX = +24W
HD 4870 = +51W
GTX 280 = +118W

Diese Ergebnisse sind jedenfalls plausibler.

Idle kann man momentan wohl vergessen, wenn die Spannung tatsächlich noch nicht abgesenkt wird.
 
Zuletzt bearbeitet:
eigentlich ganz geile ergebnisse da kann man p/l mässig nichts sagen, wann soll eigentlich die 4870 X2 kommen?
 
ich hätte eigendlich die selbe frage wie @daniel0711

wann kommt eigendlich die 1GB variante der 4870?

wenn ich eine kauf dann nur ne 1gb version ist glaub ich bei einem 24" bildschirm besser

MfG
 
-WATC- schrieb:
Wenn du wirklich eine überteuerte 98GTX+ kaufst die jede normale 98GTX packt, die aber auch überteuert ist, tust du mir leid !
Zumal es sich nicht mehr ändern wird, musst halt auf einen S1 zurück greifen, kostet dich weniger als eine masos überteuerte Nvidia Karte zu kaufen !

Ich habe zur Zeit ja schon eine 9800 GTX drin und da lohnt sich der Umstieg zur 4850 absolut garnicht :(.

Und ein weiterer Vorteil der 9800 GTX/+ wäre, daß man seine Garantie nicht verliert, da man den Kühler nicht wechseln muß.

Naja, wie ich ja schon geschrieben habe, warte ich jetzt mal erste Ergebnisse der 4870 ab und werde mich dann entscheiden...
 
das mit dem hohen stromverbrauch bei der 4870 kann ich mir schon denken... vermutlich hat ati bis zu letzt gewartet was nv mit der gbtx260 bringt und dann eben entsprechend die 4870 getaktet. bedeutet zwar ne höhere voltzahl und daher mehr stromhunger, ist aber das gleiche wie das was nv mit der 8800gt gemacht hat. die sollte eigentlich auch niedriger getaktet werden, aber nv wollte auf biegen und brechen an der 3870 vorbei ;) darum auch damals die kühlerdiskusion im vorfeld...
ist zwar jetzt schade bei der 4870 dass der verbrauch so hoch ist, aber die leistung in bezug auf die gtx260 rechtfertigt die maßnahme imho durchaus. kluger schachzug von ati ;)
 
rEpLaYmEr schrieb:
Die Vorschau der 4870 schaut schlecht aus für ATi, da muss man wieder sagen: Nvidia ist derzeit immernoch in der Lage, ATi zu dominieren...schade ATi, wieder nicht geschafft das echte High-End Segment anzugreifen

High-End-Segment für 220 Euro? Gehts dir noch gut? ^^

Die High-End-Karte kommt noch und wird auch so viel wie die GTX280 kosten, der R700 mit 2 x 4870. Ich glaube kaum, dass die GTX280 da dann noch mithalten kann...

Niemand hat behauptet, dass die 4870 die GTX280 schlagen wird, was bei halbem Preis ja wohl der Witz schlechthin wäre.
 
gruffi schrieb:
Du sagst es, der Shadertakt ist bei nVidia deutlich höher. Das gleicht vieles aus. Man sieht aber, dass der RV770 noch enorm viel Potenzial hat. G92 bricht bei hohen Einstellungen ziemlich weg. Und GT200 kann sich kaum erkennbar absetzen. RV770 scheint daher momentan die effizienteste Architektur zu sein. Da braucht man sich nur mal die Chipgrössen anschauen, 256 mm² (RV770) vs 330 mm² (G92) vs 576 mm² (GT200).
Ja, von der Cjhipgröße her steht ATi besser da. Aber guck die mal die Transistorzahlen an:

GeForce 9800 GTX: 754 Mio.
Radeon HD 4850: 965 Mio.

ATi hat mit 27% mehr Transistoren nicht gerade 27% mehr Performance als die 9800 GTX.
 
@ Bullet Tooth genau so schuat es aus

da gerade da wo eine highendkarte stark sein muss hohe auflösungen und hohe qualitätseinstellungen die neuen nun stark sind scahut euch mal die werte der 4850 im cf da macht ein gespann aus 2X150 euro karten ne 500 euro higendkarte nass und auch noch in einen nv optimierten crysis

oder ac in 2560x1600 4xAA/16xAF:
58,Xfps 4850 cf
35,Xfps GTX280
 
Zuletzt bearbeitet:
Dann wird nVidia mit 2x280gtx nachlegen und was macht Ati dann? Lustig wie ihr immer Äpfel mit Birnen vergleicht.

@ BobderBagger

Und man hat Mikroruckler. Das wird immer so schön unter den Tisch gekehrt.
 
gruffi schrieb:
Dir ist aber schon klar, ATI hat einen Mainstream Chip entwickelt, nVidia hingegen einen High-End Chip, der nur schlappe 125% grösser ist? :rolleyes: Und dabei kann sich nVidia gerade mal 10-20% leistungstechnisch absetzen. Wer hatte da wohl das bessere Konzept?

Man muss sich auch mal die Taktraten anschauen. G200 wurde für einen kleineren Fertigungsprozess entwickelt, der dann auch höhere Taktraten innerhalb der TDP erlauben wird. Für 65nm wäre ein Chip mit nur so vielen Einheiten wie dem GTX 260 aber dafür höheren Taktraten besser. Ein Shrink wird aber wohl relativ schnell kommen.
 
Zuletzt bearbeitet:
cerone, die kostet dann aber auch 1000 euro im gegensatz zu 300.
es geht um preisleistung. das ist nunmal das zauberwort in dem segment.
 
@AvenDexx:
Dem Vantage die DLL's zu überschreiebn ist doch Cheaten oder nicht wie würdest du das denn bennen. Wenn der fix von den 3DMark machern kommen würde hätte ich nix dagegen. Aber wenn ein Treiber die DLL's anderer Programme überschreibt dan nenne ich es Cheat.
ATI Cheatet auch das nennt sich dann Catalyst AI und den kann mann eben abschalten bei nVidia ist dafür nix vorgesehen.
 
ISt zwar schade, dass Ati auch diesmal nicht NV überholen konnte, aber das P/L ist so gut, da kann sogar Unyu nix gegen sagen.
 
Sorry, aber wenn einem das Ergebnis nicht passt oder man es nicht deuten kann, wird sofort gebrüllt, dass ein Hersteller "cheatet". Ist das nicht ein klein wenig übertrieben?

Naja, du kennst doch den PCGHW Artikel (?). Der Treiber 177.39 ist nicht für 3DMark zugelassen. Den hat man für die GTX+ genommen.

Gruss Hr.Rossi
 
@ Zimon

Die 4870X2 wird auch nicht unter 500-600€ weggehen. Und im HighSegment war Preis noch nie ein Thema. Viele hier wissen anscheinend nicht, dass es vor 2+ Jahren normal war, für eine High-End Karte >500€ zu zahlen. Ich erinnere mich da nur zu gerne an die Radeon 9700/9800 oder noch früher, GeForce2 GTS/Geforce 3 Ti500.

Aber wie gesagt, das war bei vielen hier "vor ihrer Zeit" :)
 
Das ist immer so, egal ob Treiber, Spiele oder Betriebssysteme.. Deswegen kann man den Test aber nicht für ungültig erklären.. Oder hat damals einer gesagt, Tests zu Vista sind ungültig, weil ja irgendwas irgendwann noch gefixed wird.. ??

Edit @ -WATC-: Wo übertrifft die HD 4870 die GTX260 großartig? Im Durchschnitt sind sie eher gleichschnell..
 
Zurück
Oben