Test Test: ATi Radeon HD 4850 (CF) und HD 4870

@ Unyu

PhysX aber auch nur, weil Ageia monatelang Vorarbeit geleistet hat.

cYa
 
jep AC war fehlerhaft doch diese fehler waren doch wenn ich mir recht erinnere ganau die funktionen die durch dx10.1 ermöglicht werden....

seltsamer weise haben alle berichte von einer steigerung der bildqualität UND performence mit den ati karten gesprochen

bitte an alle wen ihr irgendwelche werte von benchmarks hier reinschmeist oder irgendwelche verbräuche angebt immer nen link dazu
 
Zuletzt bearbeitet:
@BOBderBAGGER: lies dir den cb-artikel nochmal genau durch. unter dx10 funktionierten einige dinge nicht, die unter dx10.1 teilweise funktionierten, aber auch nicht komplett. allerdings waren einige effekte unter dx10.1 deaktivert. das heist, die geschwindigkeit wurde mit unterschiedlichen detaileinstellungen verglichen. das ergebnis zeigt daher lediglich, dass mit weniger details eine höhere geschwindigkeit erzielt werden kann. ob es einen geschwindigkeitsunterschied zwischen den beiden dx10 versionen gibt und welche ggf die schneller wäre kann man daraus nicht erkennen.
es ist wirklich schade, dass es nichteinmal ein spiel mit funktionierendem dx10 und dx10.1 gibt, damit man die beiden versionen vergleichen kann.
 
saph487_productsumma65b.png


4870 ftw.
 
Unyu schrieb:
Soso 11W im Idle. :rolleyes:
hd4850_power.gif
Unyu, das du nvidia fanboy bist weiß ja jeder aber ich dachte eigentlich das du doch irgendwo halbwegs intelligent bist?

Da wurde mit alten Treiber getestet, die 11 Watt beziehen sich auf die neueste Catalyst Version 8.7

Aber gut das du das Diagramm mal ins Spiel bringst!

Klar zu sehen ist der Unterschied bei der 3870 zwischen idle und vollast, von 18.7 Watt auf 81.1 Watt, also im Idle sinkt der Verbrauch auf weniger als 25% vom Vollastverbrauch.

Die 4850 soll ein Gegenüber der 3870 verbessertes Powerplay besitzen, schauen wir uns mal den Unterschied zwischen Vollast und Idle bei der 4850 an:

Der Verbrauch reduziert sich nur auf knapp unter 40% vom Vollastverbrauch!

Was schließen wir daraus? Hier funktioniert ganz eindeutig was nicht richtig!

Also Abwarten, vom idle Verbrauch durch neuen Treiber umgehauen werden und alle die jetzt über den Idle Verbrauch meckern bitte in die Ecke stellen und flennen.
 
Hat es nicht geheisen, das AC in 10.1 schneller war, weil das Post-Procesing nicht richtig funktioniert hat und dekativert war?

FAkt ist, das wir es der unfähigkeit von Nvidia verdanken das es so schnell keine DX10.1 GAmes geben wird. Wir sind ja bereits in der 2. Generation die 10.1 Unterstützen kann. Die 3000er' Serie kanns, NV war zu blöd es dem G92 zu verpassen, die 4000'er Serie kanns, NV war zz blöd.........

Sega hat ja neulich angekündigt DX10.1 unterstützen zu wollen, wenns dan so weit ist werden wir sehen, was es tatsächlich bringt.
 
ragnarok666 schrieb:
2. Für GPUC braucht man keine extra Hardware (Transistoren), die Märchen die Unyu un Co erzählen, dass die GTX280 so viel mehr Transistoren für GPUC hat sind schlicht falsch.

Man braucht im Prinzip für das Funktionieren von GPUC nicht mehr Transistoren aber nVidia hat beim G200 dafür extra Transistoren um genau hier die Leistung zu steigern und auch mit Doppelter Genauigkeit rechnen zu können. Siehe "Technik im Detail" in diesem Artikel und dort die Abschnitte wo es um Doppelte Genaugkeit geht und um vergrößerte Registerfiles und Caches in den Streamprozessorclusters...
 
Lübke schrieb:
das ergebnis zeigt daher lediglich, dass mit weniger details eine höhere geschwindigkeit erzielt werden kann.

Das Stimmt aber eben exakt NICHT!

Es wurden an einzelnen Stellen ein paar Staubpartikel nicht eingeblendet ABER

der Eklatante Performancevorteil war auch in Szenen deutlich sichtbar, bei denen auch in der Originalversion kein Staub fliegt. Das heißt der großteil aller Szenen sah gleich aus, es fehlten keine Details und TROTZDEM gab es einen sehr hohen Performanceunterschied.
 
ragnarok666 schrieb:
. ..FAkt ist, das wir es der unfähigkeit von Nvidia verdanken das es so schnell keine DX10.1 GAmes geben wird...

Fakt? Ach ja? Na, dann bitte her mit den unwiederlegbaren Beweisen....

Sorry, ist euch das nicht mittlerweile selbst zu blöd, ständig so einen Schmarrn zu schreiben? Würdet ihr das bei ATi genau so machen? Kann man nicht einmal eine Diskussion führen, ohne dass dabei irgendeine Firme runtergemacht wird? Muss immer gebashed werden?
 
brabe schrieb:
Ein Link zu dem Test wäre nett
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_14.html#sect0

redfirediablo schrieb:
Da wurde mit alten Treiber getestet, die 11 Watt beziehen sich auf die neueste Catalyst Version 8.7
Dann spekulier mal was Treiber so an Ersparnis bringen könnten.
Jetzt sinds eben 40W. Was soll man da sagen? Unfertige Treiber, ne kann nicht sein AMDs Treiber sind ja besser. :rolleyes:

redfirediablo schrieb:
Es wurden an einzelnen Stellen ein paar Staubpartikel nicht eingeblendet
Ein paar? Kann man ja bei Bedarf auch in D3D10.0 abschalten.
Und es gab kein AF mehr....
Wer weiß was intern noch alles defekt war. Richtige Entscheidung von Ubi das gut verkaufte Spiel sacken zu lassen und nur noch .0 kurz zu patchen.
Das Nvidia da mit drin steckt kannst du dir abschminken, es wär nie die .1 Version rausgekommen, wenn das so wäre.
 
Zuletzt bearbeitet:
@AvenDexx
Sorry das ich mich mit rein hänge aber ich finde das von NV echt doof das sie AC manipuliert haben! Damit steht für mich fest das sie DX10.1 einfach unterbinden,weil sie es selbst nicht haben!
 
@redfirediablo: ich hab selbst gesehn wie viel performance der regeneffekt bei nfs most wanted frisst, selbst wenn grad gar kein regen ist. es geht nicht darum wie auffällig die erzielten effekte auf dem bildschirm erscheinen, sondern darum, wie groß der aufwand ihrer berechnung ist. und son bisschen staub ist weitaus rechenintensiver als sich das einige hier vorstellen können. kannst ja auch selbst mal testen. nimm ein spiel mit vielen effekten und schalte nur die aus, die unauffällig und neben sächlich sind und benche und dann benche nochmal mit allem auf max. wirst staunen was die ganzen "kleinigkeiten" für einen aufwand verursachen.
man kann im grunde nur sagen, dass die api nicht funktioniert hat und das die messwerte daher nicht aussagekräftig sind.
@deathhour: bitte nicht wieder verschwörungstheorien :rolleyes: das führt nur wieder zu aberwitzigen fanboy-disskusionen.
 
@ AvenDexx
Du weisst genau so gut wie ich, des es einen unwiderlegbaren Beweis nur mit einer Was-Wäher-Wenn Maschine gebe.

Wenn man aber 1&1 zusammen zählt durften viele zu folgender Einsicht kommen. Wurdest du als Spielehersteller eine Technologie unterstützen, die nicht flächendekend unterstuzt wird ? Nein.
Nvidia hat die flächendekende unterstützung von DX10.1 masgeblich gestoppt, da sies als Markführer nicht umgesetzt haben.

Als SM3.0 neu war wurde es von Nvidia sofort unterstützt, acuh wenns noch'n Jahr gedauert hat, bis die ersten Games kamen, die dann aber auf den entsprechenden Karten nich wirklich gut liefen. Nvidia als Marktführer hat nun mal die fähigkeit technologien zu pushen/zu verhindern, je nachdem ob sie die von anfang an unterstützen oder nicht. Währe es uns nciht allen auch lieber gewesen wenn jetzt zumindest der GTX280 DX10.1 gekonnt hätte?
 
Ich sag nur Crysis und kleine effekte wie schatten ich persönlich achte da nicht drauf! Aber es ist eine krasse berechnungssache da jedes blatt und farn einen schatten wirft! Nur als Beispiel!
EDIT: @ rafnarok666
geb dir recht, NV hat genug geld um spiele schmieden zu "schmieren" oder eher zur " Kooperativen Unterstüzung" zu bewegen xD
-->bestes beispiel Gothic3 es wird immer mit einer NV karte schneller sein! Egal was ati raus bringt NV is hier immer um fast die hälfte schneller!
 
Zuletzt bearbeitet:
hmm ich finde den artikel nicht kan mir wer flot mit nem link aushelfen....

warum wird der regen den berechnet wen er nicht da ist und das war doch der riesen vorteil an 10.1 das man das render auslässt wenn es nicht gebraucht wird
 
Unyu schrieb:
Ein paar? Kann man ja bei Bedarf auch in D3D10.0 abschalten.
Und es gab kein AF mehr....
Wer weiß was intern noch alles defekt war.

1. Wo hast du her das AF nicht mehr ging? Nachweiß? Ging nämlich.

2. Was intern defekt ist, ist völlig egal, es kommt nur darauf an was am Ende dabei herauskommt. Wenn du meinst das die "wir lassen ATI absichtlich langsamer laufen" paths nicht mehr funktionierten, könntest du natürlich recht haben.

3. Nochmal: es gab viele Stellen wo das Spiel EXAKT GLEICH aussah und trotzdem der Performancevorteil da war, wo soll der denn bitte herkommen wenn nicht vom 10.1 path?
 
@deathour & ragnarok666

Du wirst hier einem Hersteller was vor, was nicht haltbar ist. "Manipulation"...Merkt ihr eigentlich was ihr schreibt?

Das ist nichts anderes als reine Spekulation. Nicht mehr und nicht weniger. Auch wenn der Verdacht nahe liegen könnte, was noch lange nichts damit zu tun hat, dass man 1+1 zusammenzählen könnte, ist keine der Aussagen zu belegen und wird nur dazu genutzt, nVidia runterzuziehen.

Das ist also weder "Fakt" noch kann man von einer "Manipulation" sprechen, solange wir nichts stichhaltiges haben.

Aber mal anders gefragt, wenn es denn wirklich an nVidia lag, warum hat sich ATi nicht gewehrt und zumindest was auf ihrer Homepage dazu geschrieben? Warum lassen sie es so mit sich machen? Könnte es daher nicht sein, dass es wirklich ein Fehler ist?

Ich neheme nVidia garantiert nicht in Schutz, man sollte aber schon darauf achten was man schreibt.

Und dann schon wieder das Thema "Spieleschmieden schmieren" Oh mein Gott. Es ist fakt, das ATi das bei Valve mit der Source Engine gemacht hat. :rolleyes:
(Und bevor ich da jetzt wieder falsch verstanden werde, das war ein Witz. Aus damaliger Sicht hätte man eurer Meinung nach aber auch nur 1+1 zusammenzählen müssen, um es so auszulegen.)
 
LazyGarfield schrieb:
Du willst jetzt aber nicht eine XF-Lösung mit einer Single-GPU vergleichen oder?

Wenns eine X2 zu kaufen gibt, wirds auch eine 280GX2 geben und die können die Fertigungsgrösse noch verkleinern und demensprechend günstiger anbieten.

Dein Zeug möchte ich auch gerne rauchen :lol:

eine 280GX2 geht sich technisch auch mit 55nm nicht aus, da kannst du nen kopfstand machen und preislich würde diese Karte dann jenseits von 800 Euro liegen, während AMD noch mit dem halben Preis Gewinne machen würde. Was nützt dann bei 50% mehr performance ein 100% höherer Preis, richtig, nix! Genauso wie jetzt die 10% mehr performance der 280GTX nix nützen gegen die 4870 die weniger als die hälfte kostet.

Die 280er ist beim SLI derzeit ungeschlagen an der Spitze und das nicht nur mit einem knappen Vorsprung.

1000 Watt Netzteil, sündhaft teures Motherboard und 1000 Euro Kosten für die Grafikkarte vorausgesetzt hast du natürlich vollkommen recht!

Aber der wirkliche Vorteil liegt imho in Cuda. Wenn hier schnell Software kommt, die das unterstützt, dann möcht ich keine noch so billige ATI-Karte.

Unnötiger Schnick Schnack der noch dazu kaum unterstützt wird, das ist genauso ein Argument wie bei ATI DX 10.1, nämlich garkeins! Vorallem ist keine CPU mit havok ausgelastet und das kann min. das gleiche wie das tolle physix das nvidia von aegia eingebaut hat. Genauso wie Cuda, nutzlos. -Für MICH als Spieler!
 
redfirediablo
1. Bei beyond3D gelesen. Keine Ahnung welcher Treiber.
2. Ist es nicht. Wenns instabil ist oder sonstwelche Auswirkungen ist das Nachteilig.
3. Schon mal überlegt, das das Spiel in der Hinsicht nicht perfekt optimiert sein könnte und das der Staub auch bei nicht Sichtbarkeit gerendert werden könnte?
 
Zurück
Oben