News ATi Radeon HD 3850 & HD 3870 im Detail

MidnightJam schrieb:
Bald kommt der R680 das ist ne DualKarte also 2 r670 auf einem PCB.
4 R680 im QCF müssten dann auf ca 70000 (siebzigtausend)Punkte Kommen im 3dM 06 :)
Hahahaha


Bestimmt wären einige dann immer noch am meckern weil Crysis in 2560x1600 und 24xAA/AF nicht über 100fps kommt... :rolleyes:
 
QuadCrossfire wird ein Flopp, genauso wie Quad SLi. Denn bei Direct X9 (was ja immernoch bei den meisten Spielen zum Einsatz kommt) hat ein Prerenderlimit von 3, das bedeutet das man kein 4-way AFR machen kann. Sprich, alle 4 Karten rechnen nacheinander ein komplettes Bild. Da geht nur so ein Misch-Modus, bei dem viel Leistung flöten geht.

Quad Crossfire ist wohl leider nur ein Verzweiflungsakt seitens ATI...
 
plank89 schrieb:
@ kisser

Auf A.I. hat der User sehrwohl einen Einfluss!
Wie du weiter unten richtig festgestellt hast, lässt sich A.I. deaktivieren.

Ich meinte damit, dass der User keine Kontrolle darueber hat, was A.I. denn genau tut.
 
achso das ist natürlich was anderes^^

sry wenn ichs falsch verstanden habe.

ich wollte im endeffekt nur beweisen, dass die ATI doch nicht so eine schlechte BQ hat wie man behauptet.

nichtsdestotrotz sollte man im Moment zu Nvidia greifen (gilt nur uneingeschränkt im High End bereich)
 
TM30-HWLUXX schrieb:
QuadCrossfire wird ein Flopp, genauso wie Quad SLi. Denn bei Direct X9 (was ja immernoch bei den meisten Spielen zum Einsatz kommt) hat ein Prerenderlimit von 3, das bedeutet das man kein 4-way AFR machen kann. Sprich, alle 4 Karten rechnen nacheinander ein komplettes Bild. Da geht nur so ein Misch-Modus, bei dem viel Leistung flöten geht.

Quad Crossfire ist wohl leider nur ein Verzweiflungsakt seitens ATI...

Deshalb hat man bei nVidia scheinbar auch den Triple-SLi Weg eingeschlagen.

Wenn man aber DX10 betrachtet besteht dieses Hindernis nicht mehr. In Zukunft könnte das also durchaus interessant werden.

mFg tAk
 
Coole Sache mit dem RV680, wie teuer der wird ist nicht bekannt, oder hab ich da was verpasst/ueberlesen.
 
Was heisst hier Bullshit?
Auch bei AMD/ATI wird der Preis der Produkte die Leistung widerspiegeln, alles andere waere ja auch Unsinn, die wollen ja Geld verdienen.
 
ich würd mich einfach an der 2900xt orientieren
in dem bereich wird wohl auch der rv670 liegen
 
Tja die technischen Daten....


3870 vs 8800GT:

55nm vs. 65nm
256bit vs. 256bit
512mb vs. 512mb
775MHz vs. 600MHz Chiptakt
1,2GHz vs. 900MHz RAM-Takt
?????? vs. 1512MHz Shadertakt
DX10.1 vs. DX10
Shader 4.1 vs. Shader 4.0

So gesehen müsste die 3870 die GT locker in die Tasche stecken, es sei denn die hat denselben Shadertakt wie die 2900XT, also ca. 750MHz, das könnte der entscheidende Punkt sein! Kommt natürlich aufs Spiel an, kann mir aber vorstellen dass das nicht unwichtig ist! ;)
Allerdings war auch die 2900XT in fast allen Bereichen aufm Papier besser als die GTS, war dann aber auch nicht unbedingt schneller...
 
@Turrican101: Das kann man so nicht sagen denn die 2900XT sah auf dem Papier ja auch sau schnell aus kommt halt auf die Architektur an die bei Nvidia mit den 8800 Karten besser war als bei Amd/Ati, naja... wir werden es ja sehen.
Ich schätze aber trotzdem das die HD3870 nur ein bisschen schneller als die 2900XT sein dabei nicht bei AA und AF einbrechen und nicht mehr als 210€ kosten soll.
Halt nur eine Vermutung!

mfg
 
naja technischen daten sind das eine, die realität das andere ;) das gesamtsys kommt auch noch ins spiel! ich denke ich werde mir die 8800gt kaufen. finde das was nvidia in den letzten monaten geleistet hat gut und es wurde mir so auch von zwei it-profis empfohlen ;)

danke trotzdem aber ati/amd mag ich net intel/nvidia passt besser zusammen;)

gruß

jan
 
Ich korrigiere das mal

3870 vs 8800GT:

55nm vs. 65nm
256bit vs. 256bit
512mb vs. 512mb
775MHz vs. 600MHz Chiptakt
1,2GHz vs. 900MHz RAM-Takt
775Mhz vs. 1512MHz Shadertakt
DX10.1 vs. DX10
Shader 4.1 vs. Shader 4.0

Außerdem sollte man Texelfüllrate, Pixelfüllrate, Shaderleistung und so Dinge vergleichen und nicht nackte Taktraten.... Das ganze dann auch noch mit einem Blick auf die Architektureffizienz
 
Zuletzt bearbeitet:
Ich weiß nich warum sowas immer wieder verglichen wird, die Rohdaten können noch so toll sein sagen aber nix über die reale Leistung der GPUs und CPUs!
 
datvader schrieb:
Das kann man so nicht sagen denn die 2900XT sah auf dem Papier ja auch sau schnell aus


Genau das hab ich doch auch geschrieben!
mata.gif




Kat6 schrieb:
Ich weiß nich warum sowas immer wieder verglichen wird, die Rohdaten können noch so toll sein sagen aber nix über die reale Leistung der GPUs und CPUs!


Stimmt!


xp_home schrieb:
Außerdem sollte man Texelfüllrate, Pixelfüllrate, Shaderleistung und so Dinge vergleichen und nicht nackte Taktraten.... Das ganze dann auch noch mit einem Blick auf die Architektureffizienz

Da waren die nvidias soweit auch besser, bei der Pixelfüllrate konnte die 2900XT noch die GTS knapp schlagen, aber bei der Texelrate waren die nvidias bis zu 3x schneller :D
 
Zuletzt bearbeitet:
@Turrican101: ohh sry hab ich wohl falsch verstanden^^

Aber die Shaderleistung sieht für mich ein bisschen sehr niedrig aus!

mfg
 
Zurück
Oben