ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Es sind die Shadereinheiten MADD gemeint, wo die 5870 gerade einmal 320 hat.
Mit GDDR5 hat man sowieso eine viel höhere Speicherbandbreite als mit GDDR3, also sind 512bit unnötig (teuer... was weiß ich)

Lies mal weiter da steht noch, dass der GT300 in Vantage angeblich über 2XXXX Punkte haben soll.
Ok Vantage ist jetzt kein Spiel und geht eh fast nur von der Rohleistung aus, aber ist ein guter Ansatz.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

HeLlWrIteR schrieb:
Aber NVidai scheint endlich den Sprung non GDDR3 auf GDDR5 geschafft zu haben, auch wenn der in der Produktion doch noch teurer ist als GDDR3 oder ?

Noch ja aber wenn Nvidia das jetzt auch brauch und die Mengen stimmen wirds wieder billiger.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich traue mich jetzt schon wetten, das der Gt300 die Ati in den Schatten stellt, wenn ich mir hier so manche träumerein durchlesen kann, find ich das recht interessant. Nvidia macht seine Hausaufgaben sicher genau so gut wie Amd, nur dieses mal war das rote Lager halt schneller als das grüne.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

datvader schrieb:
Mit GDDR5 hat man sowieso eine viel höhere Speicherbandbreite als mit GDDR3.....

Und warum hat die GTX 285 mit GDDR3 dann eine höhere Speicherbandbreite als die HD 5870 mit GDDR5? Natürlich ist das 512bit Speicherinterface teuer, aber GDDR5-Speicher ist auch nicht gerade billig. Gerade wenn 2GB auf der Karte verbaut werden sollten, rentiert sich ein höheres Speicherinterface wahrscheinlich eher.

HeLlWrIteR schrieb:
Das klingt in meinen Ohren etwas unsinnig. Warum sollte NVidia "nur" 480 Shader auf dem GT 300 verbauen, wenn sie doch jetzt schon wissen, dass Ati auf seiner 5870 1600 Shadereinheiten einsetzt ?Ich sehe das als einen klaren Nachteil.....

Die GTX 285 hat auch "nur" 240 Shadereinheiten und die HD 4890 ganze 800. Die Zahlen sind nicht unbedingt miteinander vergleichbar, wie datvader schon richtig anmerkte.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

weil der speicher der 5870 nicht doppelt so hoch taktet,wie der der GTX285. Deshalb ist die bandbreite der GTX285 unnennenswert höher.


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

was denkt ihr, wie viel Speicher wird NVidia dem GT300 verpassen ?
Ich hoffe mal es sind endlich 1 GB wie bei ATI.
Weiss da jemand was genaueres ?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Maeximum schrieb:
Ich traue mich jetzt schon wetten, das der Gt300 die Ati in den Schatten stellt, wenn ich mir hier so manche träumerein durchlesen kann, find ich das recht interessant. Nvidia macht seine Hausaufgaben sicher genau so gut wie Amd, nur dieses mal war das rote Lager halt schneller als das grüne.

Ich wäre vorsichtig mit solchen Wetten. Die theoretischen Werte der HD2900 XT sahen auch beeindruckend aus und man ging davon aus, daß sie die GF8800 GTX versenken würde - der Ausgang ist bekannt.

Auch nVidia hat nicht immer das "Gelbe vom Ei" produziert, siehe GeForce FX, das ging auch in die Hose. By the way waren die Vorzeichen da ähnlich wie jetzt, ATi hat vorgelegt, nV war unter Zeitdruck und musste nachziehen (DX9).
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Maeximum schrieb:
Ich traue mich jetzt schon wetten, das der Gt300 die Ati in den Schatten stellt, wenn ich mir hier so manche träumerein durchlesen kann, find ich das recht interessant. Nvidia macht seine Hausaufgaben sicher genau so gut wie Amd, nur dieses mal war das rote Lager halt schneller als das grüne.

Die Hausaufgaben von Nvidia lauten dieses mal aber Umsetzung von DX11 und wenn man an DX10 zurückdenkt, so war Nvidia maßgeblich an der Streichung vieler DX10 Eigenschaften beteiligt, weil man diese damals nicht in den Chips umsetzen konnte (während AMD all diese Eigenschaften bereits mit der HD2K Serie unterstützte) wenn Nvidia nun wieder vor den gleichen Schwierigkeiten steht wie damals mit DX10 so haben sie ein ernstes Problem, da an DX11 nichts mehr gestrichen wird.

ATI ist so gesehen DX11 fit seit 3 Jahren, Nvidia....nun wir werden sehen ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Jup, Nvidia hat dasmal wirklich viel, um das sie sich kümmern müssen. Ausserdem hat Nvidia ja auf diese General Purpose Compue Shader oder wie die heissen gesetzt. Die dürften nciht so effizient arbeiten, da die quasi alles emulieren und nicht in Hardware ausführen wie bei ATI.

Auch wenn NVidia am Schluss schneller ist, die Karten werden sicher recht teuer werden, und auch wohl mehr strom verbrauchen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich sags nochmal...wahrscheinlich wird NVidia schneller, sie wissen jetzt ja wen/was sie als Konkurrenz auf dem Markt haben. Das machts einfacher für NVidia. Wenn die GT300 langsamer sein sollte, wird vor dem Verkauf eben noch schnell etwas übertaktet bis es passt und schon schwärmen wieder alle für NVidia...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Affenkopp schrieb:
Ich sags nochmal...wahrscheinlich wird NVidia schneller, sie wissen jetzt ja wen/was sie als Konkurrenz auf dem Markt haben. Das machts einfacher für NVidia. Wenn die GT300 langsamer sein sollte, wird vor dem Verkauf eben noch schnell etwas übertaktet bis es passt und schon schwärmen wieder alle für NVidia...

weisst du eigentlich wie solche GPU's produziert werden? Da kann man nicht mal schnell was dran ändern... Und übertakten... Damit steigt der Energieverbrauch, der Chip wird wärmer etc, die Ausfallraten höher etc. das geht nicht unbegrenz.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Affenkopp: Wie Meriana schon sagt kann man nicht eben mal schnell was ändern, die GPUs müssen den Takt ja auch alle abkönnen, die Karten müssen früh genug bei den Boardherstellern einwandern, weil es diesmal kein Referenzdesign gibt etc. so eine kleine Änderung könnte Monate verzögerung mit sich ziehen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Obwohl ich von der 5XXX Serie von Ati erstmal schonmal sehr angetan bin, denke ich trotzdem, dass sich das warten auf Nvidia lohnt. Ich persönlich (also wirklich rein subjektiv) denke ich auch das Nvidia schneller sein wird, etwa in der Art wie zwischen 4xxx/2xx, dafür wird Ati ziemlich sicher die besseren Preise bieten. Letztendlich wird es denke ich etwa so weitergehen wie die letzten 1 1/2 Jahren.
Für mich wird es interessant wenn die Preise gefallen sind und vernünftige Kühler da sind.
Mfg
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

HeLlWrIteR schrieb:
was denkt ihr, wie viel Speicher wird NVidia dem GT300 verpassen ?
Ich hoffe mal es sind endlich 1 GB wie bei ATI.
Wie bitte?
Die GTX 280 hatte 1GiB. Die 2900 XT mit 1GiB war ein Ausrutscher, lange Zeit hat es gebraucht bis es wieder als offizielle Option ageboten wurde, bei späteren 4870.

Ebenfalls interressant ist, dass das Speicherinterface beschnitten zu haben scheint. Von 512 bzw. 448 Bit
auf 348 Bit. Wenn mich jetzt nicht alles täuscht, ergibt das im Endeffekt doch weniger Speicher.
Wenn die 384bit stimmen würden, gehe ich von 1536MiB aus.
Wenns doch 512bit sind dann werdens 2GiB.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Weis ja nicht ob die Bilder schon gepostet wurden aber falls es wen interessiert....

S.T.A.L.K.E.R.: Call of Pripyat DX11 vs. DX10 Vergleichsbilder
http://www.yougamers.com/news/25952_s_t_a_l_k_e_r_call_of_pripyat_dx11_comparison_shots/

Imho kein Unterschied bis auf ein bisschen mehr Gamma und einem Hauch weicherer Schatten.
Da war ja sogar der Unterschied von DX9 auf 10 noch größer :D

Beim einfachen durchklicken hab ich gar keinen Unterschied gesehen, erst als ich mir 2 gleiche Bilder in 2 Tabs aufmachte und dann hin und her wechselte.

Schade das sie nicht die Frames mit angezeigt haben.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ähh wie jetzt? du siehst nicht, dass der kerl mit der gasmaske nen runden filterstutzen dran hat, die schultern und die köpfe gerundet und nicht eckig sind?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ergänzung ()

Screemer schrieb:
ähh wie jetzt? du siehst nicht, dass der kerl mit der gasmaske nen runden filterstutzen dran hat, die schultern und die köpfe gerundet und nicht eckig sind?

stimmt, hatte ich vergessen, da ist wirklich ein unterschied.
das is aber auch der einzige screen....

wenn ich mal davon ausgehe, dass der entwickler screens aussucht und veröffentlich an denen man (seiner meinung nach) den unterschied unter anderem am deutlichsten sieht (will ja werbung für sein game machen mit dem bislang noch sehr exklusiven feature dx11) dann gabs zumindest bei mir keinen "wow effekt"

wenn nicht dx11 bei den screens dabei gestanden wäre, hätte ich sogar rein subjektiv gesehen den ein oder anderen dx10 screen als "hübscher" empfunden.

aber mal abwarten wie das ganze in bewegung aussieht und vorallem ob diese ganzen "features" frames kosten oder bringen!

edit: außerdem macht es mich stutzig warum nicht auch bei dem ersten vergleichsscreen beim baum die ecken "geglättet" wurden, wenn sies ja schon bei den models so hübsch gemacht haben?!
http://www.yougamers.com/news/25952...yat_dx11_comparison_shots/stalker_cop_3_dx10/
http://www.yougamers.com/news/25952...yat_dx11_comparison_shots/stalker_cop_3_dx11/

gibts eigentlich schon bilder zu Colin McRae: DiRT 2 - das wurde ja für den pc angeblich extra für dx11 um monate verschoben oder?
da würden mich vergleichsbilder dx10 zu 11 sehr interessieren.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Unyu schrieb:
edit: außerdem macht es mich stutzig warum nicht auch bei dem ersten vergleichsscreen beim baum die ecken "geglättet" wurden, wenn sies ja schon bei den models so hübsch gemacht haben?!
http://www.yougamers.com/news/25952...yat_dx11_comparison_shots/stalker_cop_3_dx10/
http://www.yougamers.com/news/25952...yat_dx11_comparison_shots/stalker_cop_3_dx11/
für tesselation muss man der hardware sagen, was tesseliert werden soll und was nicht. keine ahnung ob das für andere objekte noch kommt.

was es allerings bringen kann sieht man auf den folgenden screens recht schön:



800x600_prop.jpg


HeLlWrIteR schrieb:
@Screemer: was meinst du mit Standart ?
mit standard meinte ich unyus folgende aussagen:

Unyu schrieb:
Wenn die 384bit stimmen würden, gehe ich von 1536MiB aus.
Wenns doch 512bit sind dann werdens 2GiB.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben