Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Während zu nVidias neuestem Pixelbeschleuniger bereits ein konkreter Veröffentlichungstermin bekannt ist, war es um ATis R420 bisher recht leise. Im Herzen Hannovers auf der CeBIT gibt es hinter verschlossenen Türen jedoch weit mehr zu sehen, als der Otto-Normal-Besucher zu Gesicht bekommt.
is ja nice das mit 16pipes war eh schwachsinn typisch inquirer..
btw nehmt doch das alte ati logo das nimmt ati auch
neue hat sich scheints nicht durchgesetzt..
@TeeKay
Das wird wohl gar kein Hardware Decoder sein, sondern eher ein Software Decoder im Treiber, der die 3.0 Shader nutzt. Die sind jetzt flexibel genug damit das geht. Da sie so flexibel sind könnten sie theoretisch alles unterstützen (ist nur viel Arbeit für die Treiberentwickler) also von Mpeg2 bis DivX ist alles möglich.
Sorry das ich es schon so früh voraussage, aber ich denke das die nVidia sich diesmal saftig eine auf die rübe bekommen, und zwar sicher um weite. Da ich gelesen habe das bei NV40 Karten mit Pixel Shader 3.0 höchstwarscheinlich schlechtere Leistung erzielen bei PS 2.0 anwendungen. Das einzige Vorteil sind die 1x8Pipes Architektur anstatt die 2x4! Und Sie sollen die 2x8 Architektur sein lassen! Wird hoffentlich nicht bei der NV45 so!
naja gürüchten zurfolge, ist der nv40 ja der nv45
aber erstmal abwarten... immer diese riesen spekulationen!
ich freu mich schon über die angeblichen benchmarks von den jeweiligen karten...
Man kann keine Shader 3.0 ohne gute PS2.0 Peformance einsetzen, deswegen ist eine höhe 2.0 Shader Peformance zuerwarten ...
@ News
Komisch, wenn es keine 16x1 oder 8x2 Architektur ist, bleibt nur 32x0 oder 6x2. Wenn ihr so schön informiert seit, wieso postet ihr nicht die Daten ? ...
Gerüchten zufolge sollen NV40 und NV45 baugleich sein, bis auf den winzigen Unterschied, dass der NV40 AGP und der NV45 PCI-e unterstützt.
Gerüchten zufolge soll der r420 schnellere 2.0 Schader haben weils der Vorgänger ja auch hat (toller Beweiss)
Man weiss über beide Chips momentan so gut wie gar nichts. ATI hat schon seit langem keine richtigen Neuerungen gebracht, basiert ja alles noch af dem alten r300. Da wird es jetzt wohl ein paar neue Entwicklungen geben. Und Nvidia Karten haben momentan viele kleine Schwachstellen wo sie Leistung verschenken, da kann man ziemlich schnell nachbessern. Bis jetzt weiss man einfach noch so gut wie nix.
Doch kann man, siehe R400. Der hatte PS3.0. Auf Grund schlechter PS2.0-Leistung wurde diese Idee hingeschmissen, da PS2.0 erst am kommen ist, aber von PS3.0 nichts zu sehen. Dies könnte daran liegen, dass die Transis zwar für gute PS3.0-Support ausreichten, aber für gute PS2.0-Leistung irrelevant war. Somit hat man am PS3.0 gespart und die existierenden Transis möglicherweise anderweitig benutzt.
Zitat aus dem 3DCenter Forum von Demirug (3D Programmierer):
Man kann 3.0 Shader nutzen um weniger (bzw selektiver) 2.0 Anweisungen auszuführen. Es ist dann zwar möglich das die eingesparten Anweisungen reichen um eine gute 2.0 Hardware zu schlagen nur muss es dafür auch Einsparmöglichkeiten geben. Darum ist die Grundlage für eine gute 3.0 Hardware immer eine Hardware die 2.0 Operationen schnell ausführen kann.[/b]
Was aber auch bedeutet, dass 3.0 Shader gegenüber 2.0 Shadern schneller sein können, weil
a) nicht immer Shader hin und her geschoben werden müssen
b) unnötige Rechenarbeit verhindert werden kann
c) eine höhere Flexibilität vorliegt
Es kann also sein, dass die Karte eine Karte mit 3.0 Fähigkeit unter 2.0 langsamer ist, aber unter 3.0 vorne liegt. Die Nutzung der 3.0 Shader ist allerdings kein großer Aufwand AFAIK.
ACK. Wenn man die Shader im HLSL Code hat und diese schon Elemente enthalten die mit 3.0 besser umgesetzt werden können ist der Aufwand deafakto gleich 0.
Und nochmal. Ohne PS3.0 kann man die gesparten Transis für ROH-Power ausnutzen. Diese würden auch dem PS2.0 gut kommen. Natürlich ist das fehlen von PS3.0 schlecht. Nur, ist es z.Z. irrelevant. Ich meine, niemand hätte sich damals eine DX9-Karte von ATi gekauft, wenn sie auch in DX8 sauschnell bzw. schneller als die Tis gewesen wären.