Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
was hier einige gegen den kühler sagen find ich doch schon leicht übertrieben man kann sich doch dämmungsmaten kaufen und für modder *g* würde das den preis für einen ausgefallen kühler ersparen
Wenn ich jetzt meine TI4400 für eine GF FX verramsche, dann bedeutet das nur eines: dass ich ein Idiot bin.
Ich sages es mal mit Bender: "Die können mich am Arsch lecken !"
Schande ! Die hatten gesagt keiner würde enttäuscht sein - Ich bin es ! Wie kann man der Karte nur einen 128 Bit Bus verpassen... Verlustfreie 4: 1 Kompression kann es nur im Durchschnitt geben - man kann nicht einen Haufen Daten garantiert verlustfrei um 4:1 packen - geht einfach nicht. Hoffentlich ist das nicht die optimale Packrate die Nvidia da angibt - bei einem einfarbigen Bild ! Und im Februar gibt's die 9700 sicherlich auch schon mit DDR2, sprich ca. 36 GB/s Bandbreite... damit ist Nvidia wohl raus aus dem Rennen - was übernehmen sie auch 3dfx - selber Schuld ! ;-)
Ja der "Test" bei Anandtech. OK sagen wir so, sollte der Test fair gewesen sein, dann sind 46,5 fps für die GeforceFX ein Armutszeugnis.
Aber selbst id Software wird es sich nicht leisten können so miese Bildraten anzubieten. Die sollten lieber noch ein wenig an der Geschwindigkeit arbeiten, sonst wird sich das, auch wenn es DOOM 3 ist, nur schwer verkaufen lassen.
@Droid999:
"It turns out that the compression engine is most useful when enabling anti-aliasing, and the reasoning behind this is simple; with conventional rendering you're taking one sample per pixel, and the color of that sample is rarely perfectly identical to that of adjacent samples. However, when anti-aliasing is enabled the GPU is taking multiple samples per pixel of identical colors which obviously compresses perfectly. The only time you don't get perfect compression is when you are sampling around the edges of polygons (vs. the interior of polygons). "
@Droid999
"Und im Februar gibt's die 9700 sicherlich auch schon mit DDR2, sprich ca. 36 GB/s Bandbreite..."
DDR2 ermöglicht nur höhere Taktraten ist aber nicht schneller bei gleichem Takt sondern sogar 1/2 lnsagmer weil nur 128Bit-Speicher und nicht 256Bit wie bei der Radeon9700pro : http://www.tomshardware.com/graphic/02q4/021118/index.html
Aus dem Link :
GeforceFX : 16 GB/s (128Bit-DDR II)
Radeon9700pro : 19.8 GB/s (256Bit DDR)
Natürlich tut Nvidia das Werbewirksam klingende "DDR II" rausposaunen, das "nur 128Bit" wird natürlich "verdeckt".
Marketing Rulez mal wieder.Dank LMA III aber sicher kein Defizit.
Dazu muss man noch die inhärent größere Ineffiezienz von bitbreiteren Interfaces in die Rechnung einbeziehen, da nicht immer alles 256Bit bzw. 128Bit mit Daten gefüllt werden können.
ATi hat neben der Breite von 128 auf 256Bit auch den Memorycontroller verdoppelt, so dass jetzt ein Quad-Channel Interface vorhanden ist. Wenn man jetzt mal schaut, dass nV bei 128Bit schon ein Quad-Channel Interface hat(te) und dass jetzt noch weiter verbessert haben könnte.....
Ich denke, dass sich die real verfügbare Bandbreite nicht weltbewegend unterscheiden wird. ATi hat nominell mehr, nV macht aus dem, was sie haben IMO mehr.
mann, was regt ihr euch alle so darüber auf?
ein paar bildchen und ein unvollständiger text mit vielen unbewiesenen thesen und schon schreien alle, wie scheisse die karte ist und wie peinlich das referenzedesign ist.
aber das heißt doch noch lange nicht, dass die entgültigen karten genau so aussehen werden!!!
Mehrere Speicherkontroller können unterschiedlich grosse Datenblöcke dynamischer "verwalten" und damit effizienter adressieren. Das Interface bleibt mehr ausgelastet. Da sowohl GeforceFX als auch Radeon9700 pro dazu jeweils 4 Controller haben ist der Unterscheid IMHO nur in der Bitbreite 4x64Bit/256 versus. 4x32Bit/128 zu sehn und da sehe ich eigentlich keinen nennenswerten, viel mehr in dem bandbreitenschonenden LMA III der GeforceFX.
DJDino:
Schon richtig, aber....
Schon der 4x32Bit Controller der GF3/4Ti war dem der Radeon an Effizienz überlegen. ATi hat jetzt die Breite praktisch verdoppelt, zur gesteigerten Effizienz des Interfaces an sich, nichts bekannt. Selbst wenn nV ihr altes Interface 1:1 übernimmt, ist es nach wie vor effizienter als das von ATi, welches durch den Wechsel auf die doppelte Breite nun noch mehr "Verschnitt" hätte....
das 256 bit nicht die lösung ist zeigt die matrox. wenn sie ein sehr effektives 128 bit interface haben reicht das für die nächste generation von grakas 100% aus . den lüfter werden wir auch so nie in der öffentlichkeit sehen da sie sicher noch am chip als auch am layout der karte feilen ( siehe amd vorserie lief zur demo mit 800Mhz jezt schon 2ghz) wenn die jezt den angepeilten takt schon haben und noch 2-3 monate bis zur serienpoduktion haben dann ist das ne menge zeit.
@ shaft der spiecher läuft mit 500 Mhz. x2 da ddr ist.
ansonsten kann ich nur sagen abwarten und tests anschauen. für mich zählt bildqualität mehr als z.b. 250fps (R300) zu 300 fps (nv30)bei benches. und von zukunftssicherheit halt ich nix weil ich meine karten eh nich länger als max 12 monate hab.
Ist doch schön, daß NVidia die neue Karte vorgestellt hat. Da werde die Preise für die ATI Karten hoffentlich bald billiger und der neue NVidia Chip hat seinen Sinn gänzlich erfüllt.
da bleib aber immernoch die frage offen warum nv in ihren ankündigungen immer von 50gb/s speicherdurchsatz gelabert hat, was auch sein könnte das die die technik von den bitboys mein ich hießen die genommen haben, denn die hatten es auch schon geschafft die bandbreite durch einen trick oder verfahren (weiß nichtmehr genau wie) geschafft die bandbreite deutlich zu erhöhen. naja ich bin gespannt wenn die karte mal raus ist oder die ersten samples getestet werden
4:1 Compression der realen Bandbreite von 16GB/s, davon abziehen, was die Polygonkanten angeht (lt. Matrox ca. 5% der Pixel) und schwupps biste bei locker flockich über 50GB/s....
Ja eben Bitboys verwenden ein 1024 bit interface, und nvidia
kürzt auf 128 bit runter ?!?!
Es ist völlig unsinnig und ein totaler Widerspruch in sich, wenn
man 1000 MHZ Ram mit einem 128 bit interface betreibt.
Wie ein Porsche mit Schneeketten.
Des ist doch bloß schon wieder Bauernfängerei !
Und irgendwie hab ich\'s von nvidia auch nicht anders erwartet.
4x16GB/s = 64GB/s - 5% = 60.8GB/s
also warum nicht gleich behaupten die "effektive" bandbreite waere mehr als 60GB/s.
ach was, ich bin mir sicher da gibt's faelle (1 in 100) wo die compression noch besser arbeitet, sagen wir mal 8:1. "Logische" schlussfolgerung: mehr als 120GB/s bandbreite. Yoohoo, der NV30 ist echt der hammer!!!
na jungs! nichts gegen ati! aber solange ich die leute immer nur rummeckern sehe - ah, hab ne ati und alles läuft fehlerhaft, solange kann man ati nicht besser nennen! ebenso wegen dem 256bit-interface, wäre toll gewesen bei der geforce fx doch - leiber qualität als quantität! nvidia hat wie gesagt sich keinen flopp gewagt - sondern, wer neue technologien auf den markt bringt, der braucht halt dafür! und 13nm sind schon geil! ati hat sowas nicht, weil sie sich nicht getrauen! damals hat auch nvidia an hardware t&l gearbeitet und viel riskiert und seht es euch heute an, jede ordentliche karte hat es! und es rockt! die geforce wird wieder neues bringen und später wird es ati in anderer namensgebung übernehmen!
ich hoffe nur, dass der preis für das locost modell auch lowcost bleibt - also so etwa 200-250€! wäre gut, weil dann wird sie schnell den markt erobern!