News nV40 taktet mit bis zu 600 MHz

Rache Klos schrieb:
Da sieht man wieder was so alles geschrieben wird, obwohl die leute 0 plan davon haben.

NV hat eine 32 Bit PixelShader genauigkeit, es mag sein dass so eine Architektur mit 24 Bit Shader Code nicht Optimal Arbeitet, ein problem sehe ich darin aber überhaupt nicht, eher genau das gegenteil.

NVidias hauptproblem waren die 4 Pipelines, pro Pipline standen zwar zwei Textureeinheiten zur verfügung, aber bei Pixelshader lastigen Games ist das nicht relevant.

ATI hat ein 8x1 Architektur, hat also generell gesagt schonmal eine doppelt so hohe Rohleistung.

Da NVidia mit dem NV40 warscheinlich 8 Pipelines mit je zwei Textureeinheiten bringt hat NVidia nicht mehr so das nachsehen.


Ist ja diesmal wirklich ein großer Leistungssprung,wenn die Daten zutreffen.

Mit dieser großen Bandbreite sollte der NV40 dann auch keine Probs mit AA Leistung haben oder :rolleyes:
 
reven schrieb:
@ CyReZz .. klar das aendert nv net .... denn 32 bit is ja theoretisch besser als 24 bit ... M$ muss halt endlich Dx9.1 oder wie das auch immer heisst rausgeben ....


Hast du immernoch nicht kapiert das es niemals ein DX 9.1 geben soll??
Das nächste ist DX 10 oder "Next"-wie es heisen soll.

Ich denke der neue NV40 sollte wieder die normale Namensgebung erhalten,und zwar Geforce 6.Es sei denn die verarbeiten im neuen Chip schonwieder das scheis Cine FX.
Und das mit den Taktraten hat garnichts zu bedeuten.Selbst eine FX 5950 mit übertakteten 500Mhz kommt leistungsmäßig nicht an eine 9800XT mit 412Mhz ran.Und das sind auch immerhin 88Mhz Unterschied.Von daher...........abwarten und Tee drinken.ich habe mit meiner XT ersteinmal ausgesorgt.
 
Jau, meine 9600XT rockt auch :D

Und da hat ATI auch schon mal 500MHz Chiptakt vorgeführt.
Wenn sie erst mal den Fertigungsprozess von 0.13 auf die großen
Karten übertragen sollte noch was drin sein (in Bezug auf den neuen R4xx).
Sollte also auch für nVidia möglich sein mit dem richtigen Fertigungsprozess genügend MHz rauszuholen.

8 Pipes klingen schon mal sehr fett.
Ob die Leistung hinterher noch in entsprechenden FPS übrig bleibt oder man lieber die AA/AF-Details & deren Geschwindigkeit erhöht bleibt abzuwarten.
Hoffe mal auf das letztere - war schließlich Grund für mich nach Riva128/TNT/GeForce1/GeForce2Ti nach langer Zeit von nVidia zu ATI zu wechseln; enttäuscht wurde ich dabei nicht...
 
Ich finde die Bezeichnung GeForce hat ausgedient...Es sollte einfach wieder ein neuer Name her, z.B. Voodoo 6000 oder TNT III *g*. Das gleiche gilt für ATI!
 
@ Rache Klos
"ATI hat ein 8x1 Architektur, hat also generell gesagt schonmal eine doppelt so hohe Rohleistung."

So ein Blödsinn und du sagst anderen, dass sie 0 Plan haben *g*
 
nVidia entwickelt sich ja langsam zum "Intel der Grafikkartenhersteller" :D

Viel Takt und nix dahinter *g*
 
cenmocay schrieb:
Tolle Mhz Zahlen überzeugen mich nicht,Leute denkt an den NV30 der hatte auch gewaltige Mhz gegenüber der ATI und wie sah es zum Schluß aus............ATI hat alles geschlagen.

AMD macht Intel auch platt und hat viel weniger Mhz

Ja weil Nvidia nur 4*2 hat bzw 9700/9800er haben 8*1.

Aber das wird sich nun ändern wenn sie wirklich mit 8*2 bei NV40 planen wollen.
 
Ist ja alles schön und gut und wo bekomme ich das passende netzteil her,wenn das so weiter geht mit den prozzis und grakas brauchen wir alle ein akw unterm Tisch. :D
 
cenmocay schrieb:
Ist ja diesmal wirklich ein großer Leistungssprung,wenn die Daten zutreffen.

Mit dieser großen Bandbreite sollte der NV40 dann auch keine Probs mit AA Leistung haben oder :rolleyes:
Mit der Multisampling-AA-Leistung hat auch NV35/38 keine Probleme.
 
STEEL schrieb:
Hast du immernoch nicht kapiert das es niemals ein DX 9.1 geben soll??
Das nächste ist DX 10 oder "Next"-wie es heisen soll.

Ich denke der neue NV40 sollte wieder die normale Namensgebung erhalten,und zwar Geforce 6.Es sei denn die verarbeiten im neuen Chip schonwieder das scheis Cine FX.
So scheiß ist das gar nicht. Die bisherige Implementierung hat zwei große Schwächen, beide werden im NV40 höchstwahrscheinlich behoben sein.
 
Wenn man das hier so ließt ist das schon ganz lustig.

einer schreibt von MHz-zahlen nicht schlecht das zeugt von kompetenz.

Ich hab mir jetzt eine Radonkarte geholt, die leute meinten immer das man die schlechte anisotrope filterung nicht merkt, ich merke sie. Das flimern sternförmig über den monitor kann man garnicht übersehen :( ansonsten ist die karte wirklich gut.

Die Pipeline-architetkur mit den 8x1 und 4x2 hab ich nicht vollständig verstanden, ich glaube eigendlich die meisten ihr auch nicht. ich hab mir aber auch noch keine mühe gegeben das zu verstehen.

Die Gforce FX ist nur deswegen scheiße weil sie zuviel strom braucht. Nur weil die nicht über 80Fps kommt heist das doch nicht das sie schlecht ist, Nvidia verkauft gerade eine menge Geforce fx 5200 in allen möglichen komplettrechnern, das wiederum sorgt dafür das die Spiele in absehbarer zeit keine hochleistungsgrakas brauchen, dann kann man zwar nicht alle funktionen der engine benutzen, aber eine 400€ graka braucht man dann auch nicht.
der neue S3 verbraucht ja auch nicht 40W, ist zugegebener maßen nicht so schnell wie eine Gforce5600/Radeon9600.

Ihr alle seit schuld daran das diese Stromvernichter gebaut werden. wenn ihr alle mehr Wert auf stromsparende komponenten legen würdet dann würde es die auch geben und die hätten nicht zwingend weniger performence.

Diese ganze Textur auf Map scheiße ist ausgelutscht, der aufwand um so eine Grafik weiter zu verbessern ist doch garnicht mehr die sache wert. Eine Partikel-engine sieht 1000mal besser auch, auch wenn die bäume nicht gleich als bäume erkennbar sind, oder wasser als wasser. Dafür bewegen sie sich realisticher, wenn wasser auf ein hindernis stößt fließt es nicht durch sondern drumherum.
Eine Voxelspaceengine ist ein guter ansatz, und sieht SEHR VIEL besser aus. bewegliche Schatten bei voxelspace waren schon möglich da war der textur-auf-map scheiß nichtmal in der lage auf oberflächen zu reagieren, das wurde erst später mit sehr viel rechenleistung eingeführt. Dabei ist eine schöne Partikelengine heutzutage kein problem mehr, extreme vektor-masive-multiprozessoren hätten kaum noch probleme damit, die teile sind einfach herzustellen und kosten fast nichts. der neue prozessor wo hier mein ein gerücht zu stand wäre schon in der lage dazu und das bei nur 7W verlustleistung und bei nur 200MHz.
 
xLoMx schrieb:
Die Pipeline-architetkur mit den 8x1 und 4x2 hab ich nicht vollständig verstanden, ich glaube eigendlich die meisten ihr auch nicht. ich hab mir aber auch noch keine mühe gegeben das zu verstehen.
Wenn du dir die Mühe machen würdest, zu fragen, würde ich mir die Mühe machen, das zu erklären.
 
@ lom

warum redest bei anderen von Kompetenz und selbst kannst du nicht alles erklären.

Leute die beruflich damit zutun haben, müssen auch mehr wissen,wäre ja auch traurig wenn nicht.
Aber für 90% ist das nur ein Hobby,ich z.B will garnicht alles über Pipelines usw wissen.
 
@36)cenmocay
hast recht ich möchte es auch nicht unbedingt wissen, zumindest war das bis jetzt so.

@35)aths
ich frage hiermit, kannst du mir das erklären?
 
xLoMx schrieb:
@35)aths
ich frage hiermit, kannst du mir das erklären?
Ob 8x1 oder 4x2 ist beim Pixelshading fast belanglos. Diese Angabe ist eigentlich nur für das Multi-Texturing interessant.

Leider ist so eine Angabe ungefähr so hilfreich wie "4x Anti-Aliasing". Bei 4x Anti-Aliasing weiß man ja, 4 Subpixel pro Pixel. Aber nicht ob Multi- oder Supersampling, bzw. welche Anordnungen die Subpixel haben.

Genauer wäre in unserem Fall: 8x1 bilinear bzw. 4x2 bilinear. Dazu muss man wissen, dass Pixel nicht als einzelne Pixel die Pipelines durchlaufen, sondern als Quad. Ein Quad ist ein 2x2 großer Pixel-Block. Streng genommen hat die GeForce dann auch keine 4 Pipelines, sondern 1 Pipeline mit 4x SIMD. Aber "Pipeline" zu sagen, hat sich nun mal eingebürgert.

Außerdem hat GeForce2, 3, 4 Ti, FX 5800, 5900 und 5950 insgesamt 8 bilineare TMUs. Davon können pro Pixel 2 gleichzeitig genutzt werden.

Radeon9700 und 9800 haben immer 2 Quads drin (um die 8 "Pipelines" vollzukriegen.) Hier steht pro Pixel nur 1 bilineare TMU zur Verfügung, dafür sind doppelt so viele in der Pipeline.

Sofern trilinear oder anisotrop gefiltert wird, sind ohnehin mehr als ein bilineares Sample pro Pixel und Textur notwendig. Dann ist es für die Multitexturing-Performance völlig nebensächlich, ob 8x1 oder 4x2. Sowohl für bessere Filterung als bilinear, als auch für Multitexturing ansich, wird Loop Back gemacht. Er speichert das Ergebnis-Register, und nutzt dieselbe TMU für den nächsten Sampling-Schritt gleich noch mal.

Beide Designs haben 8 TMUs. Ob man nun eine TMU 2x nutzt, oder 2 TMUs gleichzeitig nutzt, ist dann auch egal.

Die Unterschiede sind hier beim Pixelshading zu finden. Für DirectX9 gilt, wenn man das etwas vereinfacht: Jede Pipe des P300 kann pro Takt eine große und eine kleine Rechnung machen, oder eine sehr große. Jede Pipe des NV35 kann pro Takt zwei sehr große Rechnungen machen. Damit hebt sich der Vorteil von 8 vs. 4 Pipes wieder auf. Nur kann CineFX solche "sehr großen" Recheneinheiten eben nicht in "große+kleine" aufsplitten. Sofern diese nämlich paarweise auftreten, kann auch R300 pro Pipe und Takt gleich 2 Rechungen machen.

Zum Multitexturing sei noch zu sagen, dass sich in den Pipes ohnehin immer mehrere Quads gleichzeitig befinden. Erst wird die erste Charge gesampelt (die TMUs sind am Werk) und dann verrechnet (mit den Combinern.) Während die erste Charge verrechnet wird, wird die zweite Charge gesampelt. So kann man sich auch das Pixelshading beim R300 vorstellen, nur dass dort pro Shader 4 Phasen möglich sind, also 4x erst gesampelt und dann verrechnet werden kann.

Das Pixelshading mit CineFX ist das etwas komplizierter, weil dort noch viel mehr Quads gleichzeitig verarbeitet werden. Demirug hat hierzu auf 3dcenter einen tollen Artikel geschrieben: http://www.3dcenter.de/artikel/cinefx/ (der Artikel beschäftigt sich überwiegend mit NV30, während ich gleich den NV35 genommen habe. Zu dem kann man dort aber auch was lesen. Meine Infos zum CineFX-Pixelshading stammen vor allem aus jenem Artikel.)
 
Zuletzt bearbeitet:
Danke

ich versteh das aber immernochnicht. gibt es keine vernüftige mathematik dahinter? schreib mal formeln. dann komme ich leichter hinter die sache. das antialysing scheint nichts weiter zu sein wie ein 2D gleitender mittelwert über den monitor. das ist doch SAU einfach mit einen 15€DSP zu machen warum zieht das denn soviel rechenleistung? gut wäre wenn man eine fourie-analyse machen würde und die kanten dann erkennt, was dann zur erkennung schräger linien erfolgen würde.

grüße
LoM
 
xLoMx schrieb:
Danke

ich versteh das aber immernochnicht. gibt es keine vernüftige mathematik dahinter? schreib mal formeln. dann komme ich leichter hinter die sache. das antialysing scheint nichts weiter zu sein wie ein 2D gleitender mittelwert über den monitor.
Das wäre Blurring, nicht Anti-Aliasing.

Zum Thema Multisampling gibts auf 3dc einen Artikel: http://www.3dcenter.de/artikel/multisampling_anti-aliasing/

Wie willst du mit Fourier-Analyse Kanten erkennen?
 
Zuletzt bearbeitet:
Zurück
Oben