News GeForce GTS 450: Anzahl der Shader durchgesickert

Über mir:
Du glaubst doch wohl nicht allen ernstes, dass nVidia mit der GTS450 nur die GTS250 ersetzen möchte !?!?

Völlig unlogisch !!!

Was dazwischen kommen soll ?? Ganz einfach, nVidia selbst - Die Treiber und die Benchmarks dann ;)
 
davidzo schrieb:
Die Architektur taugt nicht für Lowend, daher werde man dies vorerst gar nicht anbieten. Direkt danach kamm dann die Umbenennung der GT2xx chips in GT3xx nomenklatur.
Chips wurden und werden nicht umbenannt. GF108 bildet den unteren Abschluss, alles darunter wird mit GT2xx bedient.

Wenn etwas für Low-End nicht gepasst hat, dann wars GT2xx und dennoch kam er, Größe ist eben doch nicht alles.

mafia2 physx ist softwaretechnisch vermurkst, da hilft auch eine stärkere beschleunigerkarte reichlich wenig. nvidia hat das vermurkst, verwendet man zum Beispiel CPUphysx statt pysx off oder einer extrakarte sinkt aktuell die CPUlast, da ist massiv der wurm drin.
Mafia 2 läuft super für den Rechenaufwand.
Aber dank deiner Programmiererfahrung aus dem Mafia 2 Team weisst du sicherlich, das Nvidia nicht der Hersteller ist.

Verbesserte Vram nutzung bezieht sich auf das fehlen des VRAm bugs von G92 und GT200.
Es gibt und gab keinen Bug.
Da du das absacken diverser Radeons mit wenig VRAM nicht kritisiert hast, kann es dir nicht um eben diesem Absack Umstand gehen.
Tatsächlich kostet ein voller VRAM bei G80-GT200 mehr als ab GF100.

G94 und rv670 haben sich weder was diesize noch was pcb angeht viel genommen, beide waren damit praktisch gleichwertig nur dass AMD mit dem rv670 auch den prestigemarkt in form von 3870x2 bedienen konnte, nvidia dagegen musste mit g94 den mangel im unteren mainstream ausgleichen und viele abgespeckte karten verscherbeln.
Du willst keine präzise Rechnung sondern einen völlig wertlosen Wert.
RV670 ist mit 192mm² deutlich kleiner als G94 mit 240mm².

AMD ist diese jahr hauptkunde, die fertigen nämlich gerade massiv Fusionprozessoren für den Launch im dezember bei TSMC.
Klar die Stapeln Fusion jetzt schonmal.
Mal davon ab das Fusion nicht gleich Juniper ist.

Was du so unrealistisch ansiehst ist nüchtern betrachtet durchaus zu erwarten.
Was die Rohleistung angeht liegt AMD ja derzeit schon sehr weit vorne. Wir wissen seit Fermi außerdem alle was man braucht um das auch auf die Straße zu bringen. Ein verdoppeltes oder verdreifachtes trianglesetup und mehr tesselationseinheiten schlagen weder groß ins transistorbudget noch ist zu erwarten dass sie an der Abwärme viel ändern
Ich bezweifel das man schon jetzt auf die Tessellationleistung der GTX 480 landen wird.
Dennoch wird diese Änderung nicht gratis geschehen, wie hier propagiert, bzw anders rum werden es keine Welten sein, auch wenn zukünftig HD6 auf der Packung steht.
Wenn dann erwarte ich einen Schritt wie HD3 nach 4, ein paar Bugs raus, dafür größer, teurer und höhere Abwärme.

Aber wie gesagt, das ist unnötiger OT, keine Ahnng was das hier zu suchen hat.
 
Unyu schrieb:
Ich bezweifel das man schon jetzt auf die Tessellationleistung der GTX 480 landen wird.
Dennoch wird diese Änderung nicht gratis geschehen, wie hier propagiert, bzw anders rum werden es keine Welten sein, auch wenn zukünftig HD6 auf der Packung steht.
Wenn dann erwarte ich einen Schritt wie HD3 nach 4, ein paar Bugs raus, dafür größer, teurer und höhere Abwärme.

Ich bezweifel, das ATI groß mit der verbesserten Tesselation-Leistung der nächsten Karten rumgetönt hätte, falls die nicht mit NVidia gleichziehen könnten.
Zumindest auf den Technik-Diagrammen ist der Tesselator nur winzig eingezeichnet. Den wird man wohl sinnvoll vergrößern können?

Zur Die-Size: Ich bezweifel, das der viel größer wird. Ich hab' neulich erst ein Interview gelesen (jaja, Quelle momentan unbekannt) wo sich ein ATI-Entwicker dazu geäußert hatte, das der Original-Chip für HD5k deutlich größer war als die marktreife Version. Um diesen zu verkleinern wurde da am Ende einiges rausgeschnitten, d.h. die haben sich schon einmal gegen einen überdimensionierten Chip mit riesiger Rohleistung entschieden. Wenn ich mich recht erinnere war der original 24mm Kantenlänge, der 5870-DIE hat aber jetzt nur ca. 19mm Kantenlänge. Das wird beim HD6k nicht anders sein.
Ein bissl schade eigentlich, sonst hätte AMD jetzt noch die Performance-Krone mit einer ungeschnittenen 5890.
 
Zuletzt bearbeitet:
Unyu schrieb:
Chips wurden und werden nicht umbenannt. GF108 bildet den unteren Abschluss, alles darunter wird mit GT2xx bedient.
Doch, die gesamte G3xx Serie sind umbenannte GT2xx Chips. Das brauchte man um die Wartezeit zu entrylevel fermi zu verkürzen und das segment nach unten abzurunden. einen Fermi Gegenspieler zu cedar hat man nämlich nicht - kein 64bit SI lowcostchip.

Mafia 2 läuft super für den Rechenaufwand.
Aber dank deiner Programmiererfahrung aus dem Mafia 2 Team weisst du sicherlich, das Nvidia nicht der Hersteller ist.
Der PhysX Treiber kommt von nvidia. Der PhysX Treiberpatch der die Beschleunigung erst aktiviert kam ebenfalls nicht von 2K Czech. Dass da was im argen liegt ist Nvidias ding. Der derzeitige PhysXtreiber nutzt bei Mafia derzeit nichtmal einen einzigen core voll aus.
check mal die demo und die cpulast mit und ohne physx *mit dem zaunpfahl wink*

Es gibt und gab keinen Bug.
Da du das absacken diverser Radeons mit wenig VRAM nicht kritisiert hast, kann es dir nicht um eben diesem Absack Umstand gehen.
Dafür dass es keinen VRAM-Bug gab sind 140.000 Ergebnisse dafür bei Google aber sehr merkwürdig. Das Speichermanagement war bescheiden, aber bei G80 gab es außerdem Probleme bishin zu Abstürzen weil die Adressierung in den Ram nicht vernünftig funktionierte, nichtso bei GT200.
Tatsächlich kostet ein voller VRAM bei G80-GT200 mehr als ab GF100.
Was kostet denn ein voller VRAM so? Erdnüsse? Selten so einen Blödsinn gelesen. GF100 beherrscht Texturkompression, hat aber ansonsten eine völlig normale Crossbar wie jeder andere Chip auch. Sicherlich helfen die Caches beim threading & effizienteren Auslastung der shader, aber Texture fetches kann man damit auch nicht vermeiden. Texturen haben nuneinmal eine bestimmte Größe und wenn sie für das Bild gebraucht werden müssen sie über die Crossbar, sowohl bei Fermi als auch bei Cypress. An den benötigten Bandbreiten wirst du da nicht so einfach was ändern können (außer die benötigte Szenerie wird weniger komplex, etwa bei tilebased deffered rendering strategien, siehe PowerVR, die hatten damals einen sehr geringen bandbreitenbedarf).


Klar die Stapeln Fusion jetzt schonmal.
Mal davon ab das Fusion nicht gleich Juniper ist.
Was kann ich dafür wenn du dich nicht mit Praktiken der Chiphersteller auskennst? Natürlich wird vorrausproduziert für den Launch, da ist stapeln eben unumgänglich. Bei Grafikkarten nur wenige Monate, bei CPUs dagegen mindestens ein halbes Jahr und bei MobilCPUs sogar noch länger, denn die OEMs brauchen jaauch Zeit diese in ihre Systeme zu intergrieren.
Ontario befindet sich in der Massenproduktion bei TSMC, das hat AMD bereits offiziell verlauten lassen und vorstellen möchte man sie noch Ende des Jahres. Und da dies kein diskreter Grafikchip ist von dem man mal ein paar hundertausend stück verkauft, sondern den Millionenmarkt schlechthin, nämlich nettops, netbooks und lowcostPCs, sind das ganz andere Stückzahlen. Juniper ist gegen Ontario einfach nur Peanuts, einer von vielen kleinen chips die niemanden so richtig interessieren. 70% der PCs haben gar keine diskrete Grafik, das sollte man dazu mal bedenken.

Ich bezweifel das man schon jetzt auf die Tessellationleistung der GTX 480 landen wird.
Dennoch wird diese Änderung nicht gratis geschehen, wie hier propagiert, bzw anders rum werden es keine Welten sein, auch wenn zukünftig HD6 auf der Packung steht.

Wozu brauch ich Tesselationsleistung? Ich rede hier von Gesamtleistung, da ist Tesselation nur eine ganz kleine hausnummer der ganzen Straße.
Man hat Cypress gegenüber rv770 nahezu verdoppelt, es kommen aber nichtmal 60% davon auf die Straße und das liegt wietheoretische Tests gezeigt haben nicht nur am Speicherinterface welches nicht mit verdoppelt wurde.

Derzeit weißt du doch nichtmal ob es der Tesselator in Cypress ist, der limitiert oder das triangle setup. Da auch ohne Tesselation nur 160% von rv770 geleistet wird, tippe ich eher auf ein Problem mit der Dreiecksleistung. Da letztere bei Fermi ziemlich aufgebohrt wurde tippe ich darauf, dass durch eine verbesserung des trianglesetups auch bei cypress viel getan werden kann, das betrifft dann indirekt auch die stark tesselierten szenen, dazu brauchts dann auch keinen neuen tesselator. Und da wird AMD auch ohne Fermi drauf gekommen sein, wenn 1600 shader eher so wie 1200 performen, dann liegt das problem an einer anderen stelle und du kannst sicher gehen dass AMD diese stelle bei Southern Islands adressiert hat.

Wenn dann erwarte ich einen Schritt wie HD3 nach 4, ein paar Bugs raus, dafür größer, teurer und höhere Abwärme.
Aber wie gesagt, das ist unnötiger OT, keine Ahnng was das hier zu suchen hat.
Keine Ahnung trifft das schon ganz gut, denn die hast du bei dem was du da faselst wirklich nicht.
Der Schritt von HD3870 zu HD4870 (RV670-RV770) war der größte den ATI leistungsmäßig je gemacht hat. Von 320 Shadereinheiten auf 800 und von 16TMUs auf 40, dabei mit den Taktraten nicht wirklich nach unten, trotz identischem fertigungsprozess, das ist enorm.
 
Zuletzt bearbeitet:
Unyu schrieb:
Wenn du fair wärst, würdest du versuchen alles mitzuzählen.
z.b. Kapazitäten, AMD muss teurer verkaufen, dafür muss nvidia mehr verkaufen.
Oder PCB Kosten. Gut kennst du nicht, sind nicht so nett in mm² geformt.
Oder was auch immer, fällt dir bestimmt was ein.

Mehr Polemik und Zerrederei, gepaart mit keinem einzigen Argument ist dir wohl nicht eingefallen?
Du weißt doch gar nicht, ob AMD mehr bezahlen muss als Nvidia pro Chip.
Noch sieht es kaum danach aus, dass sich die PCB Kosten von ATI und Nvidia sich deutlich unterscheiden würden, warum auch?
Zumal ein größeres Die auch weniger Yield bedeutet. Das noch garnicht beachtet.

Unyu schrieb:
Chips wurden und werden nicht umbenannt. GF108 bildet den unteren Abschluss, alles darunter wird mit GT2xx bedient.

Wenn etwas für Low-End nicht gepasst hat, dann wars GT2xx und dennoch kam er, Größe ist eben doch nicht alles.

Die Chips wurden umbenannt.
Teilweisesogar uralte g92b in GT330/gt340/gt320 oder gt310, oder was weiß ich.
Größe ist egal, weil Nvidia das alles mit günstigerem PCB, billigeren Kartonschachteln und Preisvergütungen bei TSMC herauskratzt, natürlich.
 
Zuletzt bearbeitet:
davidzo schrieb:
Nicht ganz. Die Frage ist eher ob man die Nachfolger anhand von deren jetzigen Preisen einkalkulieren soll oder anhand von deren einführungspreisen. letzteres macht mehr sinn und damals konkurrierte die GTS250 mit der 4850, also durchaus im performancesegment welches derzeit die 5850 und gtx4601GB ist. die 9800gt/gts240 im damaligen 100€bereich wird dann sinngemäß von der GT450 beerbt.

Je weiter man nach unten hin, das Preisgefüge aufsplitet, desto klarer ist es, dass eine GTS 450 kaum noch die ursprüngliche Stellung einer GTS 250 einnehmen kann.
Das sagt aber nichts über die Leistung aus.

Für die GT 240 kommt auf jeden Fall noch was kleineres, zb. GTS 440 oder GT 430.

davidzo schrieb:
Eben und das würde man nur mit einem 240sp/192bit GF106 schaffen. Das speicherinterface braucht man weil anscheinend nvidias GDDR5 controller dermaßen schrottig sind dass man trotz gleichen speichermodulen nur auf 2/3 der taktung kommt wie ATI.

Nvidia spart einfach Strom, in dem sie niedriger takten.
Und weniger Shader mit hohem Takt, lassen sich in Nvidia skalaren Design einfacher auslasten, als mehr Shader mit niedrigerem Takt.

Gut bei der Bandbreite mag ein 128bit SI nicht ganz ausreichen, aber es sagt ja keiner dass NV hier nicht einfach mit 2 Varianten kommt, so wie bei der GTX 460 auch schon der Fall.
Dann gibt es halt noch ne Version mit 192bit SI ...
 
davidzo schrieb:
Doch, die gesamte G3xx Serie sind umbenannte GT2xx Chips.
Schaffe89 schrieb:
Die Chips wurden umbenannt.
Teilweisesogar uralte g92b in GT330/gt340/gt320 oder gt310, oder was weiß ich.
Schwierig eine Disskussion zu führen wenn Gegenüber nicht ein minimales Fachwissen existiert.
GT330 ist kein Chip. G92 und GT2xx sind Chips.

davidzo schrieb:
Der PhysX Treiber kommt von nvidia. Der PhysX Treiberpatch der die Beschleunigung erst aktiviert kam ebenfalls nicht von 2K Czech. Dass da was im argen liegt ist Nvidias ding. Der derzeitige PhysXtreiber nutzt bei Mafia derzeit nichtmal einen einzigen core voll aus.
check mal die demo und die cpulast mit und ohne physx *mit dem zaunpfahl wink*
Ich weiss das mit CPU PhysX die Leistung eines einzelnen Cores limitiert. Zum Glück habe ich mir keinen 6 Kerner geholt.
Du hast gut erkannt das das nicht ideal ist. Aber für ein optionales Zusatzfeature ist das mal so ziemlich egal. Du hast kein Recht PhysX einzufordern. Ich jedenfalls meine das die Performance auf einer Geforce anständig ist.

Dafür dass es keinen VRAM-Bug gab sind 140.000 Ergebnisse dafür bei Google aber sehr merkwürdig. Das Speichermanagement war bescheiden, aber bei G80 gab es außerdem Probleme bishin zu Abstürzen weil die Adressierung in den Ram nicht vernünftig funktionierte, nichtso bei GT200.
Der RAM konnte nicht direkt adressiert werden, wenn der VRAM voll war. Das kostet nunmal Peformance völlig logisch.
Davon wirds immer noch kein Bug.

Man kann immer Cherry Picking betreiben, z.B. so: https://www.computerbase.de/2010-07/test-nvidia-geforce-gtx-460/16/#abschnitt_metro_2033 oder so https://www.computerbase.de/2010-07...tx-460/10/#abschnitt_splinter_cell_conviction

Was kostet denn ein voller VRAM so? Erdnüsse? Selten so einen Blödsinn gelesen.
Du willst keine Disskussion? Respekt ist etwas was man hier kaum noch antrifft.
Achja, auslagern dauert, es kostet sozusagen Zeit oder Taktzyklen.
Nichts mit Cache, darauf wollte ich nicht hinaus.

Man hat Cypress gegenüber rv770 nahezu verdoppelt, es kommen aber nichtmal 60% davon auf die Straße und das liegt wietheoretische Tests gezeigt haben nicht nur am Speicherinterface welches nicht mit verdoppelt wurde.
Genau und du erzählst mir das ein Schnipp am Setup die Probleme wegfegt.

Derzeit weißt du doch nichtmal ob es der Tesselator in Cypress ist, der limitiert oder das triangle setup.
Natürlich weiss ich das der Tesselator in der Regel nicht das Problem ist. Die Leistung ist zwar nicht überragend, aber aus dem Grund erwarte ich dort auch kein GTX 480 Niveau. Man wird sich dies sparen, man wird überall zusehen das man spart wenns nicht unbedingt nötig ist. Ich erwarte auch keine massive Steigerung der TEX Leistung.

Der Schritt von HD3870 zu HD4870 (RV670-RV770) war der größte den ATI leistungsmäßig je gemacht hat. Von 320 Shadereinheiten auf 800 und von 16TMUs auf 40, dabei mit den Taktraten nicht wirklich nach unten, trotz identischem fertigungsprozess, das ist enorm.
Der Chip ist gewachsen, die Leistungsaufnahme ebenfalls.
Bereits da gabs trotz allem nur doppelte Leistung. Nur in Bezug auf die theoretisch denkbare Leistung bei den Daten.
Beeindruckend ist die Verdoppelung natürlich trotzdem, ich denke sie liegt schlicht am vermurksten RV670, der im Prinzip nur ein R600 ist.

Schaffe89 schrieb:
Mehr Polemik und Zerrederei, gepaart mit keinem einzigen Argument ist dir wohl nicht eingefallen?
Kannst du auch mal einen Post verfassen ohne Polemik zu erwähnen oder ohne Beleidigungen zu verteilen?

Glückwunsch, du hast wieder mit einer provokanten, nichtssagenden Aussage und etwas OT für ordentlich Wind gesorgt, während du dich jetzt ins rechte Licht gerrückt hast.

Du weißt doch gar nicht, ob AMD mehr bezahlen muss als Nvidia pro Chip.
AMD = Kleine Kapazität -> AMD muss den Gewinn pro Einheit hoch halten
Nvidia = hohe Kapazität, hohe Kosten -> Nvidia muss die Menge der verkauften Einheiten hochhalten

Wo hats jetzt geklempt?

Noch sieht es kaum danach aus, dass sich die PCB Kosten von ATI und Nvidia sich deutlich unterscheiden würden, warum auch?
Zumal ein größeres Die auch weniger Yield bedeutet. Das noch garnicht beachtet.
Du willst wirklich nicht über die Kosten disskutieren, sondern flamen.
Unterschied bleibt Unterschied.
Wenn du eine gescheite Aufstellung lieferst kann AMD ruhig vorne liegen, würde mich nicht wundern, aber mach das erstmal.

Bis dahin können wir uns unterhalten das G94 auf der 9600 GT vollkommen konkurrenzfähig war.

Rickmer schrieb:
Zur Die-Size: Ich bezweifel, das der viel größer wird. Ich hab' neulich erst ein Interview gelesen (jaja, Quelle momentan unbekannt) wo sich ein ATI-Entwicker dazu geäußert hatte, das der Original-Chip für HD5k deutlich größer war als die marktreife Version.
Lange vor dem Tapeout denkbar. Nvidia hat auch auf TSMC mit der Streichung des GT212 reagiert.
Aber 24x24mm² halte ich für Quatsch, wo soll da noch die X2 Platz haben.

Ein bissl schade eigentlich, sonst hätte AMD jetzt noch die Performance-Krone mit einer ungeschnittenen 5890.
Warum, was hättest du vor Vorteile dadurch?
 
Zuletzt bearbeitet: (Polemik)
Naja in der aktuellen reihe von nv zieht sich das mit dem nciht vollausbau und überraschend geringe taktzahlen doch wie ein roter faden durch, wenn man es genau betrachtet. ich vermute sie haben sich überlegt, dass man gegen die 6k bald nachlegen muss und werden dann mit vollausbau der einzelnen chips und auf wundersame weise deutlich höhere taktzahlen kontern. würde mich ncihtmal wundern wenn das auf wundersame weise ein 5xx serie wird statt einer 4x5 welle :/
relabeln tun sie ja gern (funktioniert ja auch gut...)
 
Die aktuelle 400er Serie bietet noch genügend Raum, um bei einem Speed update eine 5 am ende zuplatzieren.
Ausserdem wo steht das die kommende 6000er von ATI nicht einfach nur ein leichtes Speedupdate ist?

Hätte man zb. seiner Zeit nicht den Die shrink von 80 auf 55nm gemacht, dann wäre eine 3870 nichts weiter,
als eine 2900 xt mit GDDR4 Ram und einem Stromsparmodus gewesen.

Der Rest des Chips war identisch + 10% mehr Takt.
Rebranding wirds immer geben, mal besser mal schlechter versteckt.
 
Unyu schrieb:
Warum, was hättest du vor Vorteile dadurch?

Nen paar verrückte Kunden die anstatt ner GTX480 ne HD5890 kaufen? ;)
 
Zurück
Oben