News Finale Taktraten der GeForce GTX 280/GTX 260?

"EDIT2:
Es geht mir nicht darum, ob nVidia bessere Karten baut sondern darum, dass es einfach Schwachsinn ist, dass eine 600$ Karte nur ca. 25% schneller ist als eine, die 350$ kostet"

Wieso? War doch bei der 8800 ULTRA auch nicht viel anders, ich hab zwar keine Zahlen mehr im Kopf aber viel mehr als 25% schneller als ne 8800GT620 war sie damals auch nicht oder? dennoch 600-700 euro im vergleich zu 350 oder so...

Die highend Karten haben ein beschi*** Preis/Leistungsverhältnis, das ist bei allen dingen so, bei CPUs, bei RAM und natürlich auch bei Grafikkarten ;)
 
Die Leistung wird sicher besser sein als manche rechnen, denn ich denke, dass nV auch zB die Shaderleistung / Takt verbessert hat. Dass sie DX10.1 nicht unterstützt ist sicher nicht s schlimm, die meisten Spiele werden (alleine wegen dem TWIMTBP Programms) eh auf DX 10.0 setzen.

Bin mal gespannt, ob später eine höher getaktete Ultra mit 55nm kommt- und auf den Test GTX 260 / 280 vs HD4850 & HD4870 (die X2 soll doch erst im Herbst kommen, oder?). :)

Gruß
Edge
 
BullRun schrieb:
Mit steigender Aufloesung wird AA aber immer sinnloser ,in 1920x1200 sind die genannten Treppeneffekte gar nicht mehr moeglich bzw nicht mehr wahrnehmbar. [...]. Zur Sicherheit koennte man noch mit 2xAA das Ganze verfeinern. Alles darueber hinaus ist in dieser Aufloesung nicht sinnvoll meines Erachtens nach....

Entschuldigung, aber das ist (wenn man es auf die native Auflösung gängier TFT Bildschirme bezieht) totaler schwachsinn.

Auf einem 24" mit 1920*1200 treten genau die gleichen Treppeneffekte auf, wie bei einem 15" mit 1024*768. Warum? Weil die Pixel in etwa gleich groß sind. Auf der gleichen Fläche haben beide Monitore also etwa gleich viele Pixel. Deshalb ist FSAA in hohen Auflösungen alles andere als sinnlos.
 
das ist ja ne tolle Theorie , in welchem Maerchenbuch stand das denn .... so ein Posting rettet den ganzen Tag , kann ich den ganzen Tag drueber lachen ...:) weiter so
 
Ich denke die 280er wird ne super Karte, wie die GTX es war. Da bleibt nur noch die Frage ob die Spieleentwickler da nachkommen und es sich lohnt so eine Karte und vielleicht 24 zoll TFT (und aufwärts) zu kaufen. Da hat jeder wohl seine eigenen Präferenzen.
 
cosmicparty schrieb:
@ bullrun:
das gegenteil ist der fall. je größer ein körper ist, desto schwerer wirds ihn zu kühlen. ein blödes beispiel wäre die sonne, riesige masse, dementsprechend kleine oberfläche und extreme hitze.

klein heißt große oberfläche und gut zu kühlen.

das ist ein grundgesetz der physik, darüber kann man nicht diskutieren. mach dich einfach schlau.
echt zum brüllen
es macht ja nichts wenn man keine ahnung hat, aber diese so zur schau zu stellen ist schon einmalig
und dann auch noch andere auffordern sich zu informieren:lol:
der tag ist auf jeden fall gerettet

hast du schon mal ne cpu in kugelform gesehen oder als zylinder?
klar haben 3d körper mit steigendsem volumen ne kleinere spezifische oberfläche
nen DIE ist aber nahezu ein 2D objekt. mit steigender anzahl transistoren nimmt die größe nur in 2 dimensionen zu
also wird die spezifische oberfläche kein bisschen kleiner
 
Wenn der Chip in der Tiefe zunehmen würde, hätte er Recht. Das ist aber nicht der Fall. Ein Plättchen hat bessere Kühleigenschaften als ein Würfel - da wurde einfach was verdreht. Soviel zur Theorie. Das Problem ist aber weniger die Die-Fläche, sondern eher die Hotspots. Ein prominentes Beispiel ist der K8 Thoroughbred. Die Rev.A hatte eine Lage weniger als die Rev.B aber hatte deutlich schlechtere Kühleigenschaften. Das hängt also von vielen Faktoren ab, wie gut sich ein Chip kühlen lässt. Faustregel ist, dass 80-120mm² Die Fläche ziemlich optimal sind, um die Wärme gut abführen zu können.
Der G200 ist nur so riesig, weil viel Redundanz in ihm steckt. Wäre weniger Redundanz vorhänden, wäre der Chip vllt nur 450mm² gross, aber der Yield wäre unwirtschaftlich. So ist der Chip 575mm² gross, aber der Yield ist gut. Der Hersteller muss immer den besten Kompromiss finden. Ich sehe das aber auch eher so, dass NV es mit der eigenen DX10 Architektur nicht schafft, die auf Takt zu optimieren. Deshalb auch dieses ausgeuferte Monster. Eines ist sicher: Die Shaderleistung wird deutlich besser als jetzt. Interessanterweise steigt die Z-Leistung auch gut an (aufgrund mehr ROPs wegen grösserem Speicherinterface), aber die TMUs werden kaum mehr. NV nähert sich also in der Hinsicht eher AMD an, während AMD den umgekehrten Weg beschreitet und viel mehr TMUs verbaut.
 
Zuletzt bearbeitet:
Hier ist mal wieder der ultimative Fanboy Flamewar ausgebrochen ^^

Spekulieren aufgrund der bekannten Daten und Preise kann man viel - die einen lesen da den glorreichen Sieg von Ati heraus, die anderen den finalen Todesstoß zu dem Nvidia ansetzt... Die Wahrheit wird wohl wie so oft irgendwo in der mitte liegen. Ich warte da mal ganz entspannt ab und freue mich auf die ersten Tests.

Solange SC2 kein Releasetermin hat brauch ich über eine Graka eh nicht nachdenken :)
 
Wie kann man eigentlich ernst bleiben bei der Behauptung, ein 800 Mio Transistoren Chip (RV770) wäre fast gleich auf mit einem 1300 Mio Transistoren Chip (GT200),
wenn bereits ein 505 Mio Transistoren Chip (G94) mit einem 666 Mio Transistoren Chip (RV670) bestehen kann?
 
die zahl der transitoren kann man aber auch nicht gleich 1:1 vergleichen. du weist ja gar nicht, was bei den verschiedenen transitoren bezweckt werden soll... der g71 (278 mio) hat auch weniger transistoren als der g70 (303 mio) und ist trotzdem schneller, und die sind sogar von der architektur her verwandt ;)
 
Zuletzt bearbeitet:
schlechter vergleich
beim G71 hat man wohl nur überflüssige transistoren sparen können
ist ja fast ein reiner shrink, große änderungen an der architektur sind nicht gemacht worden
die mehrperformance kam ja nur durch den takt

grundsätzlich hast du natürlich recht
 
Der G71 ist ein Shrink, mehr nicht - takte mal nen G70 und nen G71 gleich, praktisch geben die sich nichts. Die Anzahl der Transis ist kein Garant für viel Power - nichts ist leichter als Transis zu verschwenden (wie es ATi angeblich mit der Tesselation-Einheit gemacht hat).

cYa
 
y33H@ schrieb:
- nichts ist leichter als Transis zu verschwenden (wie es ATi angeblich mit der Tesselation-Einheit gemacht hat).

Prinzipiell ist die Tessalations-Einheit was durchaus nützliches. Nur sollte AMD dann schon wie nVidia in ein Paar Games investieren, damit es wenigstens ein Spiel gibt, dass das dann auch unterstützt. Andernfalls ist es wirklich vergebliche Liebesmühe ein nicht Standardfeature alleine vorzustellen und dann darauf hoffen, dass sich irgend ein Game-Enwickler von alleine die Mühe macht. Wobei wir jetzt auch nicht wissen, wie viele bzw. wie wenig Transistoren letztendlich dafür drauf gehen.
 
Zuletzt bearbeitet:
@ Lutschtablette

Ah ja - Links bzw. weitere Details?

cYa
 
@bensen: damit sagst du aber das gleiche aus wie ich^^ ich hab doch gesagt dass die zahl der transistoren kein indikator für die geschwindigkeit ist. du sagst die geschwindigkeit bei g70 und g71 sei praktisch gleich geblieben nur die zahl der transistoren wurde verändert. was zu beweisten war :D
ob die bei identischem takt wirklich exakt gleichschnell waren, weis ich gar nicht, aber die karten mit weniger transistoren waren zumindest schneller ;)
 
Dass der Inq was gegen Nvidia hat sollte jedem halbwegs klar sein... man erinnere sich an die Empfehlungen keine 8800 GTX zu kaufen sondern auf die HD2900er zu warten :lol:. Am besten ist immer noch deren Meldung zum G80.

Aber zurück zum Thema: Dass der GT200 verspätet in 55nm kommen wird ist schon länger bekannt. Stand glaub sogar mal hier auf CB. Nvidia wählte wohl erst den sicheren weg, fertigt in 65 nm und liefert die 55 nm Chips nach. Sie werden vermutlich etwas günstiger sein und etwas höher takten. Wobei ich im Hinblick auf den höheren Takt und andere positive Eigenschaften (Verbrauch, Abwärme) bezweifle, dass Nvidia die gesparten Kosten weitergibt.

Update: Ich denke man sollte sich vor Augen halten, was der GT200 überhaupt ist. Es ist keine neue Architektur, es ist nicht der G100, es ist nicht der erwartete DX11 Chip (liegt aber eher an Microsoft). Nvidia brauchte was für den immer größer werdenden Markt der großen Monitore (22"+). Also haben sie ein großen monolithischen Chip entwickelt, der in erster Linie eins bringt: G80 Technik mit maximalster Leistung.
 
Zuletzt bearbeitet:
Zurück
Oben