News GeForce GTX 285 10% schneller als GTX 280?

Aber käme es dann nicht billiger 2x512 zu verbauen und diese dann zusammenzuhängen?
 
r4yn3 schrieb:
Aber käme es dann nicht billiger 2x512 zu verbauen und diese dann zusammenzuhängen?

Dann entwickle doch mal ein System welches dies effizient ermöglicht?!

Aber das wirst du momentan kaum können, weil du noch elementare Verständisprobleme hast.
Eine Grafikkarte wie die ATI 4870X2 hat 2x1GB verbaut. Jede GPU hat ein GB zur Verfügung, indem die selben Daten sind.
Doch wenn man jetzt wie in deiner Annahme, 2x512 MB "shared" VRAM verbaut, dann hätte jede GPU bei gleicher Auslastung maximal 512MB des 1GB pools zur Verfügung.(Bei SLI wären es dann wieder effektiv 512MB ;) )
Falls eine GPU alleine rechnet, hätte diese aber 1GB zur Verfügung, dies wäre ein Vorteil der aber kaum ins Gewicht fällt, denn man will ja eigentlich beide GPUs nutzen.

Aber noch ein Tipp: Wenn es eine einfache Möglichkeit gäbe das Problem zu lösen, die auch noch billiger wäre, dann wäre sie schon umgesetzt worden...
 
Zuletzt bearbeitet:
cl55amg schrieb:
Aber noch ein Tipp: Wenn es eine einfache Möglichkeit gäbe das Problem zu lösen, die auch noch billiger wäre, dann wäre sie schon umgesetzt worden...
Die Lösung wäre eigentlich recht simpel: Man lagert das Speicherinterface samt ROPs und Kontrolllogik auf einen eigenen Chip aus.
 
theorist schrieb:
Man lagert das Speicherinterface samt ROPs und Kontrolllogik auf einen eigenen Chip aus.

Und erhöt damit den Signalweg zu den anderen Funktionseimheiten usw. ?
Das würde sich in einem Performance Verlust äussern.

Es hat schon einen Grund warum die ROPs im Die sind, oder warum die Memory Controller auch bei CPUs in das Die wandern.
 
Zuletzt bearbeitet:
cl55amg schrieb:
Es hat schon einen Grund warum die ROPs im Die sind, oder warum die Memory Controller auch bei CPUs in das Die wandern.
ATI hats mit dem Xenos in der Xbox 360 vorgemacht, da sind die ROPs samt dem eDRAM auf einem dedizierten Die. Wenn auch auf einem gemeinsamen Träger.
 
theorist schrieb:
ATI hats mit dem Xenos in der Xbox 360 vorgemacht, da sind die ROPs samt dem eDRAM auf einem dedizierten Die. Wenn auch auf einem gemeinsamen Träger.

Ja ich weiss, aber trotzdem ist es langsamer. Klar haben sie einen den so genannten fastlink, eDRAM usw. was die Anbdindung zu den ROPs beschleunigt, aber im Grunde diente das wohl eher der Kostenerparnis/Chipausbeute.
Der technologische Trend geht eher in die Richtug Signalwege zu verkürzen, mehr mit weniger Aufwand.

Oder siehst du das anders?
 
Zuletzt bearbeitet:
Die Auslagerung des Speicherinterfaces löst aber nicht die Probleme:

1. Lagert man die Logik aus und geht mal von den 448-Bit aus, dann hätte man 1344 Datenleitungen, die zum und vom Speicherinterface-Chip laufen (je 448 für eine GPU 448 für den Speicher). Das Routing wird sicherlich ein riesiger Spaß.

2. Wenn beide GPUs gleichzeitig auf den Speicher zugreifen halbiert sich die Transferrate pro Chip. Das wäre für eine High-End-Karte absolut tödlich, da die jetzigen High-End-Karten bereits eine breitere Speicherbandbreite vertragen könnten (insbes. bei höheren Auflösungen und AA ist die Speicherbandbreite heute ein Problem). ATI nutzt extra GDDR5, NVidia baut auf 448-Bit/512-Bit-Verbindungen.

Natürlich könnte man eine Lösung finden, aber ATI hat es bis heute nicht geschafft den Sideport zum laufen zu bringen und auf der HD 4870 gibt es immer noch keine vernünftigen Stromsparmechanismen. An echten Verbesserungen der Multi-GPU-Nutzung (Stichwort: Mikroruckler) arbeitet auch keiner von beiden und Multi-Core-GPUs oder so gibt es auch nicht. Wie groß ist da wohl die Wahrscheinlichkeit, dass ATI oder NVidia an neuen Ideen werkeln. Die kriegen ja teilweise nichtmal ihre normalen Produkte auf die Reihe.
 
@FredKune

Wie so oft bei schriftlíchen Dialogen reden wir aneinander vorbei, denke ich.
Ich bin doch ganz Deiner Meinung, dass der neue Name gerechtfertigt ist. Was ich bemängelt habe, war, dass dieselbe Namensänderung bei der 260er-Serie nicht stattgefunden hat und das verwirrend ist. Dort wäre es aber noch viel eher angebracht gewesen. Wenn also NV (nicht ich!) der Meinung ist, dass der Shrink bei der 260 nicht erwähnenswert ist, warum dann bei der 280? (<- rhetorische Frage)
Bei der einen Karte hat nVidia nichts an der Bezeichnung geändert (GTX260), bei der anderen ein "+" drangehängt (9800GTX, oder?) und jetzt auf einmal wird eine komplett neue Karte genannt.
Eine GTX280 wird jemand, der OC betreibt, ziemlich wahrscheinlich auf exakt dieselbe Performance (außer Leistungsaufnahme, aber der unversierte Kunde kümmert sich selten darum) bringen, die eine standard-285 hat. Die erste GTX260 auf das Niveau der "dritten" GTX260 mit nicht nur mehr Takt, sondern auch mehr Einheiten, zu bringen, ist da schwerer.
Also: "285"=gut, aber das hätte nVidia auch sonst machen sollen. Entweder alle umbenennen oder keine!
Ich denke, bei der 260 war es eine Marktpositionierungsmaßnahme gegen ATi. Bei der 285 wollen sie vielleicht um eine Preissenkung herumkommen (schließlich ist es eine "neue" Karte) und die Marge erhöhen.
Von der einfachen Umbenennung einiger GF8-Karten, damit sie scheinbar zur GF9-Serie gehören (was sie aufgrund des Chips von Anfang an getan haben), fange ich gar nicht erst an. (<- Allein an diesem Satz merkt man, dass NV mit dem Namensschema Verwirrung stiftet.)

Wie auch immer: Am Anfang hatte ich nur um Klarstellung gebeten, da ich zum ersten Mal von der GTX 285 gehört hatte. Später habe ich dann das Namensschema bemängelt, und zwar nicht den neuen Namen, sondern die Inkonsistenz in der Namensvergabe. "GTX280 OC" war kein ernst gemeinter Vorschlag, sondern sollte genau diese Inkonsistenz hervorheben, eben weil es so verwirrend wäre... wie halt bei der GTX260. (Die "ernsten" Vorschläge waren übrigens darunter zu lesen.) Ich dachte, das alles wäre aus meinem langen Post ersichtlich gewesen. Ich hoffe, ich konnte es jetzt klarer darstellen.
 
Zuletzt bearbeitet:
Klingt ja ganz gut!
Jedoch finde ich es schade,dass wie es in Gerüchten hieß, kein GDDR5 Speicher verbaut wurde.
Dann würde sie ja extrem abgehen!
Aber die GTX285 könnte meine evtl. nächste Grafikkarte werden, welche ich dann @max übertakte(sicherlich OC-Freudig durch den Shrink)!

Greetz.Mr.Mushroom
 
Zum Stromverbrauch der GTX-295: Expreview sagt was von 289W, was ich für realistisch halte.

@nothe: Also Launchtermin is auf der CES am 8. Januar.

@Topic: Find ich gut, da ich erst nen Laptop gekauft und an meinem dekstop lange nichts mehr geändert hab werde ich mir höchstwahrscheinlich die GTX-260 (216) in 55nm kaufen wenn die denn so auf den markt kommt. Und ich weiß gar nicht was ihr alle habt, ich finde was Nvidia macht is richtig, nicht die Leistung 25% steigern und bei gleichem Verbrauch bleiben sondern Verbrauch stark (ja, ich finde das ist stark) senken und nur marginale mehrleistung bereitstellen. Wer mehr Leistung will kann OCen, potenzial ist ja offensichtlich vorhanden.
 
cl55amg schrieb:
Ja ich weiss, aber trotzdem ist es langsamer. Klar haben sie einen den so genannten fastlink, eDRAM usw. was die Anbdindung zu den ROPs beschleunigt, aber im Grunde diente das wohl eher der Kostenerparnis/Chipausbeute.
Der technologische Trend geht eher in die Richtug Signalwege zu verkürzen, mehr mit weniger Aufwand.

Oder siehst du das anders?
Es gab doch vor einigen Monaten Gerüchte, dass ATI zu Manycore-GPUs übergehen wird, d.h. eine dedizierte Steuerlogik und Speicheranbindung, die mit einer beliebigen Anzahl von dedizierten Recheneinheiten kombiniert werden kann. Der Vorteil liegt - wie du auch schon sagtest - in der besseren Ausbeute. Desweiteren wird die verfügbare Speicherkapazität besser genutzt. Außerdem würde diese Lösung nicht unter den AFR-typischen Mikrorucklern leiden.
Je nach vorgesehener Rechenleistung müsste man unterschiedlich breite ROP/SI-Dice verwenden. Und die einzelnen Dice könnte man ja durchaus auf dem gleichen Träger platzieren.

Ich finde den Ansatz grundsätzlich vernünftig, auch wenn die Latenzen zwischen den Stufen größer werden. Da der Trend aber eh zu immer stärkerer Parallelisierung und mehr Rechenzeit pro ALU hingeht, sind die Latenzen gar nicht so kritisch.
 
Zurück
Oben