News Dual-Chip-Karte von Nvidia im Januar?

Nacho_Man schrieb:
Natürlich ist auch eine GX2 mit 65nm-Chip möglich , jedoch wäre sie dann immer noch in Schlagdistanz der 4870X2 !


Nöö, eben nicht. Zumindest meine ich, mal irgendwo im Rahmen der 4870X2 Diskussionen (als die X2 neu auf den Markt kam, bzw. auch schon im Vorfeld), gelesen zu haben, das eine X2 mit zwei 65nm Prozis aus Platzgründen nicht zu machen sei. Mit 55nm aber sehr wohl. :)

Das dumme ist nur, ich find den Thread nicht mehr. :freak:
 
Mit Platz hat das überhaupt nichts zu tun.
Auf 2 PCBs ist doppelt so viel Platz wie auf 1 PCB.
 
Nun ja , wenn man sich mal die Chipgröße anschaut hast du schon Recht , der Die ist sehr groß .

Wahrscheinlich würde die Karte dann um einiges länger werden , oder auch höher soweit es da eine Einhaltung der Normung zu beachten gilt .

Soweit ich weiss dürfen PCIe-Grafikkarten nämlich nur eine bestimmte Höhe haben , die Breite ist nicht begrenzt ^^

So gesehen wäre wohl die Sandwichbauweise wahrscheinlicher .
 
Da binn ich mal gespannt in 55nm dürfte die GTX 260 GX2 auf jeden fall sparsamer sein wie eine 4870x2 denn sogar 2normale GTX260 im SLI Sparsamer sind, laut CB Test.

Das heisst noch biss mindestens Jannuar mit der ollen 8800 auskommen, binn gepannt was dann ATI entgegen schickt.
 
Muscular Beaver schrieb:
@perdun:
Wenn die Mikroruckler entfernt wurden würde ich sogar meine GTX260 verkaufen für die, aber wenns die immer noch gibt, dann ist das mal wieder eine sinnlose Karte hoch 10.

Wenn du jemals mit einer 4870X2 in Bereiche vorstossen solltest, das man die MR aktiv (also ohne künstliche Verzögerung) sehen kann, könnten es genauso gut auch normale Ruckler sein. Und ausserdem haben auch Single-GPU Karten MR, auch wenn sie nicht so stark in Escheinung treten wie bei Dual-GPUs. Ich zitiere mal aus diesem Test:

Wie man anhand der Diagramme gut erkennen kann, erzeugt selbst eine Single-GPU-Karte keine völlig gleichmäßigen Frametimes.

Und nur weil eine Karte MR hat, ist sie noch lange nicht sinnlos.

Bevor ich eine X2 im Format einer 4870 in einen solchen Bereich bringe, ruckeln andere Karten schon von ganz alleine. :evillol:

Bei schwachen SLI/CF Verbünden alla 6600GT und Konsorten lass ich mir sowas gefallen. Bei Verbünden der Kategorie aus GTX oder 4870´er Karten nicht.


mfg
Garri
 
Unyu schrieb:
Mit Platz hat das überhaupt nichts zu tun.
Auf 2 PCBs ist doppelt so viel Platz wie auf 1 PCB.

Gut aufgepasst in Mathe. :D
Ich dachte, wir reden hier von einer GX2 Möglichkeit auf einer PCB? Zwei GPUs in 65nm Fertigungsprozess hiesse aber auch zwei mal 896MB RAM auf der Karte. Und genau daran scheiterte das ganze Vorhaben.


@ drago-museweni:

Nicht zwangsläufig. Eine 4870X2 ist auch sparsamer als zwei 4870 im CF. Angaben für das Komlettsystem:
idle: 4870X2 = 206W / 4870 CF = 283W
Last: 4870X2 = 494W / 4870 CF = 511W

Angaben laut CB-Test vom 12.08.08. :)
 
Für mich ist sie Sinnlos.
Den Unterschied zwischen Nachladedrucklern oder ähnlichem und Mikrorucklern solltest du auch erstmal lernen. Hier gibts nen schönes Testprogram dazu. Dass man ne X2 nicht an die Mikrorucklergrenze bringen kann, ist auch wieder so ein Ammenmärchen. Man bekommt jede Karte an die Grenze. Und die Grenzer bei einer X2 ist sogar niedriger, da ich persönlich schon Mikroruckler bei 40 FPS bemerke (da sind sie eh immer).
 
Garrett66 schrieb:
Ich dachte, wir reden hier von einer GX2 Möglichkeit auf einer PCB?
Wer sagt das? ;)
Die letztem 3 GX2 waren auch 2 PCB Karten. Warum jetzt mühsam alles auf eine Karte setzten ....

Garrett66 schrieb:
Zwei GPUs in 65nm Fertigungsprozess hiesse aber auch zwei mal 896MB RAM auf der Karte. Und genau daran scheiterte das ganze Vorhaben.
Und bei AMD sind sogar 2x 1024MiB auf einem PCB möglich, schlechtes Argument. ;)
Ok ich helfe dir: Jetzt sinds 16 Chips (auf der 280), die GX2 bräuchte 32 Chips. Aber auch kein Thema, ist ja mehr Platz da.
Was hat eigentlich die Fertigungsgröße mit der RAM Menge zu tun? :D

PS: Bitte las den CB-4870 Test weg. Unterschiedliche VRAM Mengen, unterschiedliche Treiber und nur das Gesamtsystem gemessen. Nimm: http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0
 
Zuletzt bearbeitet:
gecan schrieb:
typisch Nvidia halt, was soll man mehr dazu sagen:confused_alt::freak:

Wie meinen?

Crimson II schrieb:
Hätte neue Namen begrüßt. Da die 55nm Chip auch etwas schneller sein sollen würde es Sinn machen diese auch anders zu benennen. Ob schneller oder nicht, für den Endkunden währe es einfacher gewesen die neuen 270 und 290 zu nennen. So ist es wieder mal wie all zu oft bei NV ein Ratespiel was unter dem Kühler versteckt ist, beliebt machen die sich damit nicht!

Die packen statt einem 65nm einen 55nm Chip drauf. Wenn Taktraten etc. gleichbleiben, dann ist es von der Leistung her die gleiche Karte. Hätte NVidia das als GTX270/290 verkauft, hättest Du sicherlich gemeckert, dass die doch nur den Chip schrumpfen und Kunden dann nur durch den neuen Namen zum kaufen bringen wollen.

Ich finde die Entscheidung richtig. Die werden den Chip kleiner machen und die Taktraten vermutlich beibehalten. Dadurch sinken v.a. die Fertigungskosten.

Übrigens: Bei den Shops in denen ich so kaufe, kaufe ich nicht nur nach bunten Bildern, Schwanzmarktwerden oder dem Produktnamen, sondern schaue auch auf die technischen Eigenschaften. So ziemlich alle guten Shops werden es deutlich machen, ob man eine 65nm oder eine 55nm-Variante kauft. Auch an der Angabe zur Leistungsaufnahme wird man das erkennen können.
Weiterhin werden die 65nm durch die 55nm Varianten ERSETZT, d.h. es wird nach einer Übergangsphase nur noch die 55nm-Variante geben.

Beim Monitor kauft schaut man doch auch, was für eine Art Panel da drin ist. Da wird es doch nicht so schwer sein im Shop mal zu schauen, ob es die 55nm-Variante ist, oder? Wenn man sich dafür interessiert wird man schon ein bisschen nach unten Scrollen müssen. Ich sehe da also wirklich kein Problem. Zumal in einigen Shops solche Infos sogar - für die ganz Faulen - mit in die Produktbezeichnung einfließen ("GTX 260 @55nm" o.ä.).
 
@ Garrett66 du hast meinen Beitrag falsch gelesen, ich sagte ja das eine GTX 260GX2 sparsamer sein wird als eine 4870x2(494Watt) da ja schon 2x GTX260 (nur468Watt) sparsamer sind vielleicht kommt eine GX2 dann mit weit weniger aus dank 55nm und Dualdesign(auf hoffentlich einer Platine) vielleicht dann nur 440Watt Gesamtsystem oder weniger.

@Unyu mann kann aber davon ausgehen das eine GX2 sparsamer sein wird wie eine 4870x2 wenn der 55nm Prozess das erhoffte erbringt und wenns dann nur 20Watt sein sollten.
 
Zuletzt bearbeitet:
Unyu schrieb:
Wer sagt das? ;)
Die letztem 3 GX2 waren auch 2 PCB Karten. Warum jetzt mühsam alles auf eine Karte setzten ....

Das mein ich doch die ganze Zeit. NVIDIA hatte doch das Bestreben, ebenfalls alles auf eine Karte zu setzen (schönes Wortspiel übrigens :D).
Und das ging in die Hose. Es war schlichtweg kein Platz da.


Was hat eigentlich die Fertigungsgröße mit der RAM Menge zu tun? :D

Je grösser der Proz., desto weniger Platz für RAM-Bausteine? War der Proz. nicht schlichtweg zu gross dafür?
Mist, ich könnt mir´n Monogramm in´ Hintern beissen, dass ich den Thread/Test nicht mehr wiederfinde. :pcangry:


PS: Bitte las den CB-4870 Test weg. Unterschiedliche VRAM Mengen, unterschiedliche Treiber und nur das Gesamtsystem gemessen. Nimm: http://www.xbitlabs.com/articles/video/display/radeon-hd4870-x2_6.html#sect0

Das das Gesamtsystem gemessen wurde, dessen bin ich mir bewusst. Sollte auch nur als Anhalt dienen.
Hat sich aber auch schon als Missverständnis aufgeklärt.


@ drago-museweni: Dann sorry, Missverständnis. :)


mfg
Garri
 
ich verstehe schon, worauf Garrett66 hinausmöchte.

Wenn ich mit einer Karte im Format einer 4870X2 / GX2 260 in den kritischen Bereich der Mikroruckler komme, da ist es mit allen anderen Karten ohnehin bereits an der Grenze zu unspielbar. Insofern haben Multi-GPU Karten auch für mich ihre Daseinsberechtigung.
Da ich SLI/CF aber generell im momentanen Zustand als unattraktiv empfinde, würde ich eine solche Karte so oder so nicht kaufen. Dafür ist ein Multi-GPU-Setup zu aufwändig im Punkt der Profilkonfiguration, es zieht verdammt viel Strom, die Mehrperformance ist nicht immer abrufbar, teilweise skalieren 2 GPUs sehr schlecht und das zu einem hohen Preis usw. - die üblichen Bekannten halt. Diese Punkte überwiegen bei mir den Vorteil der Mehrperformance um Längen.

Was ich mich frage, warum hält nVidia so eisern an der Sandwich-Bauweise fest. Ich denke, das Layout dürfte weit simpler zu fertigen sein, aber die Kühlung wohl aufwändiger.

Zu dem angesprochenen Punkt, das ATi-Karten sehr heiß werden. Hierzu habe ich ein Interview mit einem ATi-Entwickler gelesen, der meinte, man hat die 4000er-Serie primär auf leisere Kühlung optimiert, da dem Kunden eine laute Karte eher auffällt. Da kann die GPU noch so kühl bleiben, der Masse ist die Lautstärke wichtiger bzw. fällt sie sofort ins "Auge". Die Temperatur der GPU hingegen tangiert die meisten nur periphär (geht auf gut Deutsch am A**** vorbei).
 
Garrett66 schrieb:
Je grösser der Proz., desto weniger Platz für RAM-Bausteine? War der Proz. nicht schlichtweg zu gross dafür?
Stimm natürlich, auch eine 32cm Karte (ich wär dafür :D) hat zuwenig Platz.

ABER: Durch 55nm wird der Chip nicht so unglaublich viel kleiner (4xxmm² + IHS?) und die 32 RAM Chips wollen auch noch irgendwohin, gerne wird auch mit dem 512bit SI argumentiert.
So oder so, imho ist die 1 PCB Lösung schwer. ;)
 
@Unyu gegen 32cm hätte ich auch nichts würde noch gut in den Rechner passen. :D
 
Warum nicht gleich eine gtx 280 X2? Da wäre die Perfomance-Krone mit Sicherheit geholt.
 
Weil du die mit LuKü praktisch nicht kühlen kannst. Die X2 ist ja schon elendig laut und trotzdem sackheiß.

cYa
 
Falls die Dual 260 kommt und nvidia den 200b wirklich nur "leise" einführt wird es sich ATI nicht nehmen lassen, den RV790-Refreshchip mit Pauken und Trompeten anzukündigen*g*. Mal schauen wer dann besser abschneidet...
 
X2 mit Mikroruckler?!
Solange das Problem nicht behoben ist, verzichte ich auf solche Lösungen...
 
y33H@ schrieb:
Weil du die mit LuKü praktisch nicht kühlen kannst. Die X2 ist ja schon elendig laut und trotzdem sackheiß.

cYa

Bei allem gebotenen Respekt für dich und deine fachliche Kompetenz :) (ist ehrlich gemeint), aber eine solche Aussage halte ich für eine subjektive Wahrnehmung. Laut definiert jeder anders. Ich empfinde meine X2 nicht als laut.
Ja, du hast insoweit Recht, als wie die X2 ab einer Lüftergeschwindigkeit von mehr als 55% wirklich sakrig laut ist. Aber alles darunter ist für mich persönlich annehmbar. Aber .. wie gesagt, subjektiv. :)
Und mehr als 50% Lüftergeschwindigkeit brauche ich nicht, um meine X2 auf schnuckeligen 73° bis 75°C unter Last (Crysis, alles high, DX10) zu halten.

Ach ja, eine GTX280 mit Luftkühlung, das wäre doch echt mal eines der letzten Abenteuer dieser Erde.


Gruß
Garri
 
drago-museweni schrieb:
Da binn ich mal gespannt in 55nm dürfte die GTX 260 GX2 auf jeden fall sparsamer sein wie eine 4870x2 denn sogar 2normale GTX260 im SLI Sparsamer sind, laut CB Test.

Das heisst noch biss mindestens Jannuar mit der ollen 8800 auskommen, binn gepannt was dann ATI entgegen schickt.

Normalerweise sehe ich das genau so das die GX 2 sparsamer wird wie die X2, aber NV will ja einen ordentlichen Vorsprung gegenüber der X2 raus holen und wird die Taktraten entsprechend anheben und daher kann es schon sein das die GX2 genau soviel bzw. mehr braucht wie die X2. Abwarten...
 
Zurück
Oben