News EVGA zeigt nächstes „Dual-GPU-Monster“ von Nvidia

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.333
Also ich finde die Kühllösung nicht sehr großzügig dimensioniert.
Nen 3-Slot Kühler wäre doch bestimmt angebracht.


mfg
 
2x1GB machen überhaupt keinen Sinn. Die HD 6990 wird die Karte komplett zersägen, das weis auch NV und warum sollten sie dann die Karte überhaupt bringen? Sogar die GTX 580 wird schneller sein. ZB Metro.

2x 1.280MB ist schon besser aber immer noch zu wenig für die wahnsinnige Rohleistung der Karte. Mal schaun was AMD mit der 6990 so anstellt. Und wie sich die beiden dann unter extremen Settings schlagen. Ich denke bei AMD kann man wieder mit 2GB pro GPU rechnen.
 
Wenn ich auf ein Dual-GPU system setzen würde, dann würde ich wohl doch eher 2 Karten kaufen als so ein monster. Der Preis wird sich warscheinlich irgendwo in der Region der Asus Ares Bewegen, falls es sich dabei um eine eigenentwicklung von EVGA handelt. Wenn es eine offiziele karte wird,(GTX 595??) dann vieleicht für 600 zu haben.

Edit:

Was auch immer ganz vergessen wird ist, dass man bei zwei karten das ganze dann auch als Toaster benutzen kann;)
 
Zuletzt bearbeitet:
Möglich könnte aber auch 2x 560 sein, allerdings mit doppeltem speicher. also 2x 2GB.
Oder wär das eher unwahrscheinlich? allzu schwer sollte das sicher nicht sein^^
 
nun ja hätte fast noch nen 6-pin stecker erwartet.
Aber wenn das tasächlich ein neues graka modell ist das ab werk 2x 8-pin stecker hat. Dann bestätigt das nur einen traurigen trend der steigerung der tdp :(
 
@Müslimann
3 Slot lässt aber kaum SLI zu.

2*8Pin aka 375W sind für so ein Monster vertretbar, wenn dann tatsächlich zwei GF110 Chips drauf verbaut sind.
Man bedenke nur die Asus Ares, mit Zwei mal HD5870 Chips, die mit 2*8Pin + 6Pin, also 450W daherkommt oder auch die alte HD 4870X2 die weit über ihrer Spezifikation von 300W (8+6Pin) lief, bei > 370W.

Allerdings gilt hier auch, wie bei all diesen Monstern:

Warum nicht gleich ne Wakü?! :freaky:
 
Zuletzt bearbeitet:
ohh, dann hat ATI ähh, AMD ja gar nicht mehr die schnellste Grafikkarte...
 
@ Kasmopaya
Gerade Gamer, sind die jenigen die die warscheinlich hohe Lautstärke noch in Kauf nehmen

Man sollte wirklich mehr auf Wasserkühlung setzen, besonders bei solchen Monstern.
Bin mal gespannt, ob es nun endlich mal ne Vernünftige Lösung für die Microrucker geben wird, die Hoffung ist aber nicht all zu groß.
 
Ich denke, wir sind uns alle einig, dass es entweder 2 heruntergetaktete GF 110 sind, also geringere Taktraten als die GTX 570 oder 2 mal vollausgebaute GF 114 sind, was ich persönlich für wahrscheinlicher halte. VRAM hängt dann natürlich von den verwendeten Chips ab.
 
Die auf der Rückseite der Karte zu sehenden, eher rechteckigen als quadratischen Spuren an den stellen, an denen auf der Vorderseite die GPUs verbaut sind, sprechen m.E. nicht für die Verwendung einer GF110-GPU, sondern eher für den GF114, vgl. dazu die Rückseite der GTX 460: https://pics.computerbase.de/2/9/9/8/3/20-1080.4169032839.jpg.

Ansonsten kann ich mir vorstellen, angesichts der zwei 8-Pin-Stecker, dass es sich hier um eine komplette Eigenkreation von evga handelt.
 
Kann man darauf Würste grillen? Computerbase macht dan ein Video von, wenn es geht ist die Karte sofort gekauft.

Ich denke es sind 2 GTX 460/560 drinne aber sehr stark undervolted Rops un so bleiben bestimmt gleich.Aber sollen 375W nicht das Mainboard grillen ?!
 
Bestimmt zwei GTX 560er. Vielleicht aber auch zwei GF110 GTX480er, also zwei GTX 570 mit vollem SI.
 
Ein Hauptgrund wieso ich mir so eine Karte kaufen wäre die Möglichkeit von SLI auf ein AMD System, ich über lege mir auch auf Intel umzusteigen aber da nur der veraltete I7 ein Option wäre warte ich ab was das Jahr bringt...
 
Naja wen dann müsste es schon 2x570 mit vram erweiterung sein.

sonst könnte die 6990 die krone hollen.

Grade bei so Bössen rohleistungen dürfte mehr vram richtig ins gewichtfallen.

Ich Würde da 2x570 gtx rein hauen dazu je 1.5gb ram aber umbedingt mit 384 bit angebunden oder 320 bit bei über 2000 takt damit genug bandbreite da ist.

was evtl auch intressant wäre wen man je 1,3gb ram mit 384 bit anbindet und evtl nochma 1gb share ram der mit 480 bit angebunden ist und jede karte nach bedarf zusätlich zihen darf.

wens 560 chips (gf114) werden müssen die aber ohne takt reduzierung sein. und dann bitte mit 1,3gb mindestens und 320bit anbindung mindestens sonst kann sich nvidia die karte sparen.

weil entweder beide Kronen oder nur single gpu aber dafür dort die Krone behalten.
ich mein soll amd von mir aus die duel gpu krone haben gegen 2x570 oder 680 kommt sie dann eh wider nicht an.
 
Bei den nachteilen einer Multi GPU Lösung würde ich eher zu einer 2ten GTX580 geifen :-) Aber dennoch gespannt was es denn für ein Monster wird.
 
Ich finde es auch völlig unlogisch, dass der Artikel auf eine GF 110 GPU spekuliert (sogar noch als die wahrscheinlichere Variante). Klar ist es theoretisch noch möglich, dass auf der Vorderseite mehr RAM verbaut wird als auf der Rückseite. Alle sichtbaren Indizien jedoch deuten auf eine Verwendung der GF114 (wahrscheinlich im Vollausbau) hin.
 
LundM schrieb:
Ich Würde da 2x570 gtx rein hauen dazu je 1.5gb ram aber umbedingt mit 384 bit angebunden oder 320 bit bei über 2000 takt damit genug bandbreite da ist.

was evtl auch intressant wäre wen man je 1,3gb ram mit 384 bit anbindet und evtl nochma 1gb share ram der mit 480 bit angebunden ist und jede karte nach bedarf zusätlich zihen darf.

wens 560 chips (gf114) werden müssen die aber ohne takt reduzierung sein. und dann bitte mit 1,3gb mindestens und 320bit anbindung mindestens sonst kann sich nvidia die karte sparen.

Das würde technisch meines Wissens garnicht gehen... :)

Soweit ich weiß ist die Speicheranbindung beteilig daran, wieviel Speicher verbaut werden kann.

Bei 384 Bit z.b. sind 1GB, 2GB, 1280 MB z.b. nicht möglich, sondern nur 1.5 GB, oder eben 756, oder 3GB. Wenn sich die anbindung verändert (z.b. 320 statt 384), wird der speicher auch kleiner (1280 statt 15xx).
Genauer kann ichs aber nicht erläutern :/ Weiß nur, dass es damit zusammenhängt.
 
Ich hoffe NVIDIA ist so intelligent und sorgt dafür,
dass beide GPUs auf den selben Speicher zugreifen können.
Ansonsten ist das so ineffizient, weil dann GPU B irgendwas
nur nochmal rechnen muss weil sie nicht auf GPU A s Speicher
Zugriff hat :(
 
Zurück
Oben