News Nvidia GeForce GTX 590 als „Antilles“-Konter in Kürze?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.714
Zugegeben, Dual-GPU-Gerüchte für Nvidia-Grafikkarten gibt es seit einem Jahr. Immer wieder wurde spekuliert, dass „Fermi“ offiziell auch mal mit der Kraft der zwei Herzen auf einer Karte antreten wird. Doch daraus wurde bis heute nichts. Angesichts der anstehenden Markteinführung von AMDs „Antilles“ könnte sich dies aber ändern.

Zur News: Nvidia GeForce GTX 590 als „Antilles“-Konter in Kürze?
 
Max. consumption: A lot

:evillol:
Auf das Kunststück bin ich wirklich gespannt. Wenn es nvidia hinbekommen hat, Respekt. Ich hätte eher zwei GF114 auf einem Board erwartet.
 
so viel power braucht echt keine Sau ^^
aber mal interessant das rating zu sehn :D
 
Immer dieser Sch....vergleich unter den Herstellern.:D Wenn die Leistung wirklich will baut sich ein SLI System.
 
Pyroplan schrieb:
hat bestimmt ordentlich dampf^^

Jup, wenn du dir z.B. deinen Tee drauf kochst!

@Topic:
Das ist für mich nur noch ein Machtkampf um die schnellste Karte. Sinnvoll ist da nichts mehr.
 
Zuletzt bearbeitet: (Fehlerbereinigung...)
Also toll wäre doch folgendes: 2x GTX580@ Originaltakt

3x 8 Pin Stromstecker für massiven OC-Spielraum und dicker 4 Slot Kühlung.

Aber nein... was kommt (vermutlich): 2x GTX580@ Mini-Taktraten oder 2x GTX560 @ Standarttakt bei popeliger 2 Slot Kühlung.

Beides super laut und super sch***...

Man man. Die lernen es nie. Eine gigantische und dazu leise Kühlung kombiniert mit "ultra speed" würde viel mehr Abnehmer finden.

Gruß,
 
Zuletzt bearbeitet:
Schwanzvergleich a la Kart(e) ^^

MfG
 
seit der hd4870x2 reicht glaub die pcie spezifikation (strom) nicht mehr aus... dass die dann immer noch das monster drosseln, weils net genug saft bekommt find ich net richtig.

aber meiner meinung sind die microrukler auf einer dualgpu minimal besser als auf einem crossfire/sli bund.
 
Ich finde nicht, dass MR bei Nvidia weniger problematisch sind und ich finde es unpassend, dass CB jedes mal dieses Argument bringt.
Ich sags mal so, ob man nun Metastasen in der Leber oder im Lymphsystem hat, da gibts nichts zum Schönreden.
Ich glaube, dass Nvidia diesmal den Kürzeren zieht, Thermi II hat sich gegenüber der ersten Generation steigern können, dennoch ist es eine sehr verschwenderischer Chip und unter 300W wird kaum möglich sein wenn man sich die Probleme bei AMD ansieht.
 
lol

wenn die kommt, und die sich einer kauft gehen die heizkosten der wohnung im winter runter und die strom kosten steigen!
 
3GB or GTFO. Wie kann man solch einem Monster nur 1,5GB Vram spendieren?
 
das könnte interessant werden...
wenn beide karten durch die stromzufuhr limitiert werden, sollte ja eigentlich die karte mit der höheren per watt performance die krone gewinnen. oder seh ich das falsch?
 
Ich finde diesen Machtkampf super ;-) Ich hatte seit der 9800X2 Dualkarten und war eigentlich imemr zufrieden. Auch die HD5970 hatte ich drin. Ich mag die Dinger :-) Die Idee mit 3x 8 Pin find ich lustig ;-)
Bald darf man auch ein Seperates Netzteil nur für die Graka(s) in den Rechner einbauen.
 
fehlt nur noch der seperate Stromanschluss über slotblende ala Voodoo^^
 
Finde ich gut,würde sie vieleicht auch kaufen.AMD ist doch keine Konkorrenz für Nvidia,die müßen ja schon mit einer Dual Karte kommen das sie überhaubt an die leistung einer GTX580 ran kommen.Die GTX590 würd den Antilles rotz um welten schlagen.AMD ist zur zeit nicht gut im GPU bereich, und schon lange nicht mehr im CPU bereich.
 
das mit dem stromanschluss gibts im übrigen schon... frag mich aber nicht bei welcher karte. zur kühlung sag ich nur H2O. der preis dieser karten wird extrem werden. während amd noch moderate preise angibt in bezug auf 6970 und 6950 ist ne gtx580 doch ganz schön teurer... ergo wird die amd karte eventuell günstiger. jetzt kommt das feature schlechthin für so eine karte hinzu :"eyfinity!"
somit sollte amd das rennen machen. denn wer will ne gtx580 dual und kann keine 3 monitore anschließen zum zocken?
und kommt jetzt nicht mit cuda... hab selbst ne nvidia karte, aber ich glaub was effizienz angeht ist amd besser aufgestellt.
 
Hm gut ich denke da trennen sich die Geister.
Meine Meinung von der Bildqualität der 5970 ist nicht besonders gut gewesen. Viel musste ich am Treiber einstellen damit das Bild / Skalierung ordentlich war.

Recht gebe ich dir allerdings mit den 3 Monitoren. Mein SLI Setting habe ich zu großem Teil wegen dem 3. Monitor. Bei der Videobearbeitung ist das nämlich ganz angenehm. Da ist ATI mit seiner Technologie viel weiter ;)
 
Ein Blödsinn jagt den anderen...

...SLI, CF und DualGPU gehören doch alle in die Kategorie "Kundenverarsche".
Wie verkaufe ich an eine Person, die ohnehin für Highendkarten empfänglich ist, zwei Karten statt einer?
Entweder, indem man sie koppeln kann oder indem man eine noch höhere Marge erreicht und zwei Karten in einer vereint.
Nun muss man dem geneigten Kunden nur noch einreden, dass er das braucht und schon machen wir aus einer bereits bestehenden Technologie das Geld, welches wir eigentlich erst mit der nächsten Evolutionsstufe verdient hätten.
Meiner Meinung nach fallen echte Computerfreaks darauf nicht herein und würden sich nie einen solchen Stromfresser in die Bude schrauben.
 
Zurück
Oben