News Weitere Details zu Nvidias GeForce GTX 590

wan kommt der nächste 621Mhz bis sie bei 700 sind^^

ca 700 bräuchte NV auch um die 6990 in die ecke zu bucksieren.
mit 607 Mhz wirds woll nicht reichen und nur durch 2 oder 3 Spiele mehr wo die 590 gewinnt enschieden.
Ergänzung ()

Posten geht nicht mehr?
 
Zuletzt bearbeitet:
Wenn Sie überhaupt wo gewinnen kann dann in Nvidia Optimierten Games und fertig das sind sicherlich nicht viele die frage ist wie Energie Hungrig die Karten gegenüber der 6990 sein wird.
 
Numrollen schrieb:
Wird endlich Zeit auch mal für solche Karten 3x1600er oder 3x1900er Auflösungen zu testen.

Wie soll das gehen? Nvidia unterstützt im SLI lediglich zwei Monitore. AMD kann mehr ansteuern - Stichwort Eyefinity.
 
Mal so ne Frage:

Was passiert wenn die Grafikkarte mehr Strom "braucht", als die Stromanschlüsse liefern können? (Wakü @ GTX590, Spannungserhöhung und starkes Overclocking). PCI-E ist doch für max. 375 Watt spezifiziert (Steckplatz + 2x8Pin), nicht wahr? Kann dann die Karte "durchbrennen" oder gibts dann einen Bluescreen / Reboot? :freak:
 
@scrp:
Wenn Nvidia endlich mal Displayports verbauen würde... :rolleyes:
Aber es stimmt schon, mehr Eyefinity-Tests würde ich mir als Eyefinity-Benutzer schon wünschen. Man tapt meist im dunkeln wenn es darum geht wieviel Power eine bestimmte Karte bei 3x 1920 hat. Und wenn man mal Tests findet, dann nur zu einer einzigen Karte, und auf ner anderen Seite dann wieder nen Test zu ner anderen Karte in nem anderen System mit anderen Spielen und anderer Hardware, also Vergleichbarkeit null :(

@Dr!ll:
Ne die Karte brennt nicht durch. Das Hauptproblem ist der Spannungsabfall über dem Kabel. Der 6-Pin-Anschluss ist so spezifiziert, dass selbst bei maximal zugelassener Leistung (die weit unter der maximal übertragbaren Leistung liegt) noch genügend Spannung an der Karte ankommt, d.h. über dem Kabel und dem Stecker fällt nur ein Bruchteil der Spannung ab und die Karte sieht von den 12 V noch 11,9 V (nur um mal ein Zahlenbeispiel zu nennen). Wenn die Karte jetzt mehr Leistung zieht, dann fällt über dem Kabel auch mehr Spannung ab (da das Kabel halt ein paar milli-Ohm Widerstand hat und wenn man dann ein paar Ampere durchjagt bleibt halt ein bissel was "hängen") und an der Karte selbst kommt weniger an. Irgendwann wird die Karte dann instabil weil sie zu wenig Strom bekommt. Diesem Spannungsabfall wirkt man mit 8-Pin Anschlüssen entgegen, hier wird nicht eine weiter 12 V Leitung verbaut, sondern ein Messpunkt, mit dem das Netzteil die Spannung messen kann, die tatsächlcih an der Karte ankommt. Aus diesem Messwert kann es dann die im Netzteil erzeugte Spannung anpassen und den Verlust im Kabel ausgleichen.

Theoretisch kann man pro 12 V Leitung der 6- bzw. 8+Pin Stecker etwa 8 bis 10 Ampere transportieren, d.h. ein einzelner 6-Pin-Anschluss kann bereits ca. 300 Watt liefern, jedoch spielt bei 10 Ampere der Widerstand des Kabels eine erhebliche Rolle und die Grafikkartenhersteller können nicht für alle Eventualitäten planen (ein "gutes" Kabel liefert statt 12 V meinetwegen noch 11,9, ein "schlechtes" dagegen nur noch 11,2), daher beschränkt man die Leistung der Anschlüsse mittels Spezifikationen.

Wenn das Netzteil selbst nicht genug liefern kann, dann läuft das System bestenfalls instabil, schlimmstenfalls brennt im Netzteil was durch. Dabei verabschiedet sich dann idealerweise nur das Netzteil, wobei es beim Ableben dessen auch zu einer Überspannung auf manchen/allen anderen Leitungen kommen kann, was dann Teile des Systems "grillen" kann.
 
Zuletzt bearbeitet:
Hmm ok, hab nich nur gewundert, warum manche Hersteller (z.B. MSI mit der msi gtx 480 lightning) 3 x PCI-E Stromanschlüsse an einer Grafikkarte anbringen? o.O


@Hill01: ok thx^^
 
Zuletzt bearbeitet:
Um den Spannungsabfall pro Anschluss möglichst gering zu halten. 10 A pro Kabel ist die absolute Obergrenze, danach fängt die Ummantelung an zu schmelzen. Mit 50 oder 100 Watt pro Anschluss ist man auf der Über-sicheren Seite, dass sowas nicht passieren kann.
 
ist wie mit den superzündies grün, gelb und rot. " was passiert da bei stufe rot? da fliegt uns der kessel um die ohren. " nä. woche wird stufe rot gezündeeeeeeeeeeeeeet. wobei ich das "rot" NICHT auf ati beziehe, sondern auf das match zw. den beiden karten :D

bin schon sehr gespannt wer das rennen machen wird ati (mit oc-bios) oder nvidia (mit was weis ich). fakt ist für mich, so eine karte kommt nicht ins haus egal ob ati oder nvidia.

400watt strom-hunger is mir doitlich zu fätt!
 
das was mich interessiert sind Test's erst dann wird sich zeigen wie gut Nvidia's DualGpu ist
 
scrp schrieb:
Wie soll das gehen? Nvidia unterstützt im SLI lediglich zwei Monitore. AMD kann mehr ansteuern - Stichwort Eyefinity.

Muss eben ein Umweg über Matrox gemacht werden, auch wenn das Teil max. 1600er Auflösung packt. Das im SLI nur 2 Monitore unterstützt werden hab ich wohl verwechselt, dazu werden ja 2 einzelne Graka gebraucht. :freak: Langsam wirds Zeit das NV das auch anbietet.
 
hmmm
bei diesen brachialen dualgpu karten nur ein lüfter... find ich bescheuert

da hätte man doch direkt einen geilen 3slot kühler entwickeln können.
da sich diese grafikkarten eh nur etwas besser gestellte leisten werden könnte man das ganze kupfer auch durch silber ersetzen.

ich hätte gerne son teil auch wenn sie strom frisst so wäre doch jedes game ein genuss.

@num rollen
nvidia kann doch auch auf 3 monitore ausgeben. ist nicht wie eyefinity aber was solls einer mehr als standard.
 
Zuletzt bearbeitet:
eikira schrieb:
nvidia kann doch auch auf 3 monitore ausgeben. ist nicht wie eyefinity aber was solls einer mehr als standard.

Ist das so? Dachte dazu muss SLI deaktiviert werden.
 
Auf jeden Fall sind die ersten GTX590 schon Deutschland angeliefert worden(Asus). Demnach dauerts bis zu den ersten Test nicht mehr lang.
 
Einfach der falsche Weg!
:freak:
Solche Karten sollte es nur mit WaKü geben und mit höheren Taktraten als das Single GPU Flagschiff, sonst nimmt ja jeder der 1+1 zusammenzählen kann zwei Einzelkarten.
:cool_alt:
Aber unter Wasser müssten sie superselektierten Chips ja auch eine menge mehr hergeben...
 
hat man effektiv nicht weiterhin 1,5 gb vram? oder verwechsel ich da jez was xd
 
Doch - wenn irgendwo auf der Packung oder bei den Online-Shops naiv der VRAM addiert wird, dann hat das nur was mit der "größer ist besser"-Mentalität zu tun.
 
Zurück
Oben