Test GeForce GTX 590 im Test: Multi-GPU von Nvidia versucht sich an AMDs HD 6990

Ralf T schrieb:
War doch zu erwarten.
Wie soll die Karte auch schneller als ein 580 GTX SLI sein, wenn die beiden GF110 GPUs nur mit 607MHZ laufen?
Die Karte ist undervoltet auf 0.925, was eh schon wieder viel ist bei den niedrigen Takt, der VRAM ist undervoltet und die Spannungsversorgung ist am Limit. Und die Temp geht bei Anwendungen die die Karte auslasten schnell auf über 90°
Sowohl AMD als auch Nvidia operieren mit den Dual Karten am Rande das machbaren im 40nm Prozess, dennoch ist die 6990 weit Taktfreudiger wenn auch etwas lauter.

Ich verstehe aber nicht ganz, wieso bei Untertaktung + Untervoltung + großem Axiallüfter (gegenüber ner GTX 580), das dann ne Heizung ist???
Na gut, bei meiner Sapphire 6970 waren, bis zum eigenem Lüfterumbau mit dem Arctic Accelero Xtreme 5870 VGA Cooler + Arctic VR Heatsink 1 für AMD 6000 / 5000 / 4000 Serie + nen bissel Umbau (sägen + feilen) + siehe Bsp. dort, auf den Speicherbausteinen nur ne Art Kaugummi :D drauf war, welche nur den Kontakt zum Plastgehäuse unter Luftabschluß hatte (nicht mal zum Kupferblock) sicherstellten. Somit war der Speicher bei der 6970 von Sapphire auch net gekühlt
 
Zuletzt bearbeitet:
@LundM
Ich meine Gelesen zu haben Maximal 150 und eine Wakkü schaft da verdammt viel hilfe auch wenn die Bauteile klein sind.
Unter Luft hatte ich schon bei der HD 5970 725 GPU 1,04 V Serie Furemark die 100°C auf den Spawas angegeben 298 watt die vom Hersteller angeben wurden.
Wo die Wakkü drauf war waren es gerade mal an die 50° so konnte ich dan einen Takt von 1000MHZ und 1,25 V nutzen Metro 1 stunde zocken CA90°C Spawa furemark bis zu 120°C spawa da lag MAX bei 130 °C bei AMD.
Erechnet haben wir bei Furmark einen Max verbrauch von bis zu 660W nur für die Karte.
Der Strommesser zeigte etwas von 840 W gesamt System und das ganze mit 1*6pin und 1*8Pin
 
Zuletzt bearbeitet:
@Visualist, kannst du mal was zu der E-Heizung, in meiner Frage über dir, schreiben???

PS, wusst bis dato gar nicht, daß Nvidia jetzt auch Vaillant Deutschland Kongurenz macht u. auch im Heizungsmarkt aktiv ist.
 
Zuletzt bearbeitet:
Visualist schrieb:
@OldboyX

Schön das du da gar kein Plan hast.

Was wird den bei der GTX590 nicht ausgelesen die Spannungswandler achso.

Die Wahrscheinlich schon im Serien Takt bei 120 °C unter Last arbeiten na klar da haue ich mal 1,2 V mit GPU OC drauf wie es beschrieben war wo die Karte ihnen weg geraucht ist und ihren Geist aufgegeben hat.

Ach 170°C macht den Dingern ja gar nichts aus alles super sind ja nur bis Maximal 150° Spezifziert.

Und jetzt? Die Karte läuft was Stromversorgung angeht schon sehr am Limit - was anderes habe ich auch nicht gesagt. Wenn man nicht aufpasst, fliegen einem die Mosfets um die Ohren und dann ist Ende im Gelände.

Ihr habt doch ein Rad mit euren argumenten.
Hast du schon mal eine HD5970@1GHZ 1,25V durch Furemark gejagt knapp 120°C mit Wakkü auf den Spawas bei 30 min Run und die wurden Aktiv vom Wasserkühler mit gekühlt.
Aber immer blöd rum trollen.

Den GTX590 Karten wurden je nach höhe des Taktes und 1,2V bis zu 700W zugemutet :hammer_alt: und das unter Luft also mal locker bleiben.

Hängt halt von verschiedenen Faktoren ab. Zudem ist es ja dein Geld und du kannst gern dein 600 Euro Spielzeug takten wie du willst (nur eben gibts kein Mitleid wenns dann kaputt ist). Zu den 1.2 V und 700W hätte ich gern mal Quellen (vor allem unter Luft - außerhalb der Kühlkammer und länger als einen Benchmark?). Dazu, dass die Karte abraucht (bei teilweise deutlich weniger Spannung) gibts nunmal Quellen...


PS: Es sind auch net alle Wasserkühlung gleich. Und klar, kannst du mit Flüssigstickstoff etc. noch einiges mehr rausholen. Mit der 6990er aber genauso.... Insofern versteh ich einfach dieses einseitige Fanboygetue nicht.

Jedenfalls gabs bei der 6990er nicht diverse "blow ups" / fehlerhafte Samples @ stock in den Reviews - auch nicht mit dem OC Bios etc.

So long.
 
Ich verstehe aber nicht ganz, wieso bei Untertaktung + Untervoltung + großem Axiallüfter (gegenüber ner GTX 580), das dann ne Heizung ist???
Meinst du das.
Ganz einfach diese Karten erzeugen in manchen test bis um die 400W und das ganze wird versucht man mit Lukü in den Griff zu kriegen.
Eine GTX580 kann man bei standard Takt gut 300W entlocken bei ca 1,05 250W bei spielen sagt man.
Bei der GTX 590 sind es immerhin 0,925 V bei Spielen und Furemark 0,98.
Ist eigentlich ziemlich logisch.
Die590 beherbergt 2 monster chips.
 
Nun, ich würde weder beider der 6990 noch von der GTX590 von einem "Fail" sprechen.

Die Karten bewegen sich beide in einer eigenen Liga. Alleine sie rauszubringen gehört unter die "Kategorie: Purer Wahnsinn"! Von Vernunft kann hier keinesfalls die Rede sein.

Beide haben/sind:
-außerhalb PCI-Expressnorm = über 300W
-ohne Wasserkühlung wegen Temperatur/Lautstärke nicht zu gebrauchen
-Leistungsvorteil nicht so hoch wie bei früheren Modellen = nicht alltagstauglich
-gemessen am Aufpreis im Vergleich zu Einzelkarten nicht gerechtfertigt

Zu Nvidia:
Natürlich halte ich es Nvidia zu gute, dass sie es versucht haben. Immerhin ist das PCB nicht länger als ein ATX-Board. Wenn ich mich nicht irre, ist sie sogar kürzer als (m)eine GTX570 (EVGA). Dabei noch die Lautstärke zu reduzieren ist ein ordentlicher Spagat. Kosmetik nützt aber nichts, wenn der REst nicht stimmt.

Problem hierbei ist nur:
-im Gegensatz zu den Vorgängerversionen sind die Karten überhaupt nicht alltagsfähig da beide am Limit agieren

-Die alten NV 9800Gx2 / GTX295er waren zwar stromhungrig, aber man ist damit gut gefahren und wie man sieht, laufen diese Karten auch nach Jahren immer noch. Die GTX590 erinnert mich mehr an die 7950GX2 -> durch und durch ein Kompromiss und viel Bastelaufwand nötig um sie in Schwung zu halten. Ich sage da nur "Spacer Kit", wer weiß was ich meine! :evillol:

Die GTX580 ist bereits ein Monster für sich - und zwar in vielerlei Hinsicht. Zwei davon auf einem PCB ist für die heutige Technik in meinen Augen einfach nicht praxistauglich(!). Das Stromproblem mal außen vor gelassen, da es die Bauteile unnötig belastet über 300W auf einem so kleinen "Schrott-PCB" unterzubringen.
Jeder Starkstrommechaniker rauft sich doch die Haaare wie man auf die Idee kommen kann bis zu 600W auf so einer kleinen Platine betreiben will ohne Sicherungsmaßnahmen ----> oh neue Idee "grafikkarte mit eingebauter Sicherung".

Das Kranke an den Leuten ist ja genau wie mit einem neuen Ferrari/Porsche - jeder weiß dass er krank ist mit seinen 20-40l auf 100km, dennoch will ihn jeder haben. Schizophren, nicht?

Nur weil eine Karte (wie im Autovergleich) alle 5 Tankstellen auffüllen muss und nicht an jeder 6. macht es sie nicht gleich zur "besseren Karte". Schrott bleibt Schrott und da muss ich diesmal beiden Herstellern den Verstand absprechen.

Diese Grafikbeschleuniger hätten nie herausgebracht werden dürfen, oder man hätte 4-6 kleinere Chips wie bei der Ex-Voodoo mit jeweils 50W pro GPU und bis zu 6GB RAM verbauen können.

Sieger/Verlierer:
-Als "Sieger" würde ich keine der neuen Dual-Karten sehen, denn sie sind durch ihre Bauart bereits zum "Verlierer" abgestempelt. Ob eine Karte mehr oder weniger Strom verbraucht oder 5-10 Frames mehr hat ist sowas von banal, man darf es garnicht beschreiben.
Ich meine wer holt sich denn solche Karten? Spätestens wenn Kepler Ende 2011/Anfang 2012 kommt, wird die leistung doch wieder getoppt. Hoffentlich viel besser ohne Kompromiss.

Die kleinere Fertigungstechnologie wird aber wahrscheinlich wieder dazu genutzt noch mehr Transistoren auf geringeren Raum zu quetschen anstatt mehr in Richtung "Energieeffizienz" oder kompaktere Bauweise gehen.

An die Fanboys:
Dass hier aber noch so heiß diskutiert wird, zeugt doch nur von der Kleingeistigkeit der User (soll keine Beleidigung sein)....
Macht doch ein Quartett mit euren Flames - sobald eine neue Karte rauskommt, könnt ihr ja all eure unsinnigen Kommentare in einen Endlos-Thread schieben.

Um euch mal die Unsinnigkeit eurer Kommentare vor Augen zu führen sind die Diskussionen/Versprechenungen im Netz, dass die AMD HD6990 bei Release unter 300W bleiben wird..... naja, hat eh keiner geglaubt, trotzem :lol::lol::lol::lol:

Nvidia hatte auch zwei "vollwertige" 580er versprochen - zumindest laut Gerüchten. FDH und FDD? Da war doch mal was :freak:
 
@OldboyX

Quellen kann sie auf die schnelle nicht finden.

@LundM

Was machst du in der Nacht mit dem Strom(aus AKW?;-) oder kannst du den irgendwie Speichern?
 
An die Fanboys:
Dass hier aber noch so heiß diskutiert wird, zeugt doch nur von der Kleingeistigkeit der User (soll keine Beleidigung sein)....
Macht doch ein Quartett mit euren Flames - sobald eine neue Karte rauskommt, könnt ihr ja all eure unsinnigen Kommentare in einen Endlos-Thread schieben.
Sicher deshalb habe ,hatte ich ja eine HD5970 und 2 HD6950.
@OldboyX
http://ht4u.net/reviews/2011/asus_nvidia_geforce_gtx_590_im_test/index16.php
480 Watt ohne Spannungserhöhung nur GPU OC.
Bei vcore erhöhung steigt der Verbrauch zusätzlich massiv an wird hier aber nicht gezeigt.

Da ist es kein wunder das Karten den Himmel segnen unter Luft ich meine Hallo man muss doch einen an der Waffel haben wenn man denkt das solche Monster für lukü geignet sind .

Bei der Hd 6990 gehe ich davon aus das der Lüfter durch hohe Drezahlen und bessere anordnung der Bauteile sowie der grösse der Platine mit Kühlung der Karte besser um gehn kann viel Luft wird da aber net mehr sein.
Zu dem weis man auch nicht bei den Abgerauchten Karten mit wieviel prozent die Lüftersteuerung gearbeitet haben irgendwo hatte ich auch gelesen das ein bestimmter Treber nicht verwendet werden darf .
http://www.youtube.com/watch?v=sRo-1VFMcbc

Treiberversion 267.52 nicht verwenden.
Wer weis vieleicht arbeitet die Lüftersteuerung so nicht richtig.
772GPU Takt 1,05 V da liegen dan schon gut an die (CA 580) Watt an bei Furemark kein wunder.
 
Zuletzt bearbeitet:
White_Eagle schrieb:
Ich verstehe aber nicht ganz, wieso bei Untertaktung + Untervoltung + großem Axiallüfter (gegenüber ner GTX 580), das dann ne Heizung ist???

Da hat wohl das Marketing wiedermal saubere Arbeit geleistet. :daumen:

Seit die Bezeichnung X2 weggefallen ist, glauben immer mehr Leute, dass es sich um solche Karten nur um eine einfache Steigerung des hiesigen High-End-Produktes handelt.
Ich schlage mal vor, du ließt dir den Test nochmals in aller Ruhe durch und schaust dir die schönen Bilder etwas genauer an. ;)
 
Jeder Starkstrommechaniker rauft sich doch die Haaare wie man auf die Idee kommen kann bis zu 600W auf so einer kleinen Platine betreiben will ohne Sicherungsmaßnahmen ----> oh neue Idee "grafikkarte mit eingebauter Sicherung".
Eigentlich gibts ja ne Sicherung, aber eben nur eine Software Lösung im Treiber und die hat schon öfter versagt nicht nur bei der GTX 590. Anscheinend hat der PC beim Reboot kurz, sagen wir mal 600Watt bei der GTX 590 gezogen worauf dann die Funken geflogen sind. Nicht nur das der Schutz versagt hat, jetzt da man mit Furmark nicht mehr richtig testen kann wie viel solche Spitzen genau ziehen, ist auch das NT in Gefahr und somit jede einzelne Komponente im PC. Nicht schön die Entwicklung, ich will wissen wie viel meine GPU maximal von meinem NT ziehen kann, wenns mal richtig zur Sache geht, auch wenn das nur für ein paar Sekunden sein sollte. Aber ich brauch ja nicht meckern ich weis das meine GTX 580 bis zu 320Watt schluckt. Aber das weis ich nur durch Zufall weil eine ältere Furmark Version noch funktionierte. Bei der GTX 680 dürft ihr dann Rätselraten...

Die kleinere Fertigungstechnologie wird aber wahrscheinlich wieder dazu genutzt noch mehr Transistoren auf geringeren Raum zu quetschen anstatt mehr in Richtung "Energieeffizienz" oder kompaktere Bauweise gehen.
Trau mich wetten das die "HD 7950" wieder die Effizienteste Karte am Markt wird. Schaut mal ein bisschen unterhalb der schnellsten Karten dann habt ihr pure Effizienz. Zb HD 5770. Mit Sicherheit wird die Effizienz weiter steigen, aber vielleicht der Verbrauch der Top Karten auch? Das ist aber eine andere Geschichte.

Seit die Bezeichnung X2 weggefallen ist, glauben immer mehr Leute, dass es sich um solche Karten nur um eine einfache Steigerung des hiesigen High-End-Produktes handelt.
Genau so war das auch gedacht ->Bauernfängerei und NV hat damit angefangen bei der GTX 295. Zusätzlich zu den "Fake FPS" ergibt sich dann ein WoW Effekt der genau so gewünscht ist.
 
Welche 590 ist denn bitte beim Reboot durchgebrannt?

Meines Wissens sind die betroffenen Exemplare stark übertaktet und mit hohem Voltage Tweak über den Jordan gegangen. Unter Last, nicht beim Rechnerstart/Reboot.
 
Also ich hab gehört das es kurz nachdem die Lüfter kurz gezuckt haben passiert ist, woraufhin einer meinte das vorher wahrscheinlich ein Reboot stattfand. Ist aber eigentlich nicht so wichtig, ziemlich sicher sind dort aber zu viele Watt geflossen in kurzer Zeit, das hätte die Software verhindern sollen, das hat NV auch gesagt.

Die ganze Zeit haben sich alle über den Furmark beschwert, wobei eigentlich der das einzige war das die Hersteller vor so komplett wahnsinnigen Ideen wie 2x GF110 Chips auf eine Platine zu klatschen abgehalten hat. Heutzutage können sie 2x400Watt Chips einfach drauf klatschen und die Software so einstellen das sie max. 2x 250Watt brauchen, gerade noch genug um die durchschnittliche Gaming Power zu erreichen. Tja wenn die Software versagt jagen dann doch die echten Watt zahlen durch die Spannungswandler.

Projekte wie die Asus Mars haben schon vorher gezeigt wie verrückt man sein muss um voll ausgebaute Chips zu verbauen. Jetzt durch ihre Drosselung fühlen sich die Hersteller anscheinend sicherer und gehen damit in Serie.

Ich bin dafür das man zumindest bei NV die Softwarelösung stark kritisiert, die versagt immer wieder und ist jetzt wohl mit Brief und Siegel total unsicher. Bei AMD gibts noch keine Fehltritte in Bezug auf zu hohe Lastabnahmen, hier muss man AMD mal Loben. Der Sicherung würd ich aktuell vertrauen, so lange bis auch hier mal ein Programm viel zu viel zieht. Wobei die Lösung von AMD schon sehr solide aufgebaut ist.

Ich wünsche mir schon heute die Furmark Zeiten zurück. Es wird in Zukunft garantiert noch schlimmer, jetzt wo die Hersteller die durchschnittliche Lastabnahme bis 300Watt voll ausschöpfen werden mit single GPUs. Mulit-GPU ist wohl schon mit 2x250Watt an einem Limit für Luft angekommen. Aber vielleicht erleben wir ja noch, das es single GPUs mit 400Watt max. Abnahme gibt. Natürlich unter Games. Würd die Drosslung versagen hätte man 600Watt aufwärts.
 
Zuletzt bearbeitet:
@Mr_Blonde
Eben manche Peilen das alles net da gehört wakkü drauf auf das Beast.
http://ht4u.net/reviews/2011/asus_nv...st/index16.php
480 Watt ohne Spannungserhöhung nur GPU OC.
Bei vcore erhöhung steigt der Verbrauch zusätzlich massiv an wird hier aber nicht gezeigt.
http://www.youtube.com/watch?v=sRo-1VFMcbc

Treiberversion 267.52 nicht verwenden.
Wer weis vieleicht arbeitet die Lüftersteuerung so nicht richtig.
772GPU Takt 1,05 V da liegen schätzungsweise dan schon gut an die (CA 580-600) Watt an bei Furemark .
Für das mal einer anständig ab mit Lukü
MFG
 
Zuletzt bearbeitet:
@Kasmopaya

Wie soll denn der Treiber beim Reboot irgendwas verhindern?
Der wird doch erst mit Windows geladen.
Deine Argumentation -oder die Deiner Quellen- passt einfach nicht.
 
Wie soll denn der Treiber beim Reboot irgendwas verhindern?
Der wird doch erst mit Windows geladen.
Normalerweise sollte ja auch keine 100% Last anliegen bei einem Boot, aber wenn die Softwarelösung erst mit dem Treiber unter Windows funktioniert dann ist es trotzdem keine Ausrede für NV. Wahrscheinlich haben die Lüfter nur gezuckt weil es irgend welche Spannungsspitzen gegeben hat. Ich glaub nicht das es ein Reboot war, normalerweise blinken dann auch die Mainboard LEDs. In dem Fall sind sie aber ganz normal weiter gelaufen.
Wie gesagt, es wurde nur vermutet und es könnte durchaus sein das die Drosslung beim Boot außer kraft war.
 
Natürlich ist die Drosselung beim Boot ausser Kraft.
Sie wird ja über den Treiber reguliert und der wird erst im Windows geladen.
Genau wie jedwede 3D Funktionen der Karte, was zur Folge hat, dass die Karte beim Start des Rechners gar nicht ihr Maximum an Leistungsaufnahme erreichen kann.
Verlink doch mal, woher Du Deine abenteuerliche These hast?

Die Fälle, die ich kenne sind auf zu viel OC/OV in Verbindung mit zu schlechter Kühlung zurückzuführen.
Unter Last wohlgemerkt.
 
Zuletzt bearbeitet:
Verlink doch mal, woher Du Deine abenteuerliche These hast?
Irgend wo in dem Thread hier? Im Prinzip ist es doch Wurst wann, wie und warum die Karte zu viel Saft gezogen hat. Wenn NV selber sagt, das es nicht hätte passieren dürfen unter diesen Umständen, dann sagt das doch schon alles. Die wissen selber nicht warum die Karten abgefackelt sind. OC/OV/Kühlung sind garantiert mit schuld, aber nicht wirklich die Wurzel des Problems.

Viel wichtiger ist das die Karten wieder auf 100% Furmark Last ausgelegt werden, dann kann so eine heftige Überlast gar nicht mehr passieren und die Bauteile haben allgemein eine höhere Toleranz. Aber das wirds nicht mehr geben, die wollen ja unbedingt ihre Monster Chips gleich 2x auf ein PCB klatschen. Aber die sind selber Schuld, Furmark als Power Virus beschimpfen und dann ihr Antibiotika nicht richtig im Griff haben. Bei der GTX 590 hab ich mir echt gedacht, wie verzweifelt muss man sein wenn man da 2 voll ausgebaute GF 110 Chips verwendet anstatt 2x GF114. NV ist ungern NR 2, jetzt haben sie die Quittung...
 
Tut mir leid. Ich habe den Thread extra noch einmal durchforstet, um Deine Angaben nachvollziehen zu können. Es ist mir nicht gelungen.
Bei techpowerup wurde eine Spannung von 1.2V bei Luftkühlung angelegt und bei den Schweden im Youtube Video wurde ein nicht für die GTX 590 zertifizierter Treiber verwendet.
techpowerup haben ihre Karte um 28% overvolted und das auch noch bei Refernzlüftkühlung.
Zum Vergleich: Bei GTX 580 Karten, deren Bios unmodifiziert ist, lässt sich lediglich eine Spannungserhöhung von maximal rund 18% durchführen.

Beide "Zerstörungen" wurden darüber hinaus unter Last durchgeführt.

Im Gegensatz dazu, gibt es bisher kein Hardwaremagazin oder Hardwarsite, die Probleme mit den Standardtaktraten/der Standardvoltage hatten. Auch OC Versuche mit der Standardvoltage funktionierten problemlos.

Deshalb kann ich Deinen Standpunkt in keinster Weise teilen.
 
bei den Schweden im Youtube Video wurde ein nicht für die GTX 590 zertifizierter Treiber verwendet.
Den Fall mein ich, soll das heißen das der Treiber die Karten gekillt hat? Das ist ja noch schlimmer als ich dachte, da könnte ja jeder Treiber irgend einen Bug haben und dann fackeln die Karten ab. Seit wann lässt sich eigentlich ein Treiber installieren der die Karte gar nicht unterstützt? Müsste da nicht der Treiber blocken und sich gar nicht installieren lassen?

Deshalb kann ich Deinen Standpunkt in keinster Weise teilen.
Den Standpunkt das die Hersteller wieder zur Vernunft kommen sollten und hochwertige Karten bauen innerhalb der Specs.? Oder den anderen Standpunkt das die Drosslung versagt hat und NV an der Sache Schuld ist? Ist auf jeden Fall nicht das 1. mal das die Drosslung Probleme macht bei NV. Kritik ist sowas von angebracht an der Stelle.

Die sollten sich eine bessere Lösung einfallen lassen, bei AMD kann man sogar Shader frei schalten inkl. Lastanstieg und die Karten fackeln nicht ab. Oder die HD 6990 und der OC Schalter, da gabs auch keine Rauchwolke. Ich bleib dabei, NV ist selber schuld.
 
Zurück
Oben