News GeForce GTX 590: Bilder, Benchmarks und Termin bestätigt

RIPchen schrieb:
Und in Sachen Lautstärke und Stromverbrauch hat Nvidia bisher fast immer den Bock geschossen.

In Sachen Lautstärke hatte Nvidia seit der 460 immer das leisere Ref.Design bei Spielerkarten zu letzt.

Und Verbrauch ist nicht gleich Verbauch.
Last geht klar an AMD, aber Idle und BluRay / HD Verbrauch ging zuletzt immer an die Nvidias,
oder es herrschte gleichstand.
Und beim Multimonitoring hängt es davon ab, ob bei Nvidia 2 identische Monitore dran hängen.
Wenn ja, ist man sparsamer, wenn nicht, dann nicht.
 
Alles andere als drei Bildschirme + der Verbrauch unter Vollast und Idle interessiert mich eher nicht.

Ich verkaufe eine von meinen zwei GTX 480, nicht weil SLI so schlecht ist, sondern weil eine Karte ausreichend ist, selbst für meine Auflösung von 2560x1440p (+geringe Pixeldichte=wenig AA Bedarf) !

Ich bin am meisten darauf gespannt ob die deutsche Presse uns die relevantesten Testdaten unter triple FullHD gibt, oder ob man NV mit einem leicht bläulichen Auge davon kommen lässt.

Jeder der nur einen hauch Ahnung von der Materie hat (wie ich :) ), weiß das triple Head die Spreu vom Weizen trennen wird, und CB+PCGH+HT4U+HWLuxx testen nur in 2560 weil sie es nie anders gemacht haben ?

Absolut lächerlich wenn man den wahren Sieger erst ein dreiviertel Jahr später hier im Jährlichen Eyefinity Test zu sehen bekommt.

Oder ins Ausland schauen muß.
 

Anhänge

  • hwsurvey.jpg
    hwsurvey.jpg
    24,4 KB · Aufrufe: 516
Shorkien schrieb:
3GB sind schon totally Oversized!

Ganz ehrlich
Wenn man nicht 29834397856423798567984235642379Millionen ULTRA-Krasse-Mega-Uber-Ausum-sicktir-HD Mod nutzt wird man nicht schaffen die 3GB zu knacken..


Starcraft 2
3840x2160 (Downsampling) 8fach MSAA/16xAF

2990MB Verbrauch!
Und das komplett ohne irgendeinen "Mod"

Wenn man nur in 1680x1050 spielt ist es klar das man nie die 3GB knackt
 
DVD_ schrieb:
Man testet ebend für die 95% die max. Full HD am laufen haben.
http://store.steampowered.com/hwsurvey

So ein Test braucht ja auch seine Zeit.

Leute mit FullHD Monitoren und dem Wunsch sich eine solche Karte zu kaufen, brauchen keinen Test, die brauchen einen Arzt :cool_alt:

Man muß den Leuten natürlich auch mal sagen das es mehr Sinn macht einen 1440p Monitor + GTX 580 für knapp 1050€ zu kaufen, als eine GTX 590 mit "gutem" FullHD Moni für knapp 1000€.

Denn Downsampling kann eine ganz gute Sache sein wenn's funktioniert, aber es wird nie die Reale Auflösung, womöglich auch noch fein bepixelt, in den Schatten stellen können.

Abgesehen davon bleibt der gute Monitor und die Karte stirbt, zumindest deutlich schneller.

Wenn man dann mal so einen Monitor hat, kann man sich eventuell mal überlegen ein solches Geschoss zu kaufen, aber vorher nicht. Deswegen sind die FullHD Nutzer eigentlich irrelevant.

Es stellt sich natürlich die Frage wievielen das klar ist, warscheinlich hast du mit deiner Vermutung und den Hinweis recht, die wenigsten schnallen das.

----

So wahnsinnig lange braucht es für den Test mit triple Head eigentlich nicht, es brauchen nur 5 knackige Spiele mit zwei Karten vermessen werden. Das ist natürlich Arbeit, aber mMn zu schaffen.

Ganz einfach ginge es, wenn man sich peinlichkeiten wie einen highend Dualkarten Test im 1680er Bereich einfach mal ganz sparen würde !
 
Zuletzt bearbeitet:
@Pumpi
Leute mit FullHD Monitoren und dem Wunsch sich eine solche Karte zu kaufen, brauchen keinen Test, die brauchen einen Arzt

Für Full HD 1920*1080 sind die Karten keines Falls zu Fett sondern Gerade bei neuen Titeln perfeckt.
BC2 Auslastung der GPUS 85%-100% mit meinem inzwischen verkauften CF Gespann war aber auch nur möglich durch Sandy bei 5GHZ.
Oder man nehme 3D mit einer Karte schon oft getestet zu schwach in Full HD.
https://www.computerbase.de/2010-10/bericht-nvidia-3d-vision/12/#abschnitt_battlefield_bad_company_2

Jeder der nur einen hauch Ahnung von der Materie hat (wie ich ), weiß das triple Head die Spreu vom Weizen trennen wird, und CB+PCGH+HT4U+HWLuxx testen nur in 2560 weil sie es nie anders gemacht haben ?
Astrein Herzlich willkommen im Micro ruckler bereich der FPS Show man kann sie ja auch herauf beschwören bei auf wendigen Titeln.
http://www.hardwareheaven.com/revie...-graphics-card-review-aliens-vs-predator.html
http://www.hardwareheaven.com/revie...fire-graphics-card-review-crysis-warhead.html
http://www.hardwareheaven.com/revie...hd-6990-graphics-card-review-bulletstorm.html
http://www.hardwareheaven.com/reviews/1127/pg10/amd-radeon-hd-6990-graphics-card-review-f1-2010.html
http://www.hardwareheaven.com/revie...-surround-gaming-pt-2-aliens-vs-predator.html
Ach ja 3 Monitore du weist echt voll bescheid.
Was noch geil ist 6MS hochauflösende Monitore Super echt klasse zurück in die Steinzeit bin froh das ich 120Hertz habe und 2 MS für ego shooter und schnelle Spiele unerlässlich .
Manche reden sich den Efeckt warscheinlich als blure ein.

https://www.computerbase.de/2011-03/test-amd-radeon-hd-6990/19/#abschnitt_frameverlaeufe
Hier sieht man es auch ganz gut.
Ich bleibe bei meiner ausage SLI oder CF sind in 1920*1080 Perfeckt wenn man nicht mit negativen Efekten konfrontiert werden möchte.
 
Zuletzt bearbeitet:
solche Leute brauchen die Karte auch nicht und einen Porsche GT testet man auch nicht im Stadtverkehr gegen 17 Uhr in Stuttgart. Für "nur" Full HD wäre eine einzelne GTX580 in voller Leistung in den meisten Fällen überlegen.
Und wie wir sie brauchen.
 
Visualist schrieb:
Was noch geil ist 6MS hochauflösende Monitore Super echt klasse zurück in die Steinzeit bin froh das ich 120Hertz habe und 2 MS für ego shooter und schnelle Spiele unerlässlich .

Als würde man den Unterschied zwischen 2MS und 6MS merken, wenn ein Frame 8MS braucht bei 120Hz. Immer mit der Steinzeit-Keule. Oben drauf bitte den SLI-Input-Lag (3 Frames vorausberechnet bedeutet bei 120Hz immerhin 24ms nachdem Du die Maus losgelassen hast bleibt sie auch stehen. Wenn Du 2ms merkst, dann muss das ja eine Ewigkeit für Dich sein.
 
Zuletzt bearbeitet:
Also, man muss sich hier nicht aufregen. Dass eine solche Karte nicht fuer den Massenmarkt gedacht ist, sollte doch nun nach 10 oder mehr Jahren (hitziger Diskussionen) jeder mitbekommen haben. Fuer Nvidia gehoert es zur Firmenpolitik, was wohl jeder verstehen kann, als Beste zu gelten. Zudem ist es marketing-psychologisch bedeutsam, dass Nvidia mit den schnellsten Krakas in Verbindung gebracht wird. Hersteller, die nur als zweitklassig angesehen werden, haben weniger geneigte Kaeufer. So ticken nun einmal die Verbraucher (=Ihr). Und die Konkurrenz schlaeft ja bekanntlich (auch) nicht. "Nvidia baut die schnellste(n) Kraka(s)." Hat der fette Kerl im Video doch gesagt. Darum gehts Nvidia.
Wir sind uns auch alle einig, dass es fuer HD weitaus vernuenftigere Loesungen gibt, zb. die 560 Ti, die voll HD-tauglich ist. Und Krakas von ihrem Schlage bestimmen massgeblich den Umsatz von Nvidia und nicht die 590 und Konsorten. Das geht ATi/AMD genauso.

Mich laesst soetwas im Gegensatz zu frueher eher kalt. Solche Grakas kommen mit Stolperfallen daher, SLI benoetigt entsprechende SLI Profile und softwareseitige Unterstuetzung, und Microruckler sind auch (immernoch) an der Tagesordnung. Abgesehen davon, wenn man Schule und Studium abgeschlossen hat, verschieben sich die Prioritaeten, zb taugt mein Porsche auch im Stadtverkehr ;) und dergleichen.


Cheers.
 
das war aber schon fast immer so, bei sehr hoher auflösung und volle deteils waren die ati's immer schneller. aus diesem grund hab ich mich für ati entschieden, da ich jetzt einen 27zoll hab
Ergänzung ()

ich warte bis die cb benche's kommen, ich trau nie wieder nvidia bench. vorrallem nvidia nicht
 
Joa

die 6990 wäre auch ne gute karte wen man nicht das triebwerk dazu bekommen würde^^

Ich will das ding ja nicht Passiv haben (wobei mit nem outsite mega kühler:freak:)
Aber irgent wo bei 580 und 6970 bereich hört es dann auf.

Was mich nur wundert das die 580 bei der Taktung der 6990 halbwegs mitgeen kann.
könnte mir also Vorstellen das die 590 der 6990 regelrecht die Stoßstange locker schubst.

Richtig lustig wirds dann wen die 6990 und die 590 unter wasser max oc ran gehen.
das die 590 dann wegziht ist zwar klar aber mich intressiert was da so geht^.

denke ma 900mhz dürfte bei der 590 dank selektierter chips drin sein und die 6990 wird richtung 950-980Mhz gehen.
 
em ja kleine gtx 580 :D

em ja wen man bedenkt 40% bzw etwas weniger für ne single karte ist doch recht ordentlich

bedenkt man das für 40% 2 gpus arbeiten.
würde ich sagen die 580 bzw teilweiße sogar die 6970 haben sich sehr Teuer verkauft.

Denke aber mit der zeit legen die 2 Dualgpu´s nochma nach durch treiber und spieleprofile bearbeitung.
 
ich denke wir sehen recht ausgeglichene Leistung, oftmals die HD6990 vorne sehen, jedoch wird die 590er dank weniger MicroRuckler auch in niedrigeren FPS Zahlen spielbar sein und bessere BQ liefern.

Auch das Kühlsystem sollte einen leiseren Eindruck machen bedingt durch die Größe des Lüfters.

Für die HD6990 spricht hingegen vor allem der größere RAM, was aber heute selten das Problem sein sollte.
 
@LundM
und wenn man jetzt bedenkt das die GPUs der GTX590 offenbar deutlich geringer als bei der GTX580 getaktet sind.... :D
Auch mit OC Prognosen sollte man vorsichtig sein, da die Warscheinlichkeit hoch ist das die GPUs von Hause aus weniger Spannung als ihre kleinen Geschwister bekommen....schlecht für OC Ergebnisse und wenn man dann die Spannung hochschraubt fressen die GPUs auch dementsprechend, wodurch dann auch die Spannungsversorgung ein Problem hat.

Morgen wissen wir aber mehr. Mal schauen wie sich das Gesammtkonzept der Karte schlägt.

Edit: Krautmaster
Größerer Lüfter + kürzere Karte = weniger Kühlfläche....wenn man Pech hat
 
Zuletzt bearbeitet:
Zurück
Oben