BENZIN49 schrieb:Steigt hier noch wer von 580 auf 680 um oder lohnt sich das überhaupt nicht?
Hab auch eine 580 und der Umstieg macht kaum Sinn.
Wie gesagt is diese 680 keine highend Karte,die echte Highend kommt erst im Sommer.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
BENZIN49 schrieb:Steigt hier noch wer von 580 auf 680 um oder lohnt sich das überhaupt nicht?
riDDi schrieb:Der GK110 ist vermutlich wieder hauptsächlich für Tesla-Karten gedacht, aber sowas kommt dir z.B. nicht in den Sinn. Ist es denn gesagt, dass überhaupt Grafikkarten auf GK110-Basis kommen? Wir wissen es nicht.
Es ist dagegen doch absolut hirnrissig zu behaupten, dass das hier kein High-End-Chip ist, weil Nvidia in einem halben Jahr einen Refresh vorstellen könnte.
Und nur weil der GK110 später abgelöst wird ist er dann auch kein High-End?
Oder machen wir High-End jetzt daran fest, dass der Chip über 500mm² groß ist und kurz unterm Siedepunkt arbeitet?
Nvidia hat noch nie zuerst eine Mittelklasse-Karte vorgestellt.
ONH schrieb:@iscaran
Der verdoppelte Shaderclock (?hotclock?) der GTX500 Serie fällt weg. Somit sind es !nur! +50% und nicht 200%. von daher passt der Leistungssprung schon ganz gut.
miccellomann schrieb:Leistungsunterschiede der Top-Karten fallen in der Praxis kaum ins Gewicht.
Karol_ schrieb:Darkscream, mag ja alles sein. Mir als Kunde können die finanziellen Entscheidungen der Hersteller nVidia und AMD aber wirklich egal sein. Wenn ich sehe, dass die 680 einen fast identischen empfohlenen Verkaufspreis wie die 580 hat, dann sind dies für mich zwei direkte Vergleichswerte. Wieso sollte ich eine 680 unbedingt mit einer 660 Ti vergleichen, wenn dessen Verkaufspreis laut nVidia bei 239 Euro lag? Weder die Bezeichnung noch der Preis ist hier in irgendeiner Weise vergleichbar.
caryaner schrieb:Nvidia hat Physx, bessere Treiber, zieht weniger Strom, um 10% schneller.
Nichts sprichts mehr für HD7970 imo.
caryaner schrieb:Das stimmt so nicht. Ich finde die unterschiede schon beachtlich.
www.gamestar.de/hardware/grafikkart...est/nvidia_geforce_gtx_680,464,2565890,6.html
AMD muss über den Preis kontern, ansonsten wird die Karte im regal verstauben.
Tapion3388 schrieb:Was ich bisher aber nicht verstehe: Warum stellt man den FPS-Limiter im Test denn auf 50 FPS? Damit funktioniert doch nicht mal mehr VSync, es kommt u.U. also zu Tearing, oder täusche ich mich da?
Vom Gefühl her würde ich das adaptive VSync aktivieren sowie den Limiter auf 60 FPS setzen, das müsste doch ideal sein... Stellt man nun noch das Power Target (also die maximale Stromaufnahme) auf den im Treiber maximal zulässigen Wert, müsste die Karte versuchen, bei anspruchsvollen Titeln die 60 FPS zu halten und sich übertakten. Man halt also ohne viel Arbeit Über- und Untertaktung in Einem, tolles Feature!
Artikel schrieb:Anders als bei AMDs Eyefinity-Technologie ist es bei Surround nun möglich, die Task-Bar auf den mittleren Monitor zu beschränken – bis jetzt hat sich diese immer über alle angeschlossenen Displays ausgestreckt.