News Erster Test der Nvidia GeForce GTX 680

Haha, das glaubt aber wohl kein Mensch. 200 Dollar weniger, natürlich. Was wird dann mit den anderen Karten passieren? HD 7800 um 150 runter auf 150 Euro, da die 7950 ja auch um 200 runter muss auf dann 250 Dollar? Die HD 7770 für dann 30 Euro? So eine Preissenkung hätte einen derartigen Rattenschwanz, schon allein deshalb völlig unrealistisch
Das glaube ich leider auch nicht. Aber 100 USD wären realistisch (natürlich nur bei echter Lieferbarkeit der GTX680). Die Preissenkungsspirale könnte auch problemlos bei der HD7850 aufhören.
 
ein schönes stück hardware. aber auch bei mir bleibt das "wow" aus.
warte ich mal auf den GK110.
es bleibt spannend ^^
 
Ein "wow" gibt es durchaus: Performance/Watt, falls das jemandem interessieren sollte. Kurz überschlagen 40% besser als Tahiti, 80% besser als die GTX580.
 
Tomahawk
Jz muss man hoffen dass die unteren Klassen auch so ein Performance Watt haben ^^ wurde je mehr oder wenig gut hingearbeitet ^^

Wie gesagt wenn man ne 7870 overclocked 20-30 watt (Verbrauch also richtung 200 watt) mehr liegt man ca bei einer 7970, beim gleichen verbrauch. Die kleinere Die und hoher Takt ist scheinbar sparsamer als ein große DIE und ein niedriger Takt.
Zumindestens hab ich den eindruck wenn man AMD interne Karten vergleicht.
 
Zuletzt bearbeitet:
aber wenn die 7970 in Bantman fast mithalten kann muss ich sagen hat nVidia ihren mund sehr sehr sehr weit aufgemahct...

eigentlich nicht, denn der Stromverbrauch ist angeblich deutlich effizienter. Wenn die Angaben stimmen, ist die GTX680 ganz klar die bessere Karte. Ich kann mir aber nicht vorstellen, dass sich der Preis auf das Niveau einer 7970 einpendelt bzw. dass es nach 3 Monaten eine GTX680 für 450€ gibt. ATI dürfte die Preise bis dahin auch noch gesenkt haben, so dass die 7970 eventuell das bessere Geschäft sein wird.
 
Zuletzt bearbeitet:
Zwirbelkatz schrieb:
Soll ich das jetzt wirklich glauben, dass nun Nvidia plötzlich in puncto Energieeffizienz vorne steht?
Das könnte spannend werden.

Das wäre wirklich nicht übel.

Aber bei ATI/AMD vs. nVidia gab es ja im Laufe der Jahre ja immer mal ein paar Pardigmenwechsel, wo vorherige fest gefahrene Meinungen über einen gewissen Graka-Hersteller auf einmal auf den Kopf gestellt wurden.

Besonders die damalige G80 fällt mir diesbezüglich dazu ein ;).
 
Also bei nem echten HighEnd Modell (naja ob das die 680 ist kann man so oder so sehen) interessiert MICH das tatsächlich wenig ^^

Lieber 20% mehr Leistung und von mir aus 20% mehr Stromhunger.

Ich wär jetzt auch noch auf die Übertaktbarkeit gespannt. Wenn das Ding richtig hochzujagen ist, wäre es schon nicht schlecht.

Man wieso gibts erst am Donnerstag die Testergebnisse, elender NDA Mist, gerade jetzt nach dem Leak :rolleyes:
 
Tomahawk

wie kommst du auf die werte?
 
Leistungstechnisch dürfte die GTX 680 dann ganz knapp hinter der GTX 590 rangieren?

@deadstar3
laut Test soll die GTX 680 bei BF3 ca. 20% schneller sein als die HD 7970.

Hier die Tests: klick (ganz ohne Balken ;-) )
 
Zuletzt bearbeitet:
Ich verstehe nicht wozu man zwei 6-pin Anschlüsse bei 195W maximal Verbrauch braucht.
150W kommen über PCIe und 75W durch einen 6-pin Anschluss = 225W. Da bleibt sogar noch ordentliche Reserve von 30W übrig. Oder versucht man durch den zusätzlichen Anschluss die einzelnen Komponente zu entlasten?

Mich freut es aber dass der Trend der Next-Gen Grakas in Sachen Verbrauch eindeutig nach unten geht.
 
Wie verhält sich der Turbo beim Benchen? Das wäre beim CB-Test auch sehr interessant! Bitte den PC bei Benches auch mal richtig heiß laufen lassen und mit normalen Tests vergleichen! oder bei 25° Zimmertemp. Abstürze? Temperaturabhängig?
 
Interessant finde ich den artikel das bei oc der turbomodus immer noch aktiv ist also falls noch reserven vorhanden sind werden diese noch weiter ausgenutzt .
Schierig stelle ich mir trotzdem das benchen vor da man nicht weis wie genau der turbo und wann arbeitet.
Also müsste man fast 1x mit turbo 1x ohne turbo testen.
 
fein fein. jetzt noch 1jahr warten und dann wird gekauft, evtl. wird die generation auch übersprungen, bisher reicht die gtx580 noch dicke aus!
 
Kann man eig. Graphics-Core-Next-Architektur von AMD und Nividia-Kepler direkt vergleichen, sind ja immerhin fast 4 Monate unterschied in der Entwicklung, dürfte wohl in der Halbleiterindustrie einiges an Zeit sein.
 
Sealind
Graphics-Core-Next-Architektur wird mehr oder weniger seit übernahme von ATI gearbeitet, zumindestens hab ich das gelesen. An einer Architektur egal gpu oder CPU arbeitet man Jahre
 
Tja wenn das so wäre dann bräuchte ja amd nächstes jahr nur 4 monate länger warten bis sie auch ihre karten bringen und nv in grund und boden stampfen :) .So is es einfacher man hat nicht den druck schneller oder besser zu sein sondern bringt das was man designt hat raus und wenn man schlechter ist sagt man einfach das liegt an den 4 monaten die nv zeit hatte zur optimierung.
NV wiederum hat den druck das sie schneller sein müssen da man sie sonst auslacht.
Somit fährt amd keine so schlechte strategie :D
 
Bis mach mir noch keine Gedanken, wer hier die bessere Grafikkarte hat und halt mich erstmal zurück was mein persönliches Urteil und zu welchen Gunsten meine Kaufentscheidung ausfallen wird: 1. sind beide Highendprodukte noch deutlich zu teuer und 2. warte ich erstmal die bald anstehenden Test der einschlägigen Computerseiten ab. Bis jetzt steht mir noch zuviel in den Sternen bzw gibt es zuviele Herstellerwerte ;)
 
proko85 schrieb:
150W kommen über PCIe
über zwei 6-Pol-PCIe-Stecker, welche jeweils 75W liefern - wie auch der MB-Anschluss.
Nur die 8-Pol-PCIe-Stecker können den Spezifikationen nach 150W bereitstellen.

Warten wir aber erstmal die "richtigen" Tests ab.
 
Zuletzt bearbeitet:
proko85 schrieb:
(...)
150W kommen über PCIe und 75W durch einen 6-pin Anschluss = 225W. Da bleibt sogar noch ordentliche Reserve von 30W übrig.
Das ist genau umgekehrt, 75 W vom BUS und 150 W vom Stecker. Man möchte damit wohl Menschen die übertakten wollen entgegenkommen. Bei anderen Karten war dies auch schon der Fall. Meine GTX 8800 und meine GTX 216 die beide in ihrer Leistungsaufnahme unter einer GTX 680 liegen hatten auch schon 2 Zusatzanschlüsse. Alternativ hätte man statt der zwei 6-Pin auch einen 8-Pin machen können.
 
Der direkte Vorgänger ist nicht GF110 aka GTX580, egal was die Namen sagen, das ist nur Marketing. Aus technischer Sicht sehen wir hier den (von den Taktraten her gepimptem) Nachfolger des GF114 (GTX560 Ti).

Aber ich bin auch nicht begeistert, dass es nichts Schnelleres gibt (GK110). Die technische Leistung ist jedoch herausragend, sowas gabs ewig nicht mehr. Fast doppelte Performance bei kleinerem Chip.
 
Zurück
Oben