Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Haha, das glaubt aber wohl kein Mensch. 200 Dollar weniger, natürlich. Was wird dann mit den anderen Karten passieren? HD 7800 um 150 runter auf 150 Euro, da die 7950 ja auch um 200 runter muss auf dann 250 Dollar? Die HD 7770 für dann 30 Euro? So eine Preissenkung hätte einen derartigen Rattenschwanz, schon allein deshalb völlig unrealistisch
Das glaube ich leider auch nicht. Aber 100 USD wären realistisch (natürlich nur bei echter Lieferbarkeit der GTX680). Die Preissenkungsspirale könnte auch problemlos bei der HD7850 aufhören.
Ein "wow" gibt es durchaus: Performance/Watt, falls das jemandem interessieren sollte. Kurz überschlagen 40% besser als Tahiti, 80% besser als die GTX580.
Tomahawk
Jz muss man hoffen dass die unteren Klassen auch so ein Performance Watt haben ^^ wurde je mehr oder wenig gut hingearbeitet ^^
Wie gesagt wenn man ne 7870 overclocked 20-30 watt (Verbrauch also richtung 200 watt) mehr liegt man ca bei einer 7970, beim gleichen verbrauch. Die kleinere Die und hoher Takt ist scheinbar sparsamer als ein große DIE und ein niedriger Takt.
Zumindestens hab ich den eindruck wenn man AMD interne Karten vergleicht.
eigentlich nicht, denn der Stromverbrauch ist angeblich deutlich effizienter. Wenn die Angaben stimmen, ist die GTX680 ganz klar die bessere Karte. Ich kann mir aber nicht vorstellen, dass sich der Preis auf das Niveau einer 7970 einpendelt bzw. dass es nach 3 Monaten eine GTX680 für 450€ gibt. ATI dürfte die Preise bis dahin auch noch gesenkt haben, so dass die 7970 eventuell das bessere Geschäft sein wird.
Aber bei ATI/AMD vs. nVidia gab es ja im Laufe der Jahre ja immer mal ein paar Pardigmenwechsel, wo vorherige fest gefahrene Meinungen über einen gewissen Graka-Hersteller auf einmal auf den Kopf gestellt wurden.
Besonders die damalige G80 fällt mir diesbezüglich dazu ein .
Ich verstehe nicht wozu man zwei 6-pin Anschlüsse bei 195W maximal Verbrauch braucht.
150W kommen über PCIe und 75W durch einen 6-pin Anschluss = 225W. Da bleibt sogar noch ordentliche Reserve von 30W übrig. Oder versucht man durch den zusätzlichen Anschluss die einzelnen Komponente zu entlasten?
Mich freut es aber dass der Trend der Next-Gen Grakas in Sachen Verbrauch eindeutig nach unten geht.
Wie verhält sich der Turbo beim Benchen? Das wäre beim CB-Test auch sehr interessant! Bitte den PC bei Benches auch mal richtig heiß laufen lassen und mit normalen Tests vergleichen! oder bei 25° Zimmertemp. Abstürze? Temperaturabhängig?
Interessant finde ich den artikel das bei oc der turbomodus immer noch aktiv ist also falls noch reserven vorhanden sind werden diese noch weiter ausgenutzt .
Schierig stelle ich mir trotzdem das benchen vor da man nicht weis wie genau der turbo und wann arbeitet.
Also müsste man fast 1x mit turbo 1x ohne turbo testen.
Kann man eig. Graphics-Core-Next-Architektur von AMD und Nividia-Kepler direkt vergleichen, sind ja immerhin fast 4 Monate unterschied in der Entwicklung, dürfte wohl in der Halbleiterindustrie einiges an Zeit sein.
Sealind
Graphics-Core-Next-Architektur wird mehr oder weniger seit übernahme von ATI gearbeitet, zumindestens hab ich das gelesen. An einer Architektur egal gpu oder CPU arbeitet man Jahre
Tja wenn das so wäre dann bräuchte ja amd nächstes jahr nur 4 monate länger warten bis sie auch ihre karten bringen und nv in grund und boden stampfen .So is es einfacher man hat nicht den druck schneller oder besser zu sein sondern bringt das was man designt hat raus und wenn man schlechter ist sagt man einfach das liegt an den 4 monaten die nv zeit hatte zur optimierung.
NV wiederum hat den druck das sie schneller sein müssen da man sie sonst auslacht.
Somit fährt amd keine so schlechte strategie
Bis mach mir noch keine Gedanken, wer hier die bessere Grafikkarte hat und halt mich erstmal zurück was mein persönliches Urteil und zu welchen Gunsten meine Kaufentscheidung ausfallen wird: 1. sind beide Highendprodukte noch deutlich zu teuer und 2. warte ich erstmal die bald anstehenden Test der einschlägigen Computerseiten ab. Bis jetzt steht mir noch zuviel in den Sternen bzw gibt es zuviele Herstellerwerte
über zwei 6-Pol-PCIe-Stecker, welche jeweils 75W liefern - wie auch der MB-Anschluss.
Nur die 8-Pol-PCIe-Stecker können den Spezifikationen nach 150W bereitstellen.
Das ist genau umgekehrt, 75 W vom BUS und 150 W vom Stecker. Man möchte damit wohl Menschen die übertakten wollen entgegenkommen. Bei anderen Karten war dies auch schon der Fall. Meine GTX 8800 und meine GTX 216 die beide in ihrer Leistungsaufnahme unter einer GTX 680 liegen hatten auch schon 2 Zusatzanschlüsse. Alternativ hätte man statt der zwei 6-Pin auch einen 8-Pin machen können.
Der direkte Vorgänger ist nicht GF110 aka GTX580, egal was die Namen sagen, das ist nur Marketing. Aus technischer Sicht sehen wir hier den (von den Taktraten her gepimptem) Nachfolger des GF114 (GTX560 Ti).
Aber ich bin auch nicht begeistert, dass es nichts Schnelleres gibt (GK110). Die technische Leistung ist jedoch herausragend, sowas gabs ewig nicht mehr. Fast doppelte Performance bei kleinerem Chip.