News Finale Spezifikationen der GeForce GTX 660 (Ti) durchgesickert?

metzelgott

Oh ja stimmt, sorry. Kleine Verwechselung. Kann mir wer sagen, wann denn der Nachfolger der GTX 550ti erscheinen wird?
 
Nvidia sollte die 660 bzw. 660 ti lieber etwas schwächer und vor allem günstiger machen!
Die 660 bzw. 660 ti werden sich an die 7870 und 7950 ansiedeln, dann bleibt 7850,7770,7750 ungedeckt.

:(
Nvidia hat für mich dieses Jahr nicht anständiges zu bieten!
 
Preise werden wohl so aussehen :

250€ für 660
300€ für 660ti

Und es wird wohl dauern bis sie runter gehen :D
 
Die 560 ti ist zu dicht an der 670 dran, auch vom Preis.
Nicht alle wollen/können so viel Geld für eine neue Karte ausgeben.
Und die Modelle darunter sind für Gamer nicht sonderlich interessant.
Bin gespannt, wie sich dass noch entwickeln wird?

Überraschung...
 
Zuletzt bearbeitet von einem Moderator:
Das Kärtchen gibts ja schon in OEM Rechner
Acer Aspire G3620 Predator Intel Core i7-3770 -klick

 
was in OEM-rechnern steckt ist wieder was anderes. da machen die hersteller ja quasi was sie wollen.
war bei der 560 ja auch so. die gab es in vielen verschiedenen OEM-variationen.

zum thema:
schon ulkig, daß beide - 660 und 660ti - weiter kastrierte gk104 sind.
one size fits all! :D

gk106 nicht in sicht. normal ist das nicht.
kann mir niemand erzählen, daß das so geplant war.
 
Zuletzt bearbeitet: (typo)
Hat den keiner gute connections zu notebooksbilliger.de für kleinen GPU-Z Screen.:D
 
Die GPU soll mit 980 MHz im Base- und 1.033 Mz im Boost-Clock zu Werke gehen.
Und warum spart man sich das nicht einfach? Das sind 5%, die lediglich messbar, aber nicht
spürbar sind. Da könnte man die Zeit und kreative Energie der Ingenieure sicherlich besser
verwenden.
 
Oh man, da muss ich wohl doch auf eine alte GTX 560 Ti zurückgreifen, denn meine Preisgrenze liegt bei 200€, ich brauch schnellst möglichst eine neue Grafikkarte und fürs Rendern mit Blender muss es derzeit leider eine NVidia-Karte sein. Zu guter letzt kommt noch dazu, dass eine GTX 570 nicht mit einem 450W Netzteil zu betreiben ist und auch wieder mehr kostet. -.-°

Naja vielleicht gibts ja irgend eine Rabattaktion oder ähnliches.
 
Schon lustig das alles.... Im Prinzip kommt das Ganze gemassel ja daher das die 680 eigentlich ja die 660 werden sollte! Da bei Nvidia aber seit Jahren nichts so läuft wie es geplant war, wird jetzt das "beste" aus dem Gemacht was möglich ist. Alle die sich beschweren sollte lieber mal Anfangen aus Firmensicht zu denken, da interessiert es keinen ob da für den armen Schüler auch was dabei ist mit dem er BF3 auf max. zocken kann. Die Wahrheit ist schlicht und ergreifend, dass Nvidia deutlich später als AMD auf den 28 nm Zug gesprungen ist und am Ende das leicht bessere Produkt am Markt hat. Für Nvidia ist eigentlich alles "perfekt" gelungen bzw. sie haben totales Glück gehabt das TSMC es nicht gebacken kriegt und AMD dadurch so beschnitten wurde. Die Margen (Geld) sind bei Nvidia zur Zeit sicher gut, sie haben relativ kleine Chips die sie zu hohen Preisen verkaufen können und genau deshalb wird da auch nichts gemacht um die Bereiche zwischen 100-300€ richtig zu schließen. Der Gewinn mit den hohen Karten wird das aufwiegen, sonst würden sie das sicher nicht so machen!!!
MMn ist es deshalb auch sehr schade das trotzdem viele bei Nvidia bleiben, einfach weil sie glauben da sei alles besser. Ich persönlich finde z.Z. eigentlich alles bei AMD besser außer eben die Highend Karten 670 und 680. Darunter ist AMD meist billiger und Stromsparender, hier geht es oft auch nicht mehr nur um die Leistung, gerade wenn man an den Lowend Bereich denkt (gut der wird aber durch IGPs auch immer uninteressanter).

Mfg
PaWel
 
Dr.Pawel schrieb:
MMn ist es deshalb auch sehr schade das trotzdem viele bei Nvidia bleiben, einfach weil sie glauben da sei alles besser. Ich persönlich finde z.Z. eigentlich alles bei AMD besser außer eben die Highend Karten 670 und 680. Darunter ist AMD meist billiger und Stromsparender, hier geht es oft auch nicht mehr nur um die Leistung,

Ich würde mir sehr sehr gerne eine Midrange AMD Karte kaufen.
Leider gibt es ein absolutes Killerargument für nVidia:
-3D Vision.

Dazu gibt es zwei weitere mittelgrosse Gründe:
-CUDA
-Sehr niedriger Stromverbrauch der 6xx-Serie, gutes Powermanagement (Idle-Verbrauch)

Da kann leider AMD gar nichts entgegenhalten, somit fällt AMD leider komplett flach und es gibt keine Alternative zu nVidia.
==> 660 (nicht-TI) *meins* :)
 
Ich suche eine Graka im Bereich EUR 200,00-250,00, welche meine GTX 460 mal endlich ablößt. Aber wenn da nVidia weiterhin nichts anbieten kann, dann bin ich wohl wieder mal gezwungen auf AMD zu setzen.
 
imaginez schrieb:
Ich suche eine Graka im Bereich EUR 200,00-250,00, welche meine GTX 460 mal endlich ablößt. Aber wenn da nVidia weiterhin nichts anbieten kann, dann bin ich wohl wieder mal gezwungen auf AMD zu setzen.

dito :/

Irgendwie kauf ich immer neue PCs / Grafikkarten wenn AMD die Oberhand hat. Ich verpasse immer die 1-2 jahre. haha
 
So uninteressant klingt doch aber die GTX660 gar nicht (ok, fuer die Meisten).

Scheidet das Modell fuer Euch schon alleine von der Namensgebung her aus?
Mir ist egal ob die GTX8967Ti++ oder GTS610 heisst, wenn die Leistung stimmt.

Wenn ich lese:

1,5GB, ~2100 Punkte im Extreme Preset

dann denke ich an eine GTX580, welche ungefaehr diese Werte bietet.

Sollte Nvidia mir also die Leistung einer GTX580 bieten koennen, allerdings bei halbem Stromverbrauch und ca. 70 Euro guenstiger als die GTX580 (wenn ich einen Marktpreis von 250 fuer die GTX660 annehme), dann halte ich das fuer ein brauchbares Angebot.

Kommt natuerlich auch darauf an, von welchem Modell man hochruestet ...
 
Pat schrieb:
Ich würde mir sehr sehr gerne eine Midrange AMD Karte kaufen.
Leider gibt es ein absolutes Killerargument für nVidia:
-3D Vision.

Dazu gibt es zwei weitere mittelgrosse Gründe:
-CUDA
-Sehr niedriger Stromverbrauch der 6xx-Serie, gutes Powermanagement (Idle-Verbrauch)

Da kann leider AMD gar nichts entgegenhalten, somit fällt AMD leider komplett flach und es gibt keine Alternative zu nVidia.
==> 660 (nicht-TI) *meins* :)

Ich weiss nicht was ihr alle mit 3D habt, aber 3D Vision ist genauso eine Totgeburt wie Cuda.. Offenne Standards will die Industrie und keine Geschlossenen.. Das sieht man sehr gut derzeit in China, wo NV kein Land sieht. Stromverbrauch ist relativ, wenn du jeden Tag BF 20 Std Zockst dann merkst du was, aber eine 7870 wird auch nicht soviel mehr Verbrauchen.. Anstatt immer auf dem Verbrauch rumzureiten solltet ihr euch mal den TR Schnappen und Durchrechnen wielange es dauert bis sich das alles Amortisiert ;)

Ich sehe das ganz pragmatisch, mit der GTX7+0 Serie wird GK104 Bezahlbar, vorher muss man wohl zu AMD oder zu Fermi V2 greifen. Schon schlimm dass NV den DAU nun mit umgelabelten Fermis für Dumm verkaufen will, denn irgendwie scheint das wohl den Anschein zu haben, sonst wäre so ein Krüppel wie die 640GT nicht entstanden, welcher nur Aufgrund des Technologieschrittes, Vorteilhafter aussieht. Wenn eine GT650 200€ Kostet dann ist NV solange für mich gestorben, bis deren Preise wieder normal sind. Gleiches gilt für AMD, wobei die Preise bei Rot ja ganz Homäophatisch gesenkt werden ;)

Sonst stimme ich Matze zu. Eine GT660 mit der Leistung einer GTX580 bei nur Halben Verbrauch und fast 100€ Günstiger, das könnte ein P/L Kracher werden. 120W klingt endlich auch mal nach Viel Leistung welche sogar Passiv laufen könnte :) Der Preis sollte aber eben bei Deutlich unter 250€ sein.. mit einer UVP von 250€ würde sich NV nur wieder ins Fleisch schneiden und man sieht an deren Börsenwerten wo das ganze hinführt. Nur wegen der ganzen HPC Verkäufe gehts NV gut (http://www.boerse-go.de/Nvidia-Corporation-Aktie]
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
Ich weiss nicht was ihr alle mit 3D habt, aber 3D Vision ist genauso eine Totgeburt wie Cuda.. Offenne Standards will die Industrie und keine Geschlossenen..

Ich habe mich 2 Tage mit der TriDef Software rumgeärgert, das war mir genug! nVidia 3D-Vision ==> Einstecken, alles läuft ohne weitere Probleme! Ich bin sehr für offene Standards, aber ich bin noch viel mehr dafür, dass etwas "einfach läuft" und ich als Kunde die Optimallösung ohne unnötige Probleme hab.

AMD-Mafiosi schrieb:
Stromverbrauch ist relativ, wenn du jeden Tag BF 20 Std Zockst dann merkst du was, aber eine 7870 wird auch nicht soviel mehr Verbrauchen.. Anstatt immer auf dem Verbrauch rumzureiten solltet ihr euch mal den TR Schnappen und Durchrechnen wielange es dauert bis sich das alles Amortisiert
Nein nein, darum geht es ja gar nicht. Weniger Stromverbrauch => viel geringere Abwärme => geringere Gehäusetemperatur => geringere Belüftung sowohl der Graka als auch des ganzen PCs nötig.
Und nicht zu vergessen: Viel geringere Lautstärke!

Ich kaufe in meinem Leben ganz bestimmt keine Graka mehr, die im Idle beim Mauszeiger-rumschubsen auf dem Desktop mehr als ein paar Watt braucht und der Lüfter dabei natürlich mit xxxx RPM drehen muss... ne Danke. Sowohl für meine Ohren als auch aus Prinzip/Umweltschutz.

(WENN ich dann mal 'ne runde zocke kann sie ruhig ihre 200Watt ziehen und den Raketentriebwerk-Lüfter zünden, aber das sind 1% der totalen Zeit während der der PC an ist)
 
Zuletzt bearbeitet:
Die Australische Tests haben schon in den letzten Jahren zu schwankende Werte,
ich vergleich es gern mit unseren Gamestar.de,
man schau sie sich an aber legt sie nicht zu sehr auf die Waage.

Wenn der Test Stimmt ist die gtx660ti auf jedenfall schneller als die HD7870 aber auch Teurer.

Das in desem Test auch die HD7950 teilweise geschlagen wird nehme ich an das keine neuen Test mit HD7950 durchgeführt wurden und die Werte noch von den alten Test vor 8 Monaten sind.
 
Pat schrieb:
Da kann AMD nix wirkliches dagegensetzten - es sei denn du nutzt Programme mit OpenCL-Beschleunigung.
-Sehr niedriger Stromverbrauch der 6xx-Serie, gutes Powermanagement (Idle-Verbrauch)
http://ht4u.net/reviews/2012/asus_geforce_gtx_670_directcu2_top/index12.php Da nehmen sich beide Hersteller nix. Dieser Grund fällt also flach.

Pat schrieb:
Weniger Stromverbrauch => viel geringere Abwärme => geringere Gehäusetemperatur => geringere Belüftung sowohl der Graka als auch des ganzen PCs nötig.
Und nicht zu vergessen: Viel geringere Lautstärke!


Ein ordentliches Kühlkonzept (Luft ins Case oder raus) muss auch bei einem höheren Verbrauch nicht zwangsweise eine höhere Lautstärke/höhere Gehäusetemperatur zur Folge haben.

Ich kaufe in meinem Leben ganz bestimmt keine Graka mehr, die im Idle beim Mauszeiger-rumschubsen auf dem Desktop mehr als ein paar Watt braucht

Glücklicherweise bleiben damit immer noch AMD- und NVidia-Karten im Rennen ;)
Warten wir aber lieber zur endgültigen Beurteilung aussagekräftigere Tests der GTX660 (Ti) ab.
 
Gibts denn irgendwo verlässliche Preisinformationen? Ich lese zwischen 300 US-$ (~250 €) und 350 € für die GTX 660 TI.

Wollte mir jetzt eigentlich morgen einen neuen PC mit einer 7850 bzw. 7870 bestellen und bin jetzt ein wenig unsicher, ob ich doch noch lieber 2 Wochen warten sollte. Kann mir jemand helfen? :(
 
Zurück
Oben