News Erste vermeintliche Details zur GeForce GTX 690

Die News ist wirklich sehr gehaltlos.

Zur Karte: seit meinen Erfahrungen mit zwei GTX295 und der GTX590 können mir diese Dual-GPU-Krücken gestohlen bleiben. Klar, ohne SLI-Mainboard die einzige Möglichkeit für SLI/CF, aber die Nachteile sind einfach zu gravierend.
 
Ähm, da ich dachte die GTX 690 würde der Vollausbau werden und die DualGPU würden dann eben auf dem Vollausbau aufbauen, kommt der Kepler-Vollausbau noch als 600er oder ist das dann schon die 700er?

Die sollte doch später dieses Jahr kommen, oder? Also der Vollausbau.

Wollte nämlich darauf warten und bin jetzt etwas verwirrt, dachte Nvidia hätte die Bezeichnung geändert so wie AMD letztens, sodass 690 das SingleGPU Top-Modell werden würde und 695 oder so die DualGPU Variante.
 
Die x90-Nomenklatur stand zuletzt für die Dual-GPU-Varianten. Von der Vollausbau-Stufe wird es imo wohl keine Dual-Karte geben, wie sollte die gekühlt werden, ohne gewaltige Abstriche bei den Taktraten zu machen? Ich denke, wir reden dann eher schon von der GTX780.

MfG
 
Mal schauen, wie sich die beiden zukünftigen Dual-GPU-Exemplare so in den Benchmarks schlagen werden. Es dürfte ein Kopf-an-Kopf Rennen werden.

Bin auch mal auf die Preise gespannt. Unter 700 € läuft sicherlich nix, eher noch mehr (ca 750 €) :freak:

Ist zwar nicht so, daß ich darauf sparen würde, aber ich bin den beiden Karten gegenüber nicht abgeneigt. Eine von denen hätte ich wohl ganz gerne in meiner Kiste drin.

Noch interessanter dürfte allerdings GK 110 werden, aber das dauert ja leider noch einige Monate.
 
Vielleicht kann ja mal jemand erklären warum das als News auftaucht, ich mein gut, für mich ist es auch keine, aber das wird ja schon einen grund haben, vielleicht kann man den mal erläutern für alle die es nicht nachvollziehen können.


@GTX690
Nvidia hat hier leider die Vorteile gebunkert. Sie schneiden als Single GPU schon überraschend gut ab, das können sie als GTX690 nochmal richtig ausspielen! bezüglich Games.
Hinzu kommt die Frage der restlichen Performance, wo die 7970 einer GTX680 zwar überlegen ist, aber als 7990 vermutlich spürbar herrunter getaktet werden muss, wohingegen eine GTX690 Tendenziell Fast exakte Taktraten einer 680 haben kann.

Das finde ich auch nochmal recht interessant, wohingegen hohe Auflösungen mit 2GB fand ich auch interessant aus AMD sicht, und trotzdem schafft Nvidia das unmögliche, :freak:
 
Lord Sethur schrieb:
@ eater

2* 8-Pin ist nicht ATX konform, aber da es funktioniert und NTs auch entsprechend ausgestattet sind, ist das AMD bzw. nVidia egal...

Gruß,
Lord Sethur

Meine 295 GTX hat einen 8Pin und einen 6Pin Anschluss. Auf dem alten Netzteil hatte ich natürlich keinen Stecker dafür (weder noch). Also gleich einmal den 8Pin auf 2x6Pin Adapter rausgeholt. Dann 3 6Pin auf 2x4Pin Adapter zusammengesucht (macht insgesamt 6x4Pin). Danach habe ich mit 5 Y-Kabel daraus einen 4Pin Anschluss gemacht und den mit einem weiteren zu meiner Festplatte zu gehängt. Das hat auch wunderbar funktioniert, selbst wenn es so nicht standardkonform ist.

Ich finde es immer sehr interessant, dass von den Steckern auf Grund einer Norm, die sowieso nicht eingehalten wird auf die Verlustleistung zu schließen, obwohl hier noch massenweise Reserve drin ist, während von der Kühlung her selbst in einem gut gekühlten Gehäuse die ganzen High End Karten schon jenseits der 100 Grad dahinschmoren und wenn sich der Kühler auch nur minimal verlegt, dann darf man trotz Winter und guter Gehäusebelüfung bei seinen tollen Dual Karten gleich einen Kern abdrehen, damit man überhaupt noch etwas spielen kann. 375Watt ist von der Kühlung her schon jenseits von Gut und Böse. Da ist der Stecker schon herzlich egal.
 
Wenn das für euch keine News ist, dann schreibt einfach euren Dreck nicht drunter, es zwingt euch ja niemand oder doch?
 
Zuletzt bearbeitet:
keine Sorge, mit dem GK110 wird es auch kurze Zeit später eine Doppelkarte geben ;) Im Moment ham se den auch noch nicht fertig
 
Pickebuh schrieb:
Hallo ? Aufwachen !
2x8 Pin PCIe-Anschlüsse sind nicht spezifiziert.

Lord Sethur schrieb:
@ eater

2* 8-Pin ist nicht ATX konform

Hm

Und woher wisst ihr das (kommt mir bitte nicht mit wiki-crap da steht müll)

Keiner von euch kennt die PCEe 3.0 specs (ausser ihr habt viel kohle für die pdf bezahlt)

Diese sind nicht frei zugänglich für jederman sondern nur für mitglieder

gruss digger
 
Verrat mir doch mal einer:

Muß ich mir Sorgen darum machen, mit meinen 1250 MB Grafikkartenspeicher zu wenig zu haben, da ja seit kurzer Zeit gigabyteweise Speicher auf die Karten regelrecht geklatscht werden? Gibt es irgendeine Notwendigkeit, die ich verpasst habe?
 
pushorfold schrieb:
An diesem Punkt sieht man das du wohl nur Minecraft spielst, spiel mal Battlefield mit 4xAA und Ultra Details.

Da wird Minecraft Battlefield 3 in der Einstellung vom Hardwarehunger aber mühelos toppen - wenn man die volle Bandbreite an Shadermods auspackt natürlich ;) 4 FPS mit einer HD 5770 auf hohen Einstellungen, da geht noch mehr :evillol:

Aber im großen und ganzen stimme ich dir zu, push.
 
digger66a schrieb:
Hm

Und woher wisst ihr das (kommt mir bitte nicht mit wiki-crap da steht müll)

Keiner von euch kennt die PCEe 3.0 specs (ausser ihr habt viel kohle für die pdf bezahlt)

1. Wiki ist nicht immer nur Müll.
2. Reden wir über den PCIe-Stromanschluss und nicht über PCIe3.0 Anbindung. Das ist etwas völlig anderes ! :rolleyes:
3. Wenn du keine Ahnung hast wie man PCIe schreibt, dann schreib am Besten gar nichts.
 
Hmm also solange die Mikroruckler nicht in den Griff gekriegt werden bleiben solche Karten für mich uninteressant.
 
Warum empfehlen die denn ein 650W Netzteil? Im CB SLI-Test zieht das komplette System grad mal 432W. Und bisher wars auch meistens so, dass Dualkarten weniger Saft brauchten als zwei einzelne. Oder irre ich mich da?
 
theoretisch brauchen die nur ein Exemplar herstellen. ein EngineeringSample so zu sagen. Das schicken die an CB um zu testen was möglich wäre und das wars. ;) Genügend chips haben se ja eh nicht... da wartet man schon 1/2 Jahr nur auf die GTX680.
Wer es braucht kanns gerne kaufen...a la Heizkraftwerk mit anschließender Gasturbiene für die Stromrückgewinnung. Dazu sollte man noch akustisch unempfindlich, quasi taub sein! Viel Spass damit.
 
pushorfold schrieb:
Gut das du für 95% aller Gamer redest. :rolleyes:

Ne GTX580 ist overpowered für Auflösungen bis 1200p?
An diesem Punkt sieht man das du wohl nur Minecraft spielst, spiel mal Battlefield mit 4xAA und Ultra Details.
Da braucht man mindestens eine GTX680 damit man nie unter 55 FPS fällt.

btw. glaub ich das sich locker 30-40% hier die GTX680 bzw. GK110 kaufen werden und nicht irgendwelche lahmen Mittelklasse karten.

Wenn meine Powercolor 6970 pcs+ BF3 auf ultra @ 1920x1200 locker packt und dabei in kritischen szenen caspian border oder firestorm nie unter 45 fps fällt braucht man mit sicherheit keine 680.
Auf metro und bazar sowie seine crossing limitier ich die sogar auf 60 fps weil sie sonst um die 100 betragen oder mehr.
Gut ich zock auch nicht mit AA werds mal mit 4xmsaa testen aber wer braucht geglättete Kanten wenn ihm die Kugeln um die Ohren fliegen ?

Ich bin ebenfalls mehr an einer 670 als an ner 690 interessiert.
 
Ja warum brauchten die X2 Karten weniger Strom,als 2 Einzelkarten mit den gleichen Chips ? -Weil sie in der Leistung immer(Taktraten usw.) beschnitten werden mußten,damit es keine thermischen Probleme gibt.
 
Haha ich lach mich weg... die ganzen Boardies, die behauptet haben, dass die GTX 690 der Vollausbau sein sollte wachen jetzt endlich mal in der Realität auf. Was erwartet ihr denn noch?
Die GTX690 ist doch einfach nur noch krank. Leistung kann man immer gebrauchen, aber wem ne GTX680 nicht reichen sollte, der hat wohl andere Probleme :D
Infos zur GTX660 bzw. GTX670 (sollte es die überhaupt geben) würden mich mehr interessieren.
 
Zurück
Oben