News Nvidia stellt GeForce GTX Titan (GK110) vor

Auf Tomshardware gibt es schon eine "kleine" Einschätzung der Spiele-Leistung ich zitiere einfach mal:

Die GTX 690 ist bei gleichem Preis die bessere Wahl, wenn man nur eine Dual-Slot-Karte verbauen kann und das Gehäuse Platz für diese längere Karte bietet. Dieses Dual-GPU-Flaggschiff bleibt nach wie vor die schnellste Einzelkarte, die wir bislang getestet haben – und sie kostet zumindest auf dem Papier laut Preisempfehlung gleich viel – und im Onlinehandel ist sie aktuell ab 850 Euro zu finden.
Die GeForce GTX Titan ist keinesfalls über 600 Euro mehr wert als eine Radeon HD 7970 GHz Edition. Zwei dieser AMD-Karten sind schneller und kosten immer noch weniger. Allerdings sind sie unter hoher Last auch unüberhörbar – und das ist noch freundlich ausgedrückt. Man sollte also darauf achten, dass das Mainboard der Wahl nicht nur zwei Dual-Slot-Karten aufnehmen kann, sondern dass dann zwischen ihnen auch mindestens ein Steckplatz frei bleibt. Eigentlich sind wir keine Fans solcher wenig eleganten Lösungen, aber wer ein geräumiges Gehäuse sein Eigen nennt, kann hier problemlos über 300 Euro sparen – und bekommt mehr Performance.
Die GeForce GTX Titan ist eine gute Wahl, wenn man möglichst viel Gaming-Power in einem Mini-ITX-Gehäuse unterbringen will. In diesem Fall ist eine GeForce GTX 690 meistens zu lang, braucht zu viel Strom und verwirbelt ihre warme Abluft aufgrund des Axiallüfters einfach im Gehäuse.
Die GeForce GTX Titan ist dann eine gute Wahl, wenn man drei Monitore mit 1920x1080/2560x1440/2560x1600 besitzt und vorhat, zwei oder mehr Karten im SLI-Verbund einzusetzen. In den anspruchsvollsten Titeln skalieren zwei GK110-GPUs besser als vier GK104-Chips (also zwei GeForce GTX 690). Drei GTX Titan sind einfach totaler Overkill aber – leider geil.
Quelle: http://www.tomshardware.de/geforce-gtx-titan-gk110-Test-Review,testberichte-241211-6.html
 
Grantig schrieb:
Für den Preis könnte man sich auch 3x 7970 kaufen.

Das wäre auch für mich immer das Problem. So geil ich die Karte auch finde, hätte ich das Geld in der Hand, würde ich anfangen zu überlegen, was die Alternativen sind. Zwei GTX 680 kosten momentan auch "nur noch" 700 - 800 Euro. Das sind luxuriöseste Luxusprobleme...
 
eine graka die gut 50% schneller ist als die bisher schnellste im eigenen hause ist plötzlich ein premiummodell,
wo quasi jeder preis gerechtfertigt ist?

hallo? geht's noch?
als ob es diesen geschwindigkeitszuwachs in der vergangenheit noch nicht gegeben hätte.
 
NeoGeo schrieb:
Was hat die PS3 mit der Titan zu tun?

Im Grunde nichts. Ich wollte nur damit sagen, dass Grafikchips mit diesen Spezifikationen auch in Konsolen verbaut werden könnten.
 
Im Grunde nichts. Ich wollte nur damit sagen, dass Grafikchips mit diesen Spezifikationen auch in Konsolen verbaut werden könnten.

Viel zu teuer.
Konsolen müssen billig und gut genug sein.

Mit dem Hardwareverkauf verdient Nintendo/Microsoft/Sony kein Geld - Die nehmen alles über den Spieleverkauf ein.
Eine Playstation 4 für 1000€ würde sich sehr schlecht verkaufen.

Die Playstation 3 hat sich zum Marktstart auch sehr schlecht verkauft.
Noch dazu kosten die ganzen PS Spiele wesentlich mehr als üblich.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Theoretisch ist das nicht mal der Vollausbau, könnte gut sein das wie bei Thermi dann eine Titan 2.0 folgt mit allen 15 Einheiten aktiviert. Vielleicht wenn TSMC besser liefern kann. Ich denke es ist sehr wahrscheinlich das wir einen Titan Refresh sehen werden, Maxwell braucht noch seine Zeit...

Theoretisch möglich, aber ich denk mal recht unwahrscheinlich. Eher wird man noch kleinere Ableger zwischen GTX 680 und Titan bringen. Aus wirtschaftlicher Sicht wär es besser wenn man GK110 mit 15 aktiven SMX Blöcken im HPC Markt unterbringt, da die eine bessere Effizienz hätten als die jetzigen K20x.
Und eins sollte man auch im Hinterkopf haben. Maxwell wird höchstwahrscheinlich am Anfang mit noch kleineren DIEs kommen (~270mm²) als die 600-Serie. Da wäre es schwerer die Leistungskrone zu übernehmen wenn noch ne große "Titan 2.0" mit 15 SMX-Blöcken rumgeistert. Ich denk mal realistischer als 15 SMX-Blöcke wäre noch ne Version mit 11 oder 12 aktiven SMX-Blöcken, zur Vollständigen Resteverwertung ;)
 
NeoGeo schrieb:
3 Way Titan SLI

600x338.jpg

Was? Nur 48fps @5760x1080 mit 2xSMAA und VeryHigh? Kommt mir en bissel wenig vor für Titan, im 3 Way SLI.
 
Aber der Stromverbauch und die Lautstärke wenn es den reale Werte sind sind für so ein Monster absolut beeindruckend :eek:

Von daher hätte ich das Geld würd ich eine Titan jederzeit einer Dualgpu Lösung vorziehen.

Ich find die Karte ok bis auf den Preis der aber in Anbetracht der schnellsten single GPU Karte halt auch von NV angesetzt werden kann wie sie wollen.
Und für Leute mit aNspruch auf das schnellste führt halt an 4 von so Mosntern kein Weg vorbei . Und es finden sich sicher SEttups wo auch diese 4 KArten noch sinn machen können.
Was is nochmal das maximale sgssaa level 32x :D

Ps.: Also in dem video das Geollum gepostet hat sieht die Titan einfach nur Geil aus. Der mix aus silber(alu) und Schwarz hat einfach so was verdammt edles.
 
Zuletzt bearbeitet:
Soweit ich das jetzt mitbekommen habe, hängt der GPU Boost nur noch von der Temperatur ab, d.h. wenn die TITAN wassergekühlt ist taktet sie automatisch höher, bis zu 1GHz, außerdem können Board-Partner die Spannungseinstellung freigeben, wenn diese es wollen.

Quelle: http://www.youtube.com/watch?v=bgQbcQlRoNE

EDIT: Monitorübertaktung?!?!?!
 
Zuletzt bearbeitet:
ah-chimedes schrieb:
Im Grunde nichts. Ich wollte nur damit sagen, dass Grafikchips mit diesen Spezifikationen auch in Konsolen verbaut werden könnten.

Nö, denn dann würde sie die Masse nämlich nicht mehr kaufen. Und den Ottonormalverbraucher interessiert wie die Leistung zustande kommt sondern das es einfach funktioniert.
 
hongkongfui schrieb:
eine graka die gut 50% schneller ist als die bisher schnellste im eigenen hause ist plötzlich ein premiummodell,
wo quasi jeder preis gerechtfertigt ist?

hallo? geht's noch?
als ob es diesen geschwindigkeitszuwachs in der vergangenheit noch nicht gegeben hätte.

Zeig mal wos den gab ohne Shrink...

^^

Abgesehen davon, wann gab es nicht ein Topmodell das nahe der 1000€lag. Ob nun Mars 2, Ares oder fast alle DualGPU Systeme... die lagen schon immer auf extrem hohem Preisniveau. Nvidia wäre ja blöd die Teile zu verschenken, man gräbt sich natürlich nicht den GTX680 Markt ab, da die Karte weit günstiger zu fertigen ist.
 
noch ne Version mit 11 oder 12 aktiven SMX-Blöcken, zur Vollständigen Resteverwertung
Die kommt 1000%ig, die schmeißen ja die teil defekten nicht einfach weg. Kleine Titans werden kommen.

Und das Maxwell ca. 2015 dann nicht die Leistungskrone vom ur alten Titan holt -> lächerlich.

Gleiches Spiel Thermi GPGPU Vollausbau GTX 580 -> kleiner DIE Kepler GTX 680...
 
So geil ich den Gedanken einer ultimativen Single-Chip GPU auch finde, ist der Preis wirklich jenseits von gut und böse. 800 inkl. Steuern wären die absolute Schmerzgrenze, aber exklusive Steuern? Nein danke!

Dann bleibe ich bei meiner 1250 Mhz GTX 680, die dürfte nicht allzuviel langsamer sein als eine nicht übertaktete Titan.
 
Fehlermeldung schrieb:
Laut CB geht die Karte aber bis auf rund 1 Ghz hoch. Ich hab meine GT 650 im Notebook ähnlich übertaktet und das ist schon ein großer Unterschied...

ur right ;)

hatte die Anweisung von NV in der derzeitigen News überlesen und nahm nur die 876 TurboTakt an.

Sry.

Naja, immerhin gibt NV zu verstehen dass man die Karte unter den richtigen Bedingen testen soll.
 
Ewoodster schrieb:
So geil ich den Gedanken einer ultimativen Single-Chip GPU auch finde, ist der Preis wirklich jenseits von gut und böse. 800 inkl. Steuern wären die absolute Schmerzgrenze, aber exklusive Steuern? Nein danke!

Dann bleibe ich bei meiner 1250 Mhz GTX 680, die dürfte nicht allzuviel langsamer sein als eine nicht übertaktete Titan.


sehe ich genau so. auch wenn die karte top ist. der preis ist dermaßen ungerechtfertigt.
 
JiJiB! schrieb:
Das einzige was ich an dem ganzen gut finde ist, dass AMD jetzt genötigt wird das Display-Übertakten auch bei ihren Karten zu ermöglichen.
Bislang ist das ja nur mittels Treiberhacking möglich :D

Wofür ist das denn gut, kann ich dann auf mein 1680x1050 ne neue Auflösung quetschen oder wie stellt man sich das vor und geht das mit allen Monitoren oder? Sorry aber das hör ich echt hier zum ersten mal heute :D Auch wenn es auf ner vorherigen Seite schon stand.
 
Zurück
Oben