News Nvidia stellt GeForce GTX Titan (GK110) vor

Glaube ich nicht sonst hätten ein paar schlaue Köpfe eine Tesla Karte gekauft und die so umgearbeitet das es eine Titan wird und da das noch keiner geschafft hat wird man auch keinen Block wieder aktivieren können.
 
TheRaven666 schrieb:
10.000 Exemplare zum Launch?

Mir fällt das ziemlich schwer einzuschätzen, ob 10.000 Stück wirklich außergewöhnlich wenig sind, weil ich nicht mal annähernd ein Vorstellung habe, mit was für einer Stückzahl solche Enthusiastenkarten normalerweise an den Start gehen.
Wie viel waren es bei der GTX690?
Wie viele bei der HD6990?

Ich habe neulich schon nach Zahlen dazu gesucht, aber leider nichts gefunden.

Die einzigen Zahlen, die ich aus diesem Segment kenne, sind die der Ares- und Mars-Karten von Asus. Von denen wurden jeweils nur unter tausend Stück gebaut.

Sind (vorerst) 10.000 also wirklich so wenig, dass die Titan innerhalb von kurzer Zeit ausverkauft sein werden, oder gibt es weltweit vielleicht gar nicht viel mehr potentielle Kunden für einen 950Euro-Karte?

Hier im Forum haben sich ja schon einige zu Wort gemeldet, die Interesse an seiner Titan hätten (mich eingeschlossen), aber es würde mich nicht wundern, wenn das schon ein wesentlicher Teil der potentiellen Kundschaft in Deutschland wäre.
 
Schu3 schrieb:
Hab auch nie verstanden wieso man auf 5xxx*1080 mit drei Monitoren spielt. Da hab ich jedesmal Streifen im Bild.

Nun ja, es sind ja auch andere Szenarien denkbar.

Bspw. habe ich den mittleren Monitor als Hauptmonitor, auf dem die Action passiert, und links und rechts davon Monitore, die mir in Flugsimulationen die Instrumente o.ä. anzeigen.

Außer in Flugsimulationen habe ich die anderen Monitore allerdings meist deaktiviert.
 
Also wenn ich die Leute von luxx pcgh und cb zähle die EVTL eine kaufen dann sind schon mal 500 weg ;)
Und ich will auch nicht bis Ende Jahr auf der 600er hocken sofern da nichts mehr kommen sollte
 
eLw00d schrieb:
Also die Titan kann schon etwas mehr als die letzten Topmodelle:

Anhang anzeigen 323827

Quelle?
Ausserdem interessiert mich der Wundertreiber, der SLi 100% skaliert, selbst bei quad-sli -.-
Träum schön ^^
Ergänzung ()

eLw00d schrieb:
Also die Titan kann schon etwas mehr als die letzten Topmodelle:

Anhang anzeigen 323827

Quelle?
Ausserdem interessiert mich der Wundertreiber, der SLi 100% skaliert, selbst bei quad-sli -.-
Träum schön ^^
 
EcOnOmiC schrieb:
Also wenn ich die Leute von luxx pcgh und cb zähle die EVTL eine kaufen dann sind schon mal 500 weg ;)
Und ich will auch nicht bis Ende Jahr auf der 600er hocken sofern da nichts mehr kommen sollte

Nunja, ich will den Leuten nix unterstellen, aber viele erzählen einfach nur viel, wenn der Tag lang ist. Am Ende haben die Karte trotzdem nicht viele Leute hier in den Reihen, denn 950 Euro sind einfach viel zu viel.

Da auch gern die 10.000 Exemplare zitiert werden: Das stimmt laut Nvidia nicht. Denn letztlich gilt auch dort Angebot und Nachfrage. Und Teslas bauen sie ja jeden Tag, also laufen jeden Tag GK110 vom Band. Wieso also etwas künstlich so beschneiden, wenn es eh da ist?

Und btw. Wir haben auch drei Karten hier - wie alle Tester, die Karten bekommen haben.
Fokus liegt bei uns aber ganz klar auf einer, denn mehr als eine kauft nun wirklich gar keiner von den Dingern. Wer hat schonmal 2900 Euro für drei Grafikkarten übrig!?
 
Zuletzt bearbeitet:
Zock schrieb:
Glaube ich nicht sonst hätten ein paar schlaue Köpfe eine Tesla Karte gekauft und die so umgearbeitet das es eine Titan wird und da das noch keiner geschafft hat wird man auch keinen Block wieder aktivieren können.


und der Sinn davon hätte was sein sollen? lol

Sich für zig 1000€ ne Tesla kaufen und diese auf Titan hochzüchten um damit zu zocken? Mal abgesehen davon hat das doch nichts mit dem 15. SMX Block zu tun.
 
Danke Volker das du endlich mal Schluss machst mit dem Spekulatsius um die 10.000! Wenn man was schreibt glaubt einen ja keiner:p
 
Nachvollziehbar. Wenn das Temperatur limit bei 80C liegt für den Turbo und der dann runterdreht, bricht die Performance ein. Meine Nvidias sind meist um die 85C nach ner zeit spielen. Habe hier GTX 570er. Tja, das bedeutet die wird dann bei den Benchsmarks einbrechen. Spätestens nach den zweiten oder dritten. Wenn sie dann warm is.

Bedeutet im Endeffekt das der Mehrgewinn durch Boost 2.0 für spieler dann dahin is wenn sie übers Hauptmenü hinaus sind. Bleibt abzuwarten wie die sich dann Schlägt wenn sie wirklich Klat bleibt, bzw. Wasser gekühlt.

CB sollte das wirklich mal testen. Die Karten kalt lassen, also Fenster auf ^^ und unter realen Bedingungen. Generell wie sich die karten da verhalten. Da dürfte es dann deutliche Unterschiede geben.
 
Zuletzt bearbeitet:
Jolly91 schrieb:
Ob man den 15te SMX Block reaktivieren kann. ;)

"Früher" hatte nVidia auf seinen professionellen Karten Widerstände oder Kondensatoren aufgelötet, die bestimmte Funktionen einfach deaktivierten und so aus einer herkömmlichen GForce eine Quadro machen konnten - oder umgekehrt. Findige Bastler und E-Ingenieure aber hatten das schnell heraus.

Später gabs dann Hacks, weil es für nVidia billiger war, die Kastrationen in der Firmware zu delegieren. Auch das wurde umgangen, nVidia hat den Entwickler eines Werkzeugs für diesen Zweck einfach eingesackt und eingestellt und damit erstmal eleminiert. Aber auch andere konnten programmieren und Firmwarepatches sind keine Seltenheit.

Heute wird bei nVidia, wie bei Intel auch, schon auf dem Waver kurz nach der Validierung per LASER (nehme ich mal an) irreversibel ein Funktionsblock deaktiviert, bevor das Stück Silizium dann in sein Gehäüse gegossen wird.

Wie vielfach diskutiert - die Foren sind voll davon -, kann es auch unsinnig sein, eine deaktivierte SMX Einheit - oder kern bei einer CPU - wieder zu aktivieren, weil dieser Funktionsblock möglicherweise nicht als funktionierend in der Endkontrolle validiert werden konnte.

"TITAN" ist wie seinerzeit der GF100: ein mit Blick auf das naheliegend Mögliche Kastrat. beim GF100 waren es noch 448 Shader-Kerne, später waren es dann volle 512. Das Mehr an Rechenleistung war bei den TESLA Karten deutlich zu spüren, ob das genauso bei den Spielekarten war, weiß ich nicht so genau.

Man erinnere sich: während nVidia die Reduktion von 512 auf nur 448 Rechenkern bei der Fermi-Einführung aufgrund massiver thermischer Probleme durchführen mußte, um die TDP im Zaume zu halten, ist es heute bei Kepler anders! Diese Goldene-Kalb-Tänzer haben erkannt, daß man uns jeden Unsinn als "notwendigkeit" verkaufen kann und es auch gekauft wird - es muß nur blinken und glänzen oder PR-willige promiske Magazine nach dem Mundwerk der Hersteller blubbern.

Wie dem auch sei - der Leistungsabstand zwischen Fermi, Kerler GK104 und dem neuen Kepler GK110 mit nur 13 oder 14 Rechenblöcken wird groß genug sein, um für die kommenden 6 bis 12 Monate mit den aktuellen Gegebenheiten am Markt zu leben. Es gibt überdies noch den Freiheitsgrad "Preis", über den nVidia bei den exorbitanten Umlaufbahnen des Verlangten viel steuern kann.

Wenn AMD dann seine Neuauflage bringen wird, schaltet nVidia einfach den abgeschalteten Block frei - zu dem in der Zukunft liegenden Zeitpunkt wird der Produktionsprozeß wohl so weit verfeinert sein, daß GK110 auch mit Taktraten jenseits der 900 MHz gefahren werden können wird - also wiederum ein Freiheitsgrad, der nVidia auf lange Sicht mit diesem Design eine Spitzenposition sichern wird.

Bevor ich mich weiter über den unverschämten preis und die noch unverschämtere Produktpolitik ärgere, warte ich lieber mal die Benchmarks ab - ich hoffe sehr, daß CB nicht ausschließlich die Spielzeugleistung dieser Karte testen wird und einen Schwerpunkt auf eine OpenCL Anwendung mit DP Arithmetik legt - denn der hohe Preis schreit förmlich danach!

Allerdings wage ich mit Blick auf die Benchmarks der c't schon jetzt zu sagen, daß mit OpenCL wenig zu holen sein wird und man CUDA einsetzen muß, um die neuen Eigenschaften hinreichend nutzen zu können.
 
Zuletzt bearbeitet: (Tippfehlerchen)
Volker schrieb:
Fokus liegt bei uns aber ganz klar auf einer, denn mehr als eine kauft nun wirklich gar keiner von den Dingern. Wer hat schonmal 2900 Euro für drei Grafikkarten übrig!?

Drei sind mir auch zu heftig, aber zwei stehen immer noch auf meiner Anschaffungsliste wenn mir eure Benchmarks morgen zusagen ;)
 
Kasjopaja schrieb:
Nachvollziehbar. Wenn das Temperatur limit bei 80C liegt für den Turbo und der dann runterdreht, bricht die Performance ein.

Entweder dass, oder der Lüfter dreht auf. Oder auch beides im Mix. Kann man bei der Titan extrem flexibel nach persönlichen Vorlieben einstellen. Die jeweiligen Temperatur- und TDP-Grenzen natürlich auch. Daneben gibt es noch die Möglichkeit manuelle Takt-Offsets einzustellen usw.

Ich finde, dass ist eine ziemlich elegante Lösung, die den Anwendern die nahezu volle Kontrolle darüber gibt, wie sich die Karte verhalten soll, bzw. worauf (Leistung, Lautstärke, Verbrauch, Temperatur usw.) er die Priorität legt. Wäre auch sehr ärgerlich gewesen, wenn Nvidia bei so einem Extrem-Modell irgendwelche künstlichen Grenzen setzt (wie z.B. bei der GTX680).
 
Zuletzt bearbeitet:
Danke für die Erklärung Eisenfaust.

Und ja, das wird mit einem Lasercut gemacht.
 
Kasjopaja schrieb:
Nachvollziehbar. Wenn das Temperatur limit bei 80C liegt für den Turbo und der dann runterdreht, bricht die Performance ein. Meine Nvidias sind meist um die 85C nach ner zeit spielen. Habe hier GTX 570er. Tja, das bedeutet die wird dann bei den Benchsmarks einbrechen. Spätestens nach den zweiten oder dritten. Wenn sie dann warm is.

Bedeutet im Endeffekt das der Mehrgewinn durch Boost 2.0 für spieler dann dahin is wenn sie übers Hauptmenü hinaus sind. Bleibt abzuwarten wie die sich dann Schlägt wenn sie wirklich Klat bleibt, bzw. Wasser gekühlt.

CB sollte das wirklich mal testen. Die Karten kalt lassen, also Fenster auf ^^ und unter realen Bedingungen. Generell wie sich die karten da verhalten. Da dürfte es dann deutliche Unterschiede geben.

Wir benutzen einige GTX570, um darauf zu rechnen. Manche dieser Rechnungen laufen über Tage, in einem Fall gings gar über ein paar Wochen (auf den TESLA rechnen wir bis zu 8 Monate am Stück). Die sind nach kurzer Zeit so "warm", daß die GPU grenzwertige temperaturen erreicht - und das permanent, da wird sich ein "Boost" im Mittel überhaupt nicht bemerkbar machen - bei 7 Tagen sind 30 Sekunden verschwindend gering.

Und wer bitte wird sich in einem anspruchsvollen Spiel gerade mal 30 Sekunden in einer komplexen Szene mit vielen geometrischen Objekten aufhalten, die volle Rechenleistung brauchen?

Meiner Meinung ist dieser "Boost" nur eine dümmliche Bauerfängerei, um mit schicken Benchmarks - 30 Sekunden gelaufen - Kunden anzuwerben. ich hoffe doch sehr, daß der deutsche Ingenieursgeist und der Verstand auch bei CB in den nächsten Tests diesen Umstand einmal näher beleuchten wird und Klarheit schafft.
Und das kann aber nicht bedeuten, daß mit einer 1000 Euro Graphikkarte ältliche Software von heute getestet wird, die die Potentiale dieser GPU nicht ausnutzen kann (ich meine Spiele) und wirklich nur bruchstückhaft in Turbomodi geht und so das Endergebnis verfälscht.

An dieser Stelle erweisen sich theoretische/synthetische Benchmarks als berechtigt, weil sie die Maximaltiefen des Leistungssees auszuloten vermögen. Also, warten wir mal ab, was sich ergibt. Ich bin gespannt.
 
Ist doch nicht meine, ist aus'm luxx geklaut ;)

Es Geht sich auch nur um das Verhältnis zwischen den beiden Karten. Wenn an der Folie irgendwas offizielles dran ist, dann passt das schon.
Natürlich ist die Skalierung albern.

Dass die Titan im Mittel bei hohen Auflösungen genauso schnell ist wie die 690 glaube Ich aber gerne.
 
eLw00d schrieb:
(...)
Dass die Titan im Mittel bei hohen Auflösungen genauso schnell ist wie die 690 glaube Ich aber gerne.

Definiere "hohe Auflösungen" ;)
Ich hoffe wir meinen was unterschiedliches, denn wenn Titan bei 5760x1080 so abschmiert wie die 690 im letzten CB-Test dann können sie das Teil aber mal sowas von behalten.

15fhaop.png


qzrv5i.png
 
Zuletzt bearbeitet:
Zurück
Oben