News Nvidias „GeForce Titan“ schneller als GeForce GTX 690?

Ich kauf mir die karte die für die neuen engines im herbst für 1920x1200 max. Nötig sein wird
Kann 770, 780 oder der T sein;)
Wenn dann, wenn nicht diesen herbst lohnt es sich zu investieren
 
Hier gehen sehr viele auf den Kommentar ein "50-60% schneller als 690GTX [...] dann kann AMD einpacken" (Unterstreichung von mir, sinngemäß).
Jungs und Mädels, auf eine 680 ok, aber nicht auf die 690. Das wären mehr als 300% (180-200% und nochmal von da aus 50-60%) schneller als eine 680!
Das wird niemals eintreten.

Der User hat den Text nicht richtig gelesen und meinte obige Aussage. Und ihr geht drauf ein und lest auch nicht richtig.

Auf eine 680 (in Worten: sechs-achzig) ist es realistisch.
Auf eine 690 (in Worten: sechs-neunzig) wird das niemals der Fall sein.
 
NVIDIA will wohl Intel nachahmen, lol.

CPU krieg ist längst verloren imo, wenn NV wirklich so ein Leistungsmonster raushaut auch der GPU krieg.
 
Also ich gehe mal davon aus das AMD mit der HD8970 ungefähr 15-25% langamer sein wird als Geforce Titan. Wenn AMD es denn drauf ankommen lassen will, denn so viel Luft bleibt ein aufgebohrter Tahiti Chip auch nicht mehr, bezogen auf die Leistungsaufnahme.

@ancez:

Man muss immer sehen zu welchem Preis man die Leistung rausholt. Wenn AMD wollte könnten die das auch, nur dann mit einer TDP von geschätzt 320-350 Watt. Und was Titan verbrauchen wird, wird auch nicht grade viel weniger sein.
 
Zuletzt bearbeitet:
ancez schrieb:
CPU krieg ist längst verloren imo, wenn NV wirklich so ein Leistungsmonster raushaut auch der GPU krieg.

OMG

Bei CPUs hat AMD einen großen Nachteil in der Fertigung gegenüber Intel. Bei GPUs ist dies nicht der Fall, da beide Hersteller bei TSMC fertigen lassen. In Sachen Effizienz ist AMDs GCN-Architektur nicht schlechter als Nvidias Kepler-Architektur. Wenn jetzt Nvidia einen Chip rausbringt, der mal eben ~56% größer ist als der größte AMD Chip, dann ist es nur logisch, dass die Leistung, Preis und Verbrauch deutlich höher sein wird. Da ist überhaupt kein Krieg verloren. Wie groß ist denn der Markt für ne GPU die ~899€ kosten wird?
 
Aber wer will die haben wenn die nächsten Karten schon für Juni angekündigt sind ? Die neuen sollen einen ARM Kern enthalten in der GPU da wird vielleicht noch einiges mehr gehn als mit der Titan. Oder Nvidia wirft die Karte auf den Markt falls die neuen GPU ein griff ins Klo werden um immer noch einen Spitzenreiter zu haben. Bin ja mal gespannt was die abziehen.

Und die Külung der Titan sollte ja auch nicht allzuschwer sein die Gtx690 ist ja auch Relativ Leise.
 
Zuletzt bearbeitet:
Haha trollige News.. eine Geforce Titan die eine GTX690 übertrumpft? VK 1900€ oder was? ne reine "Ich habe zuviel Geld" Karte. Tesla K20 sind ja schon sche... teuer. Wenn eine GTX690 schon 900€ kostet, dann wäre eine Titan quasi ein Handgefertigtes Auto.. Vllt verkauft NV davon ein paar Tausend im Jahr. Aber kein Wunder, wenn die Gerüchte sich bewahrheiten, könnte Intel mit der GT Series AMD und NV den Mainstreammarkt richtig madig machen. Solche Karten sind reine Prestige Objekte und sicherlich nicht vor 2020 für 400€ zu haben ;)

Meine Progrnose für Kepler 2.. GK 114 mit 30% mehr Leistung als die 680.. Grade genug um wieder vor AMD zu kommen. Alles andre wäre ja sicherlich auch über Erwartung.
 
Zuletzt bearbeitet:
Letztes Jahr hat Nvidia mit Kepler vielleicht nicht gerade die schnellste, aber eine wirklich gute und venünftige Grafikkartengeneration gebracht. Und jetzt kommt eben Thors Hammer:evillol:

Keiner weiß so wirklich was uns erwartet, aber die haben sich lange genug Zeit gelassen damit. Aber eines ist sicher: Die Titan wird stark, teuer und unvernünftig, und sicher seine Käufer finden:D
 
Und ich denke das ganze ist feinsäuberlich von NV geplant , was der GTX 680 fehlt ist Speicherbandbreite aber mit 256 hat es eben gereicht die AMD Karten zu schlagen, die haben natürlich nicht damit gerechnet das AMD das wirkliche Potenzial ihrer Karten mit einem neuren Treiber freischalten würden. Naja es war doch jedem klar das die 680 er die beschnitte Version sein wird man kannte ja schon die Tesla Karten durch die Leaks , ja und jetzt Kassieren die erstmal für sich die Spitze ein. Wenn AMD jetzt Antworten hätte würde natürlich auch der Preis sinken aber da kommt so schnell nichts.
 
Zock schrieb:
Und ich denke das ganze ist feinsäuberlich von NV geplant , was der GTX 680 fehlt ist Speicherbandbreite aber mit 256 hat es eben gereicht die AMD Karten zu schlagen, die haben natürlich nicht damit gerechnet das AMD das wirkliche Potenzial ihrer Karten mit einem neuren Treiber freischalten würden. Naja es war doch jedem klar das die 680 er die beschnitte Version sein wird man kannte ja schon die Tesla Karten durch die Leaks , ja und jetzt Kassieren die erstmal für sich die Spitze ein. Wenn AMD jetzt Antworten hätte würde natürlich auch der Preis sinken aber da kommt so schnell nichts.

alles nur gerede nix handfestes.
 
Es hat mit 256 Bit SI niemals Gereicht die AMD´s zu schlagen, insbesondere nicht in hohen Auflösungen.
Und genau deshalb ist auch die 4GB Edition für´s Sack.

Hauptsache man kotzt sich in aktuellen Threads über die Effizienz der 7970er aus, aber Nvidia darf das ja, weil das elendige Fanboy Lager groß genug zu sein scheint.. :rolleyes:
 
Endlich kommt sie also nun,die GK 110 High End Grafikkarte für absolute Enthusiasten !

Naja,besser zu spät als nie.Wurde ja auch höchste Zeit,dass Sie endlich erscheint.

Sollte die wirklich 60-70 % schneller sein als eine GTX 680 (und damit etwa gleichauf mit der GTX 690,aber eben nur als Single GPU),satte 4-6 GB VRAM haben mit 384 Bit SI und etwa für 600,00-700,00 Euro zu haben sein,ist Sie schon so gut wie gekauft und wird meine zwei GTX 480 ablösen.

Denn wenn die GK 110 Titan wirklich mit diesen technischen Daten erscheinen wird und 60-70% schneller als eine GTX 680 ist,wird Sie auch die GTX 700 Reihe hinter sich lassen und wieder für mindestens 1.5-2 Jahre die schnellste Single GPU Grafikkarte auf dem Markt sein.

Dank der hohen Rohleistung und dem sehr großen VRAM dürfte das auch die perfekte SLI System Grafikkarte werden.
2-3 davon im SLI dürften dann für 2-3 Jahre genug Leistung für jedes erdenkliche Spiel auf maximalen Settings haben,selbst in 2560x1600 Auflösung + 8xAA oder 3x Multi Monitor Set Ups.

Da noch am Ende diesen Jahres eine neue Konsolengeneration ansteht und dann deswegen wahrscheinlich auch gleichzeitig die Hardwareanforderungen + die grafische Qualität der PC Spiele regelrecht explodieren werden,wird man die Leistung einer einzelnen GK 110 Titan auch als Full HD Spieler zu schätzen wissen,wenn es 8x AA oder gar 4x SGSSAA sein darf.

Crysis 3,Metro Last Light und ArmA 3 sind wahrscheinlich nur die Spitze des Eisberges an neuen High End PC Spielen,die in diesem Jahr für den PC herauskommen werden.
2014 wird die Messlate sicherlich bei allen PC Spielen ordendlich nach oben gesetzt werden,was Hardware Hunger und Grafik/Technik angeht.

1x GK 110 Titan + passend dazu im Herbst ein Ivy Bridge E 6 Kerner mit runderneuerten Sockel 2011 High End Board wäre dann für mich die perfekte Wahl, um mein jetziges System in den wohlverdienten Ruhestand zu schicken nach fünf wundervollen langen Zockerjahren.
 
Zuletzt bearbeitet:
aylano schrieb:
Dieses lockeres übertrumpen von +15% Performance ging mit lockeren +15% an Mehr-Stromverbrauch.

Wenn die CPU des Testsystems nicht so stark limitierte, z.B. bei hohen Auflösungen oder Qualitätseinstellungen, war die 8800GTX auch mal eben 30 oder sogar 50% schneller als eine 7950GX2. (Siehe auch das Fazit des Artikels.)

Aber ich gebe dir Recht. So einen enormen Sprung erwarte ich bei der Titan auch nicht. Die G80-GPU war ein riesiger technischer Fortschritt gegenüber den Vorgängern. Sowas wird es bei der Titan eher nicht geben. Die ist auch nur ein Kepler bzw-. bestenfalls ein Kepler-Refresh.
Ich halte es eher für realistisch, dass die Titan nur in wenigen Ausnahmen nennswert schneller ist, als eine GTX690. Aber das würde eben auch schon 50-70% schneller als eine GTX680 bedeuten.

Nur geht das beim GTX690 nicht mehr so einfach, wenn dieser schon fast 300W verbraucht. Denn dann sind +15% bei 300W schon fast 350W.

Wie gesagt, ich es für wahrscheinlich, dass die Titan "nur" ungefähr auf dem Niveau der GTX690 liegt und dementsprechend auch einen ähnlichen Verbrauch um die ca. 300W hat. Das ist ein Wert, den man erfahrungsgemäß mit einem guten Luftkühler noch ganz gut in den Griff bekommen kann. (Und natürlich die offizielle Grenze der PCIe-Spec, was aber weder Nvidia noch AMD abgehalten hat, da auch mal ganz ordentlich drüber zu gehen.)

Dabei sollte man nicht vergessen, dass man bei Dual-GPU-Karten mit weniger Takt und weniger Spannung erheblich viel Strom sparen kann. Und wie sich die 30% größeren SMX-Cores des GK110 gegenüber dem GK104 auswirken bzw. der ganze GK110-GPGPU-Ballast, habe ich jetzt noch nichteinmal mitberücksichtigt.

Die GTX680 hat 170-190W-TDP. Wenn die Titan ca. 300W TDP hat (vielleicht in der Praxis sogar etwas darüber), ist da einiger Spielraum vorhanden.

Kurz gesagt.
Eine GTX Titan mit selber GTX690-Effizienz (womit 50-60% Mehrperformance gegenüber GTX680 möglich wären) wäre keine Überraschung, wenn sie diesen GPGPU-Ballast nicht hätte.

Die Titan mag GPGPU-Ballast haben (der bei einigen Spielen und Benchmarks aber durchaus genutzt werden kann), aber die GTX690 hat dafür einen Speicherbandbreitenflaschenhals, bei höheren Auflösungen einen VRAM-Mangel und die typischen Skalierungsverluste und Treiberprobleme einer Dual-GPU-Lösung, während die Titan theoretisch fast perfekt skalieren könnte.

Wir werden es bald wissen. Aber ich schätze, weniger als 50% mehr gegenüber einer GTX680 wird es nicht sein, denn dann könnte Nvidia den Premiumpreis von 900$ auch gegenüber den unvernünftigsten Enthusiasten nicht rechtfertigen. Sie wäre einfach uninteressant gegenüber der GTX690, die ungefähr genauso viel kostet.
 
Zuletzt bearbeitet:
Keine Ahnung welcher Idiot solche Gerüchte streut, aber wenn Titan dann kommt, bahnt sich eine riesen Enttäuschung an, wenn man jetzt wild mit irgendwelchen Prozentzahlen > GTX 690 um sich wirft.
Man kann froh sein, wenn man gegen die AMD adeon HD 8970 mit 10/15% Mehrleistung hausieren gehen kann.
 
@samuel89
Da spekulierst du aber doch auch nur. Keiner weiß, wie sich die nächste Generation von AMD schlagen wird, denn über die ist so gut wie nichts bekannt. (Ich gehe mal davon aus, dass du die echten Next-Gen-Radeons meinst und nicht die nur umgelabelten HD8000-OEM-Karten.)
Bei der GK110 kann man aber immerhin schon einiges abschätzen, denn die technischen Daten der GPU kennen wir, da sie schon in Tesla-Karten eingesetzt wird.

@AshS
Es geht dabei um die GHz-Edition der HD7970. Die ist unterm Strich vor der GTX680.
 
Zuletzt bearbeitet:
@Herdware

Natürlich meint er nicht die OEM Karten, das ist wohl denke ich offensichtlich. Denn niemand hier im Forum wird sich für die OEM Karten interessieren.

Und btw. ich denke ziemlich änlich. Mein Tipp ist auch das Titan etwa 15-25% schneller sein wird als die HD8970. Wobei 25% bei ausgewählten Titeln sein wird. Aber wie gesagt das ist nur mein Tipp, es kommt auch darauf an ob AMD es drauf anlegt.
 
Herdware schrieb:
Keiner weiß, wie sich die nächste Generation von AMD schlagen wird, denn über die ist so gut wie nichts bekannt.

Es gibt zumindest Gerüchte:

Curacao XT: 400mm²; 2560:160:48
Curacao Pro: 400mm²; 2304:144:48
Curacao LE: 400mm²; 2048:128:32
Hainan XT: 270mm²; 1792:112:32
Hainan Pro: 270mm²; 1536:96:32
Bonaire XT: 159mm²; 896:56:16
Bonaire Pro: 159mm²; 768:48:16
 
Bei der GK110 kann man aber immerhin schon einiges abschätzen,

720mhz bei 235 Watt TDP für die Tesla GPU´s bzw K20X.
Heißt eine Gaming GPU bei 250 Watt TDP ergo ca 800 bis 850 mhz Taktrate ( 25% weniger Takt als GK104)
Wahrscheinlich 13 oder 14 SMX statt 8 SMX, mehr Bandbreite, ergo eine lineare Skalierung nach oben von 60 bis 80%.
Rechnet man die 25% Takt weg ( Vorsicht andere Ausgangspunkte) kommt man grob auf 40 bis 50% Mehrleistung in einem vernünftigen TDP Budget.

Mehr ist da absolut nicht drinnen, wer von mehr träumt, der gibt sich Illusionen hin, oder Nvidia will wieder einen Chip vermarkten der heiß und stromhungrig ist. Das wollte man ja eigentlich seit Fermi vermeiden.
 
Zurück
Oben