News Nvidia stellt GeForce GTX Titan (GK110) vor

eLw00d schrieb:
Hast du Quellen dafür?

Sie meinen Post eine Seite vorher

Edit: hier mein gesagtes noch mal: Im übrigen hab ich vorhin entweder bei Hadwareluxx oder PCGH gehört oder gelesen das es Eigendesigns der Boardpartner geben wird und auch Karten mit Werks OC geben wird. Aus diesem Grund glaube ich kaum das es nur 10.000 Stück geben wird. Das ist mal wieder nur Marketing blabla das jetzt alle Kaufen wie die doofen zum Startpreis

Edit2: by Gulli hab ich gerade gelesen das sie im Laufe der nächsten Woche im Handel sein soll. Na mal abwarten
 
Zuletzt bearbeitet:
NeoGeo schrieb:
Gaming Karte?

Elsa Gladiac Gforce 2 Ultra 64 MB - 900 DM
Also ca. 450€, und das ist gerade die Hälfte
 
900dm = 750 eur
 
Nunja, bei 700 hab ich gedeckelt, dann eben nicht, aber gute Werte.. Bin auf den Test gespannt
 
aivazi schrieb:
Aber in dem aktuellen Fall kostet die Titan einfach mal mehr als das doppelte der GTX680, wenn die Karte nicht mindestens doppelt so schnell ist, dann haben wir eine Karte mit einem desaströsem P/L Verhältnis und in Zukunft Ar***- Teuere Karten ^^

Also die Titan kann schon etwas mehr als die letzten Topmodelle:

1000x2000px-LL-0106e6db_LL.jpg
 
aylano schrieb:
Ich nehme mal an, dass du es nicht mit GTX 285 vs GTX 580 verglichen hast, denn dann würdest du draufkommen, dass so vielleicht +100% Performance (wenn wenn wenn) nicht unüblich wären.

Ich habe geschrieben, dass 100% Leistungssteigerung bei längst nicht jedem Generationswechsel erreicht werden. Das war eigentlich noch untertrieben. Tatsächlich hat das in den letzten Jahren eigentlich keine Nvidia-Karte rundum geschafft. Nicht mal die legendäre 8800GTX.

Außerdem wäre es nicht korrekt die GTX280 mit der GTX580 zu vergleichen, denn da liegen 2,5 Generationen zwischen, nicht nur eine.

Die Titan ist hingegen der direkte Nachfolger der GTX580. Wobei man darüber spekulieren könnte, ob die GK110 nicht vielleicht doch schon ein Kepler-Refresh ist, wofür neben dem Namen auch neue Features wie z.B. der GPU-Boost in Version 2.0 sprechen würden. Aber da es die GK100 nunmal nicht gegeben hat, ist die GF110 der nächste "lebende Verwandte", mit dem man sie vergleichen kann.

Du denkst so, weil du vielleicht nicht weißt, dass Nvidia führer aus Kostengründen eher 512bit-SI mit billigen Arbeitsspeicher nahm. Bestes beispiel war GTX 280 und GTX 285, wo Nvidia 512-SI mit GDDR3 nahm und AMD HD 4870 mit GDDR5.

Warum glauben alle zu wissen was ich nicht weiß? ;)

Habe ich irgendwas über die GTX280 geschrieben?

Wenn, dann hätte ich vielleicht angemerkt, dass die GT200 eine der (im Vergleich zur Konkurrenz) überteuersten und "overengineeredesten" Nvidia-GPUs der letzten Jahre war. Das Monster stellt allein schon mit seinen Außmaßen sogar die GK110 in den Schatten. Garantiert kein gutes Beispiel für irgendwelche Sparmaßnahmen.

Was das SI angeht, war Nvidia zu der Zeit AMD beim Wechsel auch GDDR5 einfach hinterher und musste nochmal auf GDDR3 setzen und damit war die einzige Möglichkeit um die für die Monster-GPU nötige Bandbreite zu erreichen eine Verbreiterung auf 512Bit. Das war garantiert nicht billiger als GDDR5 + ein schmaleres SI. Im Gegenteil. Das war einer der Gründe für die absurde Größe der GPU. (Der nachträgliche Shrink auf 55nm hat das dann wieder etwas relativiert.)
Auf der anderen Seite war die GT200 auch nicht die erste GPU mit 512Bit. Die glücklosen R600 (Radeon HD 2900er) hatten das auch schon. Und auch das waren bei Leibe keine Billig-GPUs.

Es wäre nicht verwunderlich, wenn die GTX Titan dann so 400-450 Euro kosten wird, wenn der AMD einen 20nm-High-End-Konkurrent oder Nvidia einen Titan 20nm-Nachfolger bringt.

Ich glaube nicht, dass noch Titan verkauft werden, wenn die Maxwell-Generation (800er) draußen ist. Jedenfalls nciht mit GK110-GPUs.

Es wäre natürlich nicht schlecht, wenn nvidia dann zur alten Produkt-/Preispolitik zurückkehrt und die Karten mit dem 500mm^2-Big-Chip wiede rzu den von dir genannten gewohnten Preisen als normales High-End verkauft werden. Aber ich würde nicht drauf wetten.

Derzeit sieht es ja komplett anders aus. Nvidia kann 300mm^2-Performance-GPUs für an die 500 Euro in High-End-Karten verkaufen und die Big Chips nochmal als eigene Enthusiasten-Klasse zum doppelten Preis darüber. Wenn sie irgendwie können, werden sie das auch in den folgenden Generationen so durchziehen.

Mein Tipp: Die Titan wird auch nach Einführung der neuen Generation mit Kepler-Refresh erstmal weiter darüber positioniert verkauft werden. Vielelicht mit etwas mehr Takt oder 15 aktiven SMX-Clustern. Aber auf jeden Fall weiterhin deutlich über 600 Euro, denn die GTX780 (mit GK114) muss ja für bis zu 500 Euro noch darunter passen.

Bei der Maxwell-basierten 800er-Generation wird die (GK110-basierte) Titan aber wie gesagt dann endgültig keine Daseinsberechtigung haben. Dann gibt es vielleicht eine "Titan II" mit GM100-GPU, die wieder zu Enthusiastenpreisen gehandelt wird.

Also, höhere Preise ist nicht ein unwichtiges sekundäres Problemchen sondern wennschon ein primäres Problem, was nicht so locker gesenket werden kann, woran ja viel glauben wollen.

Preise sind vor allem erstmal eine "politische" Entscheidung und nicht in erster Linie technisch bedingt. Ein Hersteller kann und wird immer so viel für ein Produkt verlangen, wie es, z.B. angesichts der Konkurrenzsituation (auch zu anderen eigenen Produkten) möglich ist. Dabei wird sogar manchmal ein Minus in Kauf genommen, wenn das Halten oder Erobern von Marktanteilen Priorität hat.

Ein gutes Beispiel für "politische" Preise sind AMDs CPUs. Die großen und komplexen Phenom und FX sind offensichtlich nicht dafür konstruiert, mit kleineren Dualcores von Intel zu konkurrieren. Aber AMD musste sie angesichts der vergleichbaren Leistung preislich gegen die positionieren. Das ist auwändige High-End-Technik zu Mittelklasse-Preisen.
Der umgekehrte Fall sind Nvidias aktuelle GTX680. Das sind relativ kleine Performance-GPUs zu High-End-Preisen. Und genau das ist wie gesagt der Hauptgrund, warum die Titan, die das eigentliche High-End-Produkt darstellt, jetzt in rekordverdächtige neue Preisregionen abgehoben ist.
 
Zuletzt bearbeitet:
Bin gespannt ob der Preis von 950 Euro stimmt dan wird es erstmal nur eine.
 
OK man hat also beim Benchen einen Zeitraum von ein paar Minuten und am Besten einen klimatisierten Raum.
Super, die Tester, welche sich an diese Vorgabe halten sollte man erhängen, das hat dann noch weniger
mit der Realität zu tun, als es bei Benchmarks jetzt schon der Fall ist.

Positiv, Leistungsaufnahme und Lautstärke bewegen sich in die richtige Richtung, kann man aber bei dem
Peis auch erwarten, es wird sicherlich einige geben die sowas kaufen, jetzt muss ich gerade überlegen was
meine HD7950 nicht kann und komme zu dem Ergebnis die Titan kann NVIDIA vorerst behalten :D
 
Visualist schrieb:
Bin gespannt ob der Preis von 950 Euro stimmt dan wird es erstmal nur eine.

Wenn überhaupt nennenswerte Stückzahlen den "freien" Markt erreichen.

Es könnte nämlich so passieren, wie hier (#286) vermutet und der Großteil der Charge bereits an Unis, Firmen, etc. vergeben sein.

@SB1888

HT4U wird ein im regulären Handel zu erwerbendes (so denn überhaupt möglich) Exemplar testen. Diese Art des Tests hat ohnehin den Vorteil, die Testmethoden frei und unbeeinflusst wählen zu können und gewährleistet natürlich auch ein tatsächliches Serienfabrikat zu testen und kein handselektiertes, vom Hersteller besonders ausgesuchtes Modell.
 
Zuletzt bearbeitet:
Schöne Karte, zumindest was man bis jetzt lesen kann.

Zum Preis: Der ist doch bei solch einem Produkt zweitrangig. Diese Karte ist ja auch nicht für die Leute die nicht zu viel für eine Grafikkarte ausgeben wollen gemacht. Und das Sie kein "P/L König" ist, sollte auch jedem klar sein. Höchste Leistung und Prestige kosten nun mal, siehe IPhone und andere Produkte die "gefühlt" unverhältnismäßig teuer erscheinen.

Für mich pers. ist die auch nichts, dafür spiele ich viel zu selten und zu alte Games und auch nur in Full HD, ohne Schnickschnack.
Aber wenn jmd. mit 2 oder 3 Full HD Monitoren spielt, und alles auf "highest Quality" inkl. extreme Kantenglättung und das nötige Geld dafür aufbringen will, warum nicht.
 
Kartenlehrling schrieb:
Möchte schon wissen wie die Verteilung der Testexemplare zustande kam,
Guru3D.com und hardwareluxx.de haben gleich 3x Titans bekommen, ht4u.net ist ganz leer ausgegangen und bekommt somit überhaupt keine GtxTitan von nvidia.

HT4U hat leider offensichtlich auch keinen einzigen Trinity bekommen ....
Ergänzung ()

sonyfreak1234 schrieb:
na. das stimmt so übernaupt nicht.

doch ich seh das absolut genauso.

Nvidia hat 0 Gründe eine TITAN zu bringen (außer AMD stellt überraschend nächste Woche die HD8XXX vor....)

Was Nvidia betreibt ist Marketing. Der Absatz dieser Prestige GPU ist so gering, das läuft kaum in die Zahlen ein. Aber schau mal in die Unternehmen, kaum eines wo AMD nicht aufgrund des Treiberdesasters bis heute den Ruf weg hat und Nvidia schlicht der Hersteller ohne Alternative ist. Und auch außerhalb der Unternehmen, selbst hier im Forum... hört man ja oft von den (angeblichen) Vorzügen vieler Nvidia Karten / Features / Treiber.
 
Schöne Karte, nette Leistungs-Angaben, gute Geräuschkulisse, und hohe Temperaturen.

An sich würde alles zusammenpassen, eine kleine nette Karte mir einer Menge Leistung unter der Haube. Wäre das Gehäuse jetzt aus einer Magnesiumlegierung würde das Verhältnis vom Preis zur Optik/Leistung, etc..., schon besser passen. Nur ist das den lieben Ingenieuren von Nvidia zu kostspielig und deshalb setzten Sie auf das gute alte Aluminium.

Da fragt man sich schon, weshalb soll man jetzt für die Karte 750€ = 900$, wobei das ganze 1:1 Umgerechnet wird, und wir wieder bei 900€ landen, zahlen?

Die Karte könnte von der Leistung 500€ kosten, vom Aussehen 150€, der Name schlägt wohl mit 100€ zubuche und dann kommt noch der 20%ige Enthausiastenbonus.
 
Krautmaster schrieb:
Was Nvidia betreibt ist Marketing...
Und auch außerhalb der Unternehmen, selbst hier im Forum... hört man ja oft von den (angeblichen) Vorzügen vieler Nvidia Karten / Features / Treiber.

Ohne Frage ist Marketing die große Stärke nVidias. Da sind sie locker auf Apple-Niveau.
 
Naja, bei meiner GTX 560ti hatte ich mit Nvidia in Youtube auch Probleme mit Pixelbrei. Das war mit dem 296ger Treiber, beim 301.xx war der Fehler wieder behoben.

Denke AMD hat das Flackern mit dem 13.2 Beta mehr in den Griff bekommen.
 
SB1888 schrieb:
OK man hat also beim Benchen einen Zeitraum von ein paar Minuten und am Besten einen klimatisierten Raum.
Super, die Tester, welche sich an diese Vorgabe halten sollte man erhängen, das hat dann noch weniger
mit der Realität zu tun, als es bei Benchmarks jetzt schon der Fall ist.

Die Realität sieht im Fall der Titan aufgrund von GPU-Boost 2.0 nunmal so aus, dass die Leistung abhängig von der Umgebungstemperatur schwanken kann. Schwankende Ergebnisse sind aber nicht unbedingt das, was man bei einem Benchmark herausbekommen will. Solche "realistischen" Werte würden auch niemandem wirklich weiterhelfen.

Also entweder macht man den Test unter kontrollierten, konstanten Bedinungen (klimatisierter Raum, was nicht zwangsweise Kühlschrank bedeutet ;) ), oder man macht sich die Mühe und deckt einen möglichst großen Temperaturbereich ab und erhält eine ganze Reihe von unterschiedlichen Ergebnissen (am besten als Kurven in einem Diagram). Aber diese Arbeit wird sich wohl kaum einer machen. Bestenfalls wird es wohl neben der typischen Raumtemperatur (um 20°C) nochmal jeweils eine Messung bei besonders hohen und besonders niedrigen Temperaturen geben, um die Worst- und Best-Case-Szenarien abzudecken.
 
Ich finde es lustig wie sich hier jeder über den Preispunkt oder die Performance nassmacht, wo das große Problem der Karte die verfügbare Stückzahl sein wird. 10.000 Exemplare zum Launch? Passt total zur Crysis 3 Werbung früher im Thread. Genialer Marketingschachzug von nVidia.
 
Ich bin ja doch positiv überrascht ob der Leistungsaufnahme und vor allem der Lautstärke. Wie die Leistung ausfällt kommt ja dann am Donnerstag. Ist aber nicht weiter schlimm, weil uninteressantes Produkt. Hab auch nie verstanden wieso man auf 5xxx*1080 mit drei Monitoren spielt. Da hab ich jedesmal Streifen im Bild.

Krautmaster schrieb:
HT4U hat leider offensichtlich auch keinen einzigen Trinity bekommen ....

Das lag daran, dass bei Erscheinen der APUs alle Leute beschäftigt oder im Urlaub waren. Hatte das nämlich mal in einem Thema angesprochen und darauf hin diese Antwort bekommen. Scheinbar haben Sie entschieden keine "Nachtests" durchzuführen, weil ja alle anderen Seiten bereits schon lange mit ihren Tests draußen waren, bevor bei HT4U sich jemand überhaupt darum kümmern konnte.
 
Ob man den 15ten SMX Block reaktivieren kann. ;)
 
Zuletzt bearbeitet:
Zurück
Oben