News Nvidia plant angeblich eine abgespeckte GeForce GTX Titan

Whoozy schrieb:
@Arno Nimus:

Was hat denn das 256bit Speicherinterface mit High-End zu tun ? Das wählen die Ingenieure so, um genügend Bandbreite zu bekommen (in Verbindung mit dem Gddram und dessen Takt). Was bringt dir ein fetteres interface wenn die Gpu davon keinen Nutzen zieht ? Siehe R600 auch bekannt als Radeon HD2900.

2Gb ist doch in Ordnung, verstehe jetzt das Problem nicht, die HD Radeon HD7970 kann sich nicht immer wegen den 3GB Vram absetzen. Und wenn ja ist es auch nicht atemberaubend und meistens auch nicht mehr als Spielbar zu bezeichnen.

Was bezeichnest du denn 2012 als High End ? Da bin ich mal gespannt. Du kannst nur verlieren wenn du nicht die GTX680 nennst ;).

Ein breites Speicherinterface und viel V-Ram wird je wichtiger, desto höher die Auflösung des Monitors bzw. der Monitore ist. Und nicht jeder spielt (ausschliesslich) auf EINEM Monitor bei maximal 1920x. Gerade bei Enthusiasten ist es doch ziemlich wahrscheinlich, dass sie mit höher auflösenden Monitoren oder mit Multimonitoring oder eben auch mit 3D unterwegs sind!

Natürlich gibt es immer noch Leute, die glauben, 2GB wären heutzutage völlig ausreichend, aber andere, die mit Downsampling, 3D- und High-Res-Texturen-Mods "rummachen" oder mit einer Mischung aus all dem (um die Bildqualität deutlich zu verbessern) haben da ggf. völlig andere Erfahrungen gemacht! ;-)

Nvidia hatte in der Standardausführung ihrer jeweiligen "Flaggschiffe" nach der 8800GTX (die mit 384bit und 768 MB V-Ram für damalige Verhältnisse bereits überaus üppig bestückt war) nur noch Speiecherkrüppel-Karten gebracht (entwedern mit mickriger V-Ram-Bestückung und/oder eben mit schmalem Speicherinterface) und die Performance ab 2560x kann (wenn man die Entwicklung seit 7 Jahren verfolgt hat) selbst heute noch immer nicht überzeugen. Erst die Titan bietet mit ihren 6GB und 384 bit Speicheranbindung wieder eine vernünftige Speicher-Ausstattung!

Natürlich war die GTX 680 als sie vor ca. einem Jahr erschienen ist, die bis dato "schnellste" Single-GPU-Karte auf dem Markt, aber auch sie kann wie all ihre Vorgänger in Auflösungen ab 2560x nicht wirklich überzeugen (man schaue sich die Frameraten bei Spielen wie "Metro 2033" oder "Crysis 3" an <- nicht dass ich diese Spiele mag, aber es geht ums Prinzip und zu schauen, was man für sein Geld bekommt!)

Wie gesagt misst nicht jeder den Wert und die Performance einer Graka daran, ob er damit bei 1680x mit 500FPS und 100facher Kantenglättung noch Spiel xyz flüssig spielen kann. Es gibt auch Leute, bei denen liegt der Focus bzw. die Wertbemessung eines entsprechenden Produktes woanders! (wo, das habe ich oben aufgeführt!)
 
Zuletzt bearbeitet:
Die Breite des Speicherinterface bringt dir nicht viel wenn langsamer Vram dranhängt. Das was wichtig ist, ist die Speicherbandbreite. Und hier gilt es einen vernünftigen Mittelweg zu finden um die Kosten des Chips so niedrig wie möglich zu halten. Aber wenn doch der Chip nicht mehr Bandbreite benötigt weil es einfach nichts bringen würde, warum sollte man dann (übertrieben ausgedrückt)einen 512bit Speicherinterface benutzen ? Das steht doch nicht im Verhältnis zu den Kosten.

Wäre die GTX680 für dich jetzt plötzlich doch High-End, wenn diese einen Speicherinterface von 384bit und 3Gb Vram hätte ? Obwohl sich die Balken dadurch nicht wesentlich verlängert hätten ? Tatsache ist doch, das die GTX680 2012 High-End war zusammen mit der HD7970 und GTX690. Oder was war denn noch schneller als diese Karten 2012 ?

Da geht deine Argumentation wegen Downsampling usw. ins Leere, weil es doch nicht schnelleres gab im Jahre 2012.

Und wie ich bereits geschrieben habe.

denn High-End lässt sich nicht mehr steigern. Nur durch ein neues High-End Produkt

Und das wäre die GTX Titan heute. Somit rutscht die GTX680 automatisch mit der HD7970 in das Performancesegment. Auch wenn der Preis das nicht so wiederspiegelt, ist es dennoch so. Da wurde halt die Latte höher gelegt.
 
Vielleicht ist ja die Titan der Prototyp der neuen 780 oder wie die dann auch immer heißen wird. Nvidia lässt jetzt die Karten auf den Markt um 1. wieder die schnellste Singlecore Grafikkarte zu haben (Ey wir haben den größten...) und um vielleicht die GK110 zu testen.
Keine Ahnung was die da zaubern wollen. Anscheinend wirds nix gutes :D
 
Whoozy schrieb:
Die Breite des Speicherinterface bringt dir nicht viel wenn langsamer Vram dranhängt. Das was wichtig ist, ist die Speicherbandbreite. Und hier gilt es einen vernünftigen Mittelweg zu finden um die Kosten des Chips so niedrig wie möglich zu halten. Aber wenn doch der Chip nicht mehr Bandbreite benötigt weil es einfach nichts bringen würde, warum sollte man dann (übertrieben ausgedrückt)einen 512bit Speicherinterface benutzen ? Das steht doch nicht im Verhältnis zu den Kosten.

Das mit den Kosten ist ja auch nachvollziehbar bzw. vernünftig. Aber wenn dem so ist, warum werden dann Karten wie jetzt die GTX Titan oder auch die AMD 7970 überhaupt noch mit einem 384bittigen Speicherinterface ausgestattet, wenn es performancetechnischt eh nichts bringt bzw. keinen Unterschied macht?! Reines Marketing?

Whoozy schrieb:
Wäre die GTX680 für dich jetzt plötzlich doch High-End, wenn diese einen Speicherinterface von 384bit und 3Gb Vram hätte ? Obwohl sich die Balken dadurch nicht wesentlich verlängert hätten ? Tatsache ist doch, das die GTX680 2012 High-End war zusammen mit der HD7970 und GTX690. Oder was war denn noch schneller als diese Karten 2012 ?

Highend wäre eine solche Karte in meinen Augen, wenn sie endlich in Auflösungen ab 2560x gescheite Frameraten, die mit Bildverbessern bei anspruchsvollen, aktuellen Titeln nicht am Limit der Spielbarkeit herumkrebsen und die zudem ein üppiges Speicherpolster bieten würde! (100te von FPS in Auflösungen bis max. 1920x nutzen mir überhauptnichts, wenn ich mit 2560x unterwegs bin und die FPS bei dieser Auflösung nach wie vor massiv wegbrechen, bis zur Unspielbarkeit aktueller, anspruchsvoller Titel <- aber das schrieb ich ja oben bereits!)

Ich gucke mir schon genau an was eine Graka MIR (sprich für MEINE Situation/Monitorausstattung/Nutzung) bietet!

Whoozy schrieb:
Da geht deine Argumentation wegen Downsampling usw. ins Leere, weil es doch nicht schnelleres gab im Jahre 2012.

Und wie ich bereits geschrieben habe.

Na ja, schneller nicht, aber mit einem deutlich üppigeren V-Ram Speicherpolster (die Sonder-Editionen der GTX 680 mit 4GB V-Ram aber das dann eben auch nur für einen nochmals saftigen Aufpreis, genau wie bereits in den 3-4 Generationen zuvor!)

Whoozy schrieb:
Und das wäre die GTX Titan heute. Somit rutscht die GTX680 automatisch mit der HD7970 in das Performancesegment. Auch wenn der Preis das nicht so wiederspiegelt, ist es dennoch so. Da wurde halt die Latte höher gelegt.

Das stimmt, aber sie bietet angesichts des ~ doppelten Preises einer GTX 680 im Hinblick auf die gerade mal 30-40% mehr Leistung keinen entsprechenden Gegenwert, sprich ist für die gebotene (Mehr-)Leistung in meinem Augen viel zu teuer! (auch wenn der überraschend günstige Stromverbrauch im Verhältnis zur Leistung, sowie die moderate Lüfterlautstärke sehr lobenswert sind!)
 
Die Titan braucht definitiv mehr Speicherbandbreite als die GTX680. Die Rohleistung von dem Chip ist ja wesentlich höher, genauso sieht es auch bei der HD7970 aus. Die Karte braucht anscheinend soviel Bandbreite, immerhin liefert die HD7970 GHZ Edition 4 Teraflops. Die Rohleistung der HD7970 ist schon als brachial zu bezeichnen.

Highend wäre eine solche Karte in meinen Augen, wenn sie endlich in Auflösungen ab 2560x gescheite Frameraten, die mit Bildverbessern bei anspruchsvollen, aktuellen Titeln nicht am Limit der Spielbarkeit herumkrebsen und die zudem ein üppiges Speicherpolster bieten würde! (100te von FPS in Auflösungen bis max. 1920x nutzen mir überhauptnichts, wenn ich mit 2560x unterwegs bin und die FPS bei dieser Auflösung nach wie vor massiv wegbrechen, bis zur Unspielbarkeit aktueller, anspruchsvoller Titel <- aber das schrieb ich ja oben bereits!)

Das ist doch dann dein persönliches Problem wenn du so empfindest. Dann bau dir doch selber eine Grafikkarte die das kann. Selbst ist der/die Mann/Frau ! Zeige Nvidia und AMD wie es richtig geht. Ändert aber nichts daran das 2012 nichts schnelleres gab.

Na ja, schneller nicht, aber mit einem deutlich üppigeren V-Ram Speicherpolster (die Sonder-Editionen der GTX 680 mit 4GB V-Ram aber das dann eben auch nur für einen nochmals saftigen Aufpreis, genau wie bereits in den 3-4 Generationen zuvor!)

Ja also gibt es doch und Vram gibt es nicht umsonst und wächst schon garnicht auf den Bäumen.

Das stimmt, aber sie bietet angesichts des ~ doppelten Preises einer GTX 680 im Hinblick auf die gerade mal 30-40% mehr Leistung keinen entsprechenden Gegenwert, sprich ist für die gebotene (Mehr-)Leistung in meinem Augen viel zu teuer! (auch wenn der überraschend günstige Stromverbrauch im Verhältnis zur Leistung, sowie die moderate Lüfterlautstärke sehr lobenswert sind!)
#

Ja deswegen ist sie auch High-End und für Enthusiasten gedacht. Wobei ich eher vermute das der so extrem hohe Preis durch die schlechte Aubeute kommt.
 
aylano schrieb:
Wow, eine abgespeckte Titan erst im 3. Quartal. Das bestätigt einmal mehr die Yield-Probleme von Titan.
Das musst du mal näher erläutern.
1 bis 2 Quartale später kommen die ersten 20nm-GPUs. Wer da eine abgespeckte Titan um 600-700 Euro kaufen sollte, wird kurz danach einen heftigen Preissturz erleben.
Ist das dein ernst? 20nm GPUs noch dieses Jahr oder Anfang nächstes? Und dann auch noch große Highendchips?
Das ist wohl mehr als unrealistisch.

Das Problem des 680 im 680 vs 7970-Kampf ist ja nicht die Leistung des 680er sondern das Preis-Leistungs-Verhältnis. Selbst mich überrascht es, dass Nvidia noch immer nicht diese Schieflage bei der Titan-Einführung zumindestens etwas gemildert hat.
Solange die Karten weg gehen gibts keinen Grund Preise zu senken. Der Marktanteil steigt bei Nvidia.

Pumpi schrieb:
Viel interessanter wären drei GTX 670 Chips @ 4GB auf einem PCB mit Wasserkühler....
Was soll daran interessant sein? Willste das in nem mini-ITX Gehäuse einbauen oder was spricht gegen 2 Karten?

Titan Lite kommt zu spät und wird mit 320bit SI dann wie die GTX 680 an der Bandbreite verhungern.
Na, zum einen kennt man noch gar nicht die Taktraten und zum anderen ist das Speicherinterface ja nicht so dramatisch kleiner.


Ich bin gespannt was Nvidia raus macht. Niedrig getaktet und mit nur 2,5 GB und preislich deutlich billiger. Oder recht hoch getaktet mit 5GB und immer noch sehr teuer.
 
Andregee schrieb:
Für Nvidia stellt das Preis/leistungsverhältnis kein Problem dar, denn würden die Absatzzahlen nicht dem betriebswirtschaftlichen Optimum entsprechen, hätte man längt eine Preisanpassung eingeleitet. Ich frage mich immer warum manche so tun, als wüßten sie die korekten Preise für bestimmte ARtikel, nur weil sie diese mit ihrem subjektiven Wertempfinden ermitteln. Es ist doch so einfach, der Markt bestimmt den Preis. Angebot und Nachfrage.
Von daher gibt es kein Problem der 680Gtx, nur weil sie dir zu teuer ist. Es scheint genügend weitere Abnehmer zu geben. Irgendwie sind hier viele Hobbymarktanalysten unterwegs, die meinen vieles besser zu wissen, als die gesamte Managerriege großer Unternehmen

Die Manager tragen lediglich die Verantwortung und treffen wichtige Entscheidungen. Der Manager an sich wäre aber ohne spezielle Marktanalytiker aufgeschmissen. Jedenfalls in so großen Unternehmen wie Nvidia.
Klar regelt der Markt den Preis, ganz getreu dem Regelsatz des Angebots und der Nachfrage. Allerdings weiß man als einfacher Verbraucher nicht, ob Produkte - allgemein gehalten - künstlich klein gehalten werden, damit man den Preis anheben und eine höhere Gewinnmarge erwirtschaften kann. Eine lineare Preissteigerung im Computerbereich, gerade bei "Enthusiasten-Produkten", gibt es nicht. Wäre das der Fall, würden sich viele Konsumenten freuen, Nvidia hingegen nicht. Und so können sie auch für ein bisschen Mehrleistung im Worst Case Szenario auch 138% mehr Geld bei der Titan verlangen als beim Rest. Guck dir Berlin an. Da warten auf einen Top-Manager wie Mehdorn ein Milliardengrab. Dieser Flughafen wird nicht einen Tag Gewinn erwirtschaften. Und am Ende zahlt der Steuerzahler die Defizite. Der Mehdorn ist mit 500.000€/Jahr noch sehr zurückhaltend. Ich glaube aber auch, dass dieser Job in seinem Alter eher so eine Art Zeitvertreib ist. Einen gesund denkenden Menschen hätten sie mit 500.000€/Jahr nicht locken können. Keiner hätte sich freiwillig ein Milliardengrab ans Bein gebunden, außer Mehdorn. Und in so einem Fall hilft am besten nur noch eins: Kompletter Abriss.

b2t:

Komisch. Kaum taucht ein neues Gerücht zu einer neuen Geforce Titan auf, gibt es unzählige Klicks und dutzende Beiträge.
Ganz ehrlich: Wenn nun ein Releasedatum im Zeitraum Juli/August spekuliert wird, kann ein potenzieller GTX Titan Kandidat auch für eine vollwertige Titan sparen und sich so im Augst die "bessere" Version kaufen. In vier Monaten, bei einem Preis von 952€, sind es gerade mal 238€ pro Monat. Es sei denn, er setzt auf WaKü, dann sinds natürlich noch mehr wegen dem Fullcover-Kühler.
 
Zuletzt bearbeitet:
Herdware schrieb:
Vom Namen her ist die GK110 schon ein Kepler-Refresh. Eine überarbeitete GK100. Dafür sprechen auch gegenüber den anderen Keplers neu hinzugekommene Features, wie der temperaturabhängige Boost 2.0 und natürlich der spätere Erscheinungstermin. (Genau kann man es nicht wissen, denn die GK100 hat nie jemand außerhalb von Nvidias und TSMCs Labors in den Fingern gehabt, wenn sie es denn überhaupt bis zum Silizium gebracht hat.)
Einerseits richtig, einerseits falsch.
Gx1x0 ist die Refresh-Karte, wo teils in der Architektur etwas verändert wird, (was aber eher unbedeutend ist).
Aber Boost 2.0 kann es bei der "GK100" bzw. Gx0x0 auch gegeben haben, aber nur nicht aktiviert.
Bobcat bekam mittels C-Stepping ja auch Turbo-Modus dazu, der eben zuerst noch nicht aktiviert war.
Die sogenannten Refresh-Karten (Gx1x0) sind ja wieder A-Stepping, was Architektur-Veränderungen bedeuten könnte.

Herdware schrieb:
Spätestens seit die GK110 in Teslas vermarktet wurde, gabs was schnelleres als die Performance-GPUs in den GTX680ern. Dass Nvidia die lange Zeit nicht im Consumer-Markt als GeForce und zu üblichen High-End-Preisen verkauft hat, ist ebenso eine "politische" Entscheidung, wie Preis und Benennung der GTX680.
Eigentlich beweist ja ein kleinerer Titan im 3. Quartal die Problematik von Nvidia, indem sie aufgrund den problemtischen Umständen mit Preis & Benennung "gewungen" wurden.

Eher hätte ich erwartet, dass Nvidia zwei Quartale nach Titan einen non-deaktivierten Titan präsentiert und nicht noch einen stärker verkrüppelten.

Ich verstehe nicht, wie viele Leute sich die Welt schönreden. Fermi konnte 1 Jahr nach der High-End-Konkurrenz (HD 5870) immerhin einen voll-aktivierten Die (GTX 580) präsentieren und 2. Quartale später einen voll-aktivierten Tesla, der <225W-TDP einhält. Beim GF100 war immer der 16. Block wegen eines Desgins-Fehlers (aufgrund absichtlich missachtetete TSMC-Desgin-Regeln) deaktiviert. Wenn man davon ausgeht, dass Nvidia diesesmal die Desgin-Regeln ernstgenommen hat und nicht den Fehler ein zweites Mal machte, dann erkennt man, in welche Probleme Nvidia bei Big-Dies momentan hat, wo Nvidia am Ende ein Voll-aktivierten immer noch nicht schaffen soll und stattdessen einen kleinen noch stärker deaktivierten Bruder schicken. Oder anders gesagt, zu der Zeit, wo der kleine Titan erwartet wird, hatte Nvidia bei Fermi schon vollaktivierte Dies <225W-TDP sowie GTX 580 um 450 Euro noch echte Kampfpreise.

Hätte AMD Sea-Island gebracht, so würde man die Problematik noch viel eher sehen.

Witzig ist noch, wie viele glauben, dass 20nm ja soooooo viel später kommen wird. Man sollte halt wissen, dass selbst die 14nm-Fertigung recht weit fortgeschritten ist und mit Partners schon jetzt in Fabriken entwickelt/ausgereift werden, sodass die Massen-Produktion Ende 2014 starkten kann. Also, zu einem Zeitpunkt, wo viele erst 20nm-GPUs erwarten und deshalb Titan dann doch nicht sooooooo schlimm aussieht.

Titan ist weder politisch oder wirtschaftlich ausgelegt, sondern entsprechend den ungünstigen Randbedigungen (28nm-Wafer-Engpass), sodass Nvidia von Performance bis Titan im Preis-Leistung weit hinterherläuft. Denn Nvidia kündigt ja selber fürs nächste Quartal einen Umsatz-Verlust von 100 Mio. $

PS: Aber mir kann es ja wurscht sein. Denn jene Leute, die letztes Jahr noch an einem Wunder GK100 zu tiefen Preisen glaubten, sind halt diejenigen, die dann ihre Aussagen ändern musste.
Nächstes Jahr werden wohl viele Lange Gesichter machen. Denn nächstes Jahr sieht es für Nvidia schlimmer aus als letztes oder dieses Jahr, was sich nächstes Jahr erheblich in den Finanzen auswirken kann/wird.
 
Herdware schrieb:
Das wurde von den selben Leuten lanciert, die schon bei der ersten Fermi behaupteten, das würde eine reine Profi-/GP-GPU-Karte werden. Das geht in die selbe Richtung wie diejenigen, die das Ende der dedizierten Grafikkarten oder auch gerne des PCs insgesamt immer wieder heraufbeschwören. Ich würde darauf nicht allzu viel geben.

Die GK110 ist nicht anders als alle anderen Big-Chips seit der G80.

Das Glaube ich eher nicht dass das nur ein Refresh ist, weil:

1. die beiden Chips wurden von nVidia nahezu parallel entwickelt,
2. Die Unterschiede in den Anforderungen von Grafikhardware für Consumer und Grafikhardware für Profis werden immer größer, und zwar nicht nur in der Leistung sondern gerade auch im Chipdesign.
3. Man sollte vielleicht auch nicht die Augen davor verschließen, welche Mühen nVidia in den letzten Jahren im Bereich Cuda auf sich genommen hat, in die Entwicklung der Sprache, mit welcher Manpower sie interessierte Firmen in diesem Bereich unterstützen und welche Fülle an technisch-wissenschaftlichen Beispielen die Firma sehr regelmäßig präsentiert.
3. Schließlich hat nVidia den GK110 ja auch tatsächlich und für mehrere Monate exklusiv auf Workstationkarten verbaut, soviel ich weiß ein Novum dass es bisher so noch nicht gab.

Und ich schätze dass nVidia auch nicht zuletzt wegen dem Fermi Desaster(im Consumerbereich) den Weg zweier unterschiedlicher Chipdesgins favorisiert, weshalb ich auch einigermaßen bezweifle, dass der GK110 jemals bis in die Mittelklasse runterregnen wird. Ich meine, ich will ja niemandem auf die Füße treten und Gamerkarten sind auch auf jeden Fall ein großes Segment, aber es gibt halt nicht nur Games, weshalb sich halt einfach auch und nicht alle Produktionsentscheidungen bei den Gamern orientieren können.

Ergo zahlt man als Gamer bei der Titan einfach für ne ganze Menge mit die man eigentlich nicht braucht.
 
Zuletzt bearbeitet:
Dass das P/L der Titan unterirdisch ist wurde schon oft genug diskutiert. Aber man muss ihr lassen dass sie ein sehr rundes Gesamtpaket aus Leistung/Verbrauch/Lautstärke/Verarbeitung liefert, auch wenn dies den Preis immer noch nicht rechtfertigt.
Eine kleine Titan könnte da für etwas mehr Geld als die 680 ein ziemlich gutes Paket werden. Der Preis muss dafür aber passen.
 
Whoozy schrieb:
Die Titan braucht definitiv mehr Speicherbandbreite als die GTX680. Die Rohleistung von dem Chip ist ja wesentlich höher, genauso sieht es auch bei der HD7970 aus. Die Karte braucht anscheinend soviel Bandbreite, immerhin liefert die HD7970 GHZ Edition 4 Teraflops. Die Rohleistung der HD7970 ist schon als brachial zu bezeichnen.

Wesentlich höher? Na ja, wenn man das von 30-40% mehr Leistung in Spielen behaupten möchte?! (ich nicht unbedingt!)


Whoozy schrieb:
Das ist doch dann dein persönliches Problem wenn du so empfindest. Dann bau dir doch selber eine Grafikkarte die das kann. Selbst ist der/die Mann/Frau ! Zeige Nvidia und AMD wie es richtig geht. Ändert aber nichts daran das 2012 nichts schnelleres gab.

Nicht nur meines: Wenn ich der Ansicht bin, dass eine Karte für mich keinen Nutzen bietet bzw. deren Leistung aus meiner Sicht in keinem Verhältnis zu ihrem Preis steht, dann kaufe ich sie ggf. nicht. Also kann Nvidia an mir kein Geld verdienen. Wenn viele andere das genauso sehen (und ich finde die Tatsache, dass man zu den "Highened-Grakas" von Nivdia seit Jahren immer weniger Rezensionen auf den einschlägigen Verkaufs-Plattformen finden kann, ziemlich aussagekräftig und bezeichnend) dann ist das irgendwann auch das Problem von Nvidia, wenn die nix mehr verkauft bekommen und somit auch nix mehr verdienen können. Die Wahrscheinlichkeit, dass Spieler AUCH deswegen auf Konsolen umsteigen, wird dadurch auch immer grösser.. (ggf. selbst solche, die früher nichts von Konsolen gehalten haben!)

Whoozy schrieb:
Ja also gibt es doch und Vram gibt es nicht umsonst und wächst schon garnicht auf den Bäumen.

#

Ja, früher gab es das "umsonst", denn wie ich bereits oben schrieb, bot die 8800GTX im Gegensatz zu ihren Nachfolgemodellen noch ein überaus üppiges V-Ram-Speicherpolster. (gemessen an den damals üblichen Speicherverhältnissen/bedürfnissen, versteht sich) Davon abgesehen kostet V-Ram heute ja kaum noch etwas....

Das ganze wird eh noch "lustig", wenn sich erstmal 4K-Monitore etablieren, wenn Highend-Grakas seit 7 Jahren noch nichtmal einen wirklichen Durchbruch in der Performance bei 2,5 K-Auflösung erreichen konnten!

Whoozy schrieb:
Ja deswegen ist sie auch High-End und für Enthusiasten gedacht. Wobei ich eher vermute das der so extrem hohe Preis durch die schlechte Aubeute kommt.

Genau das schrieb ich oben ja auch schon. Ich zitiere mich deshalb mal selbst:

Arno Nimus schrieb:
Es ist doch offensichtlich - schon aufgrund des horrenden Preises der Titan - dass Nvidia z.Z. nur in begrenzter Stückzahl diesen Chip liefern kann. Das hat also ohne jeden Zweifel produktionstechnische Gründe. Oder glaubt tatsächlich jemand, dass die diesen Preis "absichtlich" und vorsätzlich so hoch ansetzen, um möglichst wenig davon verkaufen zu können, weil es sich dabei ja bewusst um ein sogn. Enthusiastenprodukt handeln soll? Wohl kaum! (wenn sie mehr liefern könnten, würden sie das auch tun und dann wären auch die Preise deutlich "günstiger", wobei ja auch bereits die Performance-Karte GTX 680 einen saftigen Preis hatte und noch immer hat!)

Technisch ist z.Z. an Ausbeute wohl einfach noch nicht mehr drin. Dazu passt auch diese Meldung (Motto: "Ausschuss" verwerten/verkaufen, wobei die GK110, die auf der Titan werkeln ja - wenn ich es richtig verstanden habe - wiederum der "Ausschuss" von den Tesla-Karten sind, also jene GK110, die für die Tesla nicht gut genug sind) Und die Zeit drängt ja auch nicht, da es momentan ja kein wirklich und vollständig konkurrenzfähiges Produkt von AMD gibt...

Ändert aber nichts daran, dass mir als Konsument (wie auch den meisten anderen wohl) diese Graka für die gebotene Leistung viel zu teuer ist. Sollte der Preis in absehbarer Zeit mal auf 500-600 € runtergehen, überlege ich es mir. Solange wird aber Nvidia kein Geld von mir sehen! (ich bin nich so abhängig von oder süchtig nach Spielen, dass ich mich dazu gezwungen sehe, hier soviel Geld in ein entsprechendes Produkt zu investieren, zur Not bleibt das neue Tomb Raider hier eben noch eine Weile ungespielt liegen, bis eine gescheite Graka zu einem angemessenen Preis verfügbar ist mit der man es kompromisslos zocken kann, habe genügend andere ältere und neue Spiele, denen ich mich zwischenzeitlich widmen kann, falls ich Lust und Zeit zum Zocken habe!) ;-)

Wir drehen uns hier aber irgendwie in mehrfacher Hinsicht im Kreis (ich finds immer komisch, wenn "Nutzer"/Konsumenten anfangen allzu sehr aus Sicht der Industrie zu argumentieren und grosses "Verständnis" für deren Produkt- bzw. Preispolitik zeigen, so als würden sie diese vertreten) deshalb klinke ich mich an dieser Stelle mal aus der Diskussion aus... ;-)
 
aylano schrieb:
Eigentlich beweist ja ein kleinerer Titan im 3. Quartal die Problematik von Nvidia, indem sie aufgrund den problemtischen Umständen mit Preis & Benennung "gewungen" wurden.

Eher hätte ich erwartet, dass Nvidia zwei Quartale nach Titan einen non-deaktivierten Titan präsentiert und nicht noch einen stärker verkrüppelten.

daran siehst du ja schon dass deine Denke diesbezüglich nicht aufgeht. Wenn es so wäre wie du hier darlegst, dann hätte NV wohl viel eher jetzt einen massiv teildeaktivierten GK110 als "Rettungspaket" gebraucht (oder schon früher).

Nicht zu 1000€ (wenn du die P/L als so massiv wichtig darstellst), sondern als neues Flaggschiff gegen die HD7970 und somit preislich etwas darüber.

Es wäre also genau umgekehrt gelaufen. Erst 2 deaktivierte Blöcke, später einer und dann Vollausbau (genau wie damals GTX480 zu GTX580)...

Das wäre locker drin, denn die Karte (2 deaktivierte Cluster) bräuchte nicht wirklich mehr Saft als die Konkurrenz, auch hätten dann 3 GB Ram locker gereicht und auch mit 2 oder 3 deaktivierten Blöcken wäre man locker vor der HD7970 Ghz. Zumal man Takttechnisch / Verbrauchstechnisch auch noch deutlich Spielraum hat (20% +).

Nichts spricht dafür, dass Nvidia TITAN als Konter bringen musste. Ich bleibe dabei, dass diese "Mutmaßung" nicht fundiert ist und marktwirtschaftlich keinen Sinn ergibt, genau wie die P/L Diskussion HD7970 vs GTX 680. Bensen hat das ja schon erläutert.

Unter Bedrängnis, so wie du das gerne darstellst, bringt man keine 1000€ Karte mit mehr als üppigen 6 GB Ram die leiser und effizienter ist als die Konkurrenz und dabei mal eben auch noch aus dem Namenskonzept fällt ...

Mal abgesehen davon sehe ich von dir noch kein logisches Argument dafür, dass Nvidia die TITAN als Notnagel bringen musste, oder dass Nvidia wegen der vermeidlich besseren P/L der HD7970 in Bedrängnis ist.
 
Zuletzt bearbeitet:
Arno Nimus schrieb:
Ändert aber nichts daran, dass mir als Konsument (wie auch den meisten anderen wohl) diese Graka für die gebotene Leistung viel zu teuer ist. Sollte der Preis in absehbarer Zeit mal auf 500-600 € runtergehen, überlege ich es mir.

Ganz genau so sieht aus, dann stünde der Preis in einer vernünftigen Relation zur Leistung.
 
@Vidy_Z
Man kann als Außenstehender natürlich nur spekulieren, aber ich halte es für am wahrscheinlichsten, dass Nvidia zuerst die GK100 entwickelt hat. Aus irgendwelchen Gründen entschloss man sich Ende 2011 (dem ursprünglich angekündigten Termin für Kepler) relativ kurzfristig, doch keine High-End-Karte mit GK100 raus zu bringen, sondern beförderte die (wie üblich etwas später erschienene) Performance-Karte kurzerhand zum High-End.

Wahrscheinlich war die GK100 einfach nicht besonders gut gelungen. Sicher sehr leistungsfähig, aber wahrscheinlich mit ähnlichen Effizienz-Problemen wie die ersten Fermi. Hinzu kam, dass Nvidia erkannte, dass man AMDs Tahiti auch mit dem kleineren und unproblematischeren Performance-Chip gut kontern konnte.
Es gab zu diesem Zeitpunkt von Nvidia die Aussage, dass sie überrascht waren, über die niedrige Leitung der Tahitis. Dass sie mehr erwartet hätten. Das wirkt arrogant, aber tatsächlich war das wohl eher ein Ausdruck tiefer Erleichterung, denn einem wie erwartet starkem Tahiti hätte Nvidia zu diesem Zeitpunkt wohl nichts wirklich Überzeugendes entgegen stellen können.

Ich denke, Nvidia hatte da einfach Glück im Unglück. Es blieb ihnen erspart, die durchwachsene GK100-Karte zu vermarkten.

Ich gehe jede Wette ein, hätte 2010 die kleine und effiziente GTX460 ausgereicht, um die HD5870 zu kontern, die monströse GTX480 hätte es in dieser Form niemals gegeben. Nvidia muss gewusst haben was für negaitve Reaktionen die "Thermi" hervorrufen würde. Das hätten sie sicher gerne vermieden.
Die GF100 wäre eingestampft worden und es wäre erst später die GTX580 mit dem Refresh GF110 vermarktet worden. Fermi wie es von Anfang an hätte sein sollen.

Ganz ähnlich muss es bei der 600er-Generation passiert sein.

Ich glaube auch nicht, dass die GK110 eine Parallelentwicklung zur GK100 speziell für Profis war. Nvidia hat das meines Wissens auch nie so behauptet, sondern immer wieder klargestellt, dass die GK110 eine voll spieltaugliche Grafikkarten-GPU ist (und die Titan beweist das ja auch).
Klar hat sie ordentliche GP-GPU-Muskeln, aber das hatte jeder Big-Chip, angefangen von der G80. Von Generation zu Generation wurden sie weiter dahingehend optimiert, ohne dabei an Spieleeignung zu verlieren.

Und nicht zuletzt gibt es da ja auch noch den Namen der GK110. Wie gesagt ist die 1 in der Mitte der Indikator für einen Refresh. Eine spezielle Profi- oder Teslar-GPU hätte wohl irgendwie anders geheißen. Vielleicht etwas in der Richtung GK200.

Und doch noch mal etwas zu High-End und Enthusiasten-Markt.

High-End mag im wörtlichen Sinne die unsteigerbare Spitze der Fahnenstange sein. Aber das hat die Marketingheinis noch nie abgehalten. Waschmittel waschen auch weißer als weiß. ;)

Es gibt definitiv ein Marktsegment über High-End. Ein Segment für absolute Luxusprodukte, deren Preisgestaltung losgelöst ist, von schnöden rationellen Überlegungen wie Preis/Leistung oder Herstellungskosten. Produkte für Enthusiasten, die bereit sind ein Vielfaches von normalen High-End-Kunden auszugeben, für ein kleines spezielles Etwas. Diese Luxusprodukte kosten traditionell um die 1000 Dollar pro Stück. Ein symbolischer, total abgehobener Preis, einfach weil sie es können.
Ein Musterbeispiel für ein reinrassiges Enthusiasten-Produkt ist Intels Extreme Edition. Oder halt die GTX690 oder auch die diversen HD7990. Und auch die Titan versucht Nvidia jetzt als Enthusiasten-Produkt zu vermarkten und genau das geht mir gegen den Strich, denn in den letzten Generationen bekam man diese Big-Chip-Karten noch zu normalen High-End-Preisen.
 
Ich bin eher davon überzeugt das Nvidia den GK100 2012 überhaupt nicht hätte produzieren lassen können. Unwirtschaftlich und selbst bei einem hohen Verkaufspreis änlich der Titan kaum Gewinn oder garkeiner? Natürlich war Nvidia erleichtert das GCN von AMD nicht so extrem schnell war/ist wie zuerst vermutet. Eben grade weil man nichts zu bieten hätte. Wäre GK100 zu einem Verkaufspreis von 800$ o.ä Gewinnbringen produziebar gewesen, hätte Nvidia mit sicherheit den Chip gebracht. Immerhin ist das kein Unterschied zur heutigen Preis und Leistungsgestaltung bei der Titan und GTX680. Gekauft werden beide wie blöd und überteuert sind beide.
 
Abgespeckte Geforce Titan ? Dann liegt der Verkaufspreis bei marginalen 850 Euro statt 1.000 ? Für mich ist das Teil sowas von überbewertet ... in diversen Tests hat die 690 die Titan im Schatten stehen lassen und für die Grafiken wo die Titan die 690 abgehängt hat ist das den Mehrwert NICHT wert. Aber es gibt Leute die versenken nunmal ihr Geld gerne in sowas, gibt ja auch Leute die Blattgold auf dem Eis brauchen, Kaviar futtern weil er teuer ist und deren Steak vorher gute Musik gehört hat und Massagen bekommen hat. Wohl bekomms !
 
Jack.Daimond schrieb:
was für eine lustige Diskussion um ein GERÜCHT ! :streiten:

ja, genau mein gedanke. ;)

was GK100 und betrifft. vielleicht hat NV einfach nur bemerkt, das der GK104 bereits der GK100 überlegen ist und deswegen die GK100 gestrichen. anschließend die Entwicklung des GK110 forciert.
 
Zuletzt bearbeitet:
Herdware schrieb:
@Vidy_Z
Man kann als Außenstehender natürlich nur spekulieren, aber ich halte es für am wahrscheinlichsten, dass Nvidia ...

/sign, so seh ich das auch.

Es war recht bald nach Tahiti schon vor GTX 680 Release in der Gerüchteküche verbreitet dass man GK100 gestrichen hat und fortan war nur noch von GK110 die Rede.

@Whoozy

naja, selbst die Tahiti Chips mit 360mm² sind alles andere als klein und die hat AMD ja auch nicht "teil-deaktiviert" liefern müssen oder sich über extrem schlechte Yield beklagt.
Aber das sind Fragen die sich wohl nie beantworten lassen werden ;)
 
Zuletzt bearbeitet:
Zurück
Oben