News Nvidia stellt GeForce GTX Titan (GK110) vor

Seh ich das richtig? Laut Nvidia sollt ihr (CB) die Grafikkarte in einem Kühlschrank betreiben und sie hinterher in die Leiszungsgrafiken mit GPUs einordnen die im Wohnzimmer/whereever stehen dürfen?

Gute Idee, ich bin für eine "Arctic-Testkurve" Dann nehmt ihr nochmal ein paar Samples eurer HD7970s und OCt sie auf 1.3-1.5GHZ um sie angemessen mit der Titan zu vergleichen, denn diese Takte sind "ein paar Minuten" machbar.

Plot: Irrsinn.
 
boah, soviele Spezialisten auf einmal - ich danke euch für die geistigen Ergüsse!
 
das_mav schrieb:
Seh ich das richtig? Laut Nvidia sollt ihr (CB) die Grafikkarte in einem Kühlschrank betreiben und sie hinterher in die Leiszungsgrafiken mit GPUs einordnen die im Wohnzimmer/whereever stehen dürfen?

Nö. Nvidia hat nur korrekterweise darauf hingewiesen, dass man die Tests der Titan in einer klimatisierten Umgebung machen sollte, damit es konsistente Ergebnisse gibt.

Klimatisiert heißt selbstverständlich nicht Minusgrade oder sowas, sondern speziell was seriöse Tests angeht normalerweise Raumtemperatur (also 20°). Normalerweise ist es auch sowieso üblich, dass Testräume klimatisiert sind. (Jedenfalls wenn darin etwas gemessen wird, was von der Temperatur beeinflusst werden kann.)
Aber letztlich ist es sogar egal, bei welcher Temperatur die Titan getestet wird, sie muss nur konstant sein und natürlich sinnvollerweise bei den Ergebnissen dabei stehen (zumindest wenn sie von der Raumtemperatur nenneswert abweicht).
 
Zuletzt bearbeitet:
Also die GPU-Temperatur selbst scheint schon ein Problem zu sein:

Galaxy deaktivert GPU-Boost 2.0

@Herdware

Aber letztlich ist es sogar egal, bei welcher Temperatur die Titan getestet wird, sie muss nur konstant sein und natürlich sinnvollerweise bei den Ergebnissen dabei stehen (zumindest wenn sie von der Raumtemperatur nenneswert abweicht).

Ja, wir brauchen dafür also Wintertests mit 20°C Raumtemperatur und Sommertests mit mindestens 30°C.

Denn Klimaanlagen sind in unseren Breiten die Ausnahme. ;)
 
Zuletzt bearbeitet:
Ich sehe da nicht unbedingt ein Problem. Galaxy hat eine Entscheidung für eine bestimmte Einstellung getroffen. Mehr nicht.

Man hat bei der Titan (auch als Anwender) sowieso völlig freie Hand, wie man das Takt- und Lüfterverhalten haben will. Temperaturgesteuert, oder aufgrund eines Verbrauchswertes, oder per Offset fest übertaktet, was passieren soll, wenn eine bestimmte Temperatur und/oder ein Verbrauchswert erreicht wird (Lüfter rauf oder Takt und Spannung runter?) usw. und das alles in beliebiger Kombination.

Ich glaube, es gab bisher keine Grafikkarte, bei der man da so flexibel war. Ist natürlich hinsichtlich Vergleichstest nicht ganz unproblematisch, weil sich jede Titan anders verhalten kann. Schon ab Werk, je nach dem, wie der jeweilige Hersteller sie voreingestellt hat.
 
Liegt vermutlich daran, dass die Temperaturschwelle default auf 80 °C eingestellt ist und der Lüfter recht langsam dreht. (ist ja sehr leise die Karte für die Abwärme)

Deaktivieren aufgrund dieses Zusammenwirkens und eventuell den Einstellungen des Nvidia default Bios kann die Karte ab 80°C praktisch throtteln, da macht es Sinn den Takt zu fixieren. Aber 80°C ist ja auch keine Temperatur und auch der Lüfter hat genug Potential nach oben, zeigen ja erste OC Versuche mit 1100 mhz +.

Vielleicht sollte Galaxy eher den Temperatur Schwellwert und die Lüfterkurve etwas hochsetzen.
 
Liegt vermutlich daran, dass die Temperaturschwelle default auf 80 °C eingestellt ist und der Lüfter recht langsam dreht. (ist ja sehr leise die Karte für die Abwärme)

Offenbar hält nVidia Temps >80°C für den Dauerbetrieb für ungeeignet. Sonst hätten sie es anders implementiert.

Galaxy und andere werden da wohl auf eigenes Risiko arbeiten.

Edit:

Und so macht die nVidia Testvorgabe (kalte Karte und 30 Sekunden Benches) immer mehr Sinn. :)
 
Zuletzt bearbeitet:
naja Nvidia Folien sprechen ja offiziell von bis 105 °C und die Chips vertragen in Notebooks und passiv GPUs seit Jahren über 80°C.

Die frage ist auch wie getestet wird. Ich denke nicht, dass die Karte im normalen Gaming Betrieb, außer vielleicht in praktisch lüfterlosen Gehäusen" wirklich so heiß läuft, dass diese unter den Referenztakt throttelt. Furmark und im Dauerloop Benchmarking mag das anders aussehen.
 
Pilstrinker schrieb:
Offenbar hält nVidia Temps >80°C für den Dauerbetrieb für ungeeignet. Sonst hätten sie es anders implementiert.

80° ist nur eine von beliebig vielen möglichen Voreinstellungen, die vom Kartenhersteller gewählt und ohne weiteres vom Anwender nachträglich verändert werden können. Die Titan erlaubt es, mit der Temperaturschwelle im Dauerbetrieb bis auf 95° hoch zu gehen oder sie auch ganz auszublenden und, wie früher auch, für die Boost-Funktion nur eine TDP-Schwelle (Power-Target) zu beachten oder wenn man will nicht mal das.
Kritisch wird es sowieso erst ab 105° und dann greifen die üblichen Sicherheitsmechnismen. Wie bei allen anderen Karten auch.

Es ist immer ein Gleichgewicht zwischen Temperatur/Verbrauch, Takt/Spannung/Leistung und Lüfterdrehzahl/Lautstärke. Wie man in diesem Dreieck seine Prioritäten setzt, ist bei der Titan erfreulicherweise dem Anwender in sehr weiten Grenzen selbst überlassen. Das ist schon deshalb richtig und wichtig, weil der Anwender ja viel besser als Nvidia oder auch der Kartenhersteller weiß, unter welchen Bedinungen die Titan bei ihm läuft (z.B. Gehäusebelüftung oder gar Wasserkühlung) und was für Ansprüche er an sie stellt.

Es wäre höchst bedauerlich, wenn so ein teures Nobelgerät wie die Titan aufrund von konservativ gewählten Zwangseinstellungen ausgebremst würde. Und GPU- und Kartenhersteller neigen nunmal zwangsweise zu sehr konservativen Voreinstellungen, weil die ja immer vom Worst-Case (z.B. unbelüftetes Minigehäuse) ausgehen müssen.

Es hört sich fast so an, als würde einige Nvidia diese neue Offenheit vorwerfen.

Ich finde, das ist eine wesentliche Verbesserung gegenüber dem zuletzt extrem restriktiven Verhalten, wo dem Anwender und sogar dem Kartenhersteller verboten war, z.B. an der GPU-Spannung etwas zu ändern.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
naja Nvidia Folien sprechen ja offiziell von bis 105 °C und die Chips vertragen in Notebooks und passiv GPUs seit Jahren über 80°C.

95 Grad ist die maximale Temperatur die Nvidia vorgibt, nicht 105. 80 Grad ist jedoch als Temperaturschwelle definiert für den Turbo, die kann man jedoch selber verschieben. Die 80 Grad hat man echt sehr konservativ gewählt, so verbraucht die Karte halt "wenig" und ist dabei sehr leise. Man wird fast gezwungen den regle hochzuziehen, evtl. nicht auf max, aber in jedem fall um einige Grad, sodass am Ende die Mischung aus Mehrperformance und Lautstärke stimmt (auf Leistungsaufnahme schaun die Käufer dieser Karte imo eh nicht)
 
naja Nvidia Folien sprechen ja offiziell von bis 105 °C und die Chips vertragen in Notebooks und passiv GPUs seit Jahren über 80°C.

Man weiss nicht, zu welchen Temperatursprüngen der GK110 fähig ist.

Möglich, dass nVidia da eine großzügige Sicherheitsmarge einkalkuliert.
 
@ Volker

merci... okay, wusste dass die Karte hart ab 105 °C throttelt, aber nicht dass Nvidia "nur" bis 95 °C Regelung zulässt.

Auf Wasser hat das Teil eh keine 50°C.
 
Zuletzt bearbeitet:
Ich sage es mal so, normalerweiße sollte man alle Karten bei gleichen Raumtemperaturen getestet werden.

Sonst kann man gleich eine GTX 680 bei 24°C im Frühjahr testen, und im Sommer kommt die HD7970 Ghz-Edition bei 28°C Raumtemperatur nach. Da könnte man keine Schlüsse daraus ziehen.
 
@ Jolly91
Bei bisherigen Grafikkarten war das eigentlich nicht so ein großes Problem. Man musste bei den GPU-Temperaturen halt nur immer die jeweiligen Abweichungen der Umgebungstemperatur wieder abziehen oder draufrechnen. Ist ja eine streng lineare Sache.
Es sollte nur nicht zum Extremfall kommen, dass eine Grafikkarte wegen zu hoher Umgebungstemperatur anfängt zu throtteln.

Eine HD7970GE leistet bei 28° Umgebungstemperatur normalerweise genauso viel wie bei 18°.

Bei der Titan ist die Sache anders, denn die kann als erste Grafikkarte in Abhängigkeit von der Temperatur auch im normalen Betrieb dynamisch hoch oder runter takten. Die Umgebungstemperatur (und andere Faktoren wie z.B. die Gehäuselüftung oder eine Wasserkühlung) hat damit also direkte Auswirkungen auf die FPS-Leistung der Grafikkarte und das kann man nicht mal so eben nach einem Blick aufs Thermometer wieder rausrechnen.
 
Krautmaster schrieb:
naja als ob das bei TITAN Sinn ergeben würde.

Über die YIELD der GK110 war auch vor 6 Monaten nichts bekannt.

Ob da jetzt die 500mm² + noch so wahnsinnig viel daraufsetzen sei dahingestellt. Es ergibt aber keinen Sinn den GK110 wegen YIELD totzureden wenn AMD gleichzeitig 365mm² Chips in Masse günstig produzieren kann.
Für dich gibt es keinen Sinn, weil du es einfach nicht verstehst.
Ich weiß, dass solche Aussagen für dich Beleidigend sind, weil du ja glaubst soooo obergscheit zu sein.

Nur muss man alles immer im Zusammenhang mit verfügbaren Stückzahlen & Einführungstermin & Gewinne (Profi-GPU und/oder Consumer-GPU) sowie der GPU-Entwicklungen der letzten Jahre sehen. Und genau da liegt dein Fehler, weil du ständig immer eines dieser Parameter nicht sehen kannst oder nie vernünftig recherchiert hast, führt es ständig zu deinen Falschaussagen. Und es wird nicht richtiger, wenn du seitenweise herumlaberst, anstatt einmal gscheit die Zusammenhänge siehst.

Es konnte vor 1,5 Jahren ja auch keiner Sehen, dass GK110 vielleicht nur Ende 4Q 2013 im Comsumer-Markt eintreten wird und deshalb wurde ich ja auch ständig von möchtegern-Leuten als AMD Fanyboy. Nachdem sich jetzt GK110-Consumer 1 Jahr später erschienen ist, diese dise Leute wenigsten Ruhiger geworden, aber jetzt kommen die nächsten obergscheiten wie du, die erst das Maul aufreißen, wenn das Produkt ankommt, und dann sie mir erzählen, warum sich Titan soooooo verspätete und soooooooooo sinnig Teurer wurde.

Wenn du über die YIELD argumentierst muss man auch sehen dass die Tahiti Chips mit 365mm² schon ne ganze Ecke größer sind als die 290mm² von GK104.
a) ist nicht gleich automatisch fakt, dass die Yield gleich gut ist. GF100 hatte damals ein Design-Fehler und es musste bei jedem das eine abgeschaltet werden. Yield bedeutet nicht nur defekt, sondern auch max-Taktraten oder max-Stromverbrauch.

b) klar könnte könnte sie besser sein, aber AMD war nunmal erster und konnte sich so mal über 1 Quartal besser verkaufen.

c) Thaiti ist schneller als GK104 und kann auch teurer verkauft werden.

d) Thaiti wird in 2 Märkten (Consumer & HPC-FirePro) eingesetzt und daher hat dieser auch einige Mio. R&D-Kosten sparen, welche du in deinen mm²-Rechnung wieder mal übersiehst.

e) hätte GCN @ Games gleich das volle Potential gehabt und wäre GCN schon 1Q 2012 / 4Q 2011 (siehe K20 vs Titan), dann wäre es eben sichtbar geworden. Aber so ist nunmal die evolutionäre Entwicklung. Beim Wechsel auf 20nm wird Nvidia es dann nicht mehr so einfach haben.

f) würden die Nvidia Kunden, wie du so schön sagtest, nicht ständig Performance-Schwächere Nvidia-Produkte kaufen, dann wäre es noch weiter deutlich sichtbarer.

Bis keine Quellen dazu belegt sind hat der Preis von ~900€ hat jedenfalls nichts mit den Kosten des GK110 zu tun. Wenn Nvidia müsste, dann würde man wie die GTX 480 seiner zeit den großen Chip für 500€ auf Karten verkaufen, und noch immer Gewinne mitnehmen.
Das ist das Problem.
Da wäre jetzt logisches Denken gefragt und wenn du sowas wieder mal nicht verstehst sowie ich logischerweise keine Quellen bringen kann, erklärst du es für nichtig und drückst/zwingst allen deinen "Meinung" auf.

K20 ist wird seit 3Q 2012 geliefert, sodass Anfang 4Q 2012 der Supercomputer Titan sich als schnellser Super-Computer präsentieren konnte. Du musst nur das 4Q 2012 @ Geschäftsbericht sehen, dass K20-Kepler nicht nur keinen Aufschwung brachte, sondern der Tesla-Markt ging zurück und trotzdem soll es nach weiteren Monaten nur 10.000 Kepler geben. Und das für einen völlig überraschenden Mega-Preis.

Leiten sich die Preise diverser Jaguar / Porsche Modelle auch über "Kosten & Performance " ab? Oder Rolex Uhren?
Selbst diese Produkte haben nicht diesen Preisverfall einer Grafikkarten. Und eines Titan erst recht nicht.

Der Preis ist da angesetzt wo man dem eigenen Portfolio keine Konkurrenz macht und ein gewisses "Hype-Produkt" auch zu hohen Preisen noch verkaufen kann (siehe Apple Politik). Und bei TITAN geht es eher darum Aufmerksamkeit zu erregen als wirklich hohe Gewinne zu schöpfen.
500mm²-Dies war immer noch eine Massen-High-End-Produkt, welches später mit 300-400 Mio. $ in Massen gekauft wurde. Mit der Single-GPU-Krone war sie ebenfalls Konkurrenz los, dann sonst hätten sie ja nicht die Single-GPU-Krone.

Weil du es ja nicht verstehst. Bei GTX 280 glaubte man damals auch eine 50-70% schnellere Performance und trotzdem gabs die dann um 550 Euro und nicht um 600-700 Euro oder gar 800-900 Euro.
Vom HD 4870 war Nvidia völlig überrascht, was durch die massive Preissenkung gezeigt wurde.
Vor der HD 4870 dachten Nvidia-Fanboys nie im Leben, dass sich AMDs-GPUs so erholen werden, dass sie einmal wieder die Single-GPU-Krone zurückerobern können.
Nichteinmal Nvidia-CEO nahm AMD-GPUs damals ernst und legte sich schon mit Intel an.
Nur muss man das halt wissen. Denn damals hätten sie die GT200 genauso als 1000 Euro Luxus-GPU verkaufen können, was sie eben nicht taten und sie konnten diese Massig liefern.

Herdware schrieb:
Die Yield-Diskussion war eigentlich schon Ende letzten Jahres vorbei, als Nvidia sich offiziell dazu äußerte:
"Interestingly NVIDIA tells us that their yields are terrific..."
Das selbe sagten sie auch zum Fermi und zeigten dann gleich den Fermi-Dummy. Nur sollte man auch wissen, dass damals Nvidia selbst Gerüchte Streute um Fermi zu Hypen.

Geringe Ausbeute, generell hohe Fertigungs- und Entwicklungskosten usw. könnten natürlich den Preis hochtreiben. Aber ich bleibe dabei:
Nvidia verkauft die Titan so teuer, einfach weil sie es können.
Der Preis ist eine Funktion aus Stückzahlen & Leistung.
Sicher gibts auch paar Fans, die sich das um 2000 Euro kaufen. (siehe Triple SLI)
Nur wirken sich diese Mega-Margen, (falls überhaupt) dann kaum in Nvidias Gewinn aus, weil eben die Stückzahlen beschränkt sind

Normalerweise bestimmen die Stückzahlen & Leistung den Preis, aber diesesmal sieht es halt auch, dass die Stückzahlen & Leistung den Preis bestimmen.

Nicht mehr und nicht weniger. Es ist wie gesagt eine politische Entscheidung, kein wirtschaftlicher Zwang.
Geplante Produkte zu verschieben oder absichtlich zu teuer zu machen, zeigt die wirtschaftliche Problematik. Sie können nicht wie früher den Big-Die zu 550 Euro üblichen Preisen einführen, weil sie die Stückzahlen nicht dazu haben.

Du musst halt verstehen, dass die meisten, die jetzt den Preis von Titan verteidigen, vor einem Jahr noch HD 7970 als Überteuer bewerteten, obwohl dieser die Performance-Krone hatte und mit der Performance-Pro-Watt überlegen war.

Die Titan steht weder ansatzweise in Konkurrenz mit irgeneiner anderen von Nvidias Single-GPU-Karte, noch mit irgendeiner von AMD. Es gibt nichts, woran man sich preislich orientieren müsste. Von der Leistung her am ähnlichsten ist noch die GTX690, aber die fällt als Dual-GPU-Karte in eine andere Sparte und hat ihrerseits schon einen reinen Luxuspreis, der sich aus ihrer Konkurrenzlosigkeit ergibt. (Es gibt zwar einzelne inoffizielle HD7990, aber eher zu noch abgefahreneren Preisen.) Deshalb löst die Titan die GTX690 auch nicht ab, sondern läuft parallel.
7990 ist mit fast 700mm² und Mega-Verbrauch ja eher auch ein Luxus-Produkt, aber mit den großen Unterschied dass dieser keine vielen Mio. $ R&D-Gelder kosteten. Da konnte es sich AMD leisten, sie einfach an die Preis-Spitze zu stellen und nur wenige Stücke zu verkaufen.

Das Problem ist, seit GT200 --> GF100 --> GK110 wird es immer schwieriger.

PS: Weil Titan bzw. Nvidia soooooo überlegen ist, kann es sich ja AMD leisten strategisch ihre HD 8000 zu verschieben.

Es ist ganz ähnlich wie die Extreme Edition von Intel. Die haben seit je her einen symbolischen Festpreis von 1000 Dollar, der nichts mit den Herstellungskosten zu tun hat und auch nicht in Relation mit der (Mehr-)Leistung der CPU steht.
Falsch.
Extreme Edition wird auch zu geringen Preise verkauft. Eben weil sie es in Masse herstellen können.
GTX Titan wird ja mit 1000 Euro ja die billigste GK100-Variante.

Und die K20-Flut bzw. GK110-Gamer-Flut ist im 4Q sowie im 1Q 2013 nicht gekommen.

Es gibt also eigentlich nichts an der GK110/Titan, das ihren hohen Preis rechtfertigt. Unter anderen Umständen hätte Nvidia sie zum selben Preis verkauft, wie die GTX580 und 480 und 280 usw. und immer noch guten Gewinn gemacht.
Welche andere Umstände? In deinen Träumen?

PS:
Das Yield-Problem wird sich übrigends übrigens nicht direkt auf die Stückzahlen aus.
Sondern indirekt.
Denn Nvidia wird wohl die massen-28nm-Wafer für Tegra 4(i) brauchen. Und wenn man schlechte Yields hat und kaum 28nm-Wafer, dann muss man halt den GK100 praktisch vorm Gamer-Markt mit Mega-Preisen verstecken und nur seine treusten Kunden füttern.

Deshalb wird der 20nm-Wechsel noch viel interessanter, den ich schon betonte, weil Nvidia mit Game-Markt & Tesla-HPC-Markt & Tegra 4-Markt dann 3 Märkte hat, wo sie eigentlich gleichzeitig mit 3 verschiedenen Dies (GM104 für Gamer, GM100 für Tesla & Tegra 4) umstellen müssen. Denn während AMD wahrscheinlich mit einem Thaiti-Nachfolger gleichzeitig den Gamer & HPC-Markt bediehnt, werden die Konkurrenten (Qualcomm & Co) ihre 20nm-Wafer für Tablet & Smartphones verwenden.
 
Frage ich mich auch gerade: als Erscheinungstermin wurde der 21. Februar genannt - wieso ist die aber noch nicht bei einschlägigen Händlern (alternate, hardwareversand, ja nicht mal amazon) gelistet? Ist schon sehr werkwürdig...
Ich will ja keineswegs behaupten, dass jeder Gamer die finanziellen Mittel hat, sich diese Karte zu leisten - dennoch besteht definitiv eine gewisse Nachfrage...
 
aylano schrieb:
Das selbe sagten sie auch zum Fermi und zeigten dann gleich den Fermi-Dummy. Nur sollte man auch wissen, dass damals Nvidia selbst Gerüchte Streute um Fermi zu Hypen.

Nvidia gehört neben TSMC zu den einzigen, die wissen wie gut oder schlecht die Ausbeute der GK110 wirklich ist. (Und TSMC wird bzw. darf dazu nichts sagen.) Solange mir keiner dem widersprechende Beweise vorlegen kann, glaube ich deshalb erstmal Nvidias offizieller Aussage dazu.

Der Preis ist eine Funktion aus Stückzahlen & Leistung.

Der Preis ergibt sich aus sehr vielen verschiedenen Faktoren.

Wie erklärst du dir z.B., dass ein 3970X so viel mehr kostet als ein 3930K?

Erzähl mir nicht, dass es zu wenige SB-E-Chips gibt, die für die paar MHz mehr Takt taugen oder deren L2-Cache nicht teildeffekt ist. Der EE-Preis ist komplett politisch motiviert. Die EE sind so teuer, weil sie es als zu ihrer Zeit schnellste für Geld zu kaufene CPUs sein können.
Das selbe gilt für die Titan.

Du musst halt verstehen, dass die meisten, die jetzt den Preis von Titan verteidigen, vor einem Jahr noch HD 7970 als Überteuer bewerteten, obwohl dieser die Performance-Krone hatte und mit der Performance-Pro-Watt überlegen war.

Ich sehe mich selbst nicht als ausgesprochener Nvidia-Fan.
Meine letzten 3 Grafikakrten waren zwar von Nvidia, aber davor hatte ich auch 3 von ATI, dann wieder 2 von Nvidia, dann eine von Diamond/3Dfx, eine von Matrox, eine von Spea, eine von Cyrix und davor eine, von der ich nicht mal die Marke weiß, davor 3 "GPUs"von Commodore/MOS. ;)

Ich will den Preis der Titan auch gar nicht verteidigen. Er ist definitiv viel zu hoch., Eigentlich sollte die Karte so viel wie eine GTX580 oder höchstens wie eine GTX280 kosten (deren GPU sogar noch monströser war, als die GK110). Oder eben so viel, wie die GTX680, die ihren rechtmäßigen Platz als normales High-End-Modell blockiert.

Das Problem ist, seit GT200 --> GF100 --> GK110 wird es immer schwieriger.

Das ist doch nur ein Hypothese von dir. Ich glaube (ohne Beweise dafür) nicht, dass du wirklich tiefere Einblicke in die GPU-Entwicklung bei Nvidia und Fertigungstechniken bei TSMC hast, als jeder andere Außenstehende.

Falsch.
Extreme Edition wird auch zu geringen Preise verkauft. Eben weil sie es in Masse herstellen können.

Welche Extreme Edition hat jemals wesentlich unter 999Dollar gekostet oder sich gar irgendwie an dem Preis-Verhältnissen von anderen CPUs "darunter" orientiert?

GTX Titan wird ja mit 1000 Euro ja die billigste GK100-Variante.

Und die mit Abstand teuerste Consumer-karte mit Big Chip aller Zeiten.

Die Preise für Profi-Produkte der Tesla und Quadro-Reihe waren schon immer eine ganz andere Liga als die der Consumer-Karten. Die stehen in keinerlei Verhältnis zueinander. (Tatsächlich bezahlt man da eher für die Treiber und vor allen offizielle Zertifizierungen usw., als für die Karte/GPU selbst. Und da spielt der Faktor mit in die Preisgestaltung rein, dass die Software die darauf läuft und der Studnensatz der Leute die damit arbeiten in der Regel nochmal Größenordnungen mehr kostet, als diese Profikarten und die damit nicht so sehr ins Gewicht fallen.)

Vergleiche einfach mal eine Quadro 6000 mit der GTX480. Die sind technisch fast identlisch (GF100), bzw. ist die GTX480 deutlich überlegen (mehr aktive Shader und höherer Takt), kostet(e) aber nur ca. ein Zehntel der Quadro.

Welche andere Umstände? In deinen Träumen?

Einfach nur die selben Umstände wie zu Zeiten z.B. von GTX580 oder GTX280. Und damit meine ich nicht den Yield, sondern die Konkurrenzsituation (sowohl zu AMD als auch zu den anderen eigenen Produkten).

PS:
Das Yield-Problem ...

Mir fehlt immer noch der Beleg, dass das Yield-Problem überhaupt existiert.

Du meinst, die Titan ist so teuer, weil Nvidia sie nicht billiger verkaufen kann.
Ich meine, dass die Titan so teuer ist, weil Nvidia sie so teuer verkaufen kann.

Ich denke, wir können uns darauf einigen, uns nicht einig zu sein. :)
 
ich hab bei: mindfactory, hardwareversand, caseking, csv, notebookbilliger, alternate und vv computer mal gefragt ob die ein liefertermin haben.. fünf konnten mir keine info geben und zwei wussten nich was eine titan ist.
 
Zurück
Oben