News Nvidia stellt GeForce GTX Titan (GK110) vor

dARkHiVE schrieb:
(es gibt ja bereits jetzt die ersten 4K-Desktopmonitore)

quelle ?

Wie Sku einen Beitrag unter dir schrieb, gibt es bereits jetzt den Eizo FDH 3601, selbst wenn dieser exorbitant teuer ist, aber das Ganze wird sicherlich in relativ kurzer Zeit in "bezahlbare" Preisregionen fallen, wenn auch sicherlich nicht ausgerechnet von Eizo, sondern von anderen Herstellern...

Ansonsten hier:

https://www.computerbase.de/2012-12/lg-uhd-3d-tvs-4k2k-monitor-und-neue-mobile-displays-zur-ces/

Die Einführung von 4K-Desktop-Monitoren steht auf jeden Fall vor der Tür!

Aber selbst wenn wir davon absehen ist es eine Tatsache, dass Grafikkarten bis hoch zur GTX 680 bis heute bei den zu ihrer Generation gehörenden, anspruchsvollsten Spielen (aktuell sei "Metro 2033" genannt) nach wie vor (und das geht seit gut 7 Jahren so, seit die ersten 30"-TFTs im Markt eingeführt worden) nichtmal flüssiges Spielen bei 2560x ermöglichen, jedenfalls nicht unter Hinzunahme von Bildverbesserungen, geschweige denn, dass da Reserven für die nähere Zukunft (sagen wir 1-2 Jahre) vorhanden wären.

Das ist auch der Grund, warum ich (als Nutzer eines Dell 3008wfp, sprich eines 30"ers mit nativer Auflösung von 2560x1600) nach wie vor auf einer uralten 8800GTX hocke, da ich nicht bereit bin, 500 € oder mehr für eine neue Graka auszugeben, mit der ich dann im Zweifelsfall bestimmte Titel noch immer nicht vernünftig spielen kann (rausgeschmissenes Geld) Bin gespannt, ob die Titan hier endlich einen echten Druchbruch bringt (die Tatsache, dass sie seit der 8800 GTX erstmalig wieder ein 384bittiges Speicherinterface UND zugleich ein üppiges V-Ram-Polster offerieren, bieten allerdings Grund zur Hoffnung, denn beides nutzt erst bei entsprechend hohen Auflösungen, vor allem wenn man bedenkt, wie teuer eine entsprechende Implementierung sicherlich in der Herstellung ist, sprich, dass sie die sicherlich nicht nur zum Spass mit sowas bestücken!)

SKu schrieb:
Eizo FDH 3601

Dafür bekommst du dann umgerechnet 26 mal die Geforce GTX Titan.

Wie wir alle wissen, ist Eizo als Premium/Luxus/Prestigemarke schon immer für seine exorbitant hohen Preise bekannt gewesen. Dazu muss man auch nicht bei den neuen 4K-Displays gucken, sondern kann es selbst schon bei deren kleinsten, "günstigen" 22-24"-Modellen erkennen, wenn man es mit Konkurrenzprodukten anderer Monitor-Hersteller vergleicht. (und wer mal Testberichte z.B. auf Prad gelesen hat, der weiss auch, dass dieser exorbiant hohe Preis sich keineswegs zwangsläufig in einer besseren Verarbeitungs- oder Bildqualität wiederspiegeln muss)

Wenn andere Hersteller - seien es Dell, LG, Canon, Samsung & Co. in Kürze (gehen wir davon aus, dass es noch max. ein bis zwei Jahre dauert) entsprechende ~ 30-32"-Desktop-TFTs mit 4K-Auflösung auf den Markt bringen und die anfänglich vielleicht ~4000-5000 € kosten, ist das sicher nicht zu viel Geld für JENE Leute, die auch sofort beim Erscheinen (oder schon vorher) eine (oder gar mehrere) Titans bestellen, zumal man so einen Monitor deutlich länger nutzen kann, bis er "veraltet" ist, als eine Graka, was bei solchen Betrachtungen ja auch irgendwie immer unerwähnt bleibt (meinen 21"-CRT, den ich mir anno 1997 für damals 2350 DM zugelegt hatte, habe ich 13 Jahre lang täglich genutzt, bis ich den vor knapp 3 Jahren - nachdem er den Geist aufgegeben hat - schliesslich durch einen Dell 3008 wfp ersetzt habe, den ich - so er denn durchhält - ggf. wieder ähnlich lange verwenden werde, es sei denn vielleicht, dass anständige 4K-Displays in ~ derselben Grössendimension - denn noch grösser macht auf dem Schreibtisch sowieso keinen Sinn mehr - bis dahin zu attraktiven Preisen, mit geringem Inputlag und hervorragender Bildqualität und dazu passend potente Grakas, die diese Auflösung dann auch souverän befeuern können, auf dem Markt verfügbar sind!)

Aber solange wie gesagt aktuelle sogn. "Highendgrakas" (GTX 680 aktuell noch) nichtmal 2,5K souverän bedienen können, braucht man sich über sowas wohl weder zu unterhalten, noch Gedanken zu machen, weil somit garkeine Grundlage dafür vorhanden ist!

Es gibt aber bestimmt auch Leute, die sich umgekehrt eine Titan zulegen, um damit dann ihre 200-300 € "teuren", "hochwertigen" 22-24"-TFTs mit TN-Panel zu befeuern, worfür natürlich bereits eine Mittelklassekarte für max. 250-350 € mehr als dicke ausreichen würde (die Gehirnwäsche der Industrie bzw. von deren Marketing macht es möglich, dass man sich einredet oder glaubt, man bräuchte so eine Karte für solche Monitore bis max. 1920x und es würde Sinn ergeben und eine Verbesserung bringen, sie dafür zu kaufen/nutzen, weil man dann ja endlich endlich 100-fache Kantenglättung nutzen und mit 250 FPS spielen kann!) ;)
 
Zuletzt bearbeitet:
Supermax2004 schrieb:
Gerade weil AMD hier kein Konkurrenzprodukt bietet, ist ein erhöhter Preis völlig verständlich. Nur wenn man unter der 690 bleibt, wieso dann nicht 700-800€? Wieso denn über 900? Das verstehe ich nicht, bzw. das ist extreme Geldgier!

weil die GTX 690 keine direkte interne Konkurrenz ist mit 2 GB VRAm und MultiGPU.
Genauso kann man argumentieren, dass zwei GTX 670 günstiger sind...

Die GPU ist auch gegenüber dem eigenen Portfolio praktisch "outstanding" und konkurrenzlos.
Ergänzung ()

Ich finde anhand der TITAN sieht man übrigens gut wie hochgezüchtet die GTX680 in Wirklichkeit ist.

Eine Karte mit 2 GB GDDR5 und lediglich 256Bit SI war ursprünglich nicht für die AMD Konkurrenz vorgesehen. Nicht umsonst kursierten damals Bilder der jetztigen GTX680 mit "GTX 670 (TI)" als Bezeichnung.

GTX670Ti.jpg


http://www.pcper.com/news/Graphics-Cards/Alleged-NVIDIA-GK104-Kepler-GTX-670-Ti-Photo-Leaked

Der GK104 ist nicht für den hohen Takt (GTX 680) ausgelegt, hier limitiert das SI zu sehr. Zudem verschlechtert sich die Effizienz massiv mit einem Turbo jenseits der 1 Ghz.

Ich denke für den GK104 war ursprünglich eher die Serie GTX 660 / GTX 670 vorgesehen, wenn überhaupt - bei auch weniger Takt (~800 Mhz) und höherer Effizienz. Wohl eher in direkter Konkurrenz zu HD78XX.

TITAN zeigt ja wie ein großer Chip bei humanen Taktraten deutlich effizienter agieren kann, Taktraten bei denen auch ein GK104 angesichts kleinem SI deutlich ausgeglichener arbeiten würde.
 
Zuletzt bearbeitet:
Herdware schrieb:
Ich habe geschrieben, dass 100% Leistungssteigerung bei längst nicht jedem Generationswechsel erreicht werden. Das war eigentlich noch untertrieben. Tatsächlich hat das in den letzten Jahren eigentlich keine Nvidia-Karte rundum geschafft. Nicht mal die legendäre 8800GTX.
Du musst es richtig lesen. Es gibt 2 Phasen der GPU-Entwicklungen.
Ersteres (1995 bis 2007) wurden die GPU-Entwicklungen mit jeder Generation größer & Stromfressender.
Zweite Phase (2008-heute) blieb bei Nvidia die Größe bei so 500+mm² und der Stromverbrauch beginnt auch langsam zu stagnieren, nachdem die Grenzen erreicht worden sind.

Und die direkten Nachfolger sind sehrwohl G80 --> GT200 --> GF100 --> GK110, die jeweils mit neuerer Fertigung gemacht wurden
G80 (90nm) --> GT200 (65/55nm) --> GF100 (40nm) --> GK100 (28nm)
Die 100% (bzw. annähernd 100%) Leistungssteigerungen kommen dann grundsätzlich immer im Vergleich mit den ausgereiften Dies zusammen.

PS: Die Tests sind ja auch nicht perfekt. Alte DX9-Spiele @ 1200x1600-Auflösung werden es sehr schwerer haben als bei 2500x1600-Auflösung @ DX10 Spiele, das volle Potential zu nutzen.

Die Titan ist hingegen der direkte Nachfolger der GTX580. Wobei man darüber spekulieren könnte, ob die GK110 nicht vielleicht doch schon ein Kepler-Refresh ist, wofür neben dem Namen auch neue Features wie z.B. der GPU-Boost in Version 2.0 sprechen würden. Aber da es die GK100 nunmal nicht gegeben hat, ist die GF110 der nächste "lebende Verwandte", mit dem man sie vergleichen kann.
Natürlich ist GTX580 der Vorgänger von Titan. Genauso wie es GTX 285 der Vorgänger von GTX 580 war.
GK110 als Refresh zu bezeichnen ist falsch, da diese Architektur 5 Jahre entwickelt worden ist und da kann man in der Architektur nichts ändern. Man kann nächsten Misslungens ausbessern oder jene Sachen Aktivieren, die man am Anfang nicht beherschte (wie GPU-Boost 2.0)


Warum glauben alle zu wissen was ich nicht weiß?

Habe ich irgendwas über die GTX280 geschrieben?
Über GTX280-Performance habe ich auch nichts geschrieben. (Nur übern Preis) Du schon (indirekt), weil du behauptest, dass Nvidia es nie schaffte 100%-Performance-Steigerung zusammenzubringen. Daraus erkennt man eben, was du über entsprechende Karten weißt;)


Was das SI angeht, war Nvidia zu der Zeit AMD beim Wechsel auch GDDR5 einfach hinterher und musste nochmal auf GDDR3 setzen und damit war die einzige Möglichkeit um die für die Monster-GPU nötige Bandbreite zu erreichen eine Verbreiterung auf 512Bit. Das war garantiert nicht billiger als GDDR5 + ein schmaleres SI. Im Gegenteil. Das war einer der Gründe für die absurde Größe der GPU. (Der nachträgliche Shrink auf 55nm hat das dann wieder etwas relativiert.)
Für dich ist das Symtom die Erklärung und das kann selten richtig sein.
Nvidia war da technisch sichernicht hinterher, wenn sie Architektur-Technisch AMD damals noch Voraus waren.
Nvidia hatte sehrwohl die möglichkeiten GDDR5 zu forcieren. Natürlich ist ein breiteres SI teurer, aber a) Nvidias Die war von Haus aus schon sehr breit und b) ist die Arbeitsspeicher-Fläche von diesen vielen kleinen Chips auch nicht so klein, sodass es sehrwohl billiger ist, ausgereifte billige Massen-Chips zu verwenden.

Ich glaube nicht, dass noch Titan verkauft werden, wenn die Maxwell-Generation (800er) draußen ist. Jedenfalls nciht mit GK110-GPUs.
Jeder Vorgänger-Generation wird noch eine Zeit verkauft. Sonst würde Computerbase sie nicht in den Preis-Leistungs-Vergleich miteinbeziehen.

Es wäre natürlich nicht schlecht, wenn nvidia dann zur alten Produkt-/Preispolitik zurückkehrt und die Karten mit dem 500mm^2-Big-Chip wiede rzu den von dir genannten gewohnten Preisen als normales High-End verkauft werden. Aber ich würde nicht drauf wetten.
Wenn du nicht wettest, dann hast du nicht viel vertrauen auf dein Wissen.
Da Nvidia M2090 (225W-TDP) 6 Monate nach GTX 580 (250W-TDP) brachte, zeigt dass Nvidia immer schon seine Produkte weiterentwickelte, wenn sie nicht ausgereift waren.

Derzeit sieht es ja komplett anders aus. Nvidia kann 300mm^2-Performance-GPUs für an die 500 Euro in High-End-Karten verkaufen und die Big Chips nochmal als eigene Enthusiasten-Klasse zum doppelten Preis darüber. Wenn sie irgendwie können, werden sie das auch in den folgenden Generationen so durchziehen.
Klar, zum Preissenken gehören immer 2 Leute und AMD spielt jetzt auch nicht wirklich so mit.
Trotzdem kündigte TSMC an im Verlauf des 2013-Jahres die 28nm-Produktion zu verdreifachen. Also, im 2H 2013 sind mal genug 28nm-Wafer für einen Preiskampf vorhanden.

Mein Tipp: Die Titan wird auch nach Einführung der neuen Generation mit Kepler-Refresh erstmal weiter darüber positioniert verkauft werden. Vielelicht mit etwas mehr Takt oder 15 aktiven SMX-Clustern. Aber auf jeden Fall weiterhin deutlich über 600 Euro, denn die GTX780 (mit GK114) muss ja für bis zu 500 Euro noch darunter passen.
Solange wir noch keine genauen Daten über 20nm und GK114 kennen, ist das alles nur raterei.
Wobei ich von GTX780 nicht viel erwarte, da bei GK104 schon das ganze Potential genutzt wurde. Da geht höchsten 10-15% mehr Performance durch bessere Fertigung und höheren Stromverbrauchs-Ausnutzung aus.

Bei der Maxwell-basierten 800er-Generation wird die (GK110-basierte) Titan aber wie gesagt dann endgültig keine Daseinsberechtigung haben. Dann gibt es vielleicht eine "Titan II" mit GM100-GPU, die wieder zu Enthusiastenpreisen gehandelt wird.
Klar, welche Vorgänger-Produkte konnten sich schon gut gegen den Nachfolger mit kleineren Strukturen und somit besseren Effizienz behaupten.

Preise sind vor allem erstmal eine "politische" Entscheidung und nicht in erster Linie technisch bedingt.
Eben nicht.
Preise werden von Kosten & Performance abgeleitet. Ich hatte nicht umsonst vor 6 Monaten einge Yielddiskussionen über GK110.

Ob jetzt ein energie-Technisch hochgezüchteter GK110 in April kommt, der wegen dem Preis nur eine Geringe Nachfrage bewirkt oder ein GK110 @ Mitte des Jahres, der wegen einer mäßigen Energie-Effizienz (hoher Stromverbrauch) aber besseren Yield nur eine geringe Nachfrage bewirkt, ist so ziemlich egal.

Entscheident ist für Nvidia, mit welcher Variante sie a) Image-Mäßig viel besser da stehen und b) aus dieser Situation am meisten Geld generieren können.

Es hat eben nun alles seine Logik.
Und ich sage es nochmal. Die Einführungs-Problematiken von einem Big-Die @ neuer Fertigung konnte ich seit GTX285 schon sehen, welcher ebenfalls schon Probleme hatte (zuerst für Herbst gedacht und dann wegen Problemen doch erst Ende des Jahres und dann war noch ein B3-Stepping nötig um die Effizienz zu erreichen.)

Nicht umsonst sagte ich, dass ich sogar mich über einen Stromverbrauch von 300W, wobei ich auch 300-350W für möglich hielt.
Aber damals dachte ich nie an einem Preis von >900 Euro, sondern so 550 Euro für April 2013 bzw. Mitte 2013.

Das Dumme ist nur, jetzt müssen wir wieder so 6 monate oder mehr abwarten, damit wir genau erfahren, warum GTX Titan so teuer war.
 
aylano schrieb:
Eben nicht.
Preise werden von Kosten & Performance abgeleitet. Ich hatte nicht umsonst vor 6 Monaten einge Yielddiskussionen über GK110.

naja als ob das bei TITAN Sinn ergeben würde.

Über die YIELD der GK110 war auch vor 6 Monaten nichts bekannt.

Wenn du über die YIELD argumentierst muss man auch sehen dass die Tahiti Chips mit 365mm² schon ne ganze Ecke größer sind als die 290mm² von GK104.

Ob da jetzt die 500mm² + noch so wahnsinnig viel daraufsetzen sei dahingestellt. Es ergibt aber keinen Sinn den GK110 wegen YIELD totzureden wenn AMD gleichzeitig 365mm² Chips in Masse günstig produzieren kann.

GK110 ist mit Sicherheit kein günstiger Chip - und sicher ist die Yield geringer als bei GK104 oder Tahiti, dennoch dürfte die Wirtschaftlichkeit von TITAN kaum daran zu bemessen sein da die Kosten für den Chip nur einen Teil ausmachen. Wie hoch sind die Kosten für GK104 im Einkauf, wie hoch für Tahiti, wie hoch für GK110?

Ohne diese kann man schlecht so argumentieren.

Bis keine Quellen dazu belegt sind hat der Preis von ~900€ hat jedenfalls nichts mit den Kosten des GK110 zu tun. Wenn Nvidia müsste, dann würde man wie die GTX 480 seiner zeit den großen Chip für 500€ auf Karten verkaufen, und noch immer Gewinne mitnehmen.


Leiten sich die Preise diverser Jaguar / Porsche Modelle auch über "Kosten & Performance " ab? Oder Rolex Uhren?

Der Preis ist da angesetzt wo man dem eigenen Portfolio keine Konkurrenz macht und ein gewisses "Hype-Produkt" auch zu hohen Preisen noch verkaufen kann (siehe Apple Politik). Und bei TITAN geht es eher darum Aufmerksamkeit zu erregen als wirklich hohe Gewinne zu schöpfen.
 
Zuletzt bearbeitet:
Was wohl passieren würde, wenn die Karte nach 3 Jahren flöten geht.:D
Ich würde eher 2 mal eine GTX 680 kaufen, da hätte man mehr davon. Auch verstehe ich nicht, wieso alle immer auf "Ultra+" spielen müssen, mir wären Story und Gameplay wichtiger, aber jedem das Seine.:)
 
mit 2x GTX 680 haste vor allem eins:

- weit mehr Stromverbrauch
- ne weit höhere Lautstärke
- mehr µRuckler
- nur ein Drittel des VRams
- SI Limit

Für den Normalo reicht eine GTX680 oder HD7970 ja auch ewig aus. Außer für Crysis 3 natürlich xD

Abgesehen davon kann dein 1000€ TV, deine 2000€ SLR, dein 100000€ Auto ebenfalls nach 2 Jahren den den Geist aufgeben.

bezügl. Auto... es muss nicht mal den Geist aufgeben. Da kommen auch so schnell 20k€ Wertfverlust im ersten Jahr zustande ;)
 
Zuletzt bearbeitet:
aylano schrieb:
Eben nicht.
Preise werden von Kosten & Performance abgeleitet. Ich hatte nicht umsonst vor 6 Monaten einge Yielddiskussionen über GK110.

Die Yield-Diskussion war eigentlich schon Ende letzten Jahres vorbei, als Nvidia sich offiziell dazu äußerte:
"Interestingly NVIDIA tells us that their yields are terrific..."

Geringe Ausbeute, generell hohe Fertigungs- und Entwicklungskosten usw. könnten natürlich den Preis hochtreiben. Aber ich bleibe dabei:
Nvidia verkauft die Titan so teuer, einfach weil sie es können.

Nicht mehr und nicht weniger. Es ist wie gesagt eine politische Entscheidung, kein wirtschaftlicher Zwang.

Die Titan steht weder ansatzweise in Konkurrenz mit irgeneiner anderen von Nvidias Single-GPU-Karte, noch mit irgendeiner von AMD. Es gibt nichts, woran man sich preislich orientieren müsste. Von der Leistung her am ähnlichsten ist noch die GTX690, aber die fällt als Dual-GPU-Karte in eine andere Sparte und hat ihrerseits schon einen reinen Luxuspreis, der sich aus ihrer Konkurrenzlosigkeit ergibt. (Es gibt zwar einzelne inoffizielle HD7990, aber eher zu noch abgefahreneren Preisen.) Deshalb löst die Titan die GTX690 auch nicht ab, sondern läuft parallel.

Es ist ganz ähnlich wie die Extreme Edition von Intel. Die haben seit je her einen symbolischen Festpreis von 1000 Dollar, der nichts mit den Herstellungskosten zu tun hat und auch nicht in Relation mit der (Mehr-)Leistung der CPU steht. Die kosten so viel, weil es nichts besseres gibt. Für das Beste vom Besten muss man praktisch immer einen Sonderpreis zahlen.

Es gibt also eigentlich nichts an der GK110/Titan, das ihren hohen Preis rechtfertigt. Unter anderen Umständen hätte Nvidia sie zum selben Preis verkauft, wie die GTX580 und 480 und 280 usw. und immer noch guten Gewinn gemacht.
 
GTX680 Karten mit notgedrungenen 4GB gibt es für 460€.
TITAN hat doppelte soviele Transistoren und 50% mehr Speicher, einen wesentlich besseren Kühler, wesentlich bessere Übertaktungssoftware.

Geht man alleinig von den Herstell- und Softwarekosten aus, wird nVidia wohl locker den 2x bis 3x Betrag aufbringen müssen.
Das natürlich am Ende das ganze überproportional steigt, sollte verständlich sein.
 
Titan ist ja mehr als nur eine Graka und zum Zocken ja eigentlich zu schade, wie weit ist sie denn von einer Tesla entfernt?
Vor allem, wurde sie in ihren GPGPU Fähigkeiten kastriert oder darf sie als Geforce die ganze Leistung abrufen?



Kann man ja wohl schlecht vergleichen, dazu kam Fermi auch seeehr verspätet raus und hat nur mit ach und Krach die Leistungkrone geholt...
Die Definition einer 5800 Ultra. Thermi ist die Wiedergeburt der Karte. Aber beide Refreshs der Karten 5900 und GTX 580 waren sehr gute Karten mit sehr guten Treibern.


Und nun die Preisfrage: Was hat die gesteigerte DP Leistung pro Watt mit der Leistungsfähigkeit bei spielen zu tun? Richtig, gar nichts.
Ach nö, das war einfach mal gepostet, die Folie soll gar nichts implizieren.


ein GM104 und der muss schneller sein als eine Titan und darf aber auch nicht sonderlich groß sein, sondern im Idealfall ~15% kleiner als nen GK104. Und damit wird es schwerer sich deutlich von einer hypothetischen "Titan 2.0" mit 15 SMX-Blöcken abzusetzen.
Und? Klein Kepler hat das ja auch geschafft gegenüber big Fermi. Außerdem könnten noch 3D Transistoren Einzug halten. Das sieht B. Kepler auf keinen Fall mehr, Maxwell schon. Obs schon bei der 1. Version soweit ist, muss man abwarten. Aber die Titan wird altern, wie immer rasend schnell. Vergiss mal die Theorie das die so wie eine 8800 GTX über Generationen nun den Thron haben wird. Ich glaube AMD wird mit der Karte schon Q4 2013 mit der "HD 9000" ein kleines Duell haben. Wenn es nur 30% werden morgen auf jeden Fall, 50% werden schon schwerer zu schlagen.


PS:
Und macht die Legende nicht immer so schlecht, der erste Test hier auf CB wurde noch mit einer lahmen AMD CPU gemacht, erst Core 2 hat der GPU freien Lauf gegeben: https://www.computerbase.de/2009-08/test-14-grafikkarten-vergleich/5/

Noch dazu hatte die GF7(schlechteste Gen ever) eine unterirdische Bildqualität.

Und kommt jetzt nicht mit "da ist keine 8800GTX drin" wenn eine GTS schon alles GF7 artige plättet als obs kein morgen gäbe. (Crysis) GF 7 ist ein Shader Krüppel par excellence.
 
Zuletzt bearbeitet:
Ob da jetzt die 500mm² + noch so wahnsinnig viel daraufsetzen sei dahingestellt. Es ergibt aber keinen Sinn den GK110 wegen YIELD totzureden wenn AMD gleichzeitig 365mm² Chips in Masse günstig produzieren kann.

Du weisst aber schon wie YIELD funktioniert ?

Für ein Produkt mit einer fläche x ist der Yield an funktionierenden Produkten bestenfalls 1/x^2*Produktionsgütefaktor

ERGO:
290mm^2 => Yieldfaktor 0.000011890606421
365mm^2 => Yieldfaktor 0.000007506098705
500mm^2 => Yieldfaktor 0.000004000000000

ODER ABER mal ins Verhältnis gesetzt: ein 290mm^2 Produkt bei IDENTISCHER sonstiger Fertigungsqualität/etc. zu produzieren im Vergleich mit einem 365mm^2 Produkt führt zu einer Yieldreduktion von:

Yieldfaktor365/Yielfaktor290 => 0.631262901 also ~63% (Annahme Yield bei 290mm^2 sei 100%)

Oder vergleicht man 290 zu 500 => 0.3364 ~33%
Oder 365 zu 500 => 0.5329

Mit anderen Worten bei identischer Fertigunsqualität würden automatisch 2 defekte und 1 funktionierender GK110 vom Band laufen wenn man den 290mm^2 Prozess der GTX680 verwenden würde. Oder immer fast 50% Ausschuss wenn man von AMDs 365mm^^2 ausgeht.

DAS war 2012 eben nicht wirtschaftlich und man konnte daher GK110 so nicht bringen...nicht umsonst haben die K20 Karten ja 2 teildeaktivierte Blöcke (man verwertet den anfallenden Ausschuss).

Denk mal drüber nach bevor wieder die alte Leier auspacksz von GK104 ist ja nur der performance müll chip der nVidia locker reicht....blablubb.

AMD konnte 365 mm^2 fertigen weil AMD den Prozess besser im Griff hat....so siehts aus und nVidia konnte zu dem Zeitpunkt eben nur irgendwas 300mm^2 "wirtschaftlich" fertigen (lassen).
 
Sontin schrieb:
GTX680 Karten mit notgedrungenen 4GB gibt es für 460€.
TITAN hat doppelte soviele Transistoren und 50% mehr Speicher, einen wesentlich besseren Kühler, wesentlich bessere Übertaktungssoftware.

Geht man alleinig von den Herstell- und Softwarekosten aus, wird nVidia wohl locker den 2x bis 3x Betrag aufbringen müssen.
Das natürlich am Ende das ganze überproportional steigt, sollte verständlich sein.

Und wenn man jetzt noch davon ausgeht dass sie ne GTX 680 auch für 150€ noch mit Gewinn verkaufen könnten passt es ja wieder. ;)
 
@herdware

Interestingly NVIDIA tells us that their yields are terrific – a statement backed up in their latest financial statement – so the problem NVIDIA is facing appears to be demand and allocation rather than manufacturing.

terrific beduetet in diesem Kontext ja wohl

terrific {adj} [coll.] [excellent]
toll [ugs.]
fantastisch
hervorragend
klass [österr.] [ugs.] [klasse]
echt geil [ugs.]

^^

Oder versteh ich das falsch?

Edit:

ich bin absolut bei dir was die Preispolitik der TITAN angeht. Für mich rein politischer Natur.


@Iscaran

mir ist klar, dass die Yield überproportional abnimmt. Aber weiß man wie hoch die Yield bei den kleineren Chips ist?

DAS war 2012 eben nicht wirtschaftlich und man konnte daher GK110 so nicht bringen...nicht umsonst haben die K20 Karten ja 2 teildeaktivierte Blöcke (man verwertet den anfallenden Ausschuss).

Fertigung ist eine Sache, viel eher war es aber aus anderen Gründen nicht wirtschaftlich den GK110 damals als Consumer Karte zu bringen. Wenn man, wie du richtig erkannt hast, günstiger zwei kleine Chips produzieren kann, diese teurer verkauft da die Nachfrage stimmt und TSMC ohnehin kaum nachkommt, wieso dann einen noch größern Chip bringen? Vorallem ohne dass dieser dann Konkurrenz hätte...

Hätte den Nvidia damals zu 1500€ als Comsumer Karte verkaufen sollen?

Warum also schon ~1,5 Jahre bevor ein GK110 überhaupt notwendig wäre diesen auf den Markt werfen? Selbst jetzt ist GK110 im Consumer Markt absolut unnötig - von Marketingzwecken abgesehen. Ist ja nicht so dass die AMD Karten die GTX680 deklassieren und Nvidia hier Kampfpreis fahren müsste...

Wirtschaftlich ist GK110 angesichts der Preise die man mit GK104 heute fahren kann sicher immer noch nicht - weniger weil die Fertigung zu teuer ist, nein, weil der Markt nicht nach einer solchen Karte verlangt da man kein Konkurrenzprodukt in dieser Liga findet.

Edit:

es ist schon richtig was du sagst. Natürlich gehört zur Wirtschaftlichkeit auch die Fertigung und der GK110 ist da ne ganze Ecke teurer als GK104. Interessant wäre was TSMC Nvidia für die Chips abknöpft. Die Marge bei Nvidia ist auf hohem Niveau, ich denke die verdienen einiges an einer verkaufen GTX 680 (ich spekuliere darauf, dass NV auch ne Ecke mehr verdient als MAD bei einer verkauften HD7970) . Die TITAN kommt sicher gut und gerne aufs doppelte in der Produktion - bei einem Preis von 500€ wirft aber vermutlich auch diese noch genug Gewinn ab ;)

Sofern man aber die GK104 in GTX680 Form auch für 400-500€ verkaufen kann erübrigt sich die Frage danach.
 
Zuletzt bearbeitet:
ronin7 schrieb:

Irrtum sprach der Igel und stieg von der Waschbürste.

siehe: eu-info.de/euro-währungsunion

Wie wird zwischen D-Mark und Euro umgerechnet?

Grundlage der Umrechnung zwischen D-Mark und Euro ist der unwiderrufliche Umrechnungskurs von 1 Euro = 1,95583 D-Mark. Alle Geldwerte werden mit diesem Faktor umgerechnet, Rundungen oder Kürzungen des sechsstelligen Kurses sind nicht erlaubt. Bei der Umrechnung von D-Mark in Euro wird der DM-Betrag durch den Euro-DM-Kurs geteilt. Erst das Rechenergebnis darf dann auf zwei Stellen nach dem Komma gerundet werden.

Die Umrechnungsformel: DM-Betrag / 1,95583 = Euro-Betrag
Beispiel: 60 DM / 1,95583 = 30,6775 EUR

Zur Umrechnung eines Euro-Betrags in D-Mark wird der Euro-Betrag mit dem offiziellen Umrechnungskurs multipliziert.

Die Umrechnungsformel: Euro-Betrag x 1,95583 = DM-Betrag
Beispiel: 40 EUR * 1,95583 = 78,2332 DM

Erst das Rechenergebnis darf dann auf zwei Stellen nach dem Komma gerundet werden. Hier gelten die Regeln der kaufmännischen Rundung: Liegt das Resultat genau in der Mitte, wird der Betrag aufgerundet. Entscheidend ist die dritte Nachkommastelle. Bei Ergebnissen von 1, 2, 3 oder 4 in der dritten Nachkommastelle wird ab-, bei Ergebnissen von 5, 6, 7, 8 oder 9 wird aufgerundet.

P.S.
die Titan hat ihren Namen daher,
da diese zu titanischen Preisen erhältlich sein wird!


Dies ist ein Prestigeobjekt von Nvidia!
Andere kaufen sich halt was vom Apfel, ist halt ähnlich. :D

 
Zuletzt bearbeitet:
Dann ruf bei der Landeszentralbank deines Bundeslandes oder im Landesfinanzamt deines Vertrauens oder im Bundesfinanzministerium an und frag nach oder schick denen ne Mailanfrage!

900 DM sind halt trotzdem noch lange nicht 750 EUR!
 
Zuletzt bearbeitet:
Diese Karte ist ideal für meinen Mini-PC! (Siehe Signatur) -> Gekauft ;-)
 
Mein gott immer diese Diskussionen hier €/DM...blablubb

Einfach mal nachrechnen was 900dm in € wären inklusive Inflation:

Release der Karte 2000/08

bei 2% Inflation erhalten wir folgendes Schema:

Jahr |DM | €
2000 900 460.16
2001 918 469.37
2002 936.36 478.75
2003 955.09 488.33
2004 974.19 498.09
2005 993.67 508.06
2006 1013.55 518.22
2007 1033.82 528.58
2008 1054.49 539.15
2009 1075.58 549.94
2010 1097.09 560.94
2011 1119.04 572.15
2012 1141.42 583.60
2012 1164.25 595.27

ERGO entspräche eine Einpreisung von ca 600€ einem Preis der GF2 Ultra von anno 2000.

Für Inflationsparanoiker noch schnell die Rechnung mit eher unrealistischen 3% Inflation (nur Endergebnis):
2012 1283.18 656.08

Oder mit 5%:
2012 1616.27 826.39

EDIT: Inflationsraten kann man nachgooglen:
http://de.statista.com/statistik/da...rung-des-verbraucherpreisindexes-zum-vorjahr/

Von 2000 - 2012 sinds eher 2%...aber gut, man kann ja noch drüber diskutieren WIE und mit WELCHEM Warenkorb man eine Inflation am korrektesten messen sollte.

Da sich jedoch gerade im Computer / Hardware Business zeigt dass die "Inflation" eher -5% beträgt (Hardware wurde im Verhältnis speziell zur Leistung eigentlich immer billiger)

So....hoffe damit sind diese Diskussionen hoffentlich mal vom Tisch.

Somit sieht man also das die Titan vor allem eines hat nämlich einen Titanischen Preis. Wenn nVidia schlau ist malen sie noch einen angebissenen Apfel drauf und verdoppeln den Preis und können trotzdem gar nicht genug davon verkaufen...

Sowas nennt man Marketing und Steve Jobs war KÖNIG des Marketings - und nVidia ist eine guter Lehrling.
 
Zuletzt bearbeitet:
mmic29 schrieb:
Warum regen sich eigentlich soviele über den Preis auf?

Die Frage ist doch nicht ernst gemeint oder? ;) :P :D
Antwort:
weil wir in Deutschland leben, wo man alles Unerschwingliche bzw. die Konkurrenz schlecht redet um SICH besser zu fühlen. Man fühlt sich doch sonst sooo schlecht, wenn man keine schlechten und abwertenden Kommentare abgegeben hat. Es juckt in den Fingern ... wie ein Drogensüchtiger, der es nicht lassen kann ...
"Das was ICH habe ist gut. Das was Du hast ist schlecht, wenn es nicht dasselbe ist, und das was ich mir nicht leisten kann ist eh schlecht."
 
wäre der preis auch in ordnung, wenn das teil gtx780 heißen würde?

denk mal drüber nach.
 
600 Euro Startpreis und 550 nach 1-2 Monaten waeren in Ordnung. Egal wie sie heisst. :)
Ich hab zwar teilweise schon ueber 2000 Euro auf einmal nur fuern Raid Array hingelegt, aber dafuer erhielt ich auch was extrem exquisites. Bei dieser Karte wuerde ich mich aber absolut abgezockt fuehlen. Frueher wars normal, dass die neue Generation 80-100% schneller war und (wenn ueberhaupt) minimal teurer. Deshalb mach ich da sicher nicht mit, und werde jedem abraten.
Nichts desto trotz, ists wohl eine Bombenkarte. ;)
Wuerd ich eine geschenkt bekommen, wuerd ich sie mal ausprobiern und dann verkaufen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben