News Nvidia GeForce GTX 470/480 weiterhin nicht verfügbar

Die Ausbeute der GT200er war angeblich bei 60% und ein Verlustgeschäft bei Preisen um 100USD pro Chip. Ist doch logisch, dass Fermi noch teurer bei schlechterer Ausbeute und niederen Preisen ist. Die bringen eine Charge damit sie etwas bringen und das Marketing was zu schreiben hat. Ich denke, dass es nie im Leben 20% sind, Nvidia hat die letzten Monate durch ihre Hinhaltetaktik jeden Kredit verspielt. Für mich sieht es so aus, dass sie nicht liefern können und das die nächsten Monate so bleiben wird, abgesehen von einer handvoll Karten.
 
nicht mal die hd58xx sind gscheit lieferbar, da brauchen wir von den fermis gar nicht erst reden.
liegt die schuld jetzt nur bei tsmc oder haben da ati bzw nvidia mitschuld. einfach nur lächerlich.
 
Alexaug schrieb:
davon abgesehen ist die verfügbarkeit von ati karten nicht gerade besser...

was stimmt mit der verfügbarkeit bitte nicht? man kann jede Karte bekommen wenn man unbedingt eine haben möchte..


MFG XeonKing©!!!
 
@Fredkune
Ich bin auch kein Freund von Charlie, gerade wegen seiner polemischen Schreibweise die nichts mit Journalismus zu tun hat. Daher wird man in meinen Beiträge auch keine Links zu seinen Artikeln finden und auch keine Zitate. (außer ich zitiere jemanden der sie verwendet hat)

Allerdings ist nicht von der Hand zu weisen dass seine Informationen der Realität am nächsten gekommen sind und dass CB hier wesentlich unseriösere Quellen teilweise verwendet hat. Das ging ja teilweise so weit dass man sich, wie viele andere Redaktionen auch, zu einem Rädchen in der Marketingmaschine von Nvidia hat machen lassen und jeden Tweed als News hier verbreitet hat - und diese Informationen waren zum Teil knallhart gelogen von Nvidia.

Nur weil ein Hersteller etwas verbreitet ist dort nicht mehr Wahrheit zu finden oder weniger Recherche nötig. Daher ist es meiner Meinung nach völlig zulässig auch Charlie als Quelle zu verwenden. Besser wäre allerdings beides bleiben zu lassen ohne vorherige Recherche.
 
Matze89 schrieb:
Produkten so, weil im Artikel die Rede davon ist, dass die Grakas mit Verlust verkauft werden? Mit der PS3 war es doch genauso.

Bei der PS3 verdient Sony aber dann auch am Zubehör und den Spielen kräftig mit. Bei einer Grafikkarte ist der Kaufpreis (oder besser ein Teil davon) alles was NV sieht.

FredKune schrieb:
Wer ausschließlich Negativ-Berichte (und das ist ja noch reichlich untertrieben) über eine einzige Firma schreibt, den kann man einfach nicht ernst nehmen.

Warum? So lange er nichts falsches schreibt ist er glaubwürdig. Seine Motive dahinter sind fraglich, aber die Negativmeldungen müssen noch lange nicht falsch sein, nur weil er die positiven weg lässt.
Dass er massiv pro ATI ist, sollte jeder schon geschnallt haben. Aber schau dir mal die TV-Nachrichten an. Wie viel positives hörst du da und wie viele Meldungen wie schlecht alles ist oder was nicht schlimmes passiert ist? Von wie vielen Rettungen wird berichtet wo deswegen niemand zu Schaden gekommen ist. Das interessiert einfach zu wenige und hat nicht den Effekt.
 
Also ich bin eigentlich immer sehr begeistert von Nvidia aber was sie hier abgeliefert haben ist wirklich enttäuschend.
Erst die schlechten Werte bezüglich des Stromverbrauchs und der Lautstärke und dann die hohen Preise.
Dazu die ewig lange Wartezeit auf die neuen Karten und jetzt sind sie nicht mal verfügbar.
Geht das so weiter wird Nvidia wohl so einige Kunden verlieren.

Ich schätze mal meine nächste Karte wird auch eher wieder eine ATI.
 
Ist es nicht so, dass sich mit steigenden Verkaufszahlen/Produktionszahlen die Fixkosten auf eine größere Menge verteilen und sich somit eine Kostensenkung einstellt? Ist das nicht bei vielen techn. Produkten so, weil im Artikel die Rede davon ist, dass die Grakas mit Verlust verkauft werden? Mit der PS3 war es doch genauso.

Nope, die Dinger heissen deshalb Fixkosten weil sie fix sind und sich nicht mit steigender Produktzahl ändern. Darunter fallen z.B. Löhne.

Die "Gesamtkosten" ergeben sich aus den Fixkosten, die eh anfallen und den variablen Kosten. Die variablen Kosten sind die Kosten, die durch die Produkte gedeckt werden müssen.
Wenn die höher sind machst Du eben Verlust :)
 
schattenfell schrieb:
Ich glaube hier verwechseln einige das Wort Fanboy mit Sympatie. Hat einer Nvidia Poster an der Wand oder läuft Ihr schreiend in den Laden beim Release,trägt einer ein T-Shirt oder was macht Euch als FAN aus, ausser das Ihr ne Karte im Rechner habt? Also ich würde mich wenn als Star Wars Fan bezeichnen, habe aber auch an die 250 Figuren, OVP und Lose in Acryl Tubes und in Star Cases an der Wand.

Du hast vergessen:

Und rennt bei der CeBit 2005 für einen Nvidia-Schlüsselanhänger in einer jolenden Polonaise von Bekloppten durch die Hallen. Und wenn ein Nvidia-Scherge mit 20 von den Dingern um den Hals vorbeiläuft und einem sagt "hüpfe auf einem Bein und singe Nvidia, dann bekommst Du einen" und es auch noch machst. DANN bist Du ein Fanboy !

Mir ist übrigens genau das passiert ! Ich habe den freundlichen Typen neben der jolenden Polonaise daraufhin gefragt, ob er noch alle Tassen im Schrank hat und ihm den Vogel gezeigt ?!
Dann hat er mir so eins in die Hand gedrückt, das ich dann dem nächstbesten Kleinkind in die Hand gedrückt habe.

Peinlich war Nvidia schon immer, in jeder Hinsicht, zu jeder Zeit. Nur haben sie zeitweilig auch mal gute Grafikchips gehabt (G80, Gt206). Zwar jederzeit überteuert, wenn ich nur an mehr als ein Jahr 8800GTX für >400EUR denke, dank ATIs 2900er-Patzer. Nur sind die derzeit eben alle schon ziemlich out-of-date...
Aber auf Nvidia ist immer Verlass. Sie verwöhnen uns regelmäßig mit weiteren PR-Gags, auf dass die Leute weiter kübelweise Scheisse ausschütten. aber Nvidia braucht das irgendwie glaube ich...
 
Die Unruhe erinnert mich an 8800 GTX/Ultra vs. HD2900, da wurde ATi auch von dem ein oder Anderen als Tot erklärt :D.

Für Nvidia ist das Ziel erreicht, man schlägt die 5870, mit welchen Mitteln hat NV noch nie wirklich intressiert. Spätestens wenn es an die Verkaufszahlen geht sollte NV aufwachen.

Die Verfügbarkeit der 5k Radeons sollte besser werden damit ATi die Gunst der Stunde 100 % ausnutzt. Die 470 könnte ruhig auch verfügbar werden, für NV Fans sind die ~50W mehr TDP nicht relevant.
 
Zuletzt bearbeitet:
LumPe schrieb:
Wurden die GTX 470/480 nicht schon abgepackt? Ich erinnere an die News mit den Kartons im Lager. Solange kann der Versand ja nicht dauern.

Wie ich schon damals sagt, Kartons kann man auch ohne Inhalt falten ;)

gpanda schrieb:
liegt die schuld jetzt nur bei tsmc oder haben da ati bzw nvidia mitschuld.

Naja, zum größten Teil an TSMC und Nvidia hat anscheinend auch noch den großen Fehler gemacht einige wichtige Teile nicht redundant zu verbauen...
 
Also solange die Preise so hoch bleiben, werden eher weniger zur GTX 470 greifen, da die HD 5870 etwa gleich viel kostet, leistungsmäßig auf den gleichen Niveau der GTX 470 liegt, aber dafür viel weniger verbraucht und nicht so viel Abwärme produziert.

Und für 500€ eine Graka kaufen finde ich Schwachsinn.

Tja, ich hoffe bis zum Sommer oder Spätsommer wird es schon viele Modelle der GTX 480 mit alternativen Kühlern für ca. 400€ geben.
 
Zuletzt bearbeitet:
@ JokerGermany (und gpanda)

Und nVidia hat noch den Fehler gemacht keine Test GPU für den 40nm Prozess in sinnvoller Größe zu machen. Näheres zu dem Thema gibt es auch bei Anandtech und anderen Quellen.

@ IchmagToast

Auch im Sommer wird es schon interessant wie es bei den GTX 4XX Karten mit der aktuellen Kühlung aussieht. Die bisherigen Tests wurden ja alle mit 20-22° Umgebungstemperatur gemacht. Was passiert wenn es mal 30-35° hat, interessiert mich jetzt schon. Bei Hardwareluxx werden dann auch Temps mit über 100°C erwartet.
 
Zuletzt bearbeitet:
Mist hätte ich bloss nicht vorbestellt bei Hardwareversand, wenn die Lieferzeit dort schlecht sein soll :(
 
DvP schrieb:
@ JokerGermany (und gpanda)
Auch im Sommer wird es schon interessant wie es bei den GTX 4XX Karten mit der aktuellen Kühlung aussieht. Die bisherigen Tests wurden ja alle mit 20-22° Umgebungstemperatur gemacht. Was passiert wenn es mal 30-35° hat, interessiert mich jetzt schon.

Das wird in der Tat mal noch spannend. Daran habe ich bis jetzt noch garnicht gedacht. Teilweise laufen die Karten ja jetzt schon am Temperaturlimit und wenn die Umgebungstemperatur nochmal um 10°C steigt wäre das schon kritisch.
Da kann die zweite Lieferung gleich dazu verwendet werden die Garantiefälle abzudecken....ohhje.
 
thommy86 schrieb:
Mist hätte ich bloss nicht vorbestellt bei Hardwareversand, wenn die Lieferzeit dort schlecht sein soll :(
Das habe ich nicht geschrieben - sondern dass diejenigen schneller beliefert werden die mehr bezahlen und nicht diejenigen die zuerst bestellen - das finde ich schon unverschämt.
Bei der HD5xx Serie haben sie sich jedenfalls ihren Kunden gegenüber ganz schön link verhalten.
Eine Vorbestellung kann man auch stornieren ;)
 
Matze89 schrieb:
Ist es nicht so, dass sich mit steigenden Verkaufszahlen/Produktionszahlen die Fixkosten auf eine größere Menge verteilen und sich somit eine Kostensenkung einstellt?

nen Wafer kostet irgendwas um die 10.000€
da haben knapp 100 fermi Chips drauf Platz.
wovon angeblich nur 20% Funktionieren.
--> Die Herstellung des puren Chips kostet ca 500€
ein Yield von 50% ergo Chipkosten von ca. 200€
müssen es mindestens sein das Nvidia auch gewinn am Fermi macht.
 
@CB

Vielen Dank an die Redaktion, dass sie sich offensichtlich mit der Kritik über die Berichterstattung zum Fermi auseinander gesetzt hat und nun auch mal negative Nachrichten zum Thema macht. Und Semiaccurate als Quelle? Ich konnte meinen Augen erst nicht glauben ;) Der eine oder andere wird sich sicher auch darüber ärgern, dass er Opfer der Marketing-Abteilung von Nvidia geworden ist. Wenn man alleine schon an die Bilder der Inno3D Kartons denkt. Offensichtlich waren die doch leer. Was anderes hatte ich eigentlich auch nicht erwartet.

Die schlechten Yield-Raten sind für mich kein Wunder. Auch die Lieferbarkeit nicht. So wie es aussieht wird Fermi ein reines Prestige-Objekt und wohl erst nach einer größeren Überarbeitung flächendeckend auf den Markt kommen. Kann man nur hoffen, dass Nvidia aus dem Debakel lernt wie damals AMD beim R600. Ansonsten sehe ich schwarz für die Preisentwicklung in den nächsten Monaten. Könnte mir jetzt echt in den A**** beißen, daß ich mir damals keine HD5850 geholt habe. Ich dachte die Preise fallen mit dem Fermi-Release. Aber da hat mir Nvidia einen Strich durch die Rechnung gemacht...
 
ich glaub viele haben noch nicht ganz kapiert, dass Nvidia der GTX480 relativ Banane ist.
Die <20% sind natürlich kacke und daran werden sie zu beißen haben, dennoch zielte Nvidia mit dem GF100 nie auf Desktop ab sondern hat einen Chip zusammengeschustert der vorallem in professionellen Bereichen seine Stärken zeigt und dort Absatz finden soll. Und dort bewegt man sich ganz sicher nicht im Verlustgeschäft.
3D Darstellung / Physiks werden zunehmend zu "Nebenfähigkeiten" - und stehen nicht mehr im Vordergrund. Die GPU wäre schon sehr sehr ineffizient gebaut wenn man davon ausgeht das Augenmerk auf 3D Performance gelegen hätte.

Die unter 20% sind natürlich bitter, - die Größe des Chips ist hier alles andere als vorteilhaft. So hatte man sicher nicht kalkuliert.

Vielleicht überlässt man AMD / ATI komplett das Feld - was Monopolstellung im High End Bereich bedeuten würde. Aber wie das die Kommision sehen würde keine Ahnung... immerhin hat Intel immernoch den weit größeren GPU Anteil. Und der GF200 in 40nm würde für den wichtigen Mainstream Markt vorerst ausreichen.

Vielleicht wurde der GF100 auch sehr als Konkurrenz zu Larrabee entwickelt, die Ähnlichkeiten sind schon recht groß. Auch auf Raytracing wurde viel Wert gelegt, mich würde die Performance des GF100 dahingehend interessieren. NVidia hat eine Zeitlang sehr viel in Sachen Raytracing vorgestellt, Demos, Shows - man wollte Intel mit Larrabee und der eigenen RayT Engine nicht das Feld überlassen. Nun hat Intel Larrabee mehr oder weniger auf Eis gelegt. Man hat den Fehler erkannt und versucht den GF100 auf klassische 3D Darstellung umzubiegen, einen Mittelweg zw Computing Leistung und 3D gesucht und dabei nur mehr oder minder Erfolg gehabt. Deswegen die Verzögerung was auch NVidia gestanden hat (das Redesign).

Bleibt abzuwarten ob sich der GF100 im Server / Computing Bereich behaupten kann oder ob NVidia wieder als klassischer 3D GPU behaupten muss und einen Chip dahingehend entwickelt.
 
LumPe schrieb:
Teilweise laufen die Karten ja jetzt schon am Temperaturlimit und wenn die Umgebungstemperatur nochmal um 10°C steigt wäre das schon kritisch.

Bei den "normalen" Tests hat die GTX480 oft genug 94-96°C erreicht und bei 105°C geht der Chip automatisch in den Power Safe Mode. Mal sehen ob das in der Praxis mal vor kommt. Wenn nicht, kann man sich zumindest die Lautstärke vorstellen, wenn der Lüfter mal auf 100% läuft - siehe PCGH Video.
 

Ähnliche Themen

Zurück
Oben