Nvidia stampft offenbar GTX 260 / 275 / 285 aufgrund der Kosten ein

Status
Für weitere Antworten geschlossen.
Lübke schrieb:
@Turbostaat: deine betrachtungsweise ist sehr einseitig und voller vorurteile.
- bei den notebookchips hat nvidia die tdp falsch bemessen und daher bei einer serie große probleme mit überhitzung aufgrund falsch dimensionierter kühlung gehabt. aber das ist ja schon erledigt und heute nicht mehr relevant
Was hat die TDP mit minderwertigen Lötstellen zu tun? Die GPUs sind nicht aufgrund von falschen TDP Werten kaputtgegangen, sondern weil das Material, die Qualität, die Lötverbindung minderwertig waren und sich bei Temperaturschwankungen u.a. die Materialeigenschaften sich verändert haben und dadurch die GPUs Matschbilder rausgeschmissen haben.

- große chips und infolge dessen probleme im preiskampf gegen die hd4k stimmt, die qualität der spulen hat aber nichts mit nvidia zu tun. die produzieren nur die gpus. das spulenfiepen haben die kartenhersteller verursacht (von denen es übrigends nur zwei oder drei gibt, die boardpartner kaufen alle bei den gleichen herstellern die fertigen karten ein, daher auch das kollektive problem mit den spulen)
Große Chips = teure Produktion = nicht so billig verkaufen. ATi Chips kleiner, Produkuktion günstiger, billigerer Verkauf. Preise können dadurch weiter gesenkt werden, die nvidia Chips können nicht billiger verkauft werden, da sonst Verlustgeschäft. Um bei dem Preiskampf mitspielen zu können mussten die Hersteller woanders sparen, sprich bei anderen Bauteilen. Also bei den Spulen.
- das thema namensgebung hatten wir schon vielfach. das ist eine reine marketinggeschichte und hat nichts mit den gpus selbst zu tun. dass die veränderungen bei nvidia zwischen den generationen kleiner als bei ati ausgefallen sind, liegt daran, weil nvidia mit der 8800gtx bereits genug hatte, um bis zur 4850 durchzuhalten. größere veränderungen waren schlicht nicht nötig. (siehe auch radeon 8k, 9k)
Die Namensgebung war rein dafür da um die riesigen Bestände der Chips rauszuschmeißen. Aber eine Karte mit dem Namen 8800 Re-Re-Reloaded kauft nunmal kein Mensch.

- physx hat sich bisher nicht durchsetzen können, und solang ati nicht mitmacht (und das werden sie wohl auch nicht) wird physx nie für mehr eingesetzt werden können, als für reine effekte, da die spiele sonst auf einer ati nicht mehr laufen würden.
Und nvidia ist hierbei nicht förderlich. Warum wohl sperren sie seit den neuesten Treiberversionen das PhysX Features bei Entdeckung von ATi Grafikarten? Anstatt das die Leute eine ATi für das Bild und eine nvidia für PhysX Effekte nutzen können riegelt nvidia hier ab. Komischerweise laufen die Treiberhacks problemlos, obwohl nvidia behauptet es würde zu Problemen kommen.
- die förderung der spielehersteller, die hier von vielen so verteufelt wird, ist eigentlich eine gute sache. die verschwörungstheorien, die hier leider nvidia angedichtet werden, von wegen es würden ati-karten in den spielen abgebremst werden und so, sind humbug. ich glaube aber nicht, dass dieses programm so viel geld verschlingt. vermutlich kostet ein twimtbp-logo weniger kostet als ein fernsehwerbespot. und das bereitstellen von hardware für die spieleschmieden (z. b. engeneering samples kommender karten) wird von ati ebenso betrieben. vermutlich arbeiten schon viele programmierer seit monaten mit hd5k-karten wie seinerzeit 2006 mit 8800gtx-vorserienmodellen.
Bestes Beispiel Batman Spiel. Nicht nur die PhysX Effekte die Flaggen, der Nebel etc werden bei ATi Karten komplett ausgeblendet, nein auch der interne AA Button wird "ausgeblendet" / grau hinterleget. Ändert man die Device ID des ATI Gerätes auf nvidia, schwupps ist der AA Button funktionstüchig.
Wo wollen wir weitermachen? Bei Assassins Creed? Angeblich fehlterhafter DX101.1 Renderpfad. Was machen die Entwickler. Anstatt den Fehler zu beheben schmeiße sie den Renderpfad komplett raus.

Was noch bleibt ist deren Geschäftspolitik, lügen bis sie überführt werden, dann das zugeben was man nicht leugnen kann, kommen weitere Sachen zu Tage, werden diese dann auch Stückchenweise zugegeben.
 
Sehen wir es einmal so, bei allem schlechten Meldungen derzeit weis NVidia noch wie man in einer PC-Krise wirtschaftet--> Kosten runter fahren.
Die haben wahrscheinlich noch volle Lagerbestände und die nächste Graka-Generation steht vor der Tür. Sie sind weiterhin mit weitem Vorsprung die Nr.1 im Grafikkartenmarkt (Umsätze, Stückzahlen) und werden auch noch in näherer Zukunft die Nr.1 bleiben. Insgesamt immer noch besser als die AMD-Jungs, die auch für das Jahr 2008 wieder mit einem dicken finanziellem Minus enden werden. Nvidia beschreitet derzeit ein Tal der Tränen, aber sie haben meiner Meinung nach deutlich bessere Chancen wieder zu alter Stärke zurück zu finden, als AMD/Ati. Ich fand die Kundenverarsche mit den Bezeichnung der neuen alten Karten bei Nvidia schon immer schlecht, aber sie werden aus solchen Fehlern lernen.

Wer denkt, AMD fährt mit seinen Radeons dicke Gewinne ein, der hat wenig Ahnung von Betriebswirtschaft und Bilanzanalyse.
 
@Thomas
Intel ist der absolute Marktführer..ganz weit hinten liegen Nvidia und ATI.
Onboard Grafikchipsätze und vor Allem Notebook-GPUs liegen in Intels Händen.
 
Ja, man muss eh abwarten...:)

Vieles erscheint tatsächlich aufgebauscht und äußerst spekulativ zu sein...

PCGH sieht die Sache übrigens leicht anders...

Im Prinzip bestätigt der Bericht meine Meinung, dass Nvidia bei der GT200 Lieferprobleme hat oder dass diese vielleicht sogar eingestampft wird, aber alles andere bloße Spekulation ist...
 
Screemer schrieb:
ich glaub ihr überschätzt den HPC markt ein bisschen. nvidia hat im letzten quartal 10millionen dollar in dem bereich umgesetzt. das sind gerade einmal 1% ihres gesamtvolumens...

Mag ja sein und gerade deswegen sollte die Umsatzrendite dort höher ausfallen, als bei umsatzstarken Produkten, was jetzt aber nicht bedeuten soll, dass die dort erwirtschafteten Gewinne die Verluste komplett decken. Nicht das wir uns da jetzt missverstehen.

Ich will nur aussagen, dass Umsatz nicht gleich Gewinn ist.
 
@Screemer
Das sich der HPC Bereich gestützt auf GPU's erst langsam entwickelt ist dir schon auf gefallen, es wird nach wie vor alles auf x86 CPU gerendert und NV erwartet in diesem Bereich in den nächsten Jahren ein riesiges Wachstum und Gewinne, deswegen konzentrieren sie sich zunächst auf den Profibereich und deswegen beherrscht der Fermi-Chip x86. NV hat sich mit den dicken Fischen in den Bereich zusammengesetzt und hat sich angehört was die sich so wünschen, herrausgekommen ist der Fermi-Chip. Ich will nicht wissen wieviel davon alleine Sony Pictures bestellen wird.

Rechne dir doch mal aus wieviele CPU's man braucht und an die Leistung von 4 Fermi Karten in einem 1U Gehäuse zukommen, abgesehen vom Platz und Kühlungsaufwand.
 
Zuletzt bearbeitet:
@Turbostaat:
- dir ist schon klar, dass nvidia nur die gpus herstellt? und das thema ist ja wie gesagt schon gelöst und daher kein grund für nvidia, sich aus dem geschäft zurückzuziehen.
- in dem punkt schreiben wir grade beide das gleiche, da hatte ich dir schon recht gegeben, bis auf die sache mit den spulen. das war allein entscheidung der kartenhersteller, um ihre margen zu vergrößern. hat sich aber als fehler herausgestellt. es ist jedenfalls kein grund für nvidia, sich aus dem gpu-geschäft zurückzuziehen, da es ihre produkte (die gpus selbst) nicht betrifft
Die Namensgebung war rein dafür da um die riesigen Bestände der Chips rauszuschmeißen.
dafür, dass sie die dinger loswerden wollen, produzieren sie aber noch reichlich nach ;). zudem wurden nicht nur die karten umbenannt, sondern auch verändert. die-shrink, stromsparmodus, taktraten, etc. nur dass die änderungen eben nicht so gravierend waren wie bei ati.
Aber eine Karte mit dem Namen 8800 Re-Re-Reloaded kauft nunmal kein Mensch.
genau aus diesem grund hat man bei der namensgebung die gleichen sprünge wie die konkurrenz gemacht ;) jetzt hast dus verstanden^^ woher soll otto-normalverbraucher denn wissen, dass eine gts250 etwas schneller und sparsamer und gleich modern als eine 4850 ist, wenn man ihr den namen eines 2900xt-konkurrenten (8800) gibt? ;)

Und nvidia ist hierbei nicht förderlich. Warum wohl sperren sie seit den neuesten Treiberversionen das PhysX Features bei Entdeckung von ATi Grafikarten? Anstatt das die Leute eine ATi für das Bild und eine nvidia für PhysX Effekte nutzen können riegelt nvidia hier ab. Komischerweise laufen die Treiberhacks problemlos, obwohl nvidia behauptet es würde zu Problemen kommen.

das ist imho wirklich dummheit von nvidia. auf der einen seite haben sies ati ja kostenlos angeboten auf der anderen seite wollen sie nicht, dass eine ati und eine nvidia-karte zusammen damit laufen... ist für mich auch nicht nachvollziehbar.

Was noch bleibt ist deren Geschäftspolitik, lügen bis sie überführt werden, dann das zugeben was man nicht leugnen kann, kommen weitere Sachen zu Tage, werden diese dann auch Stückchenweise zugegeben.
genau da liegt das hauptproblem. ati und nvidia haben die gleiche geschäftspolitik. wenn ati die käufer mit gerüchten um eine 2900xtx-überkarte warten lässt und alle das ok finden, wir nvidia für die präsentation der fermi-karte in der luft zerrissen. bei ati ist die umbenennung der karten von radeon 8x00 auf radeon 9x00 ok, bei nvidia ist das "kundenverarsche" (ironischerweise sogar bei der gleichen namensgebung). viele hier personifizieren die beiden hersteller und bemessen das handeln mit zweierlei maaß. das verhalten von ati und nvidia ist vollkommen gleich und auch die ziele sind vollkommen gleich. beide wollen nur hohe absatzzahlen und hohe margen. ati ist nicht euer freund und nvidia nicht euer feind, auch wenn viele das hier gerne so hätten...
 
ich würds nicht so dramatisch sehen

zugegebenermaßen sind die 285er karten bei sehr wenigen shops lieferbar. dazu kommt noch das neulich einer von Nv gesagt hat das man die gpu's nicht unter dem preis verkaufen wird, im bezug auf eine frage ob die 285er günstiger wird da die 5870 nicht nur günstiger, sondern auch schneller ist
 
freeforallG92G92bG80RV770GT200-1.jpg


Schon ein grosser Unterschied, wenn man bedenkt, dass g92b viel kleiner war.

fudzilla: http://www.fudzilla.com/content/view/15831/34/
 
Zuletzt bearbeitet:
@Lübke
Ja, genau, es geht um die Chips. Und deren Qualität ist / war unter aller Sau.
http://www.theinquirer.de/2008/12/09/nvidia-apple-und-wieder-arger-mit-macbook-pro.html
Und hier ist der Hund begraben und auch hier war nvidia nicht ehrlich. Dafür sind nicht die Abnehmer der Chips verantwortlich, sondern ganz allein nvidia.

nvidia / AMD - ATi und PhysX. AMD / ATi brauchen kein PhysX - sie haben mit Intel zusammen an der Havok Physik Engine gearbeitet. Ebenso wollen sie per OpenCL, DX11 und der Bullet Physik Engine Unterstützung rankarren. Übrigens habe ich nie eine seriöse Quelle / Artikel dafür gelesen das nvidia jemals PhysX an ATi umsonst / kostenlos oder dergleichen angeboten hätte, sondern immer nur irgendwelche Forenbeiträge die dies behaupten.
 
Die Chips sind nicht schlecht, nur das Kontaktmaterial zum Träger. Das ist ein fetter Unterschied.
 
@y33h@
Sorry, gehört für mich als Komplettpaket dazu und fällt auch unters nvidia Zuständigkeit.

(Um mal mit tollen Autovergleichen zu kommen) Ich will auch kein Auto kaufen bei dem der Motor zwar leistungsstark ist, aber leider die Karosserie unter meinem Arsch wegbricht.
 
Ich weis nicht was nun an den Gerüchten wahr ist oder nicht. Was aber, meines erachtens, ein wichtiges kriterium ist, warum der g200 eingestellt werden sollte, ist, dass es im moment einfach keinen Sinn mehr macht den teuern Chip weiter zu fabrizieren.
Zur Erklärung:
- Der erste und wichtigste Punkt ist, dass ATI seine neuen DX 11 Karten auf dem Markt gebracht hat und wie man offen sagen muss, mit Produkten die in jeder Hinsicht die Erwartungen erfüllen. Das war bei dem Vorgängermodellen noch nicht so, sowohl bei ATI als auch bei Nvidia. Denkt mal noch an die ersten Karten, die laut, heiß und sehr Stromhungrig waren. Das lag aber wohl daran das zu der Zeit ATI und Nvidia noch auf Augenhöhe lagen und sich quasi gegenseitig so unter Zeitdruck gesetzt haben und sich gezwungen sahen, noch nicht 100% ausgereifte Produkte auf den Markt zu bringen. Dazu kommt das ATI von anfang an ihre Chips viel günster produzieren konnten. Auch wenn Nvidia, ich sags mal so, den besseren Chip hatte, so waren sie von Anfang an gezwungen, den zu schleuderpreisen auf den Markt zu bringen.
- und da kommen wir zu dem 2. Punkt. Ich nehme mal an, das der g200 chip auch heute noch sehr teuer in der Produktion ist. Sie müssten aber so gewaltig mit den Preisen runter gehen das es wahrscheinlich zu einem Verlustgeschäft für Nvidia werden würde, wenn sie ihre Karten noch loswerden wollen. Um es mal deutlich zu machen, ne GTX 285 liegt z. Z. noch bei so 280-400 Euro eine 5850 bei 200-250 Euro hat aber ein paar % mehr Leistung, ist sparsamer usw. Jeder normale Mensch würde da zur ATI greifen. Deswegen müsste Nvidia die Preise soweit senken, das es sich nicht mehr rentiert diese Karten überhaupt zu produzieren.

Also, das was ich hier jetzt niedergeschrieben habe ist meine ganz subjektive Meinung, aber ich glaube soweit hergeholt ist das alles nicht. Aber gleich vom Untergang Nvidias zu sprechen ist dann doch ein bischen viel. Wir, die Verbraucher, brauchen in dem Segment, Konkurrenz. Und ich glaube nicht das Nvidia uns da im Stich lässt.

Gruß Schaby
 
@Lübke
Naja zwischen "umsonst" und "allen verfügbar machen" ist in meinen Augen ein Unterschied. Verfügbar machen in Form von Lizenzgebühren? Nvidia ist ja auch keine Wohlfahrt und sagen ok wir kaufen für
Klar wollte nvidia ihre Position stärken mit PhysX und hatten sich auch von Havoc verabschiedet, gleichzeitig will sich ATi natürlich nicht von nvidia abhängig machen und OpelCL stand auch auf der Matte und die Haustür war schon geöffnet. Also warum extra auf CUDA hinarbeiten usw.
 
@Schaby: die gtx285 könnte theoretisch auch für 150,- € verkauft werden. sie kostet in der herstellung kaum mehr als die gtx260, die schon unter 130,- € anfängt. allerdings wird nvidia den namen ihres flaggschiffs wohl nicht verramschen wollen. gtxX85 soll als highend-name erhalten werden. dann lieber als gtx275 oc verramschen und noch n paar euro im preis nachgeben...

Turbostaat: open cl könnte jetzt die chance sein, physx zum standart werden zu lassen. falls nvidia klug ist, werden sie die physx-bibliotheken für open cl anpassen. damit hätte ati zwangsläufig physx-fähigkeit. nur als verkaufsargument könnten sie es nicht mehr für sich einsetzen. da stellt sich die frage, was ist für nvidia vorteilhafter?
 
Zuletzt bearbeitet:
Schaby schrieb:
[...]
Also, das was ich hier jetzt niedergeschrieben habe ist meine ganz subjektive Meinung, aber ich glaube soweit hergeholt ist das alles nicht. Aber gleich vom Untergang Nvidias zu sprechen ist dann doch ein bischen viel. Wir, die Verbraucher, brauchen in dem Segment, Konkurrenz. Und ich glaube nicht das Nvidia uns da im Stich lässt.

Gruß Schaby

du hast recht. es braucht konkurrenz, i möchte mir gar nicht vorstellen wie die preise in die höhe schießen würden, gäbe es nur einen großen hersteller im mid-high end bereich.
 
Auf der anderen Seite kann AMD/ATI aber auch nicht gerade gut mit den Karten verdienen...
Die Preise sind ja echt ABARTIG in den Keller gegangen.

Eine 9600GT kostete zu beginn 160 Euro, ist jetzt immer noch nicht schlecht und kostet nur mehr 90 Euro.
Ich glaube nicht, daß die Herstellung und der Vertrieb der Karten im letzen Jahr auf 50% gesunken ist.

Ist doch MEGALOGISCH, daß Nvidia die GTX 2xx auslaufen lässt... wer kauft die jetzt noch?!
Soviel Fanboy kann man gar nicht sein!
Und in 2 Monaten ist die neue Nvidia Generation da, die sicher mehr als 20% auf die GTX 285 vs. 5870 drauflegt!
 
pookpook schrieb:
Vergiss aber nicht dass die ATI Sparte bei AMD ist die einzige was Gewinn macht zz.

Und Nvidia hat Probleme keine Frage.

Sie haben so lang auf G80/G92 Karten gebaut-Alleine die verarsche mit 8800GTS/9800GTX/GTS 250 ist genug beweise dass die Führung wirklich nicht so toll ist.GTX 260 ist eine tolle Karte aber kostet mehr in die Produktion als was es verkaufen kann.

Alles dank ATI!

Wenn Fermi wirklich nicht hinhaut könnte Nvidia pleite gehen-Kein Scherz!

Was kann denn da jetzt ATI dafür das sie auf die richtige Technologie gesetzt haben und sich die Grünen verzockt habn und immer grössere Chips bauten. ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben