Nvidia stampft offenbar GTX 260 / 275 / 285 aufgrund der Kosten ein

Status
Für weitere Antworten geschlossen.
Romsky schrieb:
Naja, zumindest im Falle Assasins Creed und DX 10.1 wurde gegen ATI gearbeitet.

Wenn dem so wäre, warum hat ATi damals dann nicht schon reagiert? Sie haben dazu nichts gesagt, im Gegensatz zum Batman-AA-Problem.

Warum regen sie sich (berechtigt) bei Batman auf, halten aber bei Assassins Creed die klappe? Das ergibt für mich keinen Sinn.

Aber ok, altes Thema, auf dem wir nicht weiter rumreiten wollen...
 
Volker schrieb:
Nach einem Quartal mal im Minus ist es unweigerlich das Ende.

So ähnlich wie Volker sehe ich das auch. Leider sprechen viele Argumente für Problems.
Schließlich ist es nicht nur 1 Quartal gewesen. ;-).
Aber ich bin da mal ganz entspannt.
 
Das ist aber eine ganz andere Aussage, als sie im Bezug auf Batman. Hier gibt es keine direkten Vorwürfe, nur eben die Aussage, dass nVidia DX10.1 runterspielt und es Probleme mit Assassins Creed gab. Es mag eine Anspielung sein, aber eben kein Vorwurf, wie bei Batman.
 
Volker schrieb:
http://www.hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363
Damnit, und wir durfen das nicht schreiben, aber US-Nvidia ist da weniger zimperlich als die deutsche Abteilung :D

Das ist doch nur Marketing-Gelaber. Außerdem ist nicht ersichtlich, welche Frage Kyle gestellt hat, so aus dem Zusammenhang gerissen kann das alles möglich bedeuten.

Genau wie hier

Ja, man wird weiter GTX-Karten produzieren. Wieviele denn? Oder welche Generation? GTX 200 oder dann erst wieder GTX 300?

Lübke schrieb:
mehr als 500,- € für die x800, die sich teilweise grad so vor der 6600gt halten konnte (in doom3 sogar unterlegen war)

Komisch das die X800 dann vor der 6800 steht, teilweise sogar vor der 7900...

Jaja, ich weiß, nur Shader 2.0. Allerdings wischt die Nachfolgekarte mit den Geforce 7 sowas von den Boden, das is schon nimmer feierlich. Vielleicht war das ATIs Problem, die Karten waren einfach zu gut, während man bei NVIDIA jede Generation neu kaufen durfte XD (Hat sich ja spätestens mit der G8 geändert :cool_alt:)

Lübke schrieb:
gleichzeitig werden die aussagen eines bekannten nvidia-hassers von dir verteidigt. was nvidia da geschrieben hat entspricht den tatsachen. seine seite sieht aus wie eine amd-reklame und es ist nichts dran an dem was er schreibt. das sind doch fakten, wie sie auch schon von volker und anderen vorher gesagt wurde.

Wie oft soll ichs noch sagen? Charlie D. hasst NVIDIA nicht, er macht bloß auf (teilweise sehr) sarkastische Weise (halt sein Schreibstil) darauf aufmerksam, was NVIDIA so alles "produziert".

Mit der Werbung auf SA hat er nix am Hut, das mancht jemand anders (frag mal nach Copper im Forum). Und der Typ (Copper) hat nunmal gute Kontakte zu AMD, warum soll er die nicht nutzen? Grad wo es für eine raltiv neue Website schwierig ist, an Werbung zu kommen.

Und Fakten hab ich noch keine gesehen, die widerlegen würden, was er schreibt. Eher das Gegenteil.

Lübke schrieb:
das verhalten von ati ist ja auch nicht grad astrein. wenn ich daran denke wie die ihre boardpartner behandeln (stichwort gainward 4850 gddr5).

Ich würd eher sagen, da hat sich der Boardpartner ein größeres Stück abgebissen, als er kauen konnte. Und wurde zurecht von AMD abgestraft. Stichwort Vertragsverletzung. Und ne 4850 GDDR5 war nunmal nicht vorgesehen ;)

Lübke schrieb:
ist auch nur ne unbewiesene aussage. dass der renderpfad fehlerhaft war, ist ja erwiesen.

Quelle? Da ist gar nix erwiesen. Das Teil war ein TWIMTBP Titel und "zufällig" auf DX10.1 "optimiert". Das hat NVIDIA natürlich nicht gepasst (schließlich hat man ja Geld gezahlt) und darauf wurde es "gefixt". Ich hoffe, in 10 Jahren erzählt da nochmal einer, was da wirklich abging. Vielleicht wars wirklich nurn Programmierfehler XD

Volker schrieb:
Es gibt Unternehmen die arbeiten seit Jahren in den roten Zahlen und da kauft auch keiner was auf. Und wieso soll ausgerechnet Intel immer alles aufkaufen? Irgendwie ist die Sicht vieler Leute nur auf 2, 3 Unternehmen beschränkt. Und mehr gibt es in der Elektronik-Branche ja wirklich kaum...

Frag mal Charlie...

Ganz witzig: Ein interessantes Statement Charlies aus dem Link

"Chipsets will save them, just ask the company, but don't include any pesky questions about what a chipset will be next year."

-->"Nvidia [...] has a chipset business that won't exist in a little over a year"

:D:lol::evillol:
 
Zuletzt bearbeitet:
NVidia konnte lange mit ihren alten GPU-Designs verdienen, da sie Performance-Führer waren. Wenn sie sich aber so lange ausruhen, und es ersichtlich ist, dass dort gar nichts mehr entwickelt wird, was mit ATI mithalten kann und sie auch in anderen Bereichen praktisch ihre Produkte still auslaufen lassen, dann wundern mich die Meldungen von SemiAccurate nicht, dass NVidia schon seit längerer Zeit versucht, sich für eine Übernahme "zur Schau zu stellen". Das war bei der Fermi-Präsentation doch nicht anders. Kein Wort über Spieleperformance, nur Cuda und Co, wovon die PC-Gamer nichts haben. Das diese Ausrichtung und Präsentation die Gerüchteküche anheizt und die NVidia-Käufer beunruhigt - das war eine natürliche Folge.
 
AvenDexx schrieb:
Hier gibt es keine direkten Vorwürfe, nur eben die Aussage, dass nVidia DX10.1 runterspielt und es Probleme mit Assassins Creed gab. Es mag eine Anspielung sein, aber eben kein Vorwurf, wie bei Batman.
The industry has heard NVIDIA downplay the importance of DX10.1, there was even a public issue with a certain game that launched as a DX10.1 game but then the publisher patched the game back to being a DX10 game even though it significantly reduced the gaming experience for ATI Radeon GPU based gamers. (i.e.: by reverting to only a DX10 performance/experience level, thus eliminating all the DX10.1 goodies)
da steht nichts von problemen mit ac sondern, dass aufeinmal der dx10.1 renderer weggepatched wurde. da schwingt schon was mit. wenn sowas öfter vorkommt würde mir auch mal der kragen platzen. ich steh der ganzen diskussion im übrigen sehr neutral gegenüber. nvidia engagiert sich extrem was spiele entwicklung angeht und leistet support wo sie können. jedoch passieren komische dinge.
 
@KAOZNAKE: ich habe nicht von fear sondern doom3 gesprochen. hier bitte:
wo du die x800 vor der 7900 siehst, bleibt mir schleierhaft.

Wie oft soll ichs noch sagen? Charlie D. hasst NVIDIA nicht, er macht bloß auf (teilweise sehr) sarkastische Weise (halt sein Schreibstil) darauf aufmerksam, was NVIDIA so alles "produziert".
oh natürlich, und warum macht er nur auf nvidia so sarkastisch aufmerksam, nicht aber auf ati? sry, aber ich seh das ganz klar so wie volker. charlies "news" sind mehr als einseitig gegen nvidia gerichtet und meist an den haaren herbeigezogen. sowas ist imho kein sarkasmuss und wird offensichtlich von den lesern auch nicht als solcher verstanden (wie erklärst du dir sonst diesen thread? ;) )
 
Screemer schrieb:
...da schwingt schon was mit...

Wie ich schrieb, das mag eine Anspielung sein, aber eben kein Vorwurf, wie bei Batman. Daher sehe ich es etwas differenzierte.

Aber wie schon geschrieben, altes Thema, auf dem wir nicht weiter rumreiten wollen.
 
Flamewar Fanwar Trollwar... Mal im ernst wir wissen nix, nehmt es doch mal zur Kenntnis und macht euch nicht gegenseitig fertig.
Werdet ihr von AMD oder Nvidia bezahlt oder wurde ein Leben nach dem Tode versprochen im Raditor einer Grakakühlung oder auf einer GPU beschleunigten Crysiswelt ?
 
Lübke schrieb:
@KAOZNAKE: ich habe nicht von fear sondern doom3 gesprochen. hier bitte:
wo du die x800 vor der 7900 siehst, bleibt mir schleierhaft.

Man muss allerdings im gleichen Satz erwähnen, Doom3 ist auf nV optimiert, als "Gegenschlag" dafür, dass HL2 auf ATI ausgelegt war.

Generell finde ich es aber witzig wie hier einige scheinbar sehr gerne den Ideen von Charlie glauben. Mag sein, dass er gesagt hat er hasst nV nicht, aber seine Artikel resp. deren Titel und Schreibstil zeigen zumindest, dass er eine deutliche Abneigung gegen nV hegt. Man kann das von mir aus auch auf seinen Schreibstil abschieben, aber sollte sich dann trotzdem fragen wieso der bei ATI News scheinbar plötzlich verloren geht :p
Fakt ist Charlie ist nicht dumm. Seine News wachsen meistens aus einem Korn Wahrheit. Fraglich ist nur wie. Er lässt gerne den Worst-Case für nV daraus wachsen und lag damit in jüngster Zeit sehr oft richtig, weil nV einfach viel verbockt hat.

Ob es hier wieder so ist, dürfte sich schnell zeigen. Ich denke eher nicht an ein Auslaufen der 200er Karten einfach deshalb, weil es komisch wäre ATI mit gar nichts mehr entgegen zu stehen. Da halte ich eine "nicht ganz zufällige" Chipknappheit für den deutlich klügeren Schachzug, denn es gibt immer noch einen Haufen Leute die a.) noch garnix von den HD5k Karten wissen (die Masse liest nunmal keine IT Zeitschriften und Pages) und b.) selbst wenn sie die HD5k Karten kennen, lieber ein nV Karte kaufen. Gründe dafür gibt es genug beginnend von zufälligen schlechten Erfahrungen in der Vergangenheit bis hin zur Faulheit das System nicht neu aufsetzen zu wollen weil ein anderer GrakaTreiber installiert werden müsste...

Insofern besteht durchaus noch ein Markt für diese Karten auch wenn er seit dem Release der HD5k Karten - aus gutem Grund - deutlich geschrumpf ist.

Soweit zumindest mein Senf :D
 
Zuletzt bearbeitet:
Volker schrieb:
klar. Nach einem Quartal mal im Minus ist es unweigerlich das Ende.

Und ich dachte, wenigstens die Leute die fuer CB arbeiten informieren sich bevor sie hier was schreiben.

Wie schon weiter vorn geschrieben hat Nvidia in dem Geschaeftsjahr, welches 2008 endete (durch das verschobene Geschfaeftsjahr heisst das bei Nvidia 2009), mit Verlust abgeschlossen. In den ersten 2 Quartalen des aktuellen Geschaeftsjahres (bei Nvidia 2010) hat man niedliche $ 300 Mio Verlust erwirtschaftet.
Und auch fuer das laufende Quartal werden ausserordentliche Belastungen erwartet. Anfang November sollten die Zahlen vorliegen, dann schauen wir weiter.
 
@DerToast: ok das beispiel mit doom3 war jetzt nur, um eben auszudrücken, dass die x800 auch nicht billig für ihre leistung war. klar ist das ein spiel was der gf6 besser lag und nicht representativ. es ging ja auch nicht um die bessere karte, sondern es ging hier um die preisgestaltung von ati und nvidia. ich wollte nur die aussage wiederlegen, dass die x800 besonders günstig verglichen mit der nvidia-konkurrenz gewesen wäre. ich denke, damit ist das ot x800 zur genüge breitgetreten worden^^
 
@GreatEvil: Wenn du Volkers Aussagen verfolgt hättest, wäre dir aufgefallen, dass es Sarkasmus war. Das geht sogar aus dem gesamten Beitrag hervor. So wie du zitierst, ist es völlig aus dem Zusammenhang gerissen und verfälscht damit die gesamte Aussage.
 
@Lübke sorry bin zwar schon lange am mitlesen, aber das hab ich zu wenig wahr genommen ^^ aber ich denke da muss man kaum drüber diskutieren die Preispolitik von ATi ging eigentlich erst ab den HD2900er Karten Talwärts. Vorher waren die Hohen Preise für High-End Karten normal, leider sonst hät ich heut ne Elsa Gladiac Ultra :evillol:
 
@mironicus

Intel, nVidia und AMD entwickeln neue Chips ja bekanntlich übers Wochenende, und deshalb können sich die Entwickler auch unter der Woche auf ihren Lorbeeren ausruhen ... *seufz*

Fermi ist seit mehreren Jahren in Arbeit, und AMD arbeitet auch bereits an einem neuen Chipdesign. Mag für die meisten schwer vorstellbar sein, aber Gut Ding braucht eben Weile. Und vom fertigen Design bis zur kompletten Grafikkarte dauert es nocheinmal ein paar Tage ...
 
Zuletzt bearbeitet:
AvenDexx schrieb:
@GreatEvil: Wenn du Volkers Aussagen verfolgt hättest, wäre dir aufgefallen, dass es Sarkasmus war.
ich glaube du hast nicht ganz verstanden, dass GreatEvil volkers sarkasmus als nicht angebracht dargelegt hat. nvidia legt nämlich nicht das erste miese quartal hin, so wie es volker auch mit sarkassmus impliziert, sonder schon mehrere in folge.
 
Ist ja richtig, dafür haben sie über mehrere Jahre! positive Quartale gehabt.

In dieser Relation hat Volker es doch im Verlauf dieser Diskussion angesprochen. Mehrere Jahre Gewinne einfahren, aber jetzt wegen ein paar Quartalen die Türen schließen?

Ich denke, die Diskussion wird hier verfolgt?

Nehmen wir einfach mal die Zahlen von Wikipedia an. Danach haben sie in den 4 Quartalen 2009 unterm Strich 30 Mio. Miese gemacht. Von 1999 - 2008 haben sie aber nur Gewinne erwirtschaftet. Allein im letzten Jahr waren es ca. 800 Mio US-$. Und jetzt wird hier vorhergesagt, dass nach ein paar miesen Quartalen (mit unterm Strich 30 Mio. Miesen) der Laden dicht gemacht werden soll?

Weiterhin schreibt Volker doch ganz deutlich: "Es gibt Unternehmen die arbeiten seit Jahren in den roten Zahlen und da kauft auch keiner was auf."

Sorry, wie kann man das so verdrehen?
 
Zuletzt bearbeitet:
greatevil hat nie von dicht machen geredet, ich im übrigen auch nicht, er hat nur die schlecht ergebnisse angesprochen und volker hat ganz eindeutig von einem schlechten quartal gesprochen. die auswirkungen dürften bei weitem nicht so gravierend sein, wie es viele hier darstellen wollen. da sind wir ja völlig einer meinung.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben