News Nvidia: Geringe Umsätze und hohe Verluste

Ich glaube nicht, dass es Nvidia in den nächsten Monaten leichter haben wird. Angesichts des vollständigen Portfolios von AMD und dessen überlegenem Preis/Leistungs-Verhältnis, wird Nvidia es sehr schwer haben einen ordentlichen Gewinn zu erwirtschaften, geschweige denn den Umsatz nennenswert zu steigern.

AMDs Chips, der Cedar, der Redwood, der Juniper und der Cypress, haben allesamt eine geringere Chipfläche als die Nvidia-Pendants. Daher kann AMD in jedem Segment billiger produzieren als Nvidia. Auch mit höherer Performance kann Nvidia dem kaum höhere Preise und somit mehr Gewinn erreichen. AMD kann im Preiskampf die Preise diktieren, da man viel mehr Luft nach unten hat als Nvidia.

Wenn AMD dann die Southern Islands-GPUs auf den Markt bringt, wird Nvidia gerade einmal das Portfolio komplettiert haben. Dann wird AMD mehr Performance bei gleichem Preis bieten können und günstiger produzieren als Nvidia.

Ich glaube also kaum, dass das nächste halbe Jahr für Nvidia besser aussieht.

Nvidias Sturrköpfigkeit macht es auch nicht einfacher. Anstatt PhysX und CUDA zugunsten eines offenen Standarts zu opfern, beharrt man weiter darauf und spaltet die Spielerschaft. Das dürfte AMD nicht gefallen und mit ein Grund sein, weshalb man Nvidia von der Chipsatzproduktion ausgebootet hat. AMD möchte dagegen offene Standarts vorantreiben. Auf dauer wird das auch der richtige Weg sein. Spätestens mit der neuen Konsolengeneration werden offene Standarts PhysX ablösen. Die Entwickler werden Spiele für verschiedene Konsolen entwickeln. Die PS4 wird vielleicht wieder eine Nvidia-GPU besitzen, die Xbox 720 eine AMD-GPU. Da wäre der Aufwand für PhysX zu groß und Sony könnte, falls Nvidia nicht auf PhysX verzichten möchte, auch noch auf AMD oder einen anderen Hersteller ausweichen.
 
Zuletzt bearbeitet:
Auch auf die Gefahr hin, dass mein Beitrag im Aqua baden geht, aber ich gönne NV diesen Rückschlag--> und zwar vom ganzen Herzen :bussi:. Ich ärgere mich heute noch, dass ich auf das Hybrid-Power-Marketing reingefallen bin. Auf Kunden-Anfragen via e-mail wird wohl grundsätzlich nicht geantwortet. Arroganz & Ignoranz, dafür steht diese Fa. in meinen Augen. Somit habe ich mich, das gebe ich ganz ehrlich zu, auch diebisch über das Fermi-Desaster gefreut, denn soviel Überheblichkeit gehört bestraft oder "Hochmut kommt vor dem Fall".

Also, nichts für ungut NV! :p
 
Obwohl ich selbst Besitzer einer 480 GTX bin muss ich sagen, dass Ati zurzeit die rundere Produktpallette vorzuweisen hat. Im Hinblick auf den anstehenden Release von SI scheinen sie auch einen Entwicklungsvorsprung zu haben.
ATI hat zwar (die ATI 5890 mal außen vorgelassen) zwar nicht die Performancekrone, doch haben sie die Zeichen der Zeit erkannt. Dadurch dass viele Entwickler ihren Fokus stärker auf den Konsolenmarkt richten und immer mehr Spiele für beide Plattformen entwickelt werden, tut sich bei vielen Spielen grafisch nicht mehr so viel. Daher rücken Kriterien wie Lautstärke und Verbrauch auch stärker ins Blickfeld der Verbraucher. Und da ist ATI zurzeit einfach besser aufgestellt.
Wie schnell Nvidia in der Hinsicht nachziehen bzw. mit einem Refresh nachbessern kann, bleibt abzuwarten. Ebenso bleibt abzuwarten wie sich SI in der Praxis schlagen wird bzw. ob ATI der Linie treu bleibt, die eingeschlagen wurde.
 
Ob 3d Vision nun die Gesundheit wirklich schädigt oder nicht, weiss ich natürlich nicht. Aber ich kann mir keinen Film in 3d anschauen ohne dass mir übel wird und ich rasende kopfschmerzen bekomme. Es gibt einige, denen es ähnlich ergeht. Damit möchte ich die dahinter stehende Technik nicht schlecht machen, allerdings scheint dieses technische "Wunderwerk" nicht für jeden geeignet zu sein bzw. stellt so etwas für Augen und Gehirn eine große Belastung dar:

http://www.welt.de/gesundheit/article5809237/3D-Filme-koennen-Kopfschmerzen-ausloesen.html
 
@ Jelais99
AMD hat bei Weitem keinen Entwicklungsvorsprung im Chipsatz und GPU Markt. Da ist nvidia gegenüber ein sehr starkes Technologieunternehmen mit derzeit viel verschenktem Potenzial duch Fehleinschätzung des Marktes und intel ist beiden Unternehmen in dieser Hinsicht trotzdem weit voraus. Wie gesagt, das Marketing ist bei intel sehr gut ausgearbeitet, bei AMD stockt es noch durch Halbherzigkeit, aber die Zeichen der Zeit werden verkauft.
Wenn es um Konsolen geht, dann reden wir von der Wii und nicht von verlustbehafteten Technologieprodukten, wie einer Xbox360 oder der PS3.
Mit Nintendo's Wii und Konsorten macht man gesicherten Absatz und nimmt Gewinn ein.

@ Wattebällchen
Bezieht sich auf deinen letzten ökonomischen Satz. Mit Militär, Forschung und Medizin meinte ich Produkte von nvidia.
 
Zuletzt bearbeitet:
@der Nachbar
Du sagst es doch selbst. Nvidia verschenkt sehr viel potential. Sie entwickeln zurzeit etwas am Markt vorbei. Und da, so hat es jedenfalls für mich den Anschein, ist ATI zurzeit etwas weiter. Sie sind mit sparsameren und leiseren Karten dichter an den Bedürfnissen der Verbraucher. Ob es, nimmt man die Kriterien wie Verbrauch und Lautstärke heraus, die technisch besseren Produkte sind, ist noch einmal ein anderes Thema.
 
Zuletzt bearbeitet von einem Moderator:
Obwohl der Tread wirklich völlig aus den Fugen geraten ist muss ich euch dafür danken, hab mich auf dem Boden gekugelt vor lachen;)!
Aber manches ist ja schon erschreckend, insbesondere Ansichten über Ökoolgie! Da scheinen manche sich gerne in die 60er zurück versetzen zu wollen, als man noch 25-35 Liter Schlucker mit ordentlich verbleitem Benzin fuhr und dazu oberlächen Tests von Atombomen durchgeführte :freak:, ist ja alles net so schlimm oder^^.....
Mal im ernst finden die entsprechenden Personen es jetzt etwa gut wieviel eine 470 oder 480 verbraucht? Ich denke das Prinzip ist einfach noch nicht durchgedrungen, aber es geht genau darum, nämlich zunehmend weniger verbrauchen, was nicht heißt gar nichts zu verbrauchen. Aber wie es eben immer ist, kapiert wirds erst wenn man dann plötzlich merkt das man nicht unerheblich weniger Geld in der Tasche hat weil die Karre weniger Sprit säuft oder die Stromrechnung um 1/3 sinkt durch den Einsatz von sparsameren Geräten (kein Scherz, wir haben das in der Fam. dieses Jahr geschaft alleine durch gescheite Lampen und sparsamere PCs etc. knapp 300€ an Stromkosten einzusparen). Leider wird es halt immer einige unverbesserliche geben denen das wohl egal ist.
Mfg
 
Apocaliptica schrieb:
Klar, du weißt natürlich, dass du 100% Ökostrom bekommst, vorallem weil die Netze auch grade seperat sind und du ein Messgerät an der Steckdose hast, welches dir den Prozentsatz anzeigt. :lol:

Ich kenne jemanden, der bei RWE arbeitet. Der wollte mir neulich ähnliche Spitzfindigkeiten auftischen. Zum einfachen Verständnis mache ich ein einfaches Beispiel:
Der Strommarkt besteht aus den beiden Kunden A und B. Kunde A bezieht 100% Atomstrom, Kunde B 100% Ökostrom. Durch das einheitliche Versorgungsnetz und die Gleichartigkeit des Stroms an sich, bekommen beide aus ihren Steckdosen das gleiche. Das spielt aber eigentlich keine Rolle, da die Art der Erzeugung entscheidend ist. Und da gibt es eben einen Anbieter, der für Kunden A Atomkraftwerke betreibt und einen Anbieter, der für Kunden B z.B. Wasserkraftwerke.
Also, alles in Butter. Kunde B bezahlt für 100% ökologisch hergestellten Strom und darauf kommt's an.
 
Oh nein was ist wohl wenn einer sein 480er nur mit Öko-Strom betreibt, ist der dann nur halb so Böse wie der, der den Atom-Strom nimmt :o

Und oh Gott man bedenke er haben noch Solarzelle auf dem Dach und eigentlich betreibt er die 480 mit seinem Strom ist er dann auch noch irgend wie der Böse :freak:

Aber wir wissen das der, der das Dieselaggregat neben dem PC stehen hat auf jeden Fall der Böseste ist :evillol:

Ach ich finde dieses Forum verdient einen Comedypreis
 
Naja mit der aktuellen Generation hat sich NVIDIA leider selbst ins Bein geschossen...

GPU Computing benutzt doch realistisch gesehen fast niemand, jetzt mit aller Gewalt auf sowas setzen zu wollen kann ich nicht ganz nachvollziehn.

Mir war irgendwie schon bei den ersten Präsentationen klar was passieren würde, nämlich dass sich die deutlichen Mehrkosten für Features die viele nicht wollen oder brauchen nicht lohnen werden.

Jetzt bekommt man als Endkunde Grafikkarten die theoretisch "tolles" GPU Computing ermöglichen, und das teilweise auf Kosten dessen was man als Endkunde eigentlich von einer Grafikkarte will.

Ist in meinen Augen in etwa so als würde man einen Radioempfänger in einen Fernseher integrieren und dann 50% mehr dafür verlangen.

Bin mal gespannt wie NVIDIA mit der aktuellen Situation umgeht und wie die folgende Generation aussiet, mal sehen ob die bei ihrem GPU Computing bleiben oder wie sich die Sache entwickelt.
 
GPU Computing und die Physxperformance bei Mafia2.... mehr braucht man nicht zu sagen, für den Gamermarkt disqualifiziert sich die Karte völlig.
 
Zuletzt bearbeitet:
Sieht doch besser aus als erwartet was ja auch der Anstieg der Aktie zeigt. Finde ich gut das Nvidia sich noch so gut behaupten kann als kleinster Hersteller. Wenn man nimmt das Nvidia quasi seit dem G200 bis zum Fermi nur refreshes oder alte karten anbieten konnte und der Fermi anfangs auch nur im Highend Segment zuhause war, dann sieht das sehr gut aus. Sie haben ja sogar einen Gewinn wenn die Zahlungen für die Notebook Chips nicht noch berappt hätten werden müssen. Wenn Nvidia so weiter macht sehe ich deren Zukunft gar nicht schlecht, die Frage ist halt nur wie oder ob man sich als kleiner Hersteller und Underdog überhaupt noch auf längere Sicht im Markt behaupten kann?! Ich sehe da leider schwarz und denke Nvidia wird sich leider langsam aber sicher immer mehr in den GPGPU Markt zurückziehen, hoffentlich dauert das aber noch eine Weile denn sollte es so kommen können wir Gamer am PC unser Hobby wahrscheinlich baldigst an den Nagel hängen. Deshalb hoffe ich der PC Gaming Community wegen das Nvidia sich noch sehr lange so gut auf dem Markt behaupten kann gegen die Riesen. Aber auf lange Sicht wird es halt sehr hart ohne X86 Lizenz und somit ohne Dektop relevante CPUs/SoCs.
 
Eben, ich denke auch jeder sollte sich mal fragen, was es denn bringt NVidia zu bashen. Wenn die den Bach runter gehen, dann wird es für uns Anweder sicher kein Vorteil sein. Sieht man schon bei den Chipsätzen, da ist heute schon kein Wettbewerb mehr, eine aktuelle Intel CPU kann nur mit einem Intel Chipsatz betrieben werden und eine AMD CPU läuft auch bald nur noch auf einem AMD Chipsatz. Wäre dort noch ein dritter Anbieter, der so wären heue sicher schon Chipsätze mit USB3 und SATA3 verfügbar. Auch hätte NVidia sicher eine 1156 Sockel mit genügend lanes für SLI herausgebracht, so kann Intel die Kunden zum teueren 1356 drängen. Dann gäbe es für AMD CPUs sicher auch Boards mit aktuellen Schnittstellen und SLI Support, so kann man bei AMD Board nur zwei ATIs einbauen.
Mit dem nächsten Schritt, CPU und eine einfach GPU zu einem Chip zu integrieren, gräbt man NVidia den Markt für günstige GraKas ab, also müssen sie sich doch in den GPGPU Bereich und die High End GraKas zurückziehen. Hoffentlich überleben sie dort.
 
@ Wattebällchen
nvidia hat konsequent im Chipsatz Segment ein Einschipdesign auch mit Grafikkern entwickelt. Das ist technologisch einem aktuellem AMD/intel Chipsatz klar im Mainboardlayout vorzuziehen und bietet ausserdem je nach Mainboard für komplexe Bereiche eine zwei Chip Lösung an. Selbst ULi hat mit dem M1697 2006 solch ein Design erfolgreich auf den Markt gebracht. Der nforce980 hat für sein Design eine lächerliche Verlustleistung.
Jetzt haben wir den Umstand, das AMD und intel die integrierte GPU (wie auch PCIe) in den Prozessor wandern lassen. Damit wird die Northbridge überflüssig. Macht die verbleibende Southbridge auch nicht besser, aber mal schauen was da wirklich von AMD kommt. Bei intel bin ich immer etwas zuversichtlicher.
Und ja, halte mich ruhig für verrückt, aber intel macht mit den GMA Grafikeinheiten wirtschaftlich einen völlig soliden Eindruck. Das belegen auch unfreiwillig die Verkaufseinheiten. Wenn man die Marktausrichtung von intel betrachtet, die Office, Workstation und Server abdecken, so deckt intel den gesamten Markt ab. Ich könnte produktiv mit einem GMA 9xx arbeiten. Für besondere Anwendungen gibt es dann die professionellen Lösungen anderer Hersteller. Als Kapialunternehmen würdigt intel den restlichen kleinen Marktnischen allein durch den Kostenaufwand keinen Blick und lässt nvidia den Vortritt. Mit Open CL aber stärkt man die eigene Position der Produkte und tritt indirekt auch in die Nischenmarkt ein. Ein Grund mehr die eigenen Sandbrücken zu Steinfestungen auszubauen, wo kleine Unternehmen letzlich sich die Zähne ausbeissen. Für Spiele wird uns vorerst AMD weiterhin teuflisch rot aus dem Portmonee die Scheine ziehen.
 
Zuletzt bearbeitet:
Das 3Q wird noch viel viel schlimmer. Dann gibt es keine Bundles mehr mit alter Hardware die mit gekauft werden musste. Dann gibt es auch keine mobilen GPUs mehr die den Umsatz noch gehalten haben aber von der Leistung her 2 Jahre und älter waren. Das geht jetzt ganz schnell Abwärts. Wenn es mehr als 650 Mio werden und besser als 80Mio Verlust wäre ich sehr überrascht. Eine oder zwei gute Karten mit gleichwertiger Konkurrenz die jedoch im mobilen oder OEM Bereich kaum gefragt sind können keinen Umsatz halten.

Bei der Entwicklung neuer GPUs kann Nvidia nicht mehr die Lage ignorieren das es nun weder beim Umsatz noch bei den Marktanteilen weit vorn liegt. Im Gegenteil, nahezu alle Standbeine im GPU Bereich werden ab Mai 2011 von AMD besser, kostengünstiger und schneller abgedeckt. Wie will Nvidia hier mithalten wenn es auf solch ein Tempo nicht vorbereitet ist und dazu keine Akzente mehr setzten kann mangels Marktmacht? ATI lernte von AMD wie es als kleinerer trotzdem schnell und günstig Entwickeln, Fertigen und Verkaufen kann und wie es damit überleben kann gegen einen weit größeren Konkurrenten.
Dazu konnte AMD und ATI angefangen von der eigenen Plattform aus den Chipsatzmarkt für Ihre Plattform sichern mit guten Produkten bis dieser vollständig an AMD ging und Nvidia sich hier verabschieden musste.

Als Nividia diesen Entwicklungsdruck das erste mal zu spüren bekam 2007 hat es an der Qualität seiner Produkte gespart und nicht am Tempo der Entwicklung geschraubt. Dann kamen die Fehler mit Überhitzung im mobilen wie im Desktop Markt zwangsläufig. Selbst das Auslassen von Generationen hat nichts geholfen. Nvidia ist heute noch weiter im Rückstand als vor 2 Jahren.

Nvidia wird die HD6xxx nicht Kontern können im November. Eventuell kann es seine neue Generation im Mai 2011 an den Markt bringen nur kann AMD dann schon seine HD6xxx in 28nm bringen, aus den "eigenen" Werkshallen. Und alles unterhalb von einer HD5570 wird von Fusion abgedeckt werden. Ein Markt der für Nvidia dann für immer verloren ist. Vom mobilen Bereich mal ganz zu Schweigen.
Hier wird weder der ION noch Tegra2 viel helfen. Und das hätte nicht sein müssen wenn Nvidia nur einige Leute gehört hätte. Statt 2006 zu Lästern wegen AMD/ATI hätte es 2007 oder spätestens 2008 versuchen müssen VIA zu bekommen oder eine Fusion mit denen Anzustreben. Es hätte auch 2009 sich Apple anbieten können aber nein, nichts dergleichen passierte.

Nun wird Nvidia ganz alleine in einen für sie schrumpfenden Markt dahin dümpeln, immer weniger in der Lage auch nur im Ansatz mithalten zu können was Entwicklungszeit, Entwicklungskapazität und Qualität der Produkte angeht. Die Zeit für Tegra scheint auch abzulaufen. Eventuell bringt Nvidia doch noch sein Pad mit Tegra2 und steigt mit eigenem Brand in diesen Markt ein. Wenn nicht gute Nacht Nvidia und träumt weiter so schön...
 
Interessant, wie hier alle den Untergang von NV sehen. Da macht NV jetzt einmal Minus und haben leichte Probleme und schon sind die pleite, werden von Intel übernommen oder sind so am schwanken das wir Angst haben müssen morgen keine Treiber mehr zu bekommen.

Bor Leute,

NV hat sicher mit Fermi in die falsche Richtung entwickelt und den Wert auf andere Sachen gelegt aber mit der 460 wieder Boden gut gemacht. Die ist genau wie ATI vom verbrauch gut, wärme super und Lautstärke mehr als OK und im Preis voll dabei. Die Dinger werden gekauft wie sau. Allein bei uns in der Community (nicht CB) haben sich 10 Leute die 460 gekauft und einer wartet auf die 450. Die sind mehr als zufrieden und loben Ihre Karte was das Zeug hält. Ich persönlich warte auf die 485 oder wenn bis Weihnachten nicht verfügabar dann 480 von Zotac AMP die ja auch bis auf den Verbrauch alles gut gemacht hat was an Fermi auszusetzten gewesen ist.

Aber zurück zum Thema, AMD/ATI hat über mehrere Jahre nur Mist auf den Markt gebracht und lebt heute noch. Warum sollte NV jetzt sofort kaputt sein oder aufgekauft werden oder den Markt verloren haben oder oder oder? Ja, ATI bringt jetzt die 6000 auf den Markt und was genau sagt uns das? Alter Chip, etwas verändert und wird sich kaum von der 5000 unterscheiden. NV hat etwas neues und wird in den nächsten Jahren daran arbeiten und die Erfahrungen sammeln die ATI noch vor sich hat. Warten wir doch einfach mal ab. Vielleicht wird die 6000 kaum schneller und NV wird bei seinen Chips nachlegen und dann? AMD muss zeigen ob sie das halten können was sie bis jetzt gemacht haben. Vielleicht werden die nicht von Intel gekauft sondern arbeiten mit denen zusammen (ich denke das die Kartellämter genau das verhindern werden, dass Intel NV kauft) oder NV zieht sich aus dem Gamer Markt zurück und macht nur noch GPU Compuding?! Wer weiss wie es kommen wird aber pleite sind die noch lange nicht und Potential hat NV mit dem Fermi auf jeden Fall.
Warten wir ab was die Zeit bringt
 
Zuletzt bearbeitet:
Der Nachbar schrieb:

Das EinChipdesign führt aber je nach Board zu einer viel Komplexeren leitungsverteilung. Zudem kann ein Boardhersteller bei Ati die Kombination der North und Southbridge ja selbst festlegen und so z.B. besser an den Markt und die Kunden anpassen.

Das Intel bei den Grafikeinheiten vorne liegt ist logisch, allein durch die "Rabatte" oder auch einfach Schmiergelder hat man sich gut gegen den kleinen Konkurrenten der aufeinmal sehr bedrohlich war abgesichert.

Auch Nvidia hat von einer Untat profetiert, der dummen IT Presse die schon damals nutzlose features als überlegen dargestellt hat.

32bit Farbtiefe bringen einem wenig wenn man dann 1- 3 Bilder / Sekunde sieht wa?

Trotzdem wurden die Karten gehypet ohne Ende und so konnte Nvidia mehr Geld für Entwicklung einsammeln.


@BestPower²TDP

volle zustimmung


BTW kan man die Lage der Unternehmen nicht vergleichen, Nvidia steht alleine als AG da, deren Aktionäre fette Gewinne sehen wollen.

ATI wurde von AMD finanziell aufgefangen, was so unglaublich viel Geld gekostet hat...
Nvidia krankt an der eigenen Überheblichkeit und woe die dann merken das man ohne CPUs nicht überleben kann kommen sie mit ihren Teslakarten.
 
also ich freu mich für Ati. Nicht wegen Schadensfreude sondern das Ati mal ein bisschen Luft wieder kriegt. Leider setzten sie anscheinend nicht nach mit dem 6000 er, der anscheinend nur ein besserer Refresh wird.

Ati weiter so, NV Hausaufgaben machen
 
Zurück
Oben