Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia vermeldet weniger Umsatz und geringere Gewinne
- Ersteller Volker
- Erstellt am
- Zur News: Nvidia vermeldet weniger Umsatz und geringere Gewinne
Scofield_M
Lt. Junior Grade
- Registriert
- Feb. 2011
- Beiträge
- 291
Kein wunder wenn man Karten für 1000 Euro verkauft... Der Bürger hat doch immer weniger Geld weil alles teurer wird... :-/ Bleib doch kein Geld mehr über für ein wenig Spass im Leben....
Richthofen
Lieutenant
- Registriert
- März 2004
- Beiträge
- 547
aylano schrieb:@News
Interessant, wie der Gewinn-Einbruch von 115 Mio. $ auf 60 Mio. $ verschweigt wird
Hat doch gar keiner. Steht in so ziemlich jeder News drinn. Aufgrund der 28nm Problematik war das aber auch zu erwarten. Hinzu kommen die Mehrausgaben im Bereich R&D.
Schon bitter, wenn man ohne Intel-Lizenz-Zahlungen sonst einen Verlust machen würde.
Immerhin konnte AMD in den letzten beiden Quartalen mit dem GPU-Gewinn zulegen, weil AMD aufgehört hat, auf Teufel komm raus sich Umsatz & Marktanteile zu erobern.
Ohne die Intel Lizenzzahlungen würde Nvidia mehr Grafikchips verkaufen, da Intel selber keine verkaufen dürfte. Nvidia würde das einfach rechtlich unterbinden lassen oder glaubst Du da wären dann AMD Grafikchips drinn.
Bzgl. den Gewinnen ist es einfach so dass Nvidia zwar weniger Gewinn gemacht hat als im Quartal zuvor aber unterm Strich haben sie wenigstens Gewinn gemacht. Wieviel Gewinn hat AMD gleich nochmal im gleichen Zeitraum (Q1) gemacht? Ganze 590 Mio $ Verlust und zwar richtig schöner Cash Out. Aber jetzt hören wir wiedermal die ewige Leier von Einmaleffekten. AMDs Problem ist einfach, dass sie in schöner Regelmäßigkeit fast jedes Jahr so eine Nummer haben die die Ergebnisse verhagelt. AMD ist einfach ein ganz ganz lausiges Unternehmen wenn es um Unternehmensergebnisse geht und das Management hat in jeder Hinsicht überhaupt kein Vertrauen mehr an den Finanzmärkten. Und das ist auch nicht verwunderlich, da sie es immer wieder schaffen ihre Vorhersagen ordentlich zu verfehlen. Aus der Perspektive eines Anlegers bzw. professionellen Investors ist AMD einfach ein richtig ordentlicher Fail und allenfalls fürs kurzfristige Zocken geeignet.
Bei Nvidia dagegen würde ich mal davon ausgehen, dass Q2 ein sehr gutes Quartal wird. Die wissen sicherlich sehr genau wie sich die Liefersituation über die nächsten 3 Monate entwickelnt wird. Deswegen auch der optimistische Ausblick.
Aber irgendwann sollten die auch mal Gewinn mit Tegra machen.
Die üblichen Verluste um so 40 Mio. $ gehen sind garnicht so unerheblich.
Werden sie schon noch. Momentan wollen sie dort nur wachsen und anders als AMD kann Nvidia sowas finanzieren ohne am Tropf anderer zu hängen. Die werden sich erstmal schön im Mobile Markt ausbreiten. Irgendwann wird dann der ein oder andere Konzern die Lust am SoC Entwickeln verlieren und dann kann man dort auch schöne Gewinne machen. Aktuell geht es nur darum Stückzahlen bei Phones und Tablets zu steigern.
AMD spielt dort keine Rolle. Die sind softwaretechnisch einfach unfähig. Sie verlassen sich permanent darauf, dass die Community das Thema über Standards löst. Dadurch verlieren sie wertvolle Zeit. In dem Markt ist so viel Geld im Spiel. Da werden sich immer Möglichkeiten für Nvidia ergeben mit eigenen Tools, Treibern und SDKs der Konkurenz voraus zu sein und die Anwender werden es auch weiterhin nutzen. Zeitersparnis durch Mehrperformance bringt schöne Kostenersparnis mit sich. In wenigen Monaten wird Nvidia die Katze aus dem Sack lassen in Sachen GK110 und die Professional Community wird man entsprechend vorab informieren. Jede Wette dass AMD von GK110 extrem weit weg sein wird. Softwareseitig liegen sie sowieso um Jahre zurück. Auch OpenCL wird das nicht ändern. Nvidia wird OpenCL immer einen Schritt voraus sein, da sie auf niemanden Warten müssen um hier neue Dinge umzusetzen und so viel Erfahrung mit SDKs etc. haben, dass sie immer neue Möglichkeiten und Wege finden werden Dinge so zu optimieren, dass ein hoher Nutzen für den Anwender gegeben ist. Und die Community weiß das und wird das auch weiterhin dankbar annehmen. Anders als AMD ist Nvidia mittlerweile ein richtig starkes Softwarehaus.Interessant wird ja dann auch, wie sich AMD-GCN in Profi-Markt auswirken wird. Denn Nvidia braucht diese Profite um wenigstens die Tegra-Verluste abzudecken.
Ergänzung ()
KAOZNAKE schrieb:Und jetzt recherchier noch mal, wieviel INTEL jedes Quartal an NVIDIA zahlt....
Weißt du ich machs dir einfach:
1.5Mrd. über 6 Jahre.
http://www.sfgate.com/cgi-bin/article.cgi?f=/c/a/2011/01/10/BUAS1H713D.DTL
Kannst dir selber ausrechnen wieviel das jedes Quartal ist und ob NVIDIA ohne diese Zahlungen noch Gewinn gemacht hätte
Nochmal zum Mitschreiben. Die Intel Zahlungen sind nichts anderes als wenn Nvidia selber Grafikchips verkaufen würde. Im Gegenteil ohne die Intelzahlungen würde Nvidia nochmehr Umsatz machen. Intel darf dann keine Grafikchips verbauen, weil sie Nvidia Patente verletzten. Das wissen die ganz genau, ansonsten hätten sie ja kaum 1,5 Mrd. Dollar gezahlt und es auf eine rechtliche Auseinandersetzung angelegt.
Also zum allerletzten Mal zum Mitschreiben:
Intel verletzte Nvidia Patente und keine AMD Patente. Ohne die Zahlung darf Intel keine Grafikchips weder separat noch als APU verbauen. Da wäre eine richterlich angeordnete Unterlassung zwangsläufig die Folge. Das im Umkehrschluss würde bedeutet, dass mehr Nvidia Grafikchips verbaut werden würden.
Es ist somit egal ob Intel nun Geld an Nvidia zahlt oder Nvidia mehr Grafikchips verkauft. Es ist und bleibt Nvidia's Umsatz.
Zuletzt bearbeitet:
Wie soll es zu erwarten gewesen sein)?Richthofen schrieb:Hat doch gar keiner. Steht in so ziemlich jeder News drinn. Aufgrund der 28nm Problematik war das aber auch zu erwarten. Hinzu kommen die Mehrausgaben im Bereich R&D.
AMD hat ja die selben Probleme und konnte zulegen.
Kannst du das nochmal erklären. Das kann man nicht verstehen.Ohne die Intel Lizenzzahlungen würde Nvidia mehr Grafikchips verkaufen, da Intel selber keine verkaufen dürfte. Nvidia würde das einfach rechtlich unterbinden lassen oder glaubst Du da wären dann AMD Grafikchips drinn.
Wie soll Nvidia noch mehr GPUs verkaufen, wenn Intel schon vorher nicht am Markt war?
Intel hat "nur" Nvidia-Technologie für 6 Jahre per Lizenz gekauft. Wie sie es verwenden ist noch unbekannt.
Ich habe davon nicht geredet.Aber jetzt hören wir wiedermal die ewige Leier von Einmaleffekten.
Das Problem bei Leuten wie du ist, dass sie immer nur die negativen Sonderzahlungen bei AMD sehen und z.B. die Liezenz-Zahlungen von Samsung & Intel nie erwähnt werden.
Aber wenn ich die Intel-Zahlung bei Nvidia betone und auf ihre wahren Finanz-verhältnisse hindeute, dann werde ich gleich von vielen als Unwissend und Fanboy dargestellt.
Ich verstehe nicht, was es dir bringt, die operativen Gewinne der letzten 2 Jahren zu verschweigen, sowie die Intels Manipulationen in denen Zeite, wo AMD Mega operative Verluste machte.AMDs Problem ist einfach, dass sie in schöner Regelmäßigkeit fast jedes Jahr so eine Nummer haben die die Ergebnisse verhagelt. AMD ist einfach ein ganz ganz lausiges Unternehmen wenn es um Unternehmensergebnisse geht ...
Ja, AMD hatte wegen der Fertigung etwas Probleme. Aber was ihr nicht versteht ist, dass selbst mittlere Unternehmen keine eigene Fertigung mehr leisten können, weil eine Fabrik sowie die Froschung & Entwicklung kleiner Strukturen immer teurer wird.
Ich rede nicht von paar % in höhe der Inflation, sondern es geht schon im x-fachen Bereich.
TSMC hatte übrigends genauso 28nm 1 Jahr später mit immer noch schlechten Yields am Markt gebracht. Vielen sind die Fertigungs-Probleme noch nicht bewusst, weil sie immer nur von Intel ausgehen. Nur mehr große Unternehmen wie Samsung und Intel können es sich (noch) leisten
http://www.3dcenter.org/dateien/abbildungen/TSMC-Wafer-Prices.jpg
Übrigends,
die hohen GPU-Preise von GTX680 & HD7970 waren erst der Anfang, über die so viele Leute überrascht waren.
Laut Nvidia könnten die Grafikkarten-Preise in Zukunft erheblich steigen.
Mal sehen ob das so kommt, aber die Problematik wird da gut dargestellt.
Und wie sieht die Liefersituations in den nächsten 3 Monaten aus? Yield, Diekosten?Bei Nvidia dagegen würde ich mal davon ausgehen, dass Q2 ein sehr gutes Quartal wird. Die wissen sicherlich sehr genau wie sich die Liefersituation über die nächsten 3 Monate entwickelnt wird. Deswegen auch der optimistische Ausblick.
Nochmal, hätte am wie bei HD5000 die Preise sehr niedrig angesetzt, dann würde AMD genauso wie Nvidia keinen Gewinn machen. So wie damals. AMD führt momentan keinen (aggressiven) Preiskampf und kann steigende Gewinne herzeigen.
Deshalb überrascht der massive Gewinn-Einbruch. So wie ich die nächsten Quartale steigende Gewinne erwartete, erwartete ich es auch für das 1Q.
Jetzt muss sich mal zeigen, ob es nur ein einmaliger Einbruch war oder schon ein Trend, aber zu sagen, dass Nvidia in Zukunft sicher zulegen kann, kann eben nicht sicher sagen.
Den ersten Druck (=Beginn) auf die Profi-Karten erwartet ich so ab dem 4Q2012.
Im muss das mal erwähnen, sonst glaubten einige noch an Jänner 2012.
Das höre ich schon seit viele Quartalen und im 1Q2011 wurde Zahlen von +300 Mio. $ @ Quartal genannt.Werden sie schon noch. Momentan wollen sie dort nur wachsen und anders als AMD kann Nvidia sowas finanzieren ohne am Tropf anderer zu hängen. Die werden sich erstmal schön im Mobile Markt ausbreiten. Irgendwann wird dann der ein oder andere Konzern die Lust am SoC Entwickeln verlieren und dann kann man dort auch schöne Gewinne machen. Aktuell geht es nur darum Stückzahlen bei Phones und Tablets zu steigern.
Die Fakten sind nur.
Nvidia hatte schon mal 150 Mio. $ eingenommen und ist dann beim Aufkommen der Konkurrenz im 4Q 2011 auf 100 Mio. $ eingebrochen.
Im CPB-Markt machte Nvidia früher ohne Tegra-Umsätze schon so 50 Mio. $-Umsätze
Jetzt sind da noch Icera Umsätze drinnen. Also, von den 120 Mio. $-CPB sind garnicht so viele Tegra-Verkäufe. Mich würde es nicht überraschen, wenn die Hälfte davon nichteinmal Tegra-Verkäufe sind.
Auch wenn ich die Tegra-Initiative positiv und auch noch optimistisch sehe, besteht eben die Gefahr den Anschluss zu verlieren.
Nvidia hatte lange mit Tegra 2 die Monopolstellung im Dual-A9 Markt gehabt und schon einiges Gutes & Positives (wie Kundenkontakte & Co) aufbauen können.
Nun ist diese Monopolstellung weg und Tegra muss sich gegen eine starke Konkurrenz beweisen.
Übrigens, Tegra 3 profitiert sogar von den 28nm-Kapazitäten, da alle anderen Konkurrenten mit A15 und Quad-A9 gleich auf 28nm-Kapazitäten setzen, wo sie jetzt nicht genug Kapazitäten bekommen.
Das war ein kluger Schachzug von Nvidia, aber dieser Vorteil hängt nicht ewig bzw. Verbessert sich die 28nm-Situation bei Kepler, verschlechtert sich parallel die Tegra-Situation.
Wobei eine Verschlechtungen sich dann eher im 4Q ereignet und nicht gleich, wenn TSMC die zweite 28nm-Fabrik hochfährt. Schließlich werden OEM-Verträger nicht gleich gekündigt, sondern halten meist Monate/Quartale länger.
Du kannst dir mal gerne anschauen, wie es aussieht, wenn man "von Null beginnt".AMD spielt dort keine Rolle. Die sind softwaretechnisch einfach unfähig. In wenigen Monaten wird Nvidia die Katze aus dem Sack lassen in Sachen GK110 und die Professional Community wird man entsprechend vorab informieren. Jede Wette dass AMD von GK110 extrem weit weg sein wird. Softwareseitig liegen sie sowieso um Jahre zurück.
Und zwar wie Nvidia Gewinne & Umsätze kontenuierlich einbrachen, als RV670 eingeführt wurde. Das war die erste vernünftige Einführung nach dem R600-Problemkind.
Ich kann mich gut erinnern, als AMD vor Einführung von GT200 & RV770 AMD/ATI schon völlig im Grafikmarkt abgeschrieben wurde.
Da glaubten fast alle, dass AMD nie mehr die schnellste GPU rausbringen könnten und Nvidia nur im Ansatz ärgern könnte.
Auch die erste X2-Karte wurde sehr belächelt. Unter anderem weil er unausgereift (mit Kabel) war.
Da hielt es auch keiner für Möglich, dass 1 Jahr später Nvidia nichts äquivalentes dagegenhalten konnte und über eine Zeit lang wegen der Fermi-Verspätung sogar im Single-GPU-Performance hinter AMD lag.
Genau diese Denken "Nvidia ist da soooo überlegen und AMD so hinten nach" hatte man früehr schon im CF-Markt und GPU-Gamer-Markt gehört. Also, ich höre das schon zum Zweiten mal.
Ich spreche auch nicht, dass der Profi-Markt einbrechen Wird, sondern es besteht die Gefahr, wenn Nvidia mal nicht endlich zu wachschen beginnt.
HPC Master
Banned
- Registriert
- Apr. 2008
- Beiträge
- 301
@aylano
All deine Verlust-Vermutungen wurden von "Richthofen" schon zu genüge beantwortet => Nvidia hat erhebliche Mehrausgaben im Bereich R&D => Investiert grosse Summen für GPU Design, HPC Hardware & CUDA Software.
Und hier nochmals': was bleibt von AMD's OpenCL CS6 Marketing Drama? = 3 OpenCL Plugins für Mac only!
Adobe Creative Suite 6 Software nutzt weiterhin die NVIDIA CUDA-beschleunigte Mercury Playback Engine in Adobe Premiere Pro 6 und bietet bis zu 8-fache Leistung Boost für schnelle Video Bearbeitung. Adobe After Effects CS6 und Adobe Premiere Pro CS6 wird auch in dem NVIDIA-Stand (SL9215) unter Beweis gestellt.
All deine Verlust-Vermutungen wurden von "Richthofen" schon zu genüge beantwortet => Nvidia hat erhebliche Mehrausgaben im Bereich R&D => Investiert grosse Summen für GPU Design, HPC Hardware & CUDA Software.
Und hier nochmals': was bleibt von AMD's OpenCL CS6 Marketing Drama? = 3 OpenCL Plugins für Mac only!
Adobe Creative Suite 6 Software nutzt weiterhin die NVIDIA CUDA-beschleunigte Mercury Playback Engine in Adobe Premiere Pro 6 und bietet bis zu 8-fache Leistung Boost für schnelle Video Bearbeitung. Adobe After Effects CS6 und Adobe Premiere Pro CS6 wird auch in dem NVIDIA-Stand (SL9215) unter Beweis gestellt.
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.424
Hm wenn du magst, kann ich dir, sobald es so weit ist verlinken ^^ Wer weiß, vllt dauert es nicht mehr lange. Aber der Satz gibt mir den Eindruck, als ob du aylano's Beiträge nicht sorgfältig durchließt.wo ist AMD mit den Trinity APU's mit ihren 3 OpenCL Mac Plugin Support?
Btw gibt es einen schönen Satz
Wer nicht mit der Zeit geht, geht mit der Zeit
Hab noch einen guten Satz gefunden der zu dem Konzept APU passt.
"Aber für was ist das gut?"
Ein IBM-Ingenieur über den Microprozessor, 1968
Aja wenn du so von NV überzeugt bist, schon mal daran gedacht, dass NV auch mit Tegra auf den Server-Markt wagen könnte ???
ARM-Prozessoren sind ja für den Server ab 64 Bit Unterstützung im Gespräch.
Ich würde lachen xD wenn es dann vermehrt Tegra Server gäbe und fette Karten eher aussterben xD
Aber ja mal sehen was die Zeit so mit sich bringt ^^
Zuletzt bearbeitet:
HPC Master
Banned
- Registriert
- Apr. 2008
- Beiträge
- 301
@pipip
Nvidia ist mittlerweile so breit am Markt aufgestellt, dass sie fast für jeden Bereich das passende anbieten können. Und Nvidia nutzt auch OpenCL von Anfang an und hat es auch mitentwickelt, doch CUDA kann und bietet viel mehr.
Der Tegra ist nur für den mobilen Bereich und sicher nicht's für den Server Markt. Nvidia arbeitet schon seit Mitte 2010 am "Project Denver" - einem auf der lowpower ARM-Architektur basierendem Prozessor für PC, Workstations, Servern und Supercomputern, der ab 2013-2014 auf den Markt kommen soll.
http://www.youtube.com/watch?v=BTcy_uQF9Mw
Nvidia ist mittlerweile so breit am Markt aufgestellt, dass sie fast für jeden Bereich das passende anbieten können. Und Nvidia nutzt auch OpenCL von Anfang an und hat es auch mitentwickelt, doch CUDA kann und bietet viel mehr.
Der Tegra ist nur für den mobilen Bereich und sicher nicht's für den Server Markt. Nvidia arbeitet schon seit Mitte 2010 am "Project Denver" - einem auf der lowpower ARM-Architektur basierendem Prozessor für PC, Workstations, Servern und Supercomputern, der ab 2013-2014 auf den Markt kommen soll.
http://www.youtube.com/watch?v=BTcy_uQF9Mw
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.424
Ich lese auch News, ist nichts neues für mich. Aber es wiederlegt genau deine AussageNvidia arbeitet seit Mitte 2010 am "Project Denver" - einem auf der lowpower ARM CPU basierendem Prozessor für Desktops und Servers ab 2013-2014.
Aber ja doch... "iGPU's", Ive-Bridge & AMD APU's mit OpenCL werden alle Tesla & Quadro Produkte ersetzten und so einfach die Weltherrschaft übernehmen!
Unter dieser Aussage, hab ich folgendes Verstanden, dass Systeme eben woran auch NV selbst arbeitet, Tesla&Quadro Produkte nicht ersetzen könnten.
Dabei ist das eine Preisfrage, und weiteres kommt es auf die APU und Technologien an.
Bsp 3d Stacking ect.
Dabei ist es doch nur logisch, wenn man allein schon an Micro-Server denkt. Denn eine Platine hat dann alles, CPU-GPU-RAM und das alles kompakt.
Aja ich habe gelesen, NV wollte den CUDA-Standard öffnen, und sich selber auf OpenCl widmen.
Darüber wirst du wahrscheinlich genauer Bescheid wissen als ich.
Doch ganz ehrlich, welche Firma würde CUDA, eine Software von einer Firma einer OSS bevor ziehen ? Man würde sich doch von NV einfach abhängig machen, und genau das möchte man vllt nicht mehr.
Es gibt eben auch Gründe wieso Linux beliebt ist.
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.424
HPC Master
Siehe Mobiltelefon. Man hat das auch lange belächelt. Besonders als es noch analog war.
Man war ja auch überzeigt, das Festnetz ist so super ausgebaut und das Mobiletelefon würde die Qualität ect nie überbieten können.
Wie schauts jz aus ? Kann mich kaum erinnern wann ich freunde das letze mal am Festnetzt angerufen habe.
Selbst meine Großmutter verwendet nur mehr das Handy...
Somit gibt es genug Bsp, wo funktionierende Systeme durch andere ersetzt worden sind.
Selbe Elektroauto ect.
Cuda ist sicherlich ein anderes BSP, denn hier ist man nicht am ende der Technologie oder ähnliches wie bei Benzinautos. Aber wenn genug Leute überzeugt sind den open Standard zu pushen, besonders eben auch herkömmliche Hardware profitieren kann, kann es schon sein, dass CUDA nicht mehr völlig alleine dominieren wird.
Das sowas ne Zeit braucht ist klar, aber dieses niemals nie finde ich einfach gefährlich. Und NV muss schauen wie sie CUDA am leben halten.
Ähnlich PhysikX, das würde sicherlich schnelle Verbreitung erleben, würde es OSS sein. Stattdessen machen die Spielentwickler eigene Physik Standards...
Zu den obigen Beitrag, wie schon erwähnt da kennst du dich besser aus. Aber eine mögliches Überleben einer Software ist nun mal der freie Zugang. Dass das System auf NV Hardware optimiert ist ist aber nachvollziehbar.
Siehe Mobiltelefon. Man hat das auch lange belächelt. Besonders als es noch analog war.
Man war ja auch überzeigt, das Festnetz ist so super ausgebaut und das Mobiletelefon würde die Qualität ect nie überbieten können.
Wie schauts jz aus ? Kann mich kaum erinnern wann ich freunde das letze mal am Festnetzt angerufen habe.
Selbst meine Großmutter verwendet nur mehr das Handy...
Somit gibt es genug Bsp, wo funktionierende Systeme durch andere ersetzt worden sind.
Selbe Elektroauto ect.
Cuda ist sicherlich ein anderes BSP, denn hier ist man nicht am ende der Technologie oder ähnliches wie bei Benzinautos. Aber wenn genug Leute überzeugt sind den open Standard zu pushen, besonders eben auch herkömmliche Hardware profitieren kann, kann es schon sein, dass CUDA nicht mehr völlig alleine dominieren wird.
Das sowas ne Zeit braucht ist klar, aber dieses niemals nie finde ich einfach gefährlich. Und NV muss schauen wie sie CUDA am leben halten.
Ähnlich PhysikX, das würde sicherlich schnelle Verbreitung erleben, würde es OSS sein. Stattdessen machen die Spielentwickler eigene Physik Standards...
Zu den obigen Beitrag, wie schon erwähnt da kennst du dich besser aus. Aber eine mögliches Überleben einer Software ist nun mal der freie Zugang. Dass das System auf NV Hardware optimiert ist ist aber nachvollziehbar.
Zuletzt bearbeitet:
Richthofen
Lieutenant
- Registriert
- März 2004
- Beiträge
- 547
HPC Master schrieb:Zum Schluss, betreffend AMD's Graphics Core Next (GCN) samt deren "offenen" OpenCL Standards und Bemühungen für den gewinnträchtigen HPC Markt, bitte einfach nochmals den Beitrag von Richthofen genauer durchlesen! Das "offenen" OpenCL muss auch auf die jeweils vorhandene Hardware aufwendig angepasst und entsprechend sauber & fehlerfrei programmiert werden - ohne ausgereifte SDK Bibliotheken, Software & Tool's kommt man nicht vom Fleck.
Ergänzend möchte ich hinzufügen, dass Nvidia seit Jahren im Bereich der Software Leute einstellt und den Bereich massiv aufbaut. Langfristig wird das auch ein sehr wichtiger Bereich für das Tegra Business sein. Was Nvidia dort allen anderen SoC Herstellern deutlich voraus hat ist die Entwicklung von stark optimierten Treibern. Das ist ein Bereich in dem Qualcomm beispielsweise extrem schwächelt. Die Hardware von Qualcomm ist sehr gut. Die Treiber im Bereich der 3D Unterstützung eher unterdurchschnittlich. Andere wie TI sind noch schlechter. Sowas kann langfristig sehr nützlich sein, weil auf dem Papier schwächere Hardware durch Softwareoptimierung so in Stellung gebracht werden kann, dass sie gegen vermeintlich stärkere Hardware mithalten kann. Da im SoC Umfeld - anders als bei Desktop GPUs und Professional GPUs - die Kosten und der Stromverbrauch einer der Hauptfaktoren ist, wird die Software / die Treiber immer mehr an Gewicht bekommen je mehr der 3D Support auch in diesem Umfeld voranschreitet.
In Summe macht Nvidia nichts anderes als Apple - nur natürlich im deutlich kleineren Rahmen. Sie sind extrem innovativ und schaffen sich ihr eigenes Ökosystem und warten nicht auf andere. Wenn irgendwann mal ein Standard den ein oder anderen Softwareteil von Nvidia überflüssig macht sind die innovativ genug das nächste Teil aus der Schublade herauszuholen und schwupps ist man wieder vorne. Auf welche Standards setzt eigentlich Apple? Richtig auf kaum welche. Bis jetzt kann ich nicht erkennen, dass es denen zum Nachteil gereicht hat. Auch wenn es mir nicht gefällt muss ich neidlos anerkennen, dass Apple sich ein derart verzahntes und geschlossenes Ökosystem geschaffen hat, dass die Konkurenten egal was sie an potenter Hardware bauen Probleme haben werden diese Nuß zu knacken.
Im Endeffekt ist es doch so. Nur auf Standards setzen und sich darauf verlassen tun die Unternehmen, die selber nicht in der Lage sind Märkte zu treiben und zu bewegen. Alle andere bei denen das nicht der Fall ist nutzen Standards wo es notwendig ist aber betreiben parallel immer noch ihr eigenes Süppchen um den maximalen Nutzen der eigenen Hardware zu generieren und um sich von der Konkurenz abzusetzen. AMD gehört zweifellos zu ersterer Kategorie und Nvidia eben eher zu letztere. AMD war und ist nicht in der Lage Märkte zu bewegen. Die 64 Bit Erweiterung war hier eine rühmliche Außnahme, aus der man leider nicht mehr Kapital geschlagen hat. Mittlerweile ist AMD nur noch ein Mitläufer so wie einst zu K5 / K6 und K7 Zeiten und muss bei neuen Ideen häufig auch miterleben, dass man selber jahrelang darüber redet, aber die Konkurenz plötzlich ohne viel zu reden früher mit Produkten am Markt ist.
Zuletzt bearbeitet:
Ein Standard sagt auch überhaupt nichts über die Marktdominierung aus. Im Workstationmarkt hat nVidia 85% der Marktanteile. Und dort setzt man auf OpenGL als Rendering-API.
Einzig AMD Mitarbeiter und virale Marketingmenschen werden also jetzt OpenCL als heiligen Gral hinstellen. Und wenn es eben nicht mit OpenCL klappt, dann wird das nächste Luftschloss aus dem Hut gezaubert.
Einzig AMD Mitarbeiter und virale Marketingmenschen werden also jetzt OpenCL als heiligen Gral hinstellen. Und wenn es eben nicht mit OpenCL klappt, dann wird das nächste Luftschloss aus dem Hut gezaubert.
Gott sei dank kommt der GK110. Wird er also morgen vorsgestellt? Uhrzeit?
Die gtx 680 war ja bisher eine herbe Enttäuschung für meine angewandten Szenarien (cycles, vray, iray...).
Besitze übrigens auch eine 7870, und selbst die hat die 680 im raytracing platt gemacht. Soviel zum Thema OpenCl vs. CUDA. Vray arbeitet ja zum Glück mit ersterem, sonst wäre meine Auswahl erheblich kleiner, schlechter bezahlbar. Die bessere Double Precision Leistung macht sich auch bemerkbar in 3dsmax.
Aber wollte hier nicht rumspammen. der GK110 wird sicher die nächsten QUartalszahlen ordentlich aufpluschen.
greetings...
Wollte mal nachfragen: Was hat nvidias Dominaz mit OGL zutun? Außer, dass die Geforce Karten hinsichtlich professionellere OpenGl Leistung hin beschnitten sind um die Quadros protektionistisch zu schützen. Aber das ist ja allgemein bekannt. Seit der gtx 280 sind da kaum Zuwächse in der Leistung zu verzeichnen. Schlecht für studentische CAD-Menschen. Die 7xxx Radeons brechen das Monopol wenigstens auf.
3ds max und Maja wurden übrigens längst auf DirectX umgestellt.
Ergänzung:
Um mal etwas zu Cuda zu sagen, möchte ich an nvidias Debakel mit dem Kauf von Mental Ray erinnern. Ziel war es von nvidia einen eigene Renderengine mit Cuda zu versetzen. Letzlich hatten sie aber über vier Jahre nur Probleme damit, denn der Code von Mental ray war schon mit 15Jahren.... alt, sehr alt. Schließlich durften sie mit iray einen völlig neuen Renderer entwickeln und ja er verwendet Cuda und ist auch standardmäßig in Autodesk Produkten vertreten.
Die Verbreitung von Cuda ist in Konkurrenzprodukten aber nicht so dominant wie viele gerne gehabt hätten. Letzlich bauen die meisten GPU-Renderer auf Opencl oder Beidem auf. Beziehungsweise es ist geplant Opencl zu unterstützen. Ausgenommen davon ist iray
Eine Begründung für Opencl übrigens z.B. ein V-Ray Entwicklermensch in einem Dialog.
Auszug aus dem V-ray Forum:
Folgend nocheinmal eine Statement:
Bin gespannt was heute nvidia für Neuerungen ankündigt. Und Sorry für Off-topic. Ich wollte nur aufzeigen, dass die Dominanz von Cuda -in der Cad-szene- längst nicht so dramatisch ausfällt wie hier behauptet wird. Die ganze Disskusion ist sowieso ein wenig witzlos - Opencl ist praktisch als Schnittmenge in Cuda größtenteils vorhanden.
Die gtx 680 war ja bisher eine herbe Enttäuschung für meine angewandten Szenarien (cycles, vray, iray...).
Besitze übrigens auch eine 7870, und selbst die hat die 680 im raytracing platt gemacht. Soviel zum Thema OpenCl vs. CUDA. Vray arbeitet ja zum Glück mit ersterem, sonst wäre meine Auswahl erheblich kleiner, schlechter bezahlbar. Die bessere Double Precision Leistung macht sich auch bemerkbar in 3dsmax.
Aber wollte hier nicht rumspammen. der GK110 wird sicher die nächsten QUartalszahlen ordentlich aufpluschen.
greetings...
Und dort setzt man auf OpenGL als Rendering-API
Wollte mal nachfragen: Was hat nvidias Dominaz mit OGL zutun? Außer, dass die Geforce Karten hinsichtlich professionellere OpenGl Leistung hin beschnitten sind um die Quadros protektionistisch zu schützen. Aber das ist ja allgemein bekannt. Seit der gtx 280 sind da kaum Zuwächse in der Leistung zu verzeichnen. Schlecht für studentische CAD-Menschen. Die 7xxx Radeons brechen das Monopol wenigstens auf.
3ds max und Maja wurden übrigens längst auf DirectX umgestellt.
Ergänzung:
Um mal etwas zu Cuda zu sagen, möchte ich an nvidias Debakel mit dem Kauf von Mental Ray erinnern. Ziel war es von nvidia einen eigene Renderengine mit Cuda zu versetzen. Letzlich hatten sie aber über vier Jahre nur Probleme damit, denn der Code von Mental ray war schon mit 15Jahren.... alt, sehr alt. Schließlich durften sie mit iray einen völlig neuen Renderer entwickeln und ja er verwendet Cuda und ist auch standardmäßig in Autodesk Produkten vertreten.
Die Verbreitung von Cuda ist in Konkurrenzprodukten aber nicht so dominant wie viele gerne gehabt hätten. Letzlich bauen die meisten GPU-Renderer auf Opencl oder Beidem auf. Beziehungsweise es ist geplant Opencl zu unterstützen. Ausgenommen davon ist iray
Eine Begründung für Opencl übrigens z.B. ein V-Ray Entwicklermensch in einem Dialog.
Auszug aus dem V-ray Forum:
MemberWhat seems very interesting is the shared memory ability - "Unified Virtual Addressing (UVA) – Provides a single merged-memory address space for the main system memory and the GPU memories, enabling quicker and easier parallel programming."
I know the RT GPU dosn't use Cuda, but perhaps such features would come to opencl once!!?
MemberI had a feeling CUDA is gonna kick OpenCL in the ass and it is ! I hope that OpenCL will be able to share memory too at some point...
VladoWe do have a CUDA version of V-Ray RT that we use internally, so if we see that there are significant benefits of going this way, it is certainly something that we would do without too much hesitation.
Best regards,
Vlado
MemberWow... Release it ploxxxxxxxxx, isn't it a lot more responsive(refresh speed) then opencl btw?
VladoNo, not really. In some of the last tests, OpenCL was a tad bit faster.
Best regards,
Vlado
Folgend nocheinmal eine Statement:
Yes, it works completely in OpenCL now. Speed-wise, they are both very close in the latest driver releases. OpenCL has a huge advantage over CUDA in that it can compile the scene shaders on the fly, meaning that we can do procedural textures and complex materials. (of course, that will change once again if/when full C++ is available for CUDA...)
Best regards,
Vlado
Bin gespannt was heute nvidia für Neuerungen ankündigt. Und Sorry für Off-topic. Ich wollte nur aufzeigen, dass die Dominanz von Cuda -in der Cad-szene- längst nicht so dramatisch ausfällt wie hier behauptet wird. Die ganze Disskusion ist sowieso ein wenig witzlos - Opencl ist praktisch als Schnittmenge in Cuda größtenteils vorhanden.
Zuletzt bearbeitet:
aylano schrieb:Nur wird AMD wegen GCN mit C++ und ECC heuer stark druck auf den hochprofitablen Profi-Markt und Telsa-Markt machen. Bitter, wenn Nvidia in den beiden anderen Märkten, wo die Konkurrenz stark ist, eben Verluste macht.
Wann macht denn AMD Druck? Ich meine mit Vaporware und viralem Marketing wird das nichts.
Achja, nVidia hat heute K10 - erhältlich - und K20 - ab Q4 - angekündigt. Soviel dazu, dass AMD irgendwie auch nur von Interesse im HPC Markt wäre.