-
Es gelten die Sonderregeln des Forums Politik und Gesellschaft.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Quartalszahlen: Nvidia feiert Rekorde und kämpft mit der Nachfrage
- Ersteller MichaG
- Erstellt am
- Zur News: Quartalszahlen: Nvidia feiert Rekorde und kämpft mit der Nachfrage
.Snoopy.
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.343
Eine Bruttomarge von 61,9% bedeutet, dass auf die Herstellungskosten als Gewinn ~162,5% aufgeschlagen werden, um auf die Umsatzerlöse (bzw. Verkaufspreise) zu kommen. Zudem wird dann noch gesagt das 60% des Gesamterlöses der Gaming Bereich ausmacht.
Respekt. Vielleicht lassen sich ja die Kunden 2018 noch mehr über den Tisch ziehen als bisher. Also nVIDIA hat bei Apple gut gelernt und ist dabei es noch zu verbessern.
Respekt. Vielleicht lassen sich ja die Kunden 2018 noch mehr über den Tisch ziehen als bisher. Also nVIDIA hat bei Apple gut gelernt und ist dabei es noch zu verbessern.
Doch längst sind es nicht nur Spieler, die Grafiklösungen der GeForce-Familie kaufen. Denn auch für das Mining von Kryptowährungen ist die Nachfrage nach Grafikkarten hoch. Welchen Anteil der Kryptomarkt an Nvidias Umsatz hat, bleibt jedoch verborgen. Es sei zudem schwer zu sagen, welche Grafikkarten an Spieler und welche an Miner im Endkundenhandel verkauft werden, sagte Nvidia.
Datacenter verdoppelt Umsatz
Die Sparte Datacenter rund um High-End-GPUs als Rechenbeschleuniger für die Bereiche künstliche Intelligenz und Supercomputer hat in den vergangenen drei Monaten am stärksten zugelegt.
Das ist so noch nicht korrekt bzw. vollständig.
Die 1080 (Ti) (teilweise auch 1070 dank der 8GB VRAM) und zuvor die 980 (Ti) werden ebenfalls sehr häufig im Bereich KI eingesetzt. Sowohl für "Workstations" zu Hause, als auch in Unternehmen und Universitäten, denn meistens geht es um reine FP32-Leistung und häufig werden direkt am Arbeitsplatz auch nur kleinere Sachen getestet oder re-trained. Dafür brauch es keine Titan und schon gar nicht eine Tesla.
Der Anteil der GeForce-Karten, die für Deep Learning & Co an Arbeitsplätzen eingesetzt werden ist natürlich ebenso schwer zu beziffern, wie der Anteil der Miningkarten...muss aber definitiv auch berücksichtigt werden.
Bei dem Mining-Boom und vor allem dem Wachstum im Bereich AI & Co (mit Abstand stärkster Wachstumsbereich) werden spätestens in Zukunft auch die Mehrheit der GeForce-Karten nicht mehr an Gamer gehen.
Zuletzt bearbeitet:
Mcr-King schrieb:Obwohl NV da immer mehr den Riegel vorschiebt weil die Gaming GPUs immer mehr an Profi ausbau verlieren
Das ist richtig.
Ich bin gespannt wie/was NVIDIA diesbezüglich bei Ampere machen wird. TensorCores in Ampere wären schon nett für mich und viele andere
Mehr (+schnellerer) VRAM und FP16/64 sowie INT8 sind in einer Titan bzw. Tesla natürlich nett und für Cluster & Konsorten optimal.
Für die Workstation reicht aber vollkommen eine ordentliche FP32-Leistung für viele Simulationen, speziell im KI-Bereich...und da ist eine 1080 (Ti) z.B. nur sehr geringfügig von einer Titan oder Tesla entfernt, insofern ist für die typische Workstation in dem Bereich bis jetzt immer eine GeForce-Karte vom P/L her attraktiver gewesen.
Wenn die TensorCores in zukünftigen Releases der üblichen libraries gut genutzt werden können und Volta-exklusiv bleiben, dann ändert sich das natürlich drastisch.
Zumindest in der Theorie ist mit den TensorCores in Volta ja eine Rechenleistung von 100+ TFLOPs erreichbar, was die "normale" Rohleistung von ~15 TFLOPs bei Volta (und denke mal Ampere wird auch in die Richtung gehen) stark in den Schatten stelllt.
Bisher hab ich in Benchmarks allerdings nur gesehen, dass das seltene edge-cases bleiben wo die Leistung im Peak derartige Höhen erreicht. Im Durchschnitt scheint (noch?) sehr häufig der sinnvolle Gebrauch und damit Performance-Boost von den TensorCores auszubleiben.
Zuletzt bearbeitet:
hudini9911
Banned
- Registriert
- Jan. 2017
- Beiträge
- 552
AnkH schrieb:Und ein Intel i7-8700K kostet in etwa noch soviel wie damals der i7-2600K. Hätte Intel denselben Pfad genommen wie nVidia, müsste man für einen i7 heute auch deutlich über 800€ entlöhnen. Also nicht ganz fairer Vergleich...
Der Vergleich ist eh Quatsch, damit hätte Intel nie Erfolg gehabt. Oder glaubst du jemand zahlt 30% Preisaufschlag für 10% mehr Single Core Leistung?! Das was Intel in 5 Jahren fabriziert, schafft Nvidia in einem Jahr. Im CPU Bereich herrscht praktisch Stillstand...Außer mehr Cores und mehr Effizienz..Toll
Zuletzt bearbeitet:
JackTheRippchen
Lt. Commander
- Registriert
- März 2012
- Beiträge
- 1.953
emeraldmine schrieb:Hurra, hab ne neue Graka die verbraucht 90 Watt pro Stunde WENIGER bei gleicher Rechenleistung (SP), ha und war keine Nvidia.
hudini9911 schrieb:Im CPU Bereich herrscht praktisch Stillstand...Außer mehr Cores und mehr Effizienz..Toll
Mehr Cores und mehr Effizienz bedeutet eine deutlich höhere Leistung für Workstations und gerade für Cluster, da man mit mehr oder weniger gleichen Ressourcenaufwand viel mehr Leistung insgesamt durch Parallelisierung hat.
Im Officebereich reicht für den Standarduser ohnehin jeder Billig-PC der letzten Jahre. Für professionelle Use-Cases hat Intel ordentlich optimiert. Es ist eigentlich nur der Gamingmarkt der noch exorbitant auf hohe Leistung pro Kern setzt(e).
W
Wadenbeisser
Gast
@JackTheRippchen
Was genau war jetzt an der Aussage falsch?
Was genau war jetzt an der Aussage falsch?
JackTheRippchen
Lt. Commander
- Registriert
- März 2012
- Beiträge
- 1.953
Man kann pro Stunde eine gewisse Energiemenge (Einheit Joule) weniger verbrauchen, aber keine Leistung (Einheit Watt). Leistung pro Zeit, welche physikalische Größe soll das sein?
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.179
Liegt aber auch daran dass Intel auf kosten der Sicherheit alles auf Leistung getrimmt hat. Wie NV auf kosten von Profi Sachen nur noch only Gaming Karten macht. Trotzdem die Zukunft liegt in mehr Cores CPUs und MMC GPUs da anders es einfach nicht mehr möglich ist die Leistung zu steigern und da ist AMD und Intel NV weit vor raus.
R
rob-
Gast
Aslo schrieb:Die machen derzeit zweifelsohne gute Produkte. Was mir den Laden jedoch immer noch unsympathisch macht, sind Geschichten wie Gameworks, Hairworks, PhysX, GSync etc.. Stattdessen sollten sie auf offene Lösungen setzen.
Offene Lösungen neigen zu Problemen, da sich keiner so richtig zuständig fühlt. FreeSync jedenfalls ist GSync nachweislich unterlegen.
Zusätzlich ist Nvidia in Kombo mit einem Shield TV ein Traum. 4k Stream über 5GHZ WLAN mit perfekter Bild Qualy, ohne Ruckler und spürbaren Input Lag auf den TV. Alleine deswegen ist AMD für mich nicht kaufbar.
Nvidia Lösungen laufen einfach rund.
Zuletzt bearbeitet von einem Moderator:
JackTheRippchen schrieb:Man kann pro Stunde eine gewisse Energiemenge (Einheit Joule) weniger verbrauchen, aber keine Leistung (Einheit Watt). Leistung pro Zeit, welche physikalische Größe soll das sein?
Wenn man schon angeben möchte, sollte man sich vorher um die Korrektheit der eigenen Angaben kümmern, denn selbstverständlich gibt es gebräuchliche Einheiten für Leistung pro Zeiteinheit.
Selbst das von dir angegebene Joule ist nichts großartig anderes, definiert es sich doch unter anderem als 1 Wattsekunde, also der konstanten Leistung von 1W über die Dauer einer Sekunde.
Weiterhin gibt es die umgänglich sehr gebräuchliche Wattstunde, die demzufolge genau 3600J entspricht, da es 1W Leistung über eine Stunde (=3600s) definiert und damit 3600 Ws - also 3600J - entspricht.
Man kann es auch umgekehrt angehen und es aus Sicht gesparter Leistung (P) betrachten, die sich ja gerade als Quotient von verrichteter Arbeit geteilt durch der benötigten Zeit definiert. Hier also exakt Arbeit (W) / Zeit (t).
EDIT: Da außerdem aus dem unpräzisen Post von emeraldmine hervorgeht, dass er von konstanter - also zeitlich unveränderlicher - Leistung ausgeht, ist es auch recht einfach beim Quotienten delta W / delta t der Leistung darauf zu schließen, wie viel da exakt hypothetisch eingespart wurde.
Auch wenn das natürlich vernachlässigt, dass eine Grafikkarte stets zeitlich veränderliche Arbeit verrichtet. Nichtsdestoweniger könnte man da aber immer noch die mittlere verrichtete Leistung über eine Zeiteinheit berechnen und das als gesparten Betrag angeben.
Zuletzt bearbeitet:
Mr.Seymour Buds
Commodore
- Registriert
- Feb. 2012
- Beiträge
- 4.334
Da frage ich mich schon, wann denn endlich Intel und Samsung in den GPU Markt einsteigen. Platz genug wäre da.
@Mr. Seymour Buds: Das wird nicht (mehr) passieren. Intel hat doch jetzt nicht umsonst für iGPU Lösungen schon seine eigene Sparte quasi fallen lassen und ist eine Kooperation mit AMD eingegangen (AMD iGPUs in Intel CPUs).
NVIDIA (und AMD) haben viel zu viele Patente, Erfahrung und Marktmacht diesbezüglich.
Dann kommt noch dazu: Gaming ist der schwächste Wachstumsmarkt im Bereich GPU. Mining, GPGPU, speziell Deep Learning usw. sind alles größere Wachstumsmärkte. Deshalb geht doch AMD auch schon stark in diese Richtung und NVIDIA hat doch schon zu Pascal verkündet "Datacenter First". Seit Volta wird Gaming nicht nur zurückgestellt und sondern gleich mehrere Monate nach hinten verschoben.
Im HPC-Markt mitzumischen ist doch viel luktrativer, größeres Wachstumspotenzial. Und da gibt es auch weniger etablierte Marktmacht und weniger Patente.
Samsung beispielsweise erkundet doch schon, inwiefern man sinnvoll eigene AI-Chips für den mobilen Sektor produzieren könnte.
Und Intel ist mit Nervana & vielen anderen Einkäufen auch schon stark Richtung AI gegangen. Und will das laut Medienberichten ja auch weiterhin tun. Da werden aber natürlich keine GPUs kommen, sondern ähnlich wie schon der Xeon Phi schlicht diskrete Beschleuniger, die dann ausschließlich für Compute-Lösungen interessant sind.
NVIDIA (und AMD) haben viel zu viele Patente, Erfahrung und Marktmacht diesbezüglich.
Dann kommt noch dazu: Gaming ist der schwächste Wachstumsmarkt im Bereich GPU. Mining, GPGPU, speziell Deep Learning usw. sind alles größere Wachstumsmärkte. Deshalb geht doch AMD auch schon stark in diese Richtung und NVIDIA hat doch schon zu Pascal verkündet "Datacenter First". Seit Volta wird Gaming nicht nur zurückgestellt und sondern gleich mehrere Monate nach hinten verschoben.
Im HPC-Markt mitzumischen ist doch viel luktrativer, größeres Wachstumspotenzial. Und da gibt es auch weniger etablierte Marktmacht und weniger Patente.
Samsung beispielsweise erkundet doch schon, inwiefern man sinnvoll eigene AI-Chips für den mobilen Sektor produzieren könnte.
Und Intel ist mit Nervana & vielen anderen Einkäufen auch schon stark Richtung AI gegangen. Und will das laut Medienberichten ja auch weiterhin tun. Da werden aber natürlich keine GPUs kommen, sondern ähnlich wie schon der Xeon Phi schlicht diskrete Beschleuniger, die dann ausschließlich für Compute-Lösungen interessant sind.
M.B.H.
Commander
- Registriert
- Dez. 2006
- Beiträge
- 2.216
Es wird dringend Zeit für nen richtigen Leistungsanstieg der Grafikkarten. Ich habe das Gefühl dass die gezielt gedrosselt werden bzw. dass sie viel viel stärkere Karten herausbringen könnten wenn sie wollten.
Wir benötigen unbedingt in den nächsten 1-2 Jahren Grafikkarten, die mind. das 10 Fache an Rohleistung liefern, hauptsächlich wegen VR-Brillen mit hohen Auflösungen.
Es wäre nen totaler Fail wenn iwann dieses Jahr eine Grafikkarte herauskommt, die nur 50% schneller ist als eine 1080 Ti.
Und irgendwann noch viel stärkere Karten um 16k VR brillen mit mind 144 Hz zu speisen...
aber ich vermute das wird noch mind. 10 Jahre dauern und wenn Nividia nicht in die Pötte kommt, dann nicht mal in 40 Jahren.
Wir benötigen unbedingt in den nächsten 1-2 Jahren Grafikkarten, die mind. das 10 Fache an Rohleistung liefern, hauptsächlich wegen VR-Brillen mit hohen Auflösungen.
Es wäre nen totaler Fail wenn iwann dieses Jahr eine Grafikkarte herauskommt, die nur 50% schneller ist als eine 1080 Ti.
Und irgendwann noch viel stärkere Karten um 16k VR brillen mit mind 144 Hz zu speisen...
aber ich vermute das wird noch mind. 10 Jahre dauern und wenn Nividia nicht in die Pötte kommt, dann nicht mal in 40 Jahren.
Zuletzt bearbeitet:
K
kai84
Gast
Sollte nicht wirklich verwundern da ja NVIDIA (leider) im Bereich dedizierter Grafikkarten fast Monopolist ist.
M.B.H. schrieb:Wir benötigen unbedingt in den nächsten 1-2 Jahren Grafikkarten, die mind. das 10 Fache an Rohleistung liefern, hauptsächlich wegen VR-Brillen mit hohen Auflösungen.
Das ist absolut illusorisch und liegt auch nicht an künstlicher Drosselung. Je nachdem wen man fragt und welche Techniken noch realistisch und wirtschaftlich einsetzbar sind, ist irgendwo zwischen ungefähr 1-5nm Schluss mit Shrinks der derzeitigen Architektur. Bei der die-Fläche hat mal einer auf reddit ausgerechnet, dass es allerspätestens ab ca. 1000mm² ebenfalls die Grenze einer sinnvollen Chipvergrößerung erreicht ist, da danach Latenzen, Stromverbrauch und Fertigungskosten die ganze Konstruktion extrem unrentabel machen. Darüber hinaus ergeben sich bei solchen Größen vielerlei Grenzen in der technischen Machbarkeit.
Volta ist ja auch schon bis auf etwas über 800mm² hoch und damit riesig, nahe an der sinnvollen Grenze.
Maximale Fläche und maximal mögliche Verkleinerung werden sicher nicht in den nächsten 1-2 Jahren, sondern eher in vielleicht den nächsten 10 Jahren technisch überhaupt möglich sein und das man allein damit 10x soviel Leistung wie heute schafft, wäre schon sehr sportlich.
Architekturoptimierungen werden auch keine großen Sprünge mehr bieten, da ist ja schon ewig viel optimiert.
Das einzige - was zig Hersteller ja auch machen (siehe etwa TensorCores bei NVIDIA's Volta) - ist sich auf wachstumsträchtige Bereiche zu fokussieren wie etwa Deep Learning und dort dann spezielle Chips zu entwickeln, die genau in diesem einen Anwendungsbereich durch starke Spezialisierung nochmal ordentlich Performance holen.
Im Gaming wird das aber nicht mehr passieren, GPUs und die aktuelle Architektur *ist* ja schon die Spezialisierung für Gaming/Grafik.
Was du forderst liegt schlicht außerhalb der Grenzen des technisch Machbaren, besonders in so kurzer Zeit. Um solch große Sprünge zu machen, brauchen wir bei Forschung & Entwicklung einen Durchbrauch, also komplett neue Technik.
Wie etwa beim Sprung von HDDs auf SSDs.
Bezüglich Prozessorentwicklung gibt es da aber (voraussichtlich) nichts, was uns kurzfristig solche Sprünge bescheren könnte. Die einzigen wirklich neuen Herangehensweisen sind organische Prozessoreinheiten und Quantencomputer. Ersteres hat sich aber für spezialisierte Hardware und vor allem für den Massenmarkt bisher als nicht praktikabel erwiesen und wird wohl noch lange dauern - falls das überhaupt je ein sinnvoller Ersatz für siliziumbasierte Halbleiterchips wird.
Und bei Quantencomputern ist alles, worauf aktuell gepeilt wird und technisch machbar ist, hohe theoretische Rechenleistung -> also Supercomputer. Und selbst da gehen die meisten nicht von großartig vor ca. 2040 aus, bis da was kommt was wirklich realistisch den Massenmarkt aufmischt und nicht nur für ganz, ganz wenige wissenschaftliche edge-cases nutzbar ist.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 217
- Aufrufe
- 13.437
- Antworten
- 236
- Aufrufe
- 22.268
- Antworten
- 302
- Aufrufe
- 30.090
- Antworten
- 68
- Aufrufe
- 7.185
- Antworten
- 120
- Aufrufe
- 78.441