News Quartalszahlen: Nvidia sprengt Erwartungen mit Rekordumsatz und Gewinn

KI!

reden wir von ernsthaften Anwendungen ( Medizin) oder von Malen nach Zahlen oder der
Volksbespassung kack-gpt " eymannn kanst du mir sagen wo vollkrass klopapier hängt?"

Ich schreib kleiner KI-s.
Um zb in der Unreal Engine 5-2-1 statt dem i-phhön eine gute echte Kamera zu nutzen.
Metahuman / mocap/ Echtzeitrecorder mit zb Bmcc p 6k oder Canon c-70..

Oder Dinge di mir in Z-brush helfen fette Quixxel Texturen etz.. nur mal so.

Was jetzt? Könner und Kreative oder Deppen und Honks?

NVIDIA weiß dass ich meine 4 Pyn A-6000 und 2 msi-rassel-4090ziger erseten werde. Frag sich nur, ob ich da
mit mache.
 
Eusterw schrieb:
Das ist tatsächlich erstaunlich, da mehr als 100% unmöglich sind...
Es sind sehr wohl mehr als 100 Marge möglich. Marge ist die Differenz zwischen Herstellungskosten bzw. Einkaufspreis und Verkaufspreis.

Du stellst etwas her was dich 10 Euro kostet. Du kannst es für 100 Euro verkaufen. Das wären 900 Prozent Marge. Steuern und Co mal aussen vor..
Die 1000 Prozent Marge bei Nvidia stimmen aber nicht. Schon peinlich was da die Financial Times sich da geleistet hat.
Sonst hätte NV ja auch nicht eine Bruttomarge von 70 Prozent über das ganze Portfolio...
 
RogueSix schrieb:
Die Anwendungsfelder für AI sind quasi unbegrenzt. Insbesondere in jedweder Form der Forschung und bei jeder Art von produzierendem Gewerbe, aber auch in der Medizin, kann eine entsprechend spezialisierte AI extrem hilfreich sein, um bestimmte Prozesse zu beschleunigen oder qualitativ zu perfektionieren.
Ich persönlich sehe es so, die Möglichkeiten von AI werden überschätzt, auch wie schnell AI sich weiter entwickeln wird, wird vermutlich überschätzt. Die Entwicklung geht vermutlich ziemlich langsam. Nichtsdestotroz ist AI kein Hype. Die Einsatzgebiete sind auch mit der jetzigen Technik riesig und die Integration in die Wirtschaft hat gerade erst begonnen.
... Vielleicht sollte ich tatsächlich doch auch noch ein paar Nvidia Aktien in mein Portfolio nehmen.
 
BAR86 schrieb:
Das nimmt man ja gerne mit, die Architektur muss ohnehin entwickelt werden
Ergänzung ()


Die Produktionskosten sind niedrig und man verkaufts 10x so teuer, dann ist man bei 1000% sogar
Produktionskosten von 1 Cent. Verkaufspreis 100000000000 Euro. So etwa? Sind trotzdem nicht mehr als 100%
 
  • Gefällt mir
Reaktionen: Icke-ffm
Precide schrieb:
Sie verkaufen die Dinger auf jeden Fall für 30.000, bei angeblichen Kosten irgendwo um die 3.000.
Die Kosten sind falsch. Viel zu niedrig. Kannst du hier bei CB auch nachlesen..
Ergänzung ()

Pontus schrieb:
Produktionskosten von 1 Cent. Verkaufspreis 100000000000 Euro. So etwa? Sind trotzdem nicht mehr als 100%
Doch sind mehr als 100 Prozent. Google mal Marge. Dann weißt du wieso mehr als 100 Prozent gehen...
 
  • Gefällt mir
Reaktionen: BAR86
@erazz_er
Ja natürlich!
ich habe den direkten Vergleich

für den Preis kann ich bei AMD einfach das nächst größere Modell kaufen und liege dann bei der RT Performance gleich auf oder vorne und die Unterschiede zwischen DLSS und FSR sind minimal wenn überhaupt sichtbar (da fallen mir den Fehler von DLSS und FSR eher auf) und größte Witz überhaut ist FrameGeneration

wie gesagt lediglich Effizienz ist für mich der Grund warum auch ne 4070 habe
 
  • Gefällt mir
Reaktionen: Icke-ffm
In einem Forum wird immer kontrovers diskutiert, das ist normal. Aber einige sind halt Fanboys...Ich versuche immer preisleistungtechnisch optimal unterwegs zu sein, aber bin kein Fanboy von irgendetwas. Fakt ist, dass AMD der RTX4090 in dieser Generation nichts entgegenzusetzen hat, aber darunter echte Alternativen auf den Markt gebracht hat und auch noch bringen wird. DLSS mal dahingestellt, die RT Leistung ist auch nicht so schlecht bei den 7900er Karten. Und DLSS wird ja nun auch bei weitem nicht von jedem Game unterstützt.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Fyrex schrieb:
Aber jeder Spieler, der sein hart verdientes Geld nicht mit Wertpapier-Spekulationen auf`s Spiel setzen will, kann ruhig auf der Strecke bleiben.
Von Spekulieren würde ich auch abraten, ist eher was für Zocker. Langfrisitig Investieren ist hingegen keine schlechte Sache.

Habe meine Nvidia-Aktien beim letzten großen Kurssprung im Juni leider verkauft. Macht aber nichts, trotzdem ordentlich Gewinn gemacht. Bei dem derzeitigen Kurs steige ich aber definitiv nicht mehr ein, ist mir dann doch etwas zu heiß.
 
  • Gefällt mir
Reaktionen: schneeland
Beteigeuze. schrieb:
wie gesagt lediglich Effizienz ist für mich der Grund warum auch ne 4070 habe

Das ist auch eine gute Wahl, die Karte ist so scnell wie eine RTX 3080 und auch noch um einiges effizienter.
 
cuda wischt mit rocm den Boden auf, wenn die Datacenter (141% Revenue Q/Q ) weiter so abgehen wird gaming (11% Q/Q) irgendwann irrelevant für nvidia.

Trotzdem würde ich nicht in die Fahnenstange reinkaufen ;)


Überlege langsam meine Posi zu verkleinern, aber wenn einem der Kurs weglaufen kann dann hier...
 
Vorsicht bei den Umsätzen der Gaming Sparte: der ist immer noch aufgebläht weil viele Leute die "KI" Entwicklung nicht auf Datacenter Größe machen zur 4090 (eventuell auch 4080 und 4060 16GB) greifen weil viel VRAM und deutlich günstiger als die "Profi" Karten. Aber selbst mit denen ist der Gewinn der Sparte nicht da wo er sein sollte, weder prognostiziert noch im Bezug auf die Gewinne von vor nicht als zu langer Zeit.

Der aktuelle KI Hype ist leider ähnlich wie der Mining Hype eher ungut für die Konsumenten. Damals weil Nvidia schonungslos ihre Konsumer GPUs auch in Tonnen an Miner verkauft haben, heute weil Nvidia den Gewinn pro Karte vom Datacenter auch teilweise zum Konsumenten schieben möchte...

Ob das aber mittelfristig funktioniert? Der KI Hype wird nicht ewig anhalten und sobald erst mal die meisten versorgt sind, dürfte es nen ordentlichen Einbruch bei Datacenter geben, den dann Gaming irgendiwe auffangen müsste.
 
Novasun schrieb:
Es sind sehr wohl mehr als 100 Marge möglich. Marge ist die Differenz zwischen Herstellungskosten bzw. Einkaufspreis und Verkaufspreis.
Richtig.
Novasun schrieb:
Du stellst etwas her was dich 10 Euro kostet. Du kannst es für 100 Euro verkaufen. Das wären 900 Prozent Marge. Steuern und Co mal aussen vor..
Falsch. So wird die Handelsspanne nicht berechnet. :)
Ergänzung ()

Pontus schrieb:
Produktionskosten von 1 Cent. Verkaufspreis 100000000000 Euro. So etwa? Sind trotzdem nicht mehr als 100%
Weil du nicht kreativ genug rechnest.
 
Syrato schrieb:
Dass AMD nicht drastisch mit den Preisen runtergehen, um den Markt zu erreichen?!
Das sind sie doch schon, schau Dir die RDNA2 Preise an und auf biegen und brechen die Karten noch mehr an die Breakeven-Marge heran zu fahren bringt es nicht oder rote Zahlen/Verluste für hypothetisch mehr Marktanteile in Kauf zu nehmen, da viele Leute sowieso nVidia kaufen (Mindshare-verblendet, ähnlich wie bei Apple und es geht im Gaming-Bereich mehr um Status - gegenüber anderen - als darum, wofür diese eigentlich die Grafikkarte brauchen), egal was AMD/RTG macht (auch wenn letztere die preis-leistungstechnisch viel runderen Produkte anbieten, wie etwa aktuelle eine RX 7900XT im Vergleich zu einer RTX 4070Ti).

Das hat man bei AMD/RTG mittlerweile begriffen und so lange die Leute immer noch in Scharen zu nVidia laufen und sich dort ein ums andere Mal durch den Kakao ziehen lassen und AMD/RTG selber immer noch munter produkt- und marketingteschnische Fehler machen, so lange wird sich daran nichts ändern und man evt. - falls Intel sich zunehmend etablieren kann - dann auf den dritten Platz durchgereicht wird.

Grossartige Techninnovationen sehe ich bei AMD/RTG im dGPU-Bereich auch seitdem Koduri als Ideengeber nicht mehr dort ist auch nicht mehr, denn man orientiert sich seitdem preis- und entwicklungs-technisch (nachäffend) an nVidia und natürlich wird unter Lisa Su der CPU-Bereich im Unternehmen klar über dem GPU-Bereich priorisiert, auch ein Grund dafür, dass man (mit Ausnahme von RDNA2) meist nVidia in den letzten Jahren hinterher lief.

Man müsste die Ausrichtung des ganzen Unternehmens komplett umstellen und ich glaube nicht, dass Su das mit Blick auf A.I. in dem Maße machen wird.
Ein Glück nur, dass nVidia ARM nicht bekommen hat, sonst wären deren exorbitasnte Preisdiktate noch in vielen anderen Bereichen für Konsumenten zu spüren und ein neuer Monopolist geboren, wobei nVidia aktuell im A.I. Bereich leider als Quasi-Monopolist behandelt wird und andere (Intel und AMD/RTG) es schwer haben dürften da mitzuhalten.

Das einzig positive an der Entwicklung aktuell ist, dass solange die Gaming-Industrie verbuggt und leistungstechnisch mies optimierte Spiele im AAA-Bereich abliefert (daruntere reichen auf locker noch Karten der letztren beiden dGPU-Generationen für flüssiges Spielen) und man im Mittelklassebereich nicht wirklöich spürbar mehr (Leistung) für gleiches Geld bekommt, solange wird die Entwicklung da stagnieren und die alten Grafikkarten noch lange reichen (für alles was halbwegs lohnenswert sein drüfte, gesüielt zu werden).

nVidia Gesponsorte RT-PT Show-/Hype-Projekte wie Cyberpunk 2077 werden evt. die relativ kleine Anzahl von dGPU-Enthusiasten abholen, aber für den Rest wird sich das wohl kaum rechnen und es wert sein Grafikkarten aufzurüsten.
Im Gegenzug rechne ich damit, dass Konsolen noch relevanter werden in Zukunft als ohnehin schon und noch mehr Leute dorthin vom PC Gaming abwandern werden (damit auch immer nischiger und weniger relevant für Spielentwicklung wird mit dann noch weniger Pflege und optimierter Entwicklungsarbeit), auch weil nVidia A.I. Datacenter immer mehr profitmaximierend puschen wird und im Gegenzug die Gaming-dGPUs bis auf das Flaggschiffmodell technsich versauern/stark beschneiden und heftig überteuert anbieten wird.

Wie viele gekaufte Ada Lovelace Grafikkarten aktuell zweckentfremdet für A.I. werden und nicht zum Gaming (also in analoger Entwicklung wie damals der Einsatz von Gaming-Grafikkarten zum Kryptomining), wäre natürlich interessant zu wissen und das könnte natürlich die relativ guten Gaming-dGPU Zahlen bei nVidia noch erklären, auch wenn die Produkte von den Spezifikationen selten unrund sind und für die vernaschlagten Preise wenig für Gamer bieten.
 
Zuletzt bearbeitet:
Brrr schrieb:
Nein, Nvidia liefert genau so viel dass niemand oder zumindest nur wenige auf AMD wechseln. Die wollen keine erstarkenden Konkurrenten.
Unmöglich, den NVIDIA kann einfach mehr per Wafer an TSMC bieten als AMD. Ja die Kontingente werden inzwischen auch versteigert oder gleich exklusiv an Apple gegeben. Aber selbst Apple wird gegenüber NVIDIA bei TSMC den kürzeren ziehen, wenn das so weiter geht, wovon ich und andere aus gehen.

Das ist der Scherz.
Wenn NVIDIA viel höhere Preise für die selbe DIE Größe im KI/Enterprise verlangen kann, kann es einem egal sein, da man AMD (und Apple etc.) einfach alles an Kontingenten wegkaufen kann.

Auch lasen sich Wafer nicht einfach nachbestellen. AMD könnte für in 3 Jahren mehr Volumen buchen.
Es wäre aber ein hohes unternehmerisches Risiko das zu tun. Den wer weiß wie in 3 Jahren NVIDIAs Technologie aussieht. Aber selbst wenn AMD überlegen wäre, bis das der User verstanden hat, dauert es noch mal x Jahre.
Hat man ja an Ryzen gesehen. Und Intel war/ist ja keine Konkurrenz mehr zu AMD.
Damit meine ich zukünftig wichtigste Kennmarke, Rechenleistung per Energie per Wafergröße.

Und genau daher braucht AMD mehrere Generationen guter Produkte um von NVIDIA Marktanteile im Consumer Bereich abzunehmen. Das ist derzeit aber absolut illusorisch, vielleicht wenn man die Chiplets für GPUs unter Kontrolle bekommt, so in 1-3 Generationen.
 
  • Gefällt mir
Reaktionen: Brrr
Nicht gewinne mit margen verwechseln
Margen sind % und die sind fest geplant abzüglich Kosten und Steuern
Was uns kunden inetresieren muss ist die bruittomarge pro Produkt die liegt bei 70%
Ds berechne ich seit jahren für die kalkutlation von gpu preisen.
Bedenke das nvidia keine Fertige Produkte verkauft sondern nur chips.
In Konsumenten Prodkute sogar chuips und vram der zustzlich verdient wird da andere fiormen mit ihere marge darin intrigiert sind
also kommen die 70% auf den vrm preis drauf zu den chipkosten.
So muss man kalkulieren einfach die produktionskosten der sku zu nehmen und das mit dem Verkaufspreis zu dividieren ist mathemantisch falsch
Da komen so 1000% amrge raus was nicht Stimmt. es sind die besagten 70%
 
cha0shacker schrieb:
DotCom Blase 2.0?
Damals machten viele Unternehmen keine Gewinne. Nvidia hat im letzten Quartal die hohen Umsatzerwartungen einfach um 2 Milliarden Dollar übertroffen.
 
  • Gefällt mir
Reaktionen: schneeland
Taurus104 schrieb:
aber nicht als Kunde
Why not? Da sind Menschen die aus betriebswirtschaftlicher Sicht agieren und ihr Unternehmen scheinbar sehr erfolgreich führen. Finde es nicht verwerflich Leistung zu würdigen und ich bin weder Mitarbeiter, noch Aktionär, ich habe nicht mal eine Nvidia GPU.

(Ok bin dann auch kein Kunde ;) )
 
Zurück
Oben