News Desktop-Grafikkarten: Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent

flappes schrieb:
Und alle kaufen ja bekanntlich immer die Schnellsten
Enthusiasten schon, na klar.
Schau dir doch nur mal die letzten Community Tests hier an...
Abstimmen tut jeder mit AMD, aber gepostet werden dann trotzdem massenweise 4090er 😅
 
  • GefĂ€llt mir
Reaktionen: angband1 und Laphonso
Waelder schrieb:
Man muss glaub nicht lange ĂŒberlegen wohin die Preise gehen wĂŒrden wenn sich AMD aus dem GPU Sektor zurĂŒck ziehen wĂŒrde

Ich bin mir ehrlichgesagt nicht sicher, ob das noch einen merklichen Einfluss auf die Preise hĂ€tte, da NVIDIA die Preise jetzt schon vorgibt. Sie verlangen in etwa so viel, dass sie beinahe das Maximum an Gewinn aus der Kombination von Absatzzahlen und Gewinnmarge pro Chip abschöpfen können. Falls das nicht zu Release schon komplett ausgelotet ist, wird nachtrĂ€glich korrigiert. So geschehen z. B. beim RĂŒckzieher von der 4080 12GB, die dann $100 billiger als 4070 Ti verkauft wurde, oder bei der 4080 Super, die $200 weniger kostet als die 4080 zu Release.

Da AMD sich mit den Preisen bisher immer NVIDIA angleicht, entsteht durch AMD auch kein Preisdruck nach unten. Die AMD-Karten kosten ~10% weniger bei gleicher Rasterleistung, dafĂŒr verzichtet man auf ~5-67% RT-Leistung (je nach IntensitĂ€t des RT-Einsatzes), (bisher) besseres Upscaling, höhere Effizienz (zumindest in der aktuellen Generation) und hat ggf. Probleme wie hohe Idle-VerbrĂ€uche, die dann Monate bis Jahre brauchen um nach und nach verbessert zu werden. Je nach Vorlieben und Leistungsklasse, ist dann das eine oder das andere der bessere Deal.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Quidproquo77
AMD sollte sich imho weiter auf den CPU-Markt konzentrieren, wenn man nebenher um die 5-10% des GPU-Markts, ohne Verluste abgreifen kann, ist doch alles tutti?

AMD kann mit ihrem vorhandenen Budget auch nicht zaubern..
 
  • GefĂ€llt mir
Reaktionen: JarlBallin und Icke-ffm
Werden Konsolen hier eigentlich mitgerechnet? Dachte immer, dass das ein riesen Markt ist.
(Speziell beim Thema Spiele-Entwickler)
 
raPid-81 schrieb:
WENN Du Ahnung hĂ€ttest dann wĂŒsstest Du dass Nvidia gar keine Packaging KapazitĂ€ten aufbaut. Das macht u.a. TSMC.

https://www.trendforce.com/news/202...y-booked-by-nvidia-and-amd-through-next-year/

Die 50.000 Einheiten pro Monat sind optimistisch geschĂ€tzt fĂŒr 2024. Inklusive Ausbau der KapazitĂ€t. 2023 waren es noch 15.000 Einheiten pro Monat.

Somit bleibt meine Aussage bestehen, Deine Antwort Àndert nichts daran und ist reine Angstmacherei.
Wenn Dein Horizont nur bis 2024 geht gebe ich Dir Recht.

Aber selbst in Deinem zitierten Text steht, dass 2025 bereits 50k pro MONAT (also rund 600k aufs Jahr) geplant ist. Und 2026 wird das noch viel mehr sein. Ausserdem wird nicht nur TSMC fÀhig sein Packaging zu betreiben.... Es ist momentan nur der naheliegende Weg.
Intel könnte diesbezĂŒglich als Fertiger auch bald mal ne grössere Rolle einnehmen.

raPid-81 schrieb:
Das stimmt so einfach nicht. Siehe AMD Ryzen Moment. Ryzen 1 war eher meh, seit Ryzen 2 dreht sich langsam die Markmacht (vorallem im lukrativen Datacenter GeschĂ€ft). Das ist doch das beste Beispiel dafĂŒr dass ein "Goliath" von "David" erledigt werden kann. Es dauert aber mehr als eine Generation, man muss ĂŒber 2-3 Generationen das bessere Produkt liefern damit sich nachhaltig etwas Ă€ndert.
Im x86 CPU Markt gab es auch kein Ökosystem von Intel, welches bei den Herstellern - sei es Hardware oder vorallem Software - exklusiv nur auf Intel lief oder auf AMD deutlich schlechter oder "anders". SĂ€mtliche Befehlserweiterungen waren und sind offen verfĂŒgbar oder zumidest lizenzierbar. Das ist im dGPU Mark nicht der Fall. Dort hat nVidia schon dafĂŒr gesorgt, dass die Konkurrenz aussenvor bleibt bei neuen Technologien. Was sie auch technisch dĂŒrfen. Der Markt ist ĂŒberhaupt nicht vergleichbar.

@Bengart hat das auch schön erklÀrt.

Und du selbst hast es ja auch selbst erkannt:

raPid-81 schrieb:
Ich gebe Dir teilweise Recht, man kann die Unternehmen nicht vergleichen. Nvidia hat es geschafft ein komplettes Ökosystem aus eigener Entwicklung zu bringen welches aktuell konkurrenzlos ist.
Wenn man mit >80% Marktanteil ein Ökosystem im Markt hat, wirds fĂŒr andere Anbieter -egal welcher Grösse- enorm schwierig bis unmöglich dort einzusteigen. Auch ziemlich egal wie gut das Produkt ist. Dazu kommt im dGPU Markt auch noch ausgezeichnetes Marketing und auch die enge Zusammenarbeit resp. Beratung/UnterstĂŒtzung von Spieleentwicklern. Das braucht enorm viel Kohle, welche nicht jeder Konkurrent ĂŒbrig hat.


raPid-81 schrieb:
CUDA + DGX Komplettsysteme regeln aktuell den Datacenter Markt. Selbst die Networking Komponenten designed Nvidia selbst (oder kauft eine Firma ein die das Know-How dazu mitbringt).

Seit Mitte der 2000er (EinfĂŒhrung CUDA) arbeitet Nvidia auf dieses Ziel hin. Jetzt haben sie es erreicht. Jensen hatte einen Plan und hat ihn durchgezogen.
GrundsĂ€tzlich ist das natĂŒrlich so, im Datacenterbereich haben wir zumindest das "GlĂŒck", dass die richtig grossen Player (MS, Amazon, Google) diversifiziert einkaufen wollen und sich entsprechend auch von Intel und AMD KI Beschleuniger kaufen. Oder gleich selbst welche entwickeln. Im Semi-Professionellen Bereich hat CUDA aber Ă€hnlich wie RTX bereits eine Vormachtsstellung erreicht, die kaum mehr zu knacken ist.
 
  • GefĂ€llt mir
Reaktionen: JarlBallin
Bis auf kurz ne GTX1060 hatte ich davor fast und danach nur noch AMD, ihr tut immer so als wÀre ne Radeon unbrauchbar zum zocken :freak:
 

AnhÀnge

  • Im-doing-my-part-meme-9.jpg
    Im-doing-my-part-meme-9.jpg
    29,9 KB · Aufrufe: 53
  • GefĂ€llt mir
Reaktionen: JarlBallin, Terrschi und mckobain
guggi4 schrieb:
Selbst eine gute Generation von AMD (RX 6000) ist nicht in der Lage, das Ruder großartig herumzureißen.

weil amd nach dem mining und covid hype im geldrausch einfach nicht genug bekommen konnte und die riesenhalde RDNA2, die zu dem zeitpunkt einfach keiner mehr fĂŒr 1,5x MRSP kaufen wollte, nicht rechtzeitig rabattiert, sondern die preise ĂŒber ein ganzes jahr ganz langsam richtung MRSP gesenkt hat - zu dem zeitpunkt ist auch RDNA 3 schon gekommen - mit einem echt miesen launch. dann kam der tröpfchenweise abverkauf von RDNA 2 wĂ€hrend RDNA 3 schon auf dem markt war - natĂŒrlich auch wieder zu völlig hirnrissigen preisen, die aber sein mussten, damit man RDNA2 noch irgendwie losbekommt.

hĂ€tte amd anfang/mitte 2022 einfach sofort alle rdna2 karten knapp unter mrsp reduziert, hĂ€tte amd die kompletten rdna2 restbestĂ€nde innerhalb von 2-4 monaten verkauft gehabt - die lager fĂŒr rdna3 wĂ€ren leer gewesen und amd hĂ€tte rdna3 besser bepreisen können, amd hĂ€tte die beste radeon generation seit >10 jahren schnell komplett unters volk bringen können, was viele zufriedene kunden produziert hĂ€tte (stichwort mindshare), amd hĂ€tte nvidia einige kunden abgenommen, die dann erst mal gesĂ€ttigt gewesen wĂ€ren und das hĂ€tte bei nvidia ne ordentliche delle bei den marktanteilen produziert. gleichzeitig hĂ€tte man so auch das ramponierte "underdog/good guy" image aufpolieren können, aber stattdessen ist man die geiz/melkstrategie gefahren und die 90% marktanteil von nvidia sind das verdiente ergebnis.

bei amd merkt man die lustlosigkeit am consumer markt an jeder ecke an. die wievielte generation an 300€ 6 kernern wirds mit zen5? x3d wieder n halbes jahr spĂ€ter fĂŒr den schönen double dip - die neuen boards können auch nichts. threadripper existiert auch nur fĂŒr den selbstzweck und geht P/L mĂ€ĂŸig komplett an der threadripper (NICHT workstation) zielgruppe vorbei. jetzt das geiere mit am5 support, wo man beim kleingedruckten lieber 3 mal hinsieht.

amd ist richtig unangenehm geworden. moralisch gibts hier absolut keinen widerstand mehr nicht einfach grĂŒn zu kaufen. amd tauscht marktanteile gegen geld. aber das ist ne strategie fĂŒr nvidia - amd denkt zwar sie wĂ€ren nvidia, sind sie aber nicht.
 
  • GefĂ€llt mir
Reaktionen: Innocience, raPid-81 und Aliosy
Hitzige Diskussion hier - und hauptsĂ€chlich ĂŒber die aktuelle Generation. Ich finde es ĂŒberraschend, das AMD damals mit der 300'er so abgestĂŒrzt ist im Gegensatz zu Nvidia. die 980'er - ok. Aber der Speicherskandal mit der 970'er? Die 390'er kostete damals genau so viel, war in etwa gleich schnell, aber hatte mehr als doppelt so viel Speicher?
 
  • GefĂ€llt mir
Reaktionen: SweetOhm
pseudopseudonym schrieb:
NVIDIA ist eben fĂŒr viele das Synonym fĂŒr gute Grafikkarten, wie Intel bei CPUs. Genau deswegen glaube ich auch nicht an die 50% ARM in der Windows-Welt. DafĂŒr mĂŒssten die ARM-CPUs von Intel kommen, um Intel im Namen zu haben.

Und aktuell kommen die schnellsten Grafikkarten eben von NVIDIA. Das wirkt sich auch auf den Ruf einer Marke aus.
wenn es nur die hardware wĂ€re, aber Nvidias software ist ja 5-6 Jahre weiter als AMD. AMD investiert auch immer weniger in die Radeons also wird der Abstand immer und immer grĂ¶ĂŸer. Die Gier, durch CPUs mehr geld zu machen, wird sich bald richtig negativ fĂŒr AMD entwickeln. Intel war mit ihrer ersten GPU weiter mit RT als AMD mit ihrer zweiten iteration. das ist so traurig
 
Bulletchief schrieb:
Enthusiasten schon, na klar.
Schau dir doch nur mal die letzten Community Tests hier an...
Abstimmen tut jeder mit AMD, aber gepostet werden dann trotzdem massenweise 4090er 😅
Is jetzt nich böse gemeint, aber es ist klar dass da die ganzen 4090er auftauchen. GefĂŒhlt haben manche das Teil um pro Tag einen Benchmark laufen zu lassen und verpassen keine Möglichkeit, das zur Schau zu stellen.
Ist das gleiche wie mit Ferraribesitzern, die durch die Innenstadt fahren.
Is halt die menschliche Natur😆.
 
  • GefĂ€llt mir
Reaktionen: Fyrex, ÖX45, Terrschi und 2 andere
Mimir schrieb:
(...)
In den USA wird der Nvidia Anteil deutlich höher sein, weil die Leute dort mehr Geld ĂŒbrig haben aus verschiedensten GrĂŒnden. Sieht man ja auch deutlich an der Verbreitung von iPhones in den USA vs Android. Vergleich das mal mit Deutschland, und dann schaut man sich an in welchen LĂ€ndern Android noch besonders beliebt ist.... Dann weißte Bescheid. Die Kaufkraft der deutschen sinkt eben.
Guck dir die Werbebudgets in den USA und hier an, dann kommst du der Lösung schon nÀher.

Dann noch den GINI-Koeffizienten* fĂŒr die USA und Deutschland vergleichen und du staunst Bauklötze.

*Wikipedia ist dein Freund
 
Rainbowprincess schrieb:
die ganzen 4090er auftauchen. GefĂŒhlt haben manche das Teil um pro Tag einen Benchmark laufen zu lassen und verpassen keine Möglichkeit, das zur Schau zu stellen.

Hier stimmt mit Deinem GefĂŒhl was nicht


Das hier ist ein Technik Forum. Dass hier die 4090er Quote höher ist als außerhalb dieser Blase, finde ich selbsterklĂ€rend.

Dass die 4090 User hier stÀndig ungefragt ihre Benchmarks vorzeigen, kann ich nicht beobachten.

Und im Nomad Artikel wurde explizit drum gebeten.
 
Zuletzt bearbeitet: (Rechtschreibung)
  • GefĂ€llt mir
Reaktionen: MoinWoll, AI94, Quidproquo77 und 2 andere
Soviel zum Thema „Nvidia ist zu teuer das kauft niemand“.
Gratulation! FĂŒr mich gibt es im Highend Sektor leider auch keine alternive
 
  • GefĂ€llt mir
Reaktionen: Laphonso
RogueSix schrieb:
Die Zahl kam mir doch direkt bekannt vor und eine schnelle Suche ergab, dass die 88% auch schon im Q3/2022 erreicht wurden (AMD damals auf 8% abgestĂŒrzt).

Insofern stellt sich die Frage, ob das mit den "seit ĂŒber 20 Jahren" so zutreffend ist. Ich denke eher nicht?

Nicht korrekt. Die von Dir genannte Zahl bezieht sich auf gesamt dGPU, sprich Desktop & Mobile. Da in Mobile AMD immer schwÀcher als in Desktop liegt, ist gesamt dGPU immer drastischer als nur Desktop dGPU.

Die Zahlen fĂŒr Desktop dGPU fĂŒr das von Dir genannte Q3/2022 lauten:
AMD 10,0%, nVidia 86,2%, Intel 3,8%
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2022
 
  • GefĂ€llt mir
Reaktionen: CadillacFan77
Wenn man AMD ist und eine Karte wie die 7800 XT prĂ€sentiert, die auch heute teils weniger fps liefert wie die 6800 XT, in Raytracing Lichtjahre hinterher hĂ€ngt und dann sogar plant fĂŒr die nĂ€chste GPU Generation nur auf Mittelklasse zu gehen. Dann braucht man sich ĂŒber 10% Marktanteile nicht zu wundern. Da muss ich mich manchmal schon fragen welchen Anspruch AMD an sich selbst hat. Das wirkt so wie: "Wir bekommen Highend gegen Nvidia eh nicht hin. Lass uns besser nur Mittelklasse machen." So kann man direkt noch das letzte Vertrauen verspielen.

Teilweise erinnert mich die Story an Playmobil oder Nokia, die durch ihre UnfÀhigkeit den Wandel auf der Welt zu erkennen in Richtung Insolvenz geschlittert sind.

Warum habe ich mir trotzdem eine 7800XT gekauft? Nur wegen dem Preis. Weil AMD so unbeliebt ist, gibt es oft Warehousedeals und die Karte war fĂŒr 460€ zu haben. Eine 4070 war nie im Angebot und immer 100€ teurer. Und prompt habe ich in einem Spiel direkt Probleme. Hatte ich bei der 3060 ti nie. Da lief einfach alles ohne Fehler, sonderbare LatenzeinbrĂŒche trotz 60 fps.
 
Zuletzt bearbeitet:
Schade, das hier viel gutes erklĂ€rt wird, aber immer wieder ein neuer Fanboy Beitrag mit hanebĂŒchenen Wirrwarr versucht zu erklĂ€ren, wie geil doch NVIDIA ist. Dabei zeigen die Benchmarks ja durchaus vergleichbare Leistungen, bei vergleichbaren Chips. Software ist im Jahre Voraus. Auch wenn NVIDIA einen proprietĂ€ren Standard nach dem Anderen in den Markt drĂŒckt. Denke AMD liefert hier kontinuierlich ab. Mantle, FSR, FG, Antilag 2, Treiber etc. Da waren schon ein paar Dinger dabei, die den Markt fĂŒr uns alle nach vorne gebracht haben.

Weiterhin ist die Entscheidung, welcher Hersteller es wird, ja keine moralische. Genauso hat AMD keine moralische Verpflichtung irgendwas zu liefern. Vor Allem nicht, wenn diejenigen, die sich als nvidia Fanboys outen, AMD unterstellen Geldgeil zu sein.

Geldgeil ist NVIDIA und das zeugt sich beim Gewinn und den Preisen. Das wird weiter gehen. Aber der Markt ist jetzt kaputt, wenn ich die unreflektierten ErgĂŒsse hier sehe, geht es schon lange nicht mehr um eine Vernunftentscheidung, sondern darum seinen Hersteller vorne zu sehen.

Beispiel fĂŒr komplett hingebogene Fanboy-Atgumentation ist doch die Aussage, das AMD Geldgeil ist und uns nur abziehen will. Wo doch die Fakten und Preislage etwas komplett anderes sagen. AMD verzichtet auf Gewinn, um Marktanteile zu gewinnen. Das wird nicht goutiert, sondern Trumpesque sogar umgedreht. Das AMD hier dann auf Highend verzichtet. Tut keinem gut. Das wissen wir alle, also lasst uns das auch so diskutieren und nicht irgendeiner komischen Geisteshaltung unterordnen.
 
  • GefĂ€llt mir
Reaktionen: JarlBallin und CadillacFan77
Ayo34 schrieb:
Am Ende ist in dieser Generation einfach Nvidia deutlich vor AMD. Letzte Generation war man ja bei Raster und Effizienz gleich auf, jetzt aber ist Nvidia ĂŒberall klar vorne.

+1 Effizienz (Samsung -> TSMC) Macht bei 5 Jahren+ auch mal 100€ Stromersparnis aus und schon ist der Kostenvorteil von AMD auch noch weg.

+1 Treiber (Idle Verbrauch AMD und CO zu Beginn -.-)

Die AMD Karten haben mehr vram, kosten weniger und mit chill habe ich eine Stromersparnis im Vergleich zu Nvidia.
 
  • GefĂ€llt mir
Reaktionen: JarlBallin
Mimir schrieb:
In den USA wird der Nvidia Anteil deutlich höher sein, weil die Leute dort mehr Geld ĂŒbrig haben aus verschiedensten GrĂŒnden. Sieht man ja auch deutlich an der Verbreitung von iPhones in den USA vs Android. Vergleich das mal mit Deutschland, und dann schaut man sich an in welchen LĂ€ndern Android noch besonders beliebt ist....
In den USA ist die Bevölkerung so, dass sie eher das beste will. In Deutschland geht es eher um das bessere Preis LeistungsverhÀltnis.
iPhones sind dort beliebt, weil es ein hippes Unternehmen aus dem eigenen Land ist. Android kann auf der Welt ja jeder Hersteller vertreiben.
Und die US Amerikaner haben nicht deutlich mehr Geld. Da gibt es deutlichste Unterschiede im Gehalt, wÀhrend unser weitaus besseres Sozialsystem niemanden verhungern lÀsst und selbst die Krankenversorgung immer gewÀhrleistet ist.
 
  • GefĂ€llt mir
Reaktionen: Apocalypse
Mimir schrieb:
In den USA wird der Nvidia Anteil deutlich höher sein, weil die Leute dort mehr Geld ĂŒbrig haben aus verschiedensten GrĂŒnden.
In den USA sind „Consumer“-Kreditr Gang und GĂ€be, entsprechend kaufen viele Amerikaner ihren „Luxus“ auf Pump.

Wenn du in den USA „keine“ Schulden hast, ist das fĂŒr dich sogar negativer, wenn du mal Kredite brauchst.

Der Umgang mit Geld ist wesentlich entspannter dort drĂŒben, es weiß aber auch jeder, das vieles Blendwerk ist.
CadillacFan77 schrieb:
Das ist im dGPU Mark nicht der Fall.
Das stimmt so nicht ganz, sowohl ATi/AMd als auch Nvidia sind weitgehend darum bemĂŒht, das viele Techniken auch in OpenGL, DirectX als auch jetzt Vulkan.

ATi hatte damals versucht TruForm in DirectX 9 unter zubringen, die Primitive Shaders ebenso und genauso ist es bei Nvidia aktuell mit SER.

Was die Firmen „ungerne“ raus geben sind Sachen wie eben DLSS und Co und das ist verstĂ€ndlich.
CadillacFan77 schrieb:
Dort hat nVidia schon dafĂŒr gesorgt, dass die Konkurrenz aussenvor bleibt bei neuen Technologien.
Nein, denn wenn sie das machen, schneiden sie sich ins eigene Fleisch. Alles, was an „Technologie“ bei Nvidia in den GPUs umgesetzt sind, kann AMD als auch Intel und Co auch umsetzen.

Die Software nur eben nicht nutzen. Die Tensor-Kerne, kann Intel und AMD, Intel baut sie auch ein. SER können Intel und AMD und bestimmte Dinge setzten beide um.

RT können auch beide, am Ende sind es aber eher fehlende FunktionalitĂ€ten der Hardware oder noch eben fehlende „Standards“ in Vulkan und DirectX.
 
Von mir bekommt nVidia nicht einen Cent im GPU Markt.

Ich bin komplett zufrieden mit AMD Karten.
Und da unterstĂŒtze ich dann gerne den "Kleinen" Player.

So könnten das sehr viele machen, ohne einen Unterschied zu merken.

Wenn man nicht unbedingt Top End kaufen will. (FĂŒr mich eh zu teuer)
 
  • GefĂ€llt mir
Reaktionen: JarlBallin, ÖX45, Fyrex und 2 andere
ZurĂŒck
Oben