News Desktop-Grafikkarten: Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent

pacifico schrieb:
Gute Intel CPUs?

In welchem Jahrzehnt bist du unterwegs?
Du solltest dir meinen Text nochmal ganz in Ruhe durchlesen. Ich beziehe mich darauf, was die Maße im Kopf hat. Nicht, wie es wirklich ist.
 
Das liegt aber am OEM Markt, im DIY Bereich müsste es eher so bei 70-75% sein. Immer noch sehr viel.
 
Cerebral_Amoebe schrieb:
Alan Wake 2, das RT-Vorzeige-Spiel, hat sich auch nicht so toll verkauft:
https://www.play3.de/2024/04/29/ala...ieller-misserfolg-doch-das-soll-sich-aendern/
Naja, aber für die schlechten Verkäufe war mit Sicherheit nicht RT der Grund dafür, eher das es Epic Games Store exklusiv war.^^

Und die einzige Stärke bei dem RT in dem Spiel für mich waren die Lichteffekte, was aber auch durch das dunklere Setting viel mehr zur Geltung kommen konnte, und z. B. die Reflektionen fand ich eher durchschnittlich, mehr nicht.^^

Solche Spiele wie Alan Wake 2 sind der Grund warum ich bei meiner nächsten Grafikkarte vermutlich zu AMD wechseln werde, zumindest wenn sich RT weiter in diese Richtung entwickelt (kleine Maps, statische NPCs, etc...).^^
 
  • Gefällt mir
Reaktionen: JarlBallin
Sinatra81 schrieb:
Hier stimmt mit Deinem Gefühl was nicht…

Das hier ist ein Technik Forum. Dass hier die 4090er Quote höher ist als außerhalb dieser Blase, finde ich selbsterklärend.

Dass die 4090 User hier ständig ungefragt ihre Benchmarks vorzeigen, kann ich nicht beobachten.

Und im Nomad Artikel wurde explizit drum gebeten.
Das hat mit der Tatsache, dass dies ein Technikforum ist, meines Erachtens nach nichts zu tun.
Es ging nicht darum, dass hier proportional viele eine 4090 haben, sondern darum, dass jene die eine haben kaum eine Chance verstreichen lassen, die Leistungsfähigkeit ihrer Karte zur Schau zu stellen.
Ist ja wie gesagt auch nicht böse gemeint. Das ist ja völlig legitim. Wie du schon sagtest, ist ein Technikforum hier.
Aber ist und bleibt halt eine Tatsache, dass 4090 Besitzer gerne zeigen was sie haben. Darum tauchen diese Karten bei solchen Aktionen immer sofort geballt auf. ^^
Sieht man auch öfters wenn CB Benchmarkt. Da kommt in den Kommentaren immer wieder die Frage, wieso sie keine 4090 mit rein nehmen. Ja wieso auch, jeder weiss wo sich die Karte dann platzieren wird.😆
Hingegen fragt sich keiner, wieso keine rx6800 non xt dabei ist, welche interessanter wäre.
 
  • Gefällt mir
Reaktionen: JarlBallin
Oha....wtf....
Gibt ja auch keinen Tag, an dem ich nicht wieder irgend ein für mich total uninteressantes Thema über Nvidia/KI/Aufteilung der Scheiß Aktien etc. lese. Kann es nicht mehr hören und lesen...die Führung von Nvidia ist so abgehoben, die Aktionäre stopfen da Geld ohne Ende rein.
Sorry...aber bei diesen Praktiken heutzutage, dass jeder Mist durch die Börse diese Firmen finanziell so sehr aufblasen, kommt mir das kotzen...sorry.

Es werden bestimmt Zeiten kommen, wo die gar keine Consumer-Grafikkarten mehr für die Zocker herstellen werden, weil sie damit einfach zu wenig verdienen und die Marge nicht 1000% ist.
Die stecken doch alles in die Ki-Beschleuniger, da wird in Zukunft wenig bis gar keine Ressource mehr für "Spiele-Grafikkarten" übrig sein.

Ich sehe da schwarz für die Zukunft...
Nvidia wird irgendwann zu Skynet...

Ich hoffe sehr, dass diese Börsenblase bald platzt.

Sehe schon kommen dass ich irgendwann auf Konsole umsteigen muss, weil alles andere nicht mehr tragbar für mich ist.
 
  • Gefällt mir
Reaktionen: eXe777
Dieses de facto Monopol schadet uns am Ende allen.
 
  • Gefällt mir
Reaktionen: Fyrex, OSx86, Hellyeah und 3 andere
Klingt nicht so vorteilhaft für das Portemonnaie des Verbrauchers 🤔

Wer opfert sich und kauft bei der Konkurrenz?
 
@Rainbowprincess Upselling bedeutet: teuerstes Produkt hat automatisch bestes P/L Verhältnis.

Das ist wie klein/mittel/groß Popcorn im Kino.

Darunter wird mit dem verkauf alter Hardware auch wieder die neue finanziert.

Was uns allerdings tatsächlich schadet ist das Monopol von ASML/TSMC.
Nvidia ist dort auch nur Kunde.
 
  • Gefällt mir
Reaktionen: Apocalypse
Cerebral_Amoebe schrieb:
Das zeigt doch auf, dass die Spiele-Hersteller sich nicht die Finger verbrennen wollen, indem sie in den Spielen massiv auf RT setzen und einen Großteil der Käufer verprellen.
Wer soll damit verprellt werden? Kann man doch abschalten. Also diese Argumentation ist so typisch und genau der Grund warum AMD Marktanteile verliert.
Ergänzung ()

Bengart schrieb:
Siehste. Marktmacht führt zu mehr Matktmacht. Du als grüner Fanboy folgst freiwillig und die Abhängigkeit. Dein freier Wille ist schon lange futsch.
Und du bezeichnest es als freien Willen, wenn ich etwas kaufe was ich gar nicht haben will um vielleicht irgendwann etwas kaufen zu können, was ich haben will und der Markt ausgeglichen ist?

Ich bin überzeugt AMD würde ihre Strategie ändern, wenn der Marktanteil noch geringer wäre. Heißt es bringt nichts Grafikkarte aus Marktpolitischen Gründen zu kaufen.
Bengart schrieb:
Wir sehe es beide eigentlich gleich. Ich hrauer um den Wettbewerb. Du feierst das wir in schlechte Zeiten für uns laufen.
Ja genau, Wettbewerb. Den würde man verhindern wenn man nach Ideologie kauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, raPid-81 und RogueSix
@funkflix Vermutlich verfolgen Sie genau diese Strategie. Ähnlich wie bei Nvidia wird der Fokus (auch bei der Entwicklung) nicht mehr auf dedizierten Desktop Gaming GPUs sondern auf den iGPUs der Mobil APUs, den Konsolenchips und Radeon Pro Modelle sowie den HPC/AI Accelerators liegen.
Dann natürlich weiterhin CPUs, NPUs und weiter entfernt ersten ARM CPUs von AMD.
Ich denke auch nicht das man aggressiv versuchen wird Nvidias Markbeherrschung zu durchdringen. Einfach weil die Finanzen, Kapazitäten von anderen Geschäftsfeldern beeinflussen würde.
Es wird weiterhin Radeon Gaming GPUs geben aber eben ohne größeren Fokus darauf.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Apocalypse
raPid-81 schrieb:
Bitte Quellen liefern. In Raster sind die "vergleichbaren Chips" ungefähr gleichauf. Sobald RT dazu kommt ist ein Hersteller aber deutlich vorne.
Hmm, 4060ti 16GB, kann die in RT überhaupt mit irgendwas in ihrer Preisklasse mithalten? Ist da nicht selbst ne 6800 auch in RT schneller?
Ich lass mal Intel außen vor, die sind zwar wahrscheinlich auch schneller, aber die lieben Treiber sind ja immer noch nicht so wie man sie gerne hätte.
 
Clonedrone schrieb:
dann sogar plant für die nächste GPU Generation nur auf Mittelklasse zu gehen
Wozu es bis heute keinerlei offizielle Informationen gibt die das zu 100% bestätigten.
Clonedrone schrieb:
eine Karte wie die 7800 XT präsentiert, die auch heute teils weniger fps liefert wie die 6800 XT
Hier ist der Konkurrent mit der 4060 Ti nicht besser.
 
  • Gefällt mir
Reaktionen: JarlBallin und Apocalypse
ich denke 2025 wird wieder ein Interessanteres GPU ja für endanwender. gerade was Preis Leistung betrifft.
Nvidia GB202 soll laut Gerüchten 2xGB203 sein
GB203 wird wohl 300-350mm2 5/4nm TSMC und nur 256Bit haben
Strix Halo soll 40CU Monologisch 256Bit haben, wenn der GPU part sowohl DDR6/LPDDR6x als auch GDDR6 Unterstützt, könnte er auch noch als AIB kommen und das mit bis zu 16GB, d Monologisch dürfte das der effizienz zu gute kommen.
ein N31/N32 mich mit sagen wir 80CU und 384Bit samt verbesserungen im Design kommt dann Leistungstechnisch Raster näher an die xtx und dank RT verbesserungen eventuell vor die xtx
der Fertigungsvorteil liegt diesesmal auch bei AMD denn die gehen wohl von TSMC 5 auf 4NP
Nvidia hingegen hatte schon bei ADA einen verbesserten 5nm Prozess und geht auch nur auch 4NP
sicher bleibt Nvidia führend aber das wichtige für AMD sind die OEMs und die haben dann mit Strix Halo einen gegner vs Intel &Nvidia GB206 und kommen auch bein Intel dann wohl zum Einsatz den mit 256Bit GDDR6 sollten sie schneller sein wie GB207 und Leistungsmässig sowie Preislich zum GB206 mit GDDR7 aufschliessen bei mehr Ram, im Gaming NB will nächstes Jahr wohl auch kaum nur noch 8GB.

für mich das wichtigste 2025 wird Strix Halo bzw. FP11 Sockel der dann eventuell auch wie Intel aber eben Monologisch aufgebaut mit 256Bit LPDDR5-8500x und 20CUs der dann auch für FP8 mit eben nur 128Bit kommt 2025 wird hardwaretechnisch ein interessantes Jahr
 
Ferax schrieb:
Weil ein quasi Monopol bald oder zumindest ein verschärft oligopol. Da kann der Staat schon durchaus Nachteile im Wettbewerb sehen und eingreifen.
Nvidia ist ja nicht der alleinige Anbieter am Markt. Nur weil es andere nicht schaffen, haben wir noch kein Monopol.
 
Quidproquo77 schrieb:
Wer soll damit verprellt werden? Kann man doch abschalten. Also diese Argumentation ist so typisch und genau der Grund warum AMD Marktanteile verliert.
Selbst mit einer RTX 4060 Ti erreiche ich in Full HD keine 40fps, also kaufen das Spiel nur Grafik-Enthusiasten.
Die sind aber gesehen am Weltmarkt nur ein kleiner Teil.
https://www.computerbase.de/2023-10...ll_hd_wqhd_und_ultra_hd_mit_raytracing_update

Ich kaufe doch kein Spiel, wo die ganze Atmosphäre auf RT aufbaut, um es dann abzuschalten, also bleibt es gleich im digitalen Regal liegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin und Jagdwurst
DevPandi schrieb:
Das stimmt so nicht ganz, sowohl ATi/AMd als auch Nvidia sind weitgehend darum bemüht, das viele Techniken auch in OpenGL, DirectX als auch jetzt Vulkan.

ATi hatte damals versucht TruForm in DirectX 9 unter zubringen, die Primitive Shaders ebenso und genauso ist es bei Nvidia aktuell mit SER.

Was die Firmen „ungerne“ raus geben sind Sachen wie eben DLSS und Co und das ist verständlich.
Du hast natürlich Recht damit. Ich habe es wohl etwas falsch ausgedrückt. Die grundlegenden Techniken sind natürlich verfügbar für alle, doch Dinge wie DLSS, FG oder auch Reflex nicht. Und da solche Techniken abhängig vom Spieleentwickler sind, und ob dieser die jeweiligen Alternativen von AMD und Intel einbaut und vor allem wie gut, macht halt auch noch Einiges aus.

Siehe DLSS vs. FSR. Es gibt deutlich weniger Spiele mit FSR / XeSS als DLSS. Und Einige davon gabs auch erst später mit FSR / XeSS. Nicht verwunderlich, da ja eben 90% eh DLSS nutzen.

DevPandi schrieb:
Nein, denn wenn sie das machen, schneiden sie sich ins eigene Fleisch. Alles, was an „Technologie“ bei Nvidia in den GPUs umgesetzt sind, kann AMD als auch Intel und Co auch umsetzen.

Die Software nur eben nicht nutzen. Die Tensor-Kerne, kann Intel und AMD, Intel baut sie auch ein. SER können Intel und AMD und bestimmte Dinge setzten beide um.
Jaein, nVidia kann/konnte mit seiner Marktmacht RT in den Markt drücken, Spiele wie CP und AW marketingtechnisch pushen, da sie mit den Tensor Cores bereits fertig waren. Sprich der Zeitpunk von RT konnte nVidia für sich wählen. Die Konkurrenz, sowohl Intel als auch AMD musst dann erstmal mit der Entwicklung beginnen. Das beide Firmen so natürlich nicht an nVidia rankommen ist völlig logisch. V.a. da nVidia bestimmt keine halbseidene Entwicklung durchgemacht hat. Die Messlatte ist also bereits hoch, die Zeit aufzuschliessen / eine Alternative zu entwickeln kurz bis gar nicht vorhanden was dazu führt, dass der Marktanteil des Leaders noch weiter wächst.

DevPandi schrieb:
RT können auch beide, am Ende sind es aber eher fehlende Funktionalitäten der Hardware oder noch eben fehlende „Standards“ in Vulkan und DirectX.
Richtig, Standards wären gut (gewesen), dann hätten alle Hersteller in etwa die gleiche Chance gehabt - zumindest zeitlich.


Quidproquo77 schrieb:
Und du bezeichnest es als freien Willen, wenn ich etwas kaufe was ich gar nicht haben will um vielleicht irgendwann etwas kaufen zu können, was ich haben will und der Markt ausgeglichen ist?

Ich bin überzeugt AMD würde ihre Strategie ändern, wenn der Marktanteil noch geringer wäre. Heißt es bringt nichts Grafikkarte aus Marktpolitischen Gründen zu kaufen.
Die Aussage "Marktmacht führt zu noch mehr Marktmacht" ist indes absolut korrekt. Was auch korrekt ist, ist, dass Du als Verbraucher hier nix dagegen tun kannst. Selbst wenn Du das "schlechtere" Produkt der Konkurrenz kaufst wird sich die Aufteilung nicht gross verändern - abgesehen davon, dass nVidia in einem solchen Fall - d.h. wenn sich ein grösserer Teil der Verbraucher bewusst zum Konkurrenzprodukt entscheidet - entsprechende Gegenmassnahmen einleiten würde.

Der Zug ist leider abgefahren. Und die Warscheinlichkeit, dass der wieder kommt ist sehr sehr klein.

Im IT Komponenten Markt gibt es praktisch nie wesentliche Verschiebungen. Mit Ryzen ist AMD nun seit fast 10 Jahren technisch führend, und selbst da gab es nur eine vergleichsweise kleine Veränderung an Marktanteilen. Es ist illusorisch zu glauben, dass sich das Verhältnis bei den dGPU ändern wird.

AMDs Chance in Sachen Gaming könnte wie @Icke-ffm beschreibt in den APUs liegen, sowie in den Konsolen. Das ist dann halt mehr Casual-Gaming Fokus, aber dieser Bereich dürfte deutlich grösser sein als die Enthusiasten.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Enyo79
Clonedrone schrieb:
Da muss ich mich manchmal schon fragen welchen Anspruch AMD an sich selbst hat.
Der Anspruch sind Gewinne und hier gibt es Geschäftsfelder im Unternehmen die sicherlich derzeit interessanter/erfolgreicher sind.
Im GPU Bereich stehen dedizierte Gaming GPUs auch ganz weit hinten an. Wie bei der Konkurrenz. Vorher kommen iGPU für APUs, Konsolenchips, Radeon Pro und HPC/AI Beschleuniger also wird sich auch hierauf fokussiert. Man wird sich auch nicht auf einen einen Krieg um das Monopol mit Nvidia einlassen, weil dies auch die anderen Geschäftsbereiche negativ beeinflussen könnte.
 
raPid-81 schrieb:
FG - Erneut Jahre später, und fast genauso eingeschränkt wie Nvidias FG.
Jahre später? FG kam "Ende" 2022 auf den Markt, FMF "Ende" 2023. Das ist ein Jahr und keine Jahre. Sp fair wollen wir da mal sein.
raPid-81 schrieb:
FSR(2) - Kam Jahre später als Reaktion auf DLSS. FSR 1 ist ein spatialer Upscaler und qualitativ massiv unterlegen.
FSR kam 06.2021, FSR2 03.2022, DLSS 1 02.19 und DLSS 2 04.2020. Bei FSR würde ich mit "Jahre" konform gehen, bei FSR 2 als Antwort auf DLSS 2 mit 2 Jahren, knapp an der Kante.
raPid-81 schrieb:
Und diese RT Performance kostet Chipfläche
Die Chipfläche, die für RT drauf geht, kann man eigentlich fast vernachlässigen. Nvidia hat auch ihre Tensor-Kerne die Chipfläche kosten und auch andere Punkte.

Allgemein finde ich die Chipfläche an dieser Stelle nicht wirklich "gut", weil alleine auch die Packdichte eine Rolle spielt. Man kann auch bei N5 und N4 die Transistoren weniger oder eben dichter packen, je nach Anforderung auch an den Takt. RDNA 3 ist zum Beispiel - beides sind ja "N5"-Gen - mit 150.000.000 Transistoren sehr dicht gepackt, während Nvidia mit 125.000.000 deutlich weniger dicht packt.

Ich finde relevanter sind die Transistoren, die die Firmen dafür brauchen um ähnliche Leistung zu schaffen. und da zeigt sich dann, dass das alles garnicht so "einfach". Bei 4080 gegen 7900 XTX würde Nvidia das "Duell" gewinnen, hier stehen 45 mrd. gegen 57 mrd. Transitoren. Nimmt man die 7800 XTX gegen die 4070 stehten 28 mrd. gegen 35 mrd. und AMD schneidet ein Stück besser ab.

Selbst innerhalb von Nvidia ist das nicht wirklich "gesetzt", weil eine 4090 keine 70 % schneller ist, aber eben so viel mehr Transistoren benötigt.

Icke-ffm schrieb:
na das kann man sich leicht selbst ausrechnen.
sagen wir 1mm2 wafer fläche kosten 0,10USD
dann Kostet Nvidia
Deine Zahlen passen so nicht.

1. Es ist nicht relevant, was 1 mm² Waferfläche kostet, sondern wie viel der Wafer an sich kostet.
2. Die Wafer-Preise für 5nm liegen "aktuell" bei TSMC wohl im Mittel bei 13500 $ (etwas weniger, aber das passt gerade).
3. Die 300 mm Wafer können nicht perfekt ausgenutzt werden, man hat Verschnitt-Fläche und muss die Ränder frei lassen. Kann man berechnen, gibt Tools dafür.

AD102 hat 608,4 mm² und ist recht quadratisch 24,6 mm pro Kante. Sind also 90 Chips pro Wafer, bei 90 % Yield, kommen 81 Chips raus: 167 $. Natürlich wird Nvidia etwas weniger zahlen, aber TSMC hat die Preise gut angezogen in den letzten Jahren. Deswegen ist es ja auch so wichtig, dass Intels Pläne aufgehen.

TSMC hat 2022 75,9 mrd. $ Umsatz bei 34,1 mrd. $ Gewinn gemacht: 45 % Marge. Gewinn je Aktie 6,58 $, 1,40 $ als Dividen: 21 % werden Ausgeschüttet, TSMC steigert die Quote dieses Jahr sogar langsam auf 30 %.

Spricht, da geht viel Geld in die Tasche der Investoren.
 
  • Gefällt mir
Reaktionen: Quidproquo77, raPid-81, Icke-ffm und eine weitere Person
Galaxytourist schrieb:
Die große Masse an Grafikkarten wird eben einfach im OEM-Markt abgesetzt und da ist AMD einfach nicht gut vertreten.
AMD ist im DIY Markt deutlich stärker bei den GPUs, sieht man ja auch hier um Forum. Bei den Komplettsysteme der 1500 bis 2500 Euro Region sind einfach bei den großen Ketten - vor allem afaik in den USA - mehrheitlich Nvidia GPUs verbaut. Das hat auch Einfluß auf die Grundgesamtheit.


Bengart schrieb:
Keine rote Brille, sondern Gamer Brille.
lol
Deine gesamte Beitragshistorie hier in der Computerbase ist ein persönlicher Feldzug gegen Nvidia, Apple und Intel.
Das ist nur EIN Beispielzitat von Dir:

Bengart schrieb:
Wie egal wir PC Gamer doch mittlerweile für dies Firma sind. Die nächste Welle PC Gamer verachtender Produkte von NVIDIA.

Mach Dich doch bitte einfach ehrlich und steh zu Deiner offensichtlichen Anti Nvidia Haltung und belüg weder Dich noch andere Foristen hier. Ist respektvoller und authentischer und damit auch in meinen Augen sympathischer.
:)

Und nimm Dir AMDs Probleme nicht so zu Herzen. Die kommen klar. Das ist weiterhin ein Milliarden Dollar business, das genauso "geldgeil" ist wie Nvidia. Oder Intel. Oder Apple.

Die RNDA3 Karten, die ich in den letzten Monaten vermittelt habe, mussten ganz unerwartet.... bezahlt werden, mit Geld?! :o Was erlauben AMD?! ;-)

DIe Preispolitik von RDNA2 und RNDA3 haben wir hier ja auch mehrfach thematisiert. AMD hat die eigenen Preisschild-Mittelfinger neben Nvidia gehalten in der Auslage. Nur dass die kleiner waren.

Und als der "Zen Moment" bei den CPUs kam hatte AMD....jap, auf einmal "Intel Preise" verlangt. Das dazu.


btw, vielleicht punktet AMD bald endlich dort, wo sie in letzter Zeit auch nicht mehr so gut waren:

https://wccftech.com/powercolor-nex...rk-with-npus-reduce-gaming-power-consumption/

Wenn das übrigens stimmt:

"PowerColor also states that since AMD won't have RDNA 4 ready for launch within this year, it might launch a version of its Radeon RX 7900 XTX graphics card with this tech until the newer GPUs come out."

bin ich übrigens gespannt, wann die 5090 und 5080 wirklich erscheinen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: raPid-81
Neodar schrieb:
Eine 7800XT sollte bspw. nicht mehr als 500€ kosten. So könnte man den Absatz ankurbeln.
Man wird aber GPUs nicht mit Verlust absetzen. Dafür sind Gaming GPUs und dieser Markt einfach nicht mehr wichtig genug.
 
Zurück
Oben