News Desktop-Grafikkarten: Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent

xexex schrieb:
Wenn du es rein auf die Rasterising Leistung beziehst dann ja, allerdings ist das ein heutzutage nur Teilaspekt und da müssten die Karten mächtig im Preis runter.

Weck mich auf wenn AMD die Karten so bepreist, dass man zu NVidia identische RT Leistung, als Preispunkt ansetzt. Wenn die AMD Karten dann im Vergleich noch etwas mehr Rasterising Leistung liefern, nehme ich es gerne mit und nicht umgekehrt.
Jahrelang waren AMD bei gleicher Leistung günstiger, das ist jetzt tatsächlich nicht mehr der Fall, wenn man RT mit einbezieht. Ich denke, wir müssen uns daran gewöhnen, dass AMD aktuell nicht in den Preiskampf geht. Das wird somit auch den ganzen Markt der Grafikkarten preislich ansteigen lassen. Als Hintergrund vermute ich stark die zur Verfügung stehenden Kontingente bei TSMC. Als NVIDIA dort eingestiegen ist große Teile zu sichern, ist AMD ja sofort runter vom Preiskampf. AMD wird wahrscheinlich einfach alles los, was sie aktuell ordern können. Sonst würde es ja einen Preiskampf geben.
 
  • Gefällt mir
Reaktionen: Apocalypse und Benjamin_Blume
Rainbowprincess schrieb:
Da kommt in den Kommentaren immer wieder die Frage, wieso sie keine 4090 mit rein nehmen. Ja wieso auch, jeder weiss wo sich die Karte dann platzieren wird.😆
Hingegen fragt sich keiner, wieso keine rx6800 non xt dabei ist, welche interessanter wäre.
Naja als Referenz wäre es ja schön, wenn die Königskarte jedes Anbieters dabei wäre. Der Rest ist viel zu homogen. Immer die gleichen 3-4 Karten aus einem überschaubaren, kleinen Spektrum. Die Benchmarks kuck ich mir hier gar nicht mehr an. Haben keine Aussagekraft für mich. Oder anders gesagt, keinen Informationsgehalt.
 
  • Gefällt mir
Reaktionen: xexex
Bengart schrieb:
Ich denke, wir müssen uns daran gewöhnen, dass AMD aktuell nicht in den Preiskampf geht.
Mir geht es nicht um einen "Preiskampf", sondern um die realistische Einsortierung der eigenen Produkte. AMD braucht mir keine 7900 irgendwas anzudrehen versuchen, wenn die Karte eigentlich 7700 heissen müsste, nähme man NVidia hier als Vergleichswert.

Ich nenne sowas Kundenverarsche und von Händlern oder Herstellern die mir einen Esel als einen Pferd verkaufen möchten, kaufe ich grundsätzlich nichts mehr. Deshalb finde ich die Gerüchte um die kommende GPU Generation Bei AMD nicht einmal kritisch, vielleicht räumt man genau damit auf, setzt einen anderen Sweetspot an die Chips für mehr Effizienz und verkauft die Dinger als die Mittelklasse, die sie nun mal sind.
 
Zuletzt bearbeitet:
Biedermeyer schrieb:
Ich finde, dafuer sind die 2000,- Euro absolut geschenkt.
Die koennten auch das Doppelt verlangen... und die Leute wuerden zahlen.

Seit wann sind 2000 Euro für eine Grafikkarte "absolut geschenkt"? Und weßhalb würden die Leute auch das doppelte zahlen?

Wann ist das passiert? Während der Pandemie oder was?
Ich verstehe das nicht, egal wie sehr ich es versuche. Kann mich mal einer dazu aufklären bitte.
 
  • Gefällt mir
Reaktionen: JarlBallin
Zu den vielen Geforce-Kunden weltweit gehören für mich auch jene Leute, die etwa die AfD wählen würden oder sich selbstverständlich ein iPhone 15 Pro Max kaufen...

Des Rätsels Lösung: Das Internet mit all seinen dunklen Auswüchsen macht es möglich.

Die Menschheit ist in einigen Bereichen schon längst an einer echten Dystopie angelangt: Flacherdler, die Woke-Bewegung, Gender-Wahnsinn, verstörende "TikTok-Trends", Internettrolle, kriminelle Reseller, Disney "Star Wars", Klimakatastrophe, ein nahender Krieg zwischen Russland und der NATO, und so weiter... Da passt das Quasi-Monopol von Nvidia doch super dazu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pontus
Icke-ffm schrieb:
Marge zu kommen da der Verschnitt größer ist und die Yield singt
Es singt heute für sie: Die Yield!

Nein, entschuldige, das war jetzt fies von mir. Aber die Yield-Rate ist ohnehin ein Mittelwert und unterscheide sich von Wafer zu Wafer. Wenn TSMC sagt, dass die Yield-Rate bei N5 bei 90 % liegt, dann ist es aber egal ob auf den Wafers 90 Chips, 150 Chips oder 300 Chips drauf sind, im Schnitt kommen 90 % der Chips heil raus: 81, 135, 270.

Bengart schrieb:
Grundsätzlich liefert AMD aber durchaus konkurrenzfähige Produkte. Auch wenn du das verneinst.
AMD hat durchaus gute bis sehr gute Produkte, genauso wie ATi vorher sehr gute Produkte hatte. Das Hauptproblem ist nur, dass weder ATi noch AMD sehr lange Zeit begriffen haben, dass auf dem "PC-Markt" Software und damit auch verbunden das ganze Öko-System weitaus wichtiger sein kann, als die beste Hardware.

3dfx hat mit der Voodoo 1 nicht umsonst eine eigene API entwickelt, die weit aus einfacher zu verstehen war als OpenGL. Entsprechend gab es relativ schnell Glide-Spiele mit beschleunigtem 3D, während es sonst oft ein Software-Renderer war. Nvidia hat von 3dfx gelernt und hat mit der Übernahme auch entsprechende Köpfe bekommen. Dazu hat Nvidia im Kampf gegen 3dfx gelernt: Marketing.

Nvidia ist heute nicht auf Platz 1, weil sie die bessere Hardware hatten, sondern weil Nvidia relativ früh anfing auch entsprechende Software sowie Entwickler-Unterstützung zu geben. CUDA ist heute auch die wichtigste API im Bereich HPC, weil Nvidia eine einfache, leicht lernbare API entwickelte und eigene Softwareentwickler zu Firmen schickte als auch an OpenSource-Projekten mithelfen lässt, damit ihre API verbreitung fand.

ATi zeigt TruForm, wie viele Spiele sind es? 19 am Ende und davon viele nur per Patch oder der Support ist vorhandne, aber deaktiviert.

ATi zeigt FireStream mit einer API, die kompliziert ist, man bekam kaum Support und Hilfe ebenso wenig.

ATis Geschichte, aber auch AMDs Geschichte ist voll von genau diesen Storys: Gute Hardware, tolle Ideen am Ende scheitert es aber daran, dass sie nicht die Mittel aufbringen, Entwickler und Firmen zu unterstützen, ihre Hardware zu nutzen.

Un das Problem besteht bisheute! AMD nimmt kaum Geld in die Hand, OpenSource-Projekte unterstützt AMD auch eher stiefmütterlich. AMD "erwacht" daraus zwar langsam, aber aktuell ist das immer noch ein schlechter Witz, was die Firma macht.

Stable Diffussion gewinnt an Fahrt, mit Nvidia Karten installiert man es einfach und ab geht es. Für eine Radeon-Grafikkarte muss man eine "DiretML"-Verison runter laden, dann muss man die Modelle, die man nutzen will "umkompilieren" mit besonderen Einstellungen und Co. Selbst mit ROCm wird das nicht einfacher, man muss viel Zeit investieren, weil AMD es bis heute nicht gepacken bekommt für die gängigen "KI"-Frameworks vernüftige Middleware-Treiber zu erstellen.

Fast alle KI-Frameworks haben eine Abstraktionsschicht, die CUDA kapselt, so dass man die "Treiber" schnell austauschen kann. Intel "bemüht" sich in diesem Zusammenhang auch und bringt entsprechende "Treiber". AMD sieht sich das ganze von der Ecke an und verweist auf ROCm und dass man ja den "HIP"-Transpiler verwenden kann.

AMD macht im Bereich Software auch aktuell immer nur das Minimum und verlässt sich ab da an auf andere und solange AMD das macht, werden sie gegen Nvidia bei KI und Grafik kein Land sehen. Es hilft da auch nicht, dass sie mit ihrer HPC-Sparte einen Supercomputer nach dem anderen aufstellen und da überzeugen, denn das Dumme da ist: Es fließt nichts wirklich zurück in die OpenSource-Community oder zu den Firmen, die aber den "Consumer" und ebenso den "Bussiness"-Markt bestimmen.

Es ist ja schön, dass bei Universitäten und Co die großen Rechner stehen mit AMD-Power, dass MS und Co auch als "Alternative" für KI auch entsprechende Server kaufen, weil sie bei Nvidia zu lange warten, nur hat das kaum Auswirkungen auf alle anderen, denn die Firmen passen alles für ihre Bedürfnisse an, andere profitieren davon aber nicht.

Wenn du dann eine Firma bist, freier Entwickler oder selbst Wissenschaftler, nimmst du in der Regel genau das, was Zeit sparrt und funktioniert. Bei Radeon und Radeon Pro musst du erst mal viel Vorarbeit leisten und genau das ist Problem.

AMD arbeitet daran, aber man muss sagen: Intel gibt sich hier deutlich mehr Mühe und wenn AMD weiterhin denkt, dass ihre "Softwarebemühungen" reichen, dann wird Intel sie bald auch hier überholen!
 
  • Gefällt mir
Reaktionen: Benjamin_Blume, Fresh-D, CCIBS und eine weitere Person
xexex schrieb:
Ich nenne sowas Kundenverarsche und von Händlern oder Herstellern die mir einen Esel als einen Pferd verkaufen möchten, kaufe ich grundsätzlich nichts mehr. Deshalb finde ich die Gerüchte um die kommende GPU Generation Bei AMD nicht einmal kritisch, vielleicht räumt man genau damit auf, setzt einen anderen Sweetspot an die Chips für mehr Effizienz und verkauft die Dinger als die Mittelklasse die sie nun mal sind.
Ach, weiß nicht. Scheint mir jetzt nicht sehr fundiert zu sein. Vielleicht etwas arg einseitig. Auf jeden Fall kein sonderlich erhellender Beitrag.
 
  • Gefällt mir
Reaktionen: JarlBallin
Bengart schrieb:
Vielleicht etwas arg einseitig
Ich sag dazu ganz simpel, wenn man seit 15 Jahren seine Karre in die Jauchegrube steuert, reicht nicht ein neuer Anstrich, sondern nur ein komplettes Umdenken.

Mit Ryzen hat AMD gezeigt, wie sowas geht, der Unterschied hier ist nur, NVidia ist nicht Intel und die Weichen stehen nicht so günstig wie damals.
 
DevPandi schrieb:
AMD arbeitet daran, aber man muss sagen: Intel gibt sich hier deutlich mehr Mühe und wenn AMD weiterhin denkt, dass ihre "Softwarebemühungen" reichen, dann wird Intel sie bald auch hier überholen!
AMD scheint ja eine ganze Menge sinnvoller Komplettpakete im Program zu haben. Bei KI kenn ich mich innerhalb von AMD jetzt nicht wirklich aus. Da wirst du einfach recht haben.

Wenn ich vorm Rechner sitze und zocke, dann geht das mit AMD hervorragend. Sollte sich das S/W Unfeld auf dem Desktio weiter so entwickeln, dann schaut es doch gut aus.

Ansonsten ist es für mich eine Mischung aus Marktmacht seitens NVIDIA und vor langer Zeit, wie du sagtest, ggf die fehlende Weitsicht AMDs, nicht selber einen größeren Fokus auf Software und (geschlossenem) Ökosystem zu setzen.

Ich bin nur der Meinung, das AMD durchaus gute Produkte hat und auch die Software funktioniert. Und tatsächlich bin ich über NVIDIAs Ansatz der geschlossenen Systeme nicht erfreut, da der Marktführer hier immer den Ton angeben kann, und so weiter den Markt verschließt. Daher gibt es ja Monopolgesetze, da man diesen Automatismus kennt und ein Monopol keinen Gewinn für eine Wirtschaft bringt.
 
  • Gefällt mir
Reaktionen: JarlBallin und Millennial_24K
nett. wird die Aktienkurse stützen.

die Dividende, die Nvidia zahlt, ist ja mehr als jämmerlich.

immerhin, sie erhöhen jetzt. minimal.
und aus einer Nvidia Aktie werden plötzlich 10. das macht Freude.
 
xexex schrieb:
Ich sag dazu ganz simpel, wenn man seit 15 Jahren seine Karre in die Jauchegrube steuert, reicht nicht ein neuer Anstrich, sondern nur ein komplettes Umdenken.
Ach, das ist doch nicht so einfach. Wie soll denn AMD Alternative S/W anbieten, wenn eine ausreicht? Die Spieleentwickler werden ein System implementieren und dann ist gut. Wieso sollte hier AMD eine Chance haben. Da können die machen was sie wollen. AMD kann nur vorgehen wie bei Freesync und hoffen. AMD kann RT nur versuchen zu implementieren, so wie es NVIDIA getan hat. Natürlich ist es schwierig in so eine Modus gleich zuziehen. NVIDIA veröffentlicht ei Fach eine neue RT Iteration und schon fängt AMD wieder von vorne an. Sorry, mit bissl, jetzt nehmen wir es ernst j d entwickeln ganz ordentlich, ist es doch nicht getan. Aber ich lass mich gerne von RDNA4 überraschen. AMD hat noch den Joker der Konsolenportierungen.
 
Wie gesagt allein was AMD an Umsatzgewinn gegenüber Nvidia im dGPU Bereich einfährt und an Forschungsbudget zur Verfügung hat, können wir froh sein das sie überhaupt noch so gut im Rasterbereich mithalten können und das wird sich auch nicht großartig ändern wenn weiterhin alle nur Nvidia kaufen.

Allein so ausschweifend darüber zu diskutieren, zeigt nur den Hochmut einiger hier zum Thema und kann man ehrlich gesagt nur den Kopf schütteln, bezüglich der Erwartungshaltung gegenüber AMD

zeigt übrigens nur die geistig beschränkte Haltung einiger hier, nicht nur bei dem Thema
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, Chismon und eXe777
DevPandi schrieb:
Nvidia ist heute nicht auf Platz 1, weil sie die bessere Hardware hatten, sondern weil Nvidia relativ früh anfing auch entsprechende Software sowie Entwickler-Unterstützung zu geben. CUDA ist heute auch die wichtigste API im Bereich HPC, weil Nvidia eine einfache, leicht lernbare API entwickelte und eigene Softwareentwickler zu Firmen schickte als auch an OpenSource-Projekten mithelfen lässt, damit ihre API verbreitung fand. [...]
Wie groß mag bei dieser Statistik wohl der Professional-Bereich im Vergleich zum Gaming-Bereich sein? Ich weiß es nicht.

Ansonsten ist meiner Ansicht nach Nvidias extreme Dominanz zumindest bei Gaming-Grafikkarten in erster Linie auf ihr großangelegtes Marketing in Verbindung mit Social Media zurück zu führen. Denn scheinbar haben die Menschen von heute völlig vergessen was "Preis-Leistung" bedeutet. Meine These: die Menschen vor 20 Jahren hätten sich noch ganz anders entschieden...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
Apocalypse schrieb:
Nach der 6800 wird auch ständig gefragt, zu recht imho, aber da gibt es die klare Antwort das die Redax einfach keine hat. Eine 4090 zum testen sollte aber meines wissens vorhanden sein, die fällt nur aus Zeitgründen weg.
whut, wieso hat die Redaktion denn keine 6800? Die haben die damals doch auch getestet bei release. oder musste die wieder abgegeben werden?
Die 4090 lassen sie halt weg da es sinnfrei ist, da sie so oder so immer mit Abstand ganz oben steht.
 
Rainbowprincess schrieb:
whut, wieso hat die Redaktion denn keine 6800? Die haben die damals doch auch getestet bei release. oder musste die wieder abgegeben werden?
Nachgefragt werden beide Karten ja immer bei den Techniktest zu Games und da ist auch die Performance der 4090 als Referenz was man so zu erwarten hat ... für die vielen 4090 Nutzer hier natürlich interessant.

Wird auch oft später nach gereicht, iirc macht die Benchmarks Wolfgang und der ist halt auch nur in Mensch, auch wenn es manchmal bei der Menge an Benchmarks wirkt, als wäre er eine gut geölte Maschine. ;-)

Warum die Redax keine non-xt 6800 hat ... keine Ahnung, aber sie haben halt keine (mehr). Die 6800 ist ja eine recht beliebte Karte gewesen, hab ich hier in der Kiste auch drin., also interesse wird da fast immer dran geäußert und dann meist auf die 6800xt verwiesen, die ja im Grunde genauso performt, nur halt auf etwas höherem Niveau.
Ergänzung ()

DevPandi schrieb:
Wenn TSMC sagt, dass die Yield-Rate bei N5 bei 90 % liegt, dann ist es aber egal ob auf den Wafers 90 Chips, 150 Chips oder 300 Chips drauf sind, im Schnitt kommen 90 % der Chips heil raus: 81, 135, 270.
Was?!?
Dann könnte ich ja riesen Chips in Auftrag geben und meine Yield wäre immer noch vollkommen gleich.

Das klingt jetzt so überhaupt nicht plausibel und normal haben Sachen die du schreibt ja wirklich Hand und Fuß.
 
Zuletzt bearbeitet:
Apocalypse schrieb:
Nachgefragt werden beide Karten ja immer bei den Techniktest zu Games und da ist auch die Performance der 4090 als Referenz was man so zu erwarten hat ... für die vielen 4090 Nutzer hier natürlich interessant.
du weisst sie steht immer mt Abstand oben. Wozu dann dafür also Zeit aufwenden. Was ist daran interessant immer zu sehen bzw. zu wissen, dass sie ganz oben steht? ist vielmehr eine "boah meine Karte is so geil, sie steht wieder ganz oben" Gefühlsbefriedigung. ^^

Apocalypse schrieb:
Warum die Redax keine non-xt 6800 hat ... keine Ahnung, aber sie haben halt keine (mehr). Die 6800 ist ja eine recht beliebte Karte gewesen, hab ich hier in der Kiste auch drin., also interesse wird da fast immer dran geäußert und dann meist auf die 6800xt verwiesen, die ja im Grunde genauso performt, nur halt auf etwas höherem Niveau.
Was ich nie verstanden habe wieso man sowas als Argument anführt. Demnach könnte man drei Grafikkarten benchen und für die restlichen die Prozentangabe angeben, die man drauf oder abziehen müsste in bezug auf das entsprechende Modell.
 
DevPandi schrieb:
Wenn TSMC sagt, dass die Yield-Rate bei N5 bei 90 % liegt, dann ist es aber egal ob auf den Wafers 90 Chips, 150 Chips oder 300 Chips drauf sind, im Schnitt kommen 90 % der Chips heil raus: 81, 135, 270.
Ja das ist schon klar, nur wenn ein Wafer 13500k kostet, Nvidia stellt daraus 100 AMD 150 her, zzgl muss AMD die doppelte Chipfläche die bei 13500k eingespart hat bei 6nm noch mal drauflegen der weniger wie die Hälfte kostet und somit samt Packing dann auf den ~selben Herstellungspreis kommt.
Bei den 10teildefekten die angenommen nur 50% des Preises bringen bleiben bei Nvidia die Kosten gleich, bei AMD hingegen Spaar man die MCDs ein und verringert somit auch die Kosten je Produkt selbst wenn es am Ende nur 5USD sind gespart ist gespart und erhöht somit die Marge.
Wie gesagt bin weder Fachmann auf dem Gebiet noch irgendein Technischer aber für mich geht das AMD Chipletdesign auf, weswegen ich auch wieder zu 70% in AMD investiert bin, hab auch Nvidia geholt bei knapp unter 1k werde die aber nach dem Splitt ein die deppen aufspringen ganz schnell wieder abstoßen
 
@Rainbowprincess @Apocalypse
Die RX 6800 ist beim letzten Update des Testpakours rausgeflogen, weil die RX 7700 XT quasi 1:1 die gleiche Leistung abliefert. Dazu hat man noch die 6800 XT, woran man auch noch ableiten kann wie hoch die Leistung ist. Gerade wenn die neuere RDNA3 Plattform bessere Ergebnisse ausgibt als RDNA2, wenn die 6800 XT schlechter abliefert als sonst wird es die 6800 erst recht tun.

Dazu ist Wolfgang auch nur ein Mensch und hat nur begrenzt Zeit. (Der Testdurchlauf für eine! Grafikkarte sind schon etliche Stunden. Dazu gibt es auch eine interessante Episode im CB Podcast.)
 
  • Gefällt mir
Reaktionen: Apocalypse
DevPandi schrieb:
Wenn TSMC sagt, dass die Yield-Rate bei N5 bei 90 % liegt, dann ist es aber egal ob auf den Wafers 90 Chips, 150 Chips oder 300 Chips drauf sind, im Schnitt kommen 90 % der Chips heil raus: 81, 135, 270.
Das ist ja Quatsch. Es sind vielleicht im Mittel 90%.
Meint, kleine Chips liegen vielleicht bei 95% und riesige bei 80%.
 
  • Gefällt mir
Reaktionen: ArrakisSand
Rainbowprincess schrieb:
du weisst sie steht immer mt Abstand oben. Wozu dann dafür also Zeit aufwenden.
Mich interessiert weder wie weit oben meine 6800 steht, noch würde mich interessieren wie weit oben meine 4090 ist, besonders weil ich bei beiden Karten ja ziemlich genau weiß wie sie einzuordnen sind.

Wer einzige Wert den diese Techniktests für mich haben, und es ist zugeben ein ziemlich kleiner, für den sich Wolfgang verdammt viel Arbeit macht, ist, dass ich direkt ablesen kann, wie schnell mein System bei Max Settings bei meiner Auflösung ist.

Daran kann ich unter umständen eine Kaufentscheidung für ein Spiel festmachen. Und das gilt eben sowohl für 4090 Nutzer als auch 6800 Nutzer. Und wenn man es ganz genau nimmt ist die 4090 dabei sogar relevanter, denn die haben ja anscheinend mehr Leute im Einsatz als die 6800. ;-)
( 0.93% der Steam Nutzer vs
0.17% laut der Steam Hardware Survey im Mai)

Finde ich selbst übrigens ziemlich absurd.


Fresh-D schrieb:
Dazu ist Wolfgang auch nur ein Mensch und hat nur begrenzt Zeit. (Der Testdurchlauf für eine! Grafikkarte sind schon etliche Stunden. Dazu gibt es auch eine interessante Episode im CB Podcast.)
Sag ich doch.
 
Zurück
Oben