News Grafikkarten-Absatz: Nvidia verliert erstmals wieder Anteile an AMD und Intel

@Millennial_24K
Ja, aber leider nur für mobile Plattformen. Wäre cool wenn die was bringen.

@Grumpy
LPCAMM gibt es doch sogar schon mit über 9000MT/s. Das wäre auch mit AM5 machbar. Nur, wie du sagtest, muss der Memory Controller überarbeitet werden.

Aber der Trend bewegt sich zu APUs. Mit DDR6 wird es dann in 2-3 Jahren richtig spannend. Da hat man ein bisschen an den APUs gedacht und der soll ja ca 3x schneller als DDR5 sein.

Aber weil ja Framework den HX395/385 auch als Mainbaord verkauft, hoffe ich dass andere wie Minisforum da mit einsteigen. Vielleicht bringen die ein Board mit HX370 für 500€ z.B.
 
Hat Nvidia den Gaming-Markt eigentlich überhaupt noch nötig? Das ist doch vermutlich eh nur noch Werbung für die.
Jeder mm² an Wafer, der für eine RTX-Gamingkarte benutzt wird, könnte doch mit dem 10-fachen Gewinn für eine Produktivkarte genutzt werden?
 
  • Gefällt mir
Reaktionen: aLanaMiau
Grumpy schrieb:
Was man hier jedoch bedenken sollte ist, dass der AI Max 395 nicht RDNA 4, sondern RDNA 3.5 verbaut hat (vgl. hier). Deshalb vermutlich auch kein FSR 4.
FSR4 sollte funktionieren, da der Prozessor AI Einheiten hat
 
Dr.Pawel schrieb:
Der Artikel ist fast so lustig wie wenn man über die sinkenden Absatzzahlen von Autos liest. Schon komisch, kaum verdoppelt (oder noch mehr) sich der Preis und ups wir verkaufen nicht mehr so viel. Wird dann aber natürlich nicht so dargestellt, sondern mit einem sich ändernden Marktumfeld und schwierigen Bedingungen bla bla bla.
Man hat 4% mehr verkauft, nur hat AMD noch mehr mehr verkauft.
 
Solange Nvidia den besten Upscaler hat und mit DLSS4 auch nativ TAA bei der Bildschärfe weit hinter sich lässt sind die Karten alternativlos.

Wobei Nvidia natürlich sinnvoll erst ab der 5070ti mit 16 GB beginnt, was natürlich recht teuer ist. 12 GB sind einfach zu wenig in 2025 für eine nagelneue GPU die einige Jahre halten soll und über 500€ kostet. Daher absolut verständlich, dass AMD da Marktanteile gewinnt.

Aber ich vermute dass Nvidia das mit voller absicht macht. Sie wissen, dass die Leute für Nvidia mehr zahlen und sie wissen auch, dass sie mit den 8 und 12 GB Karten Kunden an AMD verlieren. Aber so vermeiden sie eben auch das Monopol.

Eine 5070 mit 16 GB etwas aggressiv bepreist und AMD wäre weg vom Fenster. Praktisch nur ein „Fingerschnip“ für Nvidia.
 
Hylou schrieb:
Paperlaunch wäre es wenn es keine Karten gäbe - es gibt aber Leute mit RTX5000 Karten.

Da die Karten bestenfalls in Homöopathischen Dosen vorhanden sind, war es definitiv ein Paper-Launch. Die Karten sind seit Wochen quasi nicht zu bekommen. Und die Situation wird auch absehbar nicht besser.

Wenn Du unbedingt willst, nenn es einen Soft-Paper-Launch. Aber verfügbar sind die Karten nicht. Das lässt sich nicht wegdiskutieren.

Calo84 schrieb:
Ich kann damit ganze 4 AMD Kunden abdecken.
Calo84 schrieb:
Gott sei dank gibt es noch immer welche die einfach wie Nvidia mit dem Kopf durch die Wand gehen.

Ich weiß nicht so recht, ob das alles Sarkasmus ist, oder Du das tatsächlich ernst meinst.

In letzterem Falle sage ich nur: Nein, so jemanden braucht man ganz sicher nicht. Davon gibt es leider schon viel zu viele. Auch in Positionen, wo sie nicht hingehören. (Wenn man mal über den Teich schielt...)

Calo84 schrieb:
Jedoch ist der "Enthusiast" eher vom aussterben bedroht.

Ich verwahre mich der Behauptung, so etwas wäre die Definition eines Enthusiasten. :stock:
 
  • Gefällt mir
Reaktionen: usernamehere und PegasusHunter
Arboster schrieb:
Ist Nvidia egal, wir Gamerfuzzies interessieren die nicht mehr.
Jetzt wird richtig Kohle mit KI-Firmen gemacht

Das und ähnliche Argumente lese ich immer wieder..... Ob das stimmt oder nicht mal dahingestellt aber selbst wenn es nur noch ein kleiner Teil sein sollte bei dem was die Firma macht

Keine klar denkende Firma oder Mensch läßt Milliarden Dollar liegen, hört doch auf mit den einen % Angaben seht auch das Geld an da sind das immernoch extreme summen zu holen zumal nvidia praksich nichts dafür machen muss dank Partnerkarten und deren Produzenten

Produziert nvidia eigentlich seine Chips in eigenen Fabriken oder sind das auch dritte?

Will sagen selbst wenn aktuell der Anteil in der Firma gesehen kleiner ist was an gamer und semi profizionelle geht sind das immernoch viel viel Geld zu machen
Ergänzung ()

SSD960 schrieb:
Und kümmert es NVidia? Vermutlich nicht.
Sollte es aber, allein schon wegen mehrerer Standbein, im dümmsten Fall kommt "morgen" ein ki Chip einer anderen Firma die das besser kann und dann? Schau nvidia blöde aus der Wäsche wenn sie ihr og Kunden verprellt hat

Aber wer weiß schon was in den Köpfen von ceo's und bwler grosser Firmen vorgeht man sieht ja das man mit vollem Wissen Chips mit fehlender Einheiten verkauft, irgendwer muss das ja durchgewunken haben
 
Zuletzt bearbeitet:
Mimir schrieb:
Solange Nvidia den besten Upscaler hat und mit DLSS4 auch nativ TAA bei der Bildschärfe weit hinter sich lässt sind die Karten alternativlos.
Ich halte das für ne zu pauschale Aussage, selbst du grenzt gleich wieder auf 16gb ein, aber ja ne "besten" kann 30% besser oder 2% besser sein, wenn du nicht unendlich Geld hast vielleicht auch gerne mit Linux arbeitest jucken 2% besser nicht.

FSR3 ist oft gleichwertig aber nicht immer zu DLSS 3.0 kam aber erst halbes jahr später raus, jetzt sind wir quasi Zeitgleich, und ich denke der "Abstand" ist geringer zumal DLSS 4 ja noch quasi Beta oder irgendwas ist und in vielen Games schlechter aussieht als mit DLSS 3.

Es gibt einen Grund warum CB auch FSR 4 eine Revolution nennt.
Schlussendlich sieht die Redaktion DLSS 4 noch als den Gewinner, doch ist der Unterschied wirklich überraschend klein.

Es tritt damit das schon schneller ein was ich schon prophezeit habe, man kann ja mit nem Upscaler klassisch bestenfalls Native Auflösungsrendering erreichen, angeblich sieht das teils besser als Navi aus aber auch da ist relativ wenig Spielraum, wenn gesagt wird es sieht besser als Navi aus dann ist damit gemeint minimal und eben cherry gepickt (manchmal).

Also ob es nun eine harte oder eine Softgrenze ist mit Nativ als Maximum ist nebensächlich denn auch so ein Softlimit stärker zu überwinden kosten viel mehr aufwand als man davor machen musste, die Fortschritte werden teurer und geringer.

So wenn man jetzt einen Algo von Nvidia hat der schon nahe an den 100% ist dann fehlt der Spielraum sich zu verbessern und für AMD ist es einfacher von z.B. 80 90% sich den 100% annähern daher wird der Abstand fast zwangsläufig kleiner außer AMD wäre permanent nicht in der Lage etwas vergleichbares her zu stellen und nicht nur (bisher) langsamer darin.

Hab das Wort letztens schon gegoogled das Gesetz vom Grenznutzen oder so ähnlich. 1 Tafel mehr Schokolade wenn du schon 100 hast ist weniger wert wie wenn du erst 2 hast.

Das spielt da zumindest auch mit ein.

Wenn du natürlich Wohlhabend bist, dann sind die Karten schon scheisse weil du ja ne 4090 5090 haben kannst, aber bei allen die auf Preis/Leistung bisschen achten müssen noch, denke ich das es jetzt gut genug ist, auf den Screenshot muss man wenn man nicht genau weiß auf was man schauen muss schon krass rum suchen um überhaupt noch mit FSR3 in manchen Bildern nen Unterschied zu sehen.

Da fänd ich das argument das mehr Spiele DLSS 4 vielleicht unterstützen noch das bessere Argument.
 
nach diesem katastrophalen 50XX-Launch ist es vermutlich nur eine Frage der Zeit bis die Gaming-Sparte eingestellt wird, Geld wird bei NVIDIA eh anderswo verdient.
 
Das glaube ich weniger, es wird eine Zeit nach AI geben und da wird NV dann ganz froh sein noch Lämmer zu haben die einem praktisch alles aus der Hand reißen. Die Frage ist nur wann wird das sein? In 5, 10 oder gar 15 Jahren?
 
Man sieht hier relativ gut, wieso der Fokus auf mehr Umsatz pro Einheit nicht überall funktioniert.
Ähnlich wie beim Auto ist das en Gros der Leute eben kein Enthusiast der >650€ in eine GPU buttert.
Nvidia aber hat mit dem Preis-Hike der 70er Karten genau zu der Situation gesorgt, dass die Mittelklasse nun das Med-High-End geworden ist und das muss über kurz oder lang mit sinkenden Absätzen einhergehen.

Denn im Gegensatz zu Nvidias Idee von "die Leute kaufen einfach ne 700€ GPU egal wie schei*e sie ist", sind die Gehälter im Durchschnitt ja nicht gestiegen und in Kombination mit der Inflation der letzten Zeit, dürfte die Flaute hier auch erst mal anhalten.

Nur wirklich günstige Produkte würden wahrscheinlich die Flaute wenigstens was die Absatz-Zahlen angeht umdrehen... Nur will Anno 2024 wohl keiner die Mittelklasse zu Mittelklasse Preisen anbieten. ca. 500€ dürfte für viele der Obere-Sweet-Spot sein was GPUs angeht und in der Region gibt es... Fast nichts.

Daher sehe ich AMDs Strategie hier auch trotz der kurzfristig höheren Marktanteile mittelfristig nicht für Erfolgsversprechend: sie sind immer noch zu nahe an Nvidia und zu weit weg von der 500€ für die defacto Mittelklasse die sie hier anbieten.

Sicher, dank der Nicht-Verfügbarkeit der 5000er dürften sie jetzt im Q2 einige Einheiten absetzen können. Sobald Nvidia aber liefern kann, sehe ich den Markt direkt wieder bei Status Quo. Sprich, weiter vergleichsweise niedrige Gesamt-Absätze und Nividia mit dem absoluten Löwen-Anteil der GPUs.
 
blackiwid schrieb:
Ich halte das für ne zu pauschale Aussage, selbst du grenzt gleich wieder auf 16gb ein, aber ja ne "besten" kann 30% besser oder 2% besser sein, wenn du nicht unendlich Geld hast vielleicht auch gerne mit Linux arbeitest jucken 2% besser nicht.

FSR3 ist oft gleichwertig aber nicht immer zu DLSS 3.0 kam aber erst halbes jahr später raus, jetzt sind wir quasi Zeitgleich, und ich denke der "Abstand" ist geringer zumal DLSS 4 ja noch quasi Beta oder irgendwas ist und in vielen Games schlechter aussieht als mit DLSS 3.

Es gibt einen Grund warum CB auch FSR 4 eine Revolution nennt.
Schlussendlich sieht die Redaktion DLSS 4 noch als den Gewinner, doch ist der Unterschied wirklich überraschend klein.

Es tritt damit das schon schneller ein was ich schon prophezeit habe, man kann ja mit nem Upscaler klassisch bestenfalls Native Auflösungsrendering erreichen, angeblich sieht das teils besser als Navi aus aber auch da ist relativ wenig Spielraum, wenn gesagt wird es sieht besser als Navi aus dann ist damit gemeint minimal und eben cherry gepickt (manchmal).

Nein, FSR3 und DLSS3 waren qualitativ nie vergleichbar. Gerade mit FSR3.1, also dem ersten mal seit FSR2 wo AMD den Upscaler überarbeitet hatte, wurde das Bild deutlich unschärfer und hatte viel mehr Ghosting. Gerade im 4K Performance Modus war der Unterschied zu DLSS aber leider auch FSR2 sehr groß im negativen Sinne.

Und ebenfalls nein, mit DLSS4 ist der Abstand gegen FSR4 mindestens so groß wie zwischen FSR3 und DLSS3 wenn nicht sogar größer.

Der Hauptvorteil von DLSS4 ist, dass die temporale Unschärfe, die typischerweise bei TAA, FSR und DLSS bis einschließlich Version 3 entstanden ist beseitigt wurde.
Das Bild ist in Bewegung dadurch genauso scharf wie im Standbild. Und genau das macht einen sehr großen Unterschied.

Dass Computerbase das nicht erkennt macht mich ein wenig sprachlos, aber wenn du dich mal im Internet auf Reddit und co umhörst und dir diverse Vergleiche ansiehst, dann wirst du überall das gleiche lesen und sehen. Die typische temporale Unschärfe unter der bisher alle TAA basierten verfahren gelitten haben, ist wie ausradiert und das ist selbst im Vergleich zu nativ TAA eine ziemliche Revolution.

Ich stimme natürlich zu, dass FSR4 ebenfalls ein großer sprung ist und in den allermeisten Aspekten besser als DLSS3 ist. Das ist für AMD ein gewaltiges Upgrade, keine Frage. Und ich finde das extrem positiv. Mich freut das wirklich.

Trotzdem hat Nvidia mit dem Transformer Model kürzlich eben ein völlig neues Niveau erreicht. Und ja, es gibt noch ein paar wenige Bildbereiche, die Regressionen zeigen. Für Nvidia ist es ja auch noch offiziell Beta.
Aber auch kurz nach Release von DLSS4 hat Nvidia da ja mit einem neuen Transformer Model „K“ nachgebessert während offizielle DLSS4 Spieleupdates standardmäßig noch das früheren Transformer Model „J“ ausgeliefert werden. Wahrscheinlich wird in den nächsten Wochen dann Model „L“ folgen und die übrigen fehler noch ausmerzen. Aber schon jetzt ist es zu sagen wir 95% deutlich besser als DLSS3. Subjektiv ist es aufgrund der fehlenden Unschärfe in Bewegung eben ein Unterschied wie Tag und Nacht.
 
Calo84 schrieb:
Ich mag die Menschen in der Community die sich darüber beschweren das andere bei den Preisen kaufen und ihnen sagen das Sie doch bitte nicht kaufen sollen, nur damit sie selbst für weniger Geld zuschlagen können. Das bringt einen Gewissen Reiz.

Es tut schon weh, wie du Aussagen von verschiedenen Personen einfach verdrehst.

Niemand hat gesagt das du dir deine GPU nicht kaufen sollst. Es wurde angemerkt, dass dein Verhalten, mehrere GPUs zu kaufen und diese immer wieder zu retournieren, bis man sein Wunschmodell mal bekommt, einfach für höhere Preise sorgt.

Die Ausnutzung vom Widerrufsrecht, wird von den Händlern eingepreist und erhöht die Preise grundsätzlich für alle, weil hier einige meinen das es völlig ok ist, 4-5 Modelle zu kaufen um diese zu testen, obwohl man eigentlich nur darauf wartet, dass man das Wunschmodell kriegt.

Niemand, aber auch wirklich niemand hat gesagt, dass du dir keine GPU zu diesen Preisen kaufen sollst in der vorangegangenen Diskussion.
 
Die ganze Diskussion ist doch lustig. NV ist im Generationswechsel und die Marktanteil hat deswegen etwas gezuckt. AMD hat heute die Möglichkeit es besser zu machen. Mein Tipp: Am Ende des Tages wird es weder von AMD noch von NV Karten irgendwo in der Nähe des UVP geben.
Das Argument wie egal wir NV sind ist auch lustig. Na dann haben AMD und Intel ja die Möglichkeit den Markt mit günstigen Karten zu fluten... Haha wärs glaubt.
 
Kalsarikännit schrieb:
nach diesem katastrophalen 50XX-Launch ist es vermutlich nur eine Frage der Zeit bis die Gaming-Sparte eingestellt wird, Geld wird bei NVIDIA eh anderswo verdient.
und wenn die ki bubble dann platzt bzw der markt gesättigt ist, wird man sich darauf besinnen womit man gross geworden ist .. oh moment das haben wir ja niedergebrannt und den gamern ins gesicht gespuckt ^^ bye bye aktienkus :)
 
  • Gefällt mir
Reaktionen: Virny und Kalsarikännit
Sinatra81 schrieb:
Wenn man den Verkauf einstellt, verliert man Anteile. 🤷‍♂️
ja, aber wenn man was neues Vorstellt und nicht liefert wird es nicht besser, oder glaubst Du ernsthaft das Nvidia im Q1 wieder Marktanteile Hinzugewinnen wird ?

wenn man sich die Zahlen von Nvidia und AMD ansieht hat Nvidia weniger 800k weniger Umgesetzt wie im Q3 was auch verständlich ist wenn man 500k weniger GPUs verkauft, nur hat AMD die ja auch mehr verkauft und damit nur 100k mehr umsatz gemacht, passt irgendwie nicht zusammen, irgendwie schaut das sehr nach einem komisions Geschäft aus, sprich die liefern die GPUs an die AIB aus bekommen aber erst geld wenn die auch verkauft sind, dann müsste bei AMD die Gaming Sparte im Q1 ordentlich steigen, denn es gibt ja kaum noch Nvidia Karten zu kaufen.
 
LinuxTux schrieb:
FSR4 sollte funktionieren, da der Prozessor AI Einheiten

Nein, weil rdna3/3.5 noch das datenformat FP4 nutzt und kein FP8 kann.

„FSR 4 SR nutzt das Datenformat FP8, das im Hause AMD ausschließlich die neuen RDNA-4-Grafikkarten beschleunigen können: Damit läuft FSR 4 aktuell nur auf einer Radeon RX 9070 XT sowie einer Radeon RX 9070“

Das hat nix mit AI Einheiten zutun.
Ergänzung ()

Und ob AMD es schafft FSR4 auf auf RDNA3 mit gescheiter Performance zu portieren , werden wir wohl erst später im jahr erfahren. Denn der fokus liegt erstmal Rdna4 und im nächsten Quartal soll ja die 9060er erscheinen.
 
  • Gefällt mir
Reaktionen: LinuxTux
OK, mein Fehler :-)
 
Zenx_ schrieb:
hoffe mal, dass die 9700er Karten dem einen ordentlichen Schub geben werden.
Die 9700er vermutlich nicht mehr, dafür aber die 9070er :freaky:
 
  • Gefällt mir
Reaktionen: Icke-ffm
Zurück
Oben