News Desktop-Grafikkarten: Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent

Svennc schrieb:
Aber die Ryzen 7600/7500F für unter 200 Euro sind doch kein schlechter Deal.

Hi

Ja , nur ist mir der Aufpreis auf DDR5 noch zu viel, und bei den Boards ist das einigermaßen brauchbare Board etwa bei 113€ und dann auch noch M-ATX.

Mfg.
 
MiroPoch schrieb:
AFMF ist bei mir im Dauerbetrieb und liefert fast in jedem Spiel zuverlässig 100% mehr fps
Dann guck aber nochmal in die cb Tests rein. :)

Wenn du dich in gta mit controller drehst, geht afmf aus und generiert dir nix.
 
habla2k schrieb:
Das liegt aber an den Spielen und wird nicht besser, wenn die Leute einfach weiter immer fettere Hardware draufwerfen.
Klar liegt es an den Spielen. Der Generationswechsel bei den Konsolen ist nun endlich vollzogen (die Übergangsphase war diesmal sehr lang). Daher haben die Spiele über die letzten 1-2 Jahre einen ordentlichen Sprung in der Grafik gemacht und laufen natürlich auch entsprechend langsamer. Der aktuelle Stand, was Grafik und Performance angeht, wird sich jetzt die nächsten 3-6 Jahre, bis der Wechsel auf die nächste Konsolengeneration (PS6 usw.) vollständig vollzogen ist, nicht mehr großartig ändern. Ist jetzt seit 30 Jahren (Release der PS1 1994) immer wieder so und nichts Neues. Dieses mal fällt nur das Aufrüsten schwerer, da die Grafikkartenpreise abgehoben sind. Daher wird häufig lieber über die Spiele-Entwickler gemeckert, statt einfach mal die Settings zu reduzieren.
 
Zuletzt bearbeitet:
Dass Nvidia mittlerweile mit seinen Grakas Top ist ist wohl nicht zu bestreiten. Aber egal was auf den Markt kommen wird bleibt die Gretchenfrage, wofür braucht ich sowas? Für mich privat mit 2 FHD Monitoren braucht es keine 4090/4080. Geschweige denn eine 5xxx.
Da reicht eine 2080er nach wie vor locker mMn.
Und sollte der RAM mal Probleme machen würde ich mir persönlich eine AMD 7800xt gönnen wollen.
Und wenn man mal die Leistungen einer alten 2080er zu neuen Grakas vergleichen tut. So schlecht ist das alte Teil nicht.
Naja es wird meinen Aktien (Dividende) gut tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Of topic
Soweit ich weis ist der neue Stromstecker auf den 40er nVidia Grafikkarten eine Intel Erfindung.
Nvidia hat das Ding nur verbaut um weniger Steckergröße zu haben.
Böse Leute behaupten ja nVidia wollte derzeit nur verhindern das man 4! 8Pin Stecker benutzen muß.
Weil bei der 50er Generation dann bis zu 8 Stecker nötig währen. Lieber 2 von den neuen Steckern :-)
 
Zuletzt bearbeitet:
xexex schrieb:
Wird es was großes? Vermutlich! Jedenfalls ist KI aktuell in aller Munde und KI verkauft alles, selbst Sachen in denen nicht wirklich KI drin ist. Vor ein paar Jahren war Raytracing das große Ding, natürlich in einem viel kleinerem Zirkel, aber durchaus in der auch für AMD Kunden relevanten Zielgruppe. Nur hat AMD sich damals geduckt, statt hier einfach mitzumachen und den "Flow" mitzunehmen, verlor bis heute den Anschluss und letztlich viele Kunden.
Ok fangen wir hiermit an.
Du machst einen Fehler, du gehst davon aus, dass AMD das hätte machen können.
Und betrachtest das ganze nur mit dem Wissen von Heute, so funktioniert das aber nicht.
Ich habe ja schon erklärt, dass die Ausgangslagen von Nvidia und AMD völlig anders sind und waren.
Und darum habe ich mir eine schöne Metapher ausgedacht.
Alles klar nehmen wir mal an es gibt zwei Kekshersteller. Keksi A und Keksi B.
Beide stellen Doppelkekse mit Füllung her. Nur ist Keksi A ein riesen Unternehmen, die nichts anderes als diese Doppelkekse herstellen (Oreos). Die Leute finden die hammergeil und rennen denen die Bude ein. Und sie nutzen die Knete um ihre Rezeptur konstant anzupassen und immer bessere Sorten rauszubringen.
Sie sind Marktführer und verdienen sich dumm und dämlich.
Keksi B ist ein kleineres Unternehmen. Sie stellen ganz gute Doppelkekse mit Füllung her. Nur sind Doppelkekse nicht ihr einziges Produkt. Sie stellen auch Plunderteilchen her und konkurrieren dort mit einem anderen Unternehmen, dass jahrelang die besten Pluderteilchen hergestellt hat und auch den Markt dominiert und sich mit den Discountern abgesprochen hatte nur ihre Teilchen zu verkaufen.
Nun hat es Keksi B es durch einen Kraftakt geschafft bei den Plunderteilchen auf einen grünen Ast zu kommen und sogar den Konkurrenten zu übertrumpfen. Allerdings hat man immernoch Nachteile gegen den Plunderteilchen-Konkurrenten. Denn Keksi B verkauft nur bei Aldi Nord und nicht wie der Konkurrent bei Backwerk, Lidl und Penny.
Nun steht man da recht solide da, aber man muss weiterentwickeln sonst fällt man bei den Teilchen wieder zurück. Bei den Doppelkeksen hat man aber das Problem, dass man solide ist, aber im Markt echt abgehängt wird und die Kekse könnten besser sein.
Nun heißt es zu überlegen, was man macht für die Zukunft. Man hat die Möglichkeit, entweder aufzuschließen und auf ein ähnlich gutes Niveau beim Doppelkeks zu kommen wie Keksi A. Oder man entwickelt eine völlig neue Art von Doppelkeks, läuft damit aber in Gefahr, dass wenn dieser Keks nicht angenommen wird, man massiv Geld verballert hat und nun nicht mehr genug Geld hat um bei den Teilchen vorne zu bleiben.
Also entscheidet man sich auf Nummer sicher zu gehen und aufzuschließen. Das klappt auch, aber Keksi A hat halt nicht das Dilemma und entwickelt eine völlig neue Art von Doppelkeks und nun ist man wieder hintendran.
Denn Keksi A braucht sich nicht nicht um Plunderteilchen zu kümmern. Die können das ganze Geld aus dem Doppelkeksverkauf in die Entwicklung stecken und ihren Vorsprung halten und ausbauen. Und auch das Risiko ist für Keksi A geringer, denn sie haben wesentlich mehr Marktanteil und die Leute reißen ihnen sowieso schon alles aus den Händen.

Keksi B hat sich gegen das Risiko entschieden. Das ist aus damaliger Sicht wirtschaftlich der richtige Weg gewesen. Heute kann man natürlich sagen "Warum hat Keksi B nicht genauso gehandelt wie Keksi A? Das sind doch voll die Deppen." Aber damit erkennt man nicht die unterschiedlichen Situationen zu dem Zeitpunkt an.

Was ich damit erklären will. Die Ausgangssituationen sind völlig andere. Man kann die Unternehmen eigentlich ohne Kontext kaum vergleichen. Denn die einen arbeiten in zwei Bereichen und versuchen da zu punkten. Nvidia konnte und kann sich voll konzentrieren wohingegen AMD das Risiko nicht eingehen konnte und wollte. Für die war eine konservativere Angehensweise besser. Das werden die auch überlegt haben.
Nvidia konnte und kann einfach Risiko gehen, denn sie sind damals und heute in einer viel vorteilhafteren Situation. Denn sie haben keine Doppelbelastung, haben keine finanziellen Altlasten und kommen nicht aus einer bescheidenen Situation. Sie haben zudem die Marktmacht und können damit ihre Konzepte im Markt platzieren ohne großes Risiko.
Sich aber jetzt hinzustellen und zu sagen "Eh komplette Fehlentwicklung, was für Looser", wird dem nicht gerecht, denn man blendet damit die Situation damals aus. Im englischen nennt man sowas Hindsight 2020. Es ist recency bias, der vergisst, wie die Situation ist war.
Auch ein Intel kann nicht mit Nvidia mithalten in dem Bereich, einfach weil Nvidia massiv Vorsprung durch Technik hat. Und das holst du nicht einfach so auf. Da geht keiner zu nem Ingenieur und sagt "Morgen hast du Kerne für AI/Raytracing fertig und die können sofort in den Tape out gehen". Das dauert, das kostet Geld, Resourcen und Manpower. All das hat man nicht unbedingt. Vorallem nicht wenn man eh schon hinten dran hängt. Da überlegt man wo man das investiert. Und so sehr man das jetzt auch kritisieren mag bei AMD, die Entscheidung damals wurde mit damaligen Wissen entschieden und nicht mit heutigen Wissen.

Und wie gesagt, völlig andere Umstände bei den beiden Unternehmen. Völlig andere. Der eine kann entspannt entwickeln, der andere muss aufholen und kucken wo er bleibt. Da kann man nicht das Gleiche erwarten von beiden Unternehmen. Darum ist es umso beeindruckender was AMD leistet.
Denn zum einen battlen sie sich mit Nvidia (wir erinnern uns, alleine 29.600 Mitarbeiter, als auch mit Intel, die 124.800 Mitarbeiter haben. Und das mit nur 26.000 Mitarbeitern. Das ist beeindruckend.

Und was die Entscheidung angeht, warum hat eigentlich Intel nicht was rausgehauen im bereich AI/Raytracing?

So ich kucke jetzt Fußball. Auch wenns enttäuschend ist ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, eXe777, Terrschi und 3 andere
MoinWoll schrieb:
Deutschland ist traditionell sehr sehr AMD-freundlich und daher leider nicht repräsentativ für die gesamte Welt.
Ne, nur preisleistungsfreundlich.
Deshalb ist z.B. auch der Walmart Einstieg bei uns gescheitert.
 
  • Gefällt mir
Reaktionen: JarlBallin, Apocalypse und Zwirbelkatz
pseudopseudonym schrieb:
Nein, kaufen sie nicht. Aber mit der schnellsten Karte macht eine solche Marke sich einen Namen. Genau deswegen gibt es diese Brechstangen-Duelle.
Und genau deswegen engagieren Automarken sich im Rennsport.
Ist das tatsächlich so?

Die Kundschaft die Komplettsysteme kauft liest also die Tests und Vergleiche der schnellsten Grafikkarten?

Genauso wenig passt der Auto Vergleich. Im Gegensatz zu den Tests bietet Rennsport Unterhaltung für viele.
 
  • Gefällt mir
Reaktionen: Apocalypse
C0rteX schrieb:
Interessant, laut neuster Computerbase Umfrage hat sich der Anteil von AMD auf 43 Prozent im Forum erhöht. In anderen PC Technik Communitys ähnliche Statistiken.

Dann guck mal aufs Steamsurvey. Da kommt die erste AMD-Karte auf Platz 16. Die nächte auf 26. Dann auf 31. Der Rest ist alles nVidia und so zwei Quoten-Intels, weil die in jedem Laptop verbaut sind.
nVidia hat da über 76% Marktanteil. AMD nur 16%.
 
Ko3nich schrieb:
Die Kundschaft die Komplettsysteme kauft liest also die Tests und Vergleiche der schnellsten Grafikkarten?
Nein, sehe ich auch so. Das sind eher andere Mechanismen. Die meisten kaufen Laptops. Und was sind da für dedizierte Grafukkarten drin? Und warum?

Ko3nich schrieb:
Genauso wenig passt der Auto Vergleich. Im Gegensatz zu den Tests bietet Rennsport Unterhaltung für viele.
Dacia macht Werbung im Rennsport? Dacia ist erfolgreich, weil sie die besten Autos bauen?

Ich denke, im Gegensatz zum Grafikkartenmarkt, funktioniert hier der Markt noch.
 
Moselbär schrieb:
wofür braucht ich sowas?
Frag das mal die, die sich immer wieder die neuesten 1000+ Euro iphones und Samsung Phones kaufen. :D

Das ist alles Spielzeug für den persönlichen usecase.

Dein usecase mit FHD hat doch den Vorteil, dass Du vergleichsweise entspannt auch mit lastgen GPUs sehr weit kommst. Ich warte auf 4K ultraweit OLED und benötige viel minfps (meine Wohlfühlzone für smoothes gameplay beginnt ab mindestens 75-80 fps aufwärts) bei dem Maximum an Grafikimmersion.
Und leider kommt in diesem Enthusiastensegment nur Nvidia in Frage.
Im FHD Markt dagegen kann würde ich Nvidia eigentlich komplett ignorieren.
 
Ein weiterer Schritt zum Monopol. Über kurz oder lang deutet das wohl einen Rückzug aus dem Grafikkartenmarkt für AMD und Intel an. :heul:
 
Falls das stimmt ist das schon enorm.^^ Aber man muss auch anerkennen das sich Nvida dies erarbeitet hat, ich glaube nicht das es unbedingt den aktuellen Stand der Technik zwischen Nvidia und AMD (dGPU) widerspiegelt.^^

Sondern auch was es in der Vergangenheit von Nvidia an Features wie DLSS/Raytracing gab, sowas wirkt denke ich auch immer nach.^^
 
Ich muss zugeben das es mich auch überhaupt nicht wundert, das Marketing und der Vertrieb bei AMD ist alles andere als brauchbar. Ganz schlimm ja im notebook bereich, ich sage nur die 7900M, was hätte ich die tausendmal lieber genommen als die 4080M, die 4080m ist perse keine schlechte karte, aber so ein leistungsmonster und dann nur 12GB ist wieder halt NV typisch. Aber die gibt es nur bei einem einzigen Notebook und das gibts nur in Amerika oder so. Ein Dell R18 irgendwas.
 
Die Computex hat es gezeigt, Jensen will noch mehr ins Rampenlicht und da Nvidia an der Börse ist, gilt AI >>>>> Gamer GPUs!
Die 50xx Reihe wird nicht mit modernster Technik gefertigt, alles was bei TSMC geht, wird Richtung AI gehen!

Samsungs GPU Chips inc.. 😁
 
Spawnkiller schrieb:
Ein weiterer Schritt zum Monopol. Über kurz oder lang deutet das wohl einen Rückzug aus dem Grafikkartenmarkt für AMD und Intel an. :heul:

Wir haben kein Monopol, wir haben die Wahl.
Das Problem ist, dass AMD als Anbieter mit RDNA3 nach der tollen RDNA2 Vorlage eigentlich fast alles falsch gemacht hat.

1.) AMDs RDNA3 7900er Preispolitik war einfach noch zu offensiv.

Statt 899 und 999 Dollar wären 749 und 849 z.B. besser gewesen.

Zwei GPUs zum RNDA3 Launch jeweils über 1000 Euro aftermarket bei uns in der DACH Region waren in der Retrospektive unklug.

2.) Die 7700XT und 7800XT kamen VIEL VIIIIIEEEEL zu spät. Ende August 2023

Sicher hätten wir dann jetzt keine 30-70 Verteilung, aber ich bin mir sicher, dass AMD - abseits der 4090, die so oder so eingelockt war bei der Zielgruppe - die 4080 und 4070 noch schlimmer isoliert hätte.


Nvidia hatte es AMD eigentlich leicht gemacht. Im Gegensatz zur CPU Division ist die AMD GPU Division aber einfach schlecht.
 
  • Gefällt mir
Reaktionen: TouchGameplay und X8Koenig
Heftig was hier abgeht. "Team Red" gibt sich die Klinke in die Hand und beschimpft Nvidia, Jensen und Nvidia Käufer mit übelsten Unterstellungen, ohne jegliche Konsequenz? In anderen Foren wird man allein für die Benutzung des Wortes "Fanboy" gebannt.

Dann darf man hier als aktuelles Mitglied von "Team Green" auch richtig abledern, richtig? Let's go and try out!

Ich bin Nvidia Käufer seit der Riva TNT anno 1997. Zu keiner Zeit als ich mir eine neue Grafikkarte zugelegt habe war ATI / AMD die technologisch "bessere" Wahl. Ja, es gab 1-2 Generationen in denen eine ATI Karte vorne lag, zu der Zeit habe ich aber keine neue Graka gebraucht.

Seit Pascal ist Nvidia in jeder Generation meiner Meinung nach deutlich "besser".
Pascal vs GCN - Braucht man nicht drüber diskutieren, Pascal hat rasiert.
Turing vs RDNA1 - Dedizierte RT + Tensor Cores vs "Nix Neues".
Ampere vs RDNA2 - Trotz einem Full-Node (!!!) Vorsprung auf AMD Seite nur eine ähnliche Effizienz (plus-minus 20 Watt), nur RT-Light und weiterhin kein KI-Upscaling
Ada vs RDNA3 - Der grüne Zug zieht davon, unerreichbar für AMD. Trotz fast gleichem Process Node kackt AMD völlig ab was Effizienz angeht, von RT Performance spricht man am besten gar nicht mehr und der Idle-Verbrauch ist immer noch nicht gefixed.

Und dann kommen hier ein paar Clowns an und reden davon man wäre "uninformiert" oder ein "Fanboy" weil man eine Nvidia Karte kauft? Liegt das an eurer Armut? Denn euer Neid ist leicht zu erkennen. Hört auf mit dem Geheule, bildet euch und kümmert euch um einen besseren Job, dann könnt ihr euch auch ein grünes Spielzeug leisten.

Denn nichts anderes sind Gaming-PCs. Spielzeuge für reiche Menschen.

Da Gaming für mich seit nun fast 30 Jahren ein großes Hobby ist, ich die technologische Entwicklung mit Begeisterung verfolge, mittlerweile gut verdiene, leiste ich mir einfach das State-of-the-Art Produkt weil es genau das ist: der aktuelle Höhepunkt der Entwicklung. Und ich find's geil. :D

Edit: Und nebenbei könnt ihr auf die "Zerschlagung" von Nvidia lange warten. Die USA werden keins ihrer größten Unternehmen, mit den technologisch fortschrittlichsten Technologien, zerschlagen. Bell -> AT/T ist ein Negativ-Beispiel ohne Gleichen. Den USA ist eher daran gelegen ihre Vormachtstellung zu behalten, eine Schwächung der eigenen Technologie-Führer kommt da überhaupt nicht in Frage.
 
  • Gefällt mir
Reaktionen: TouchGameplay, Innocience und RogueSix
Spawnkiller schrieb:
Ein weiterer Schritt zum Monopol. Über kurz oder lang deutet das wohl einen Rückzug aus dem Grafikkartenmarkt für AMD und Intel an. :heul:
Was soll eigentlich überall dieses schwarzmalen oder alternativ der Alu-Hut?
Die einen sehen alles als verdammt an und Nvidia an der Weltherschaft, die anderen, wie auch der Alu-Hut-Kommentar von einer anderen Seite, dass es nun gar keine 5090 mehr gibt und alles scheiss egal ist? Ich weiß nicht welche der Meinungen mehr abgeht ist als die andere - sind wir also alle doomed oder gibt es gar keine Karten mehr, weil Nvidia ja angeblich alle Gamer am Arsch vorbei gehen .. was halt auch totaler xx ist. Aber das haben sie bei xxxx ja auch schon seit Jahren behauptet .. und wo stehen wir jetzt!? Kann man halt jedes Jahr wieder schreiben ... Wird aber eben nicht glaubwürdiger.

Also einfach mal die Kirche im Dorf lassen, einige können das ja auch zum Glück hier in den Kommentaren und blicken mal über den Tellerrand hinaus. Weder wird Nvidia aufhören bei Gamer-GPUs, noch wird es AMD. Denn die Abteilungen arbeiten auch immer mit x anderen zusammen und teilen Know-How und vieles mehr. AMD ist Alleinunterhalter bei Konsolen und hat sich das erarbeitet - und bleibt es weitere x Jahre bis locker 2030. Nvidia leistet sich Automotive und sonstigen Kram und buttert da seit Jahrzehnten auch ohne echten Erfolg Milliarden rein.

Dranbleiben ist aber das Motto, denn wer weiß was in x Jahren ist und gebraucht wird. Auch AMD wird wieder mutiger werden bzw. ist es schon geworden, siehe Xilinx. Und Nvidia an der Spitze nun verdammt, stetig nachzulegen, um nicht wie Intel zu werden und unterzugehen. Also schneiden die aktuell niemals irgendwelche Zöpfe ab, die ihnen auch noch jedes Jahr 10 Mrd Umsatz bringen und Milliarden Dollar Gewinn bieten. Und so stribt die Gamer-GPU eben auch nicht aus. Jedenfalls nicht dieses Jahr, aber RDNA 4 vs 5000 Serie kommt eh erst 2025 :D
 
  • Gefällt mir
Reaktionen: Schattenspender, TouchGameplay, W4RO_DE und eine weitere Person
AMD kann technisch nicht mit Nvidia mithalten. Zusätzlich machen sie den Fehler, Grafikkarten ebenfalls sehr teuer anzubieten. Ist doch klar, dass man dann lieber etwas mehr ausgibt und dann zur Nvidia greift. AMD kann die Kunden nur über den Preis bekommen und das wird nicht gemacht.
 
  • Gefällt mir
Reaktionen: Innocience
Zurück
Oben