News Desktop-Grafikkarten: Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent

RogueSix schrieb:
bei Einbeziehung mobiler Lösungen hätte Intel logischerweise deutlich mehr als 0%).
Ich wundere mich ja schon, dass es aktuell 0% sind. Hat niemand mehr eine Intel dGPU gekauft dieses Jahr?
 
Nooblander schrieb:
Das dies auch nicht mehr als ein Tropfen auf den heißen Stein ist hat PCGH ja bereits mehrfach bestätigt.
Wenn du schon "Nachplapperst" dann bitte richtig. 😆
 
Taxxor schrieb:
dass man RT noch nicht gebracht hat, weil es noch nicht so wichtig ist,
Okay, zu RX5000 war mir das tatsächlich nicht so bekannt.
Zu dem Zeitpunkt damals war die Aussage RT dann aber nicht mal flasch, wenn man es von heute rückwirkend betrachtet.
Taxxor schrieb:
dass RT Performance nicht der Fokus war
Ist eine Aussage zum technischen Fokus von RDNA2. Aber keine negative Abwertung von RT im Allgemeinen.
Sie haben RT damit nicht schlecht geredet.
Taxxor schrieb:
Ist natürlich ne schönere Aussage als "wir haben's nicht besser hinbekommen"
Ist halt persönliche Inpretation von Aussagen.
 
Nooblander schrieb:
Zu dem Zeitpunkt damals war die Aussage RT dann aber nicht mal flasch, wenn man es von heute rückwirkend betrachtet.
Der Punkt ist, dass man hier Forschungszeit hat liegen lassen und durch den späteren Einstieg nun noch ne ganze Weile, genau wie beim Thema Upscaling, eine Generation hinten dran ist.

Wenn man jedes mal, wenn AMD und Nvidia neue GPUs rausbringen, in einigen Features aufs neue wieder eine Generation hinter Nvidia ist, dann rächt sich das auf Dauer.
 
  • Gefällt mir
Reaktionen: CB.R und Nooblander
MasterWinne schrieb:
Wenn du schon "Nachplapperst" dann bitte richtig. 😆
Keine Ahnung was du damit sagen möchtest.
Das Video negiert trotzdem die tatsächliche Bedeutung deines sogenannten Pluspunkts.
Sind es halt 2-3 Tropfen auf den heißen Stein.
Ergänzung ()

Taxxor schrieb:
dann rächt sich das auf Dauer.
Technisch betrachtet hast du da natürlich Recht.
 
Zuletzt bearbeitet von einem Moderator:
Nooblander schrieb:
Keine Ahnung was du damit sagen möchtest.
Dass Raff im Video das Gegenteil sagt^^
Er wollte erst sagen, dass es nur ein Tropfen auf den heißen Stein ist, hat sich dann aber im Satz noch dazu entschieden zu sagen, dass es ein bisschen mehr als das ist.

Denn auch wenn es nicht mehrere GB an VRAM ausgleicht, in vielen Fällen wo AMD GPUs mit 8GB langsam Probleme bekommen, reicht es ja, wenn man damit auch nur 3-400MB ausgleichen kann, um dann mit 8GB eben noch durchzuhalten.
 
Zuletzt bearbeitet:
Wenn ich AMD wäre würde ich das komplett selbstzerstörerische Kaufverhalten des Marktes "belohnen" und mich bei GPU komplett ausklinken. Ich kann mir auch beim besten Willen nicht vorstellen das die Sparte noch nennenswerten und die Entwicklungskosten rechtfertigenden Profit macht. Der Marktanteil steigt selbst dann nicht mehr wenn geliefert wird (RX6000). Und all die Schwätzer die vorher gesagt haben "wenn AMD liefert" haben sich dann rausgewunden und "wegen RT und/oder DLSS" am Ende doch wieder eine RTX gekauft.
Für die gebuchten Wafer bei TSMC findet sich garantiert eine profitable(re) Verwendung.
 
  • Gefällt mir
Reaktionen: M11E, JarlBallin, Project 2501 und 4 andere
Als Linux Nutzer geht für mich eh kein weg an AMD vorbei, aber das ist langsam wirklich beängstigend.
Wo sind die ganzen GTX1000/RTX 3000 Käufer die bei neuen Features durch die Finger schauen mussten, rennen die wirklich alle sofort in die Läden um für das nächste halbgare Feature das Jensen anpreist noch mehr Geld auf den Tisch zu legen?
 
  • Gefällt mir
Reaktionen: JarlBallin und Rohberrick
würde es witzig finden wenn AMD seine dGPU-Sparte bald dichtmachen würde aufgrund von Verkäufen, da von wegen lohnt nicht mehr und Nvidia stetig hergeht noch weiter die Preise anzieht und wir dann für ein xx60 Modell bei 700€ aufwärts sind

und Nvidia sich sagt, ahjo kauft oder lasst es halt, wir machen eh entsprechend hohen Gewinn mit unserer AI Sparte und die ganzen Nvidia Fanboys da draußen realisieren was dann Sache ist, wenn sie 2000€ und mehr für ein xx80 Modell hinlegen müssen, da wird dann halt schulterzuckend einfach kein xx90 Modell mehr zu dem Kurs gekauft...

denkt ihr wir hätten diese Situation wenn AMD annähernd einen Marktanteil von 50% hätte ? es ist überhaupt ein Wunder das sie wenigstens noch im unteren High-End Segment mit Nvidia im Raster konkurrieren können und sogar letzte Generation noch auf Augenhöhe lagen, nachdem man sie schon bei RDNA1 abgeschrieben hatte

echt schlimm die Leistung der aktuellen Generation seitens AMD...
https://www.computerbase.de/artikel...87/#abschnitt_aktuelle_grafikkartenbenchmarks
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, Project 2501 und Ganjaware
Taxxor schrieb:
Dass Raff im Video das Gegenteil sagt^^
Er wollte erst sagen, dass es nur ein Tropfen auf den heißen Stein ist, hat sich dann aber dazu entschieden zu sagen, dass es ein bisschen mehr als das ist
Er sagt aber auch das Nvidia mit Software Zauberei auch nicht mehrere Gigabyte ausgleichen kann und es zwar mehr als ein Tropfen auf den heißen Stein ist, vielleicht nur 2 oder 3. Tatsächlich habe ich das nicht nachgeplappert wie vorgeworfen sondern die Wortwahl eher unabsichtlich gewählt.
Natürlich wird das von einigen (Nicht Du) direkt zur negativen Abwertung genutzt indem man mir "nachplappern" vor wirft.
Sei es drum. Ist Gang und Gebe in solchen Foren leider.
 
  • Gefällt mir
Reaktionen: JarlBallin und Project 2501
Zum Glück benötige ich keine Nvidia. Man stelle sich vor ich hätte 600-700 Flocken mehr auf den Tisch legen müssen, nur um meine Main Games sauber zu spielen.
 
  • Gefällt mir
Reaktionen: JarlBallin, Project 2501 und fox40phil
Nooblander schrieb:
Okay, zu RX5000 war mir das tatsächlich nicht so bekannt.
Zu dem Zeitpunkt damals war die Aussage RT dann aber nicht mal flasch, wenn man es von heute rückwirkend betrachtet.
Schon zu diesem Zeitpunkt war die Aussage und die Ausrichtung falsch, weil da hatte Nvidia groß mit Raytracing Werbung gemacht und AMD ließ den Zug abfahren, in der Hoffnung "das geht vorbei" und die Kunden springen nicht drauf.

Die Weichen für die Entwicklung wurden ja nicht letztes Jahr gestellt! Als Nvidia groß mit Einheiten für Rasterizing, Raytracing und KI (Tensor) auffuhr, was kam da von AMD als Antwort? Wir backen kleine Brötchen lassen alles über gleichen Shader laufen und hoffen, dass es bei Nvidia nichts wird.

Jetzt ist Nvidia bald das teuerste Unternehmen der Welt und AMD versinkt im GPU Markt weiter in die Bedeutungslosigkeit. Übertrieben ausgedrückt hat man die letzten sechs Jahre eine Misswirtschaft betrieben und genauso wie bei der GCN Architektur, mal wieder völlig am Markt vorbei entwickelt. "Damals" war es das böse DirectX 11 heute ist es das böse Raytracing, in Wirklichkeit ist es jedoch die Unfähigkeit, Produkte passend zur Marktsituation zu entwickeln oder gar selbst Paukenschläge zu setzen.

Der springende Punkt an der Geschichte, mit jeder solcher falschen Entscheidung verliert man Kunden und Kunden sind gerne mal nachtragend. Es braucht nicht viel um Kunden zu verlieren, ein Jahr Verzögerung bei wichtiger Technologie reicht da vollkommen, aber sehr viel um diese Kunden wieder zu gewinnen, denn da müsste man ein klar besseres Produkt entwickeln.
 
  • Gefällt mir
Reaktionen: Project 2501, Clonedrone und RogueSix
der Unzensierte schrieb:
das die Sparte noch nennenswerten und die Entwicklungskosten rechtfertigen
Die Architekturen werden ja dann auch für die MobilAPUs, Konsolenchips und Pro GPUs genutzt.
 
xexex schrieb:
"Damals" war es das böse DirectX 11 heute ist es das böse Raytracing, in Wirklichkeit ist es jedoch die Unfähigkeit, Produkte passend zur Marktsituation zu entwickeln oder gar selbst Paukenschläge zu setzen.
Wobei man da fairerweise sagen muss, dass auch zu Zeiten von Turing Nvidias Marktanteil bereits so hoch war, dass sie im Grunde die Marktsituation direkt bestimmen konnten.
Egal welche Technik sie mit einer neuen Generation einführen, diese Technik ist dann der Markt.
Vor Release der RTX Karten hab ich zumindest nicht viel von der RT Zukunft mitbekommen.

Wenn ich mir vorstelle es wäre andersrum gelaufen und AMD hätte mit den 5000ern RT gebracht während NVIDIA mit Turing kein RT geboten hätte, der geringe Marktanteil hätte dazu geführt dass sich RT erstmal nicht weiter durchgesetzt hätte.
Und dann hieße es auch wieder, AMD habe mit RT "am Markt vorbei entwickelt", weil "der Markt" das ist, was Nvidia GPUs bieten können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E, Project 2501, apollostigma und 2 andere
aquahaubitze schrieb:
Interessant, wie du das siehst, die Schuld liegt in deinen Augen beim Kunden. Du bist der perfekte Kunde für eine kapitalistische Gesellschaft.
Klar ist der Stecker nicht super konzipiert worden, aber eben gut genug, dass nur EXTREM wenige Leute Probleme hatten. Und da war halt der Stecker nicht richtig drin.
aquahaubitze schrieb:
Übrigens ich finde es interessant, das solche Fälle nicht beim alten Steckertypen hochgekommen sind,
Die haben halt keine 600W durchgehauen. Hau durch so einen Stecker 600W und du bekommst auch Probleme.
aquahaubitze schrieb:
Ist mir alles egal, bei so einem teuren Produkt sollte ich mir um so etwas keine Gedanken machen müssen.
Das kann dir mit jedem Stecker passieren, der nicht richtig Steckt. Auch mit einer normalen Steckdose. Steck den Stecker gerade so weit rein, dass die Kontakte nur geringen Kontakt haben, zieh 3 kW durch die Dose und es schmorrt. Ist dann da jetzt auch der Stecker schuld? Oder derjenige, der Ihn nicht richtig steckt.
 
Diese ganze Performance Diskussion und Generationen Vergleich... Wer sich nvidia schön redet sägt nur an seinem eigenen Ast. Die Preise werden jetzt schon von ihnen diktiert. Jeder regt sich auf als die Preise von serie 3 auf 4 gestiegen sind aber jetzt "es wundert mich gar nicht wieso sie mit dem besseren Produkt so weit oben stehen". Ja fail, Glückwunsch fürs weiter melken lassen.

D glaubt nicht dass serie 5 zum gleichen Preis kommen wird.
 
  • Gefällt mir
Reaktionen: JarlBallin, Locutus2002, apollostigma und 2 andere
@xexex Du musst halt auch bedenken, dass beide Unternehmen nicht ansatzweise die gleichen Bedingungen haben. Allein was kapital angeht ist Nvidia weit vor AMD. AMD kann also gar nicht so entwickeln wie Nvidia, dafür reicht das Budget nicht.
Und wie andere schon sagen, AMD könnte sich auch komplett aus der dgpu herausziehen und nurnoch APUs und CPUs (und bald NPUs) bauen.
Das AMD immernoch was macht ist ein Wunder.

Man muss wirklich fragen, warum AMD hier überhaupt noch dGPUs baut, sie könnten sie für den internen Bereich bauen und sich vollkommen auf dieprofitablen Bereiche fokussieren. Zumindest ich würde das machen, denn wie man sieht, bringt es so gut wie nichts. Dafür ist die Marktdominanz von Nvidia schon viel zu Groß.

Und in meinen Augen macht AMD es richtig, wenn sie in Zukunft nur noch Mittelklasse und Einstiegsklasse versorgen. Und damit dann ihre APUs versorgen können was Grafik angeht.
 
  • Gefällt mir
Reaktionen: M11E, Project 2501, apollostigma und eine weitere Person
Zurück
Oben