News Next-Gen-Grafikkarten von Asus: TUF & Prime für Radeon, neue Serie „ROG Astral“ für GeForce

SavageSkull schrieb:
Naja, das kann man sich schon so einreden.

Nein. AMD trägt ganz sicher nicht die Schuld an den Preisen von nVidia. Das tut einzig und alleine der Kunde, der jeden Mist mitmacht und trotz sehr guter Alternativen (!) weiterhin stur nur zu nVidia greift. Ehrlich gesagt hoffe ich sogar, dass nVidia noch weiter rauf geht mit den Preisen. Wer nicht hören will, muss fühlen. Da habe ich einfach kein Mitleid mehr mit dieser Käuferschicht.

SavageSkull schrieb:
Fakt ist, dass der Otto Normalo AMD gar nicht als Grafikkarte auf dem Schirm hat.
High End bietet AMD gar nicht erst an

Irgendwie bezweifle ich, dass der Otto-Normalo High-End GPUs kauft. Vor allem, wenn man deinen Maßstab von High-End = 4090 ansetzt.

Ansonsten hatte AMD in dieser Generation sehr gute High-End Karten mit den beiden 7900ern. Und hoffen wir, dass wir mit UDNA/RDNA5 wieder High-End Karten sehen.

SavageSkull schrieb:
AMD ist aktuell nur für die kleine Nische der User interessant, die auf die Features pfeifen, für kleines Geld viel Rasterleistung haben wollen und nicht im High End Bereich daheim sind.

Das sehe ich dezent anders. Ja natürlich gibt es Defizite, die sind aber bei weitem nicht so krass wie Du hier darstellen möchtest. Ganz im Gegenteil.

SavageSkull schrieb:
die 4090 mehr Anteil in den Gamer PCs hat, als das komplette RX7000er Lineup, obwohl die 4090 selbst natürlich massiv von den Mittelklasse (Nvidia)Karten nach hinten geschoben wird.

Bei einem faktischen Monopol mit knapp 90% Marktanteil ist das wohl auch kein Wunder, bei dieser Käuferschaft.
 
Zuletzt bearbeitet: (Typo, Wording)
  • Gefällt mir
Reaktionen: NorwegianViking, relaxed_Guy, eXe777 und 2 andere
evilnear schrieb:
wäre schön wenn die tuf dieses mal nicht so riesig sind. ich möchte mir nicht nur für eine unnütz große gpu ein Monster case holen. insbesondere nicht wenn das Referenzdesign schon super leise ist.
Es geht doch nur dabei darum, dass du dir gleich ein neues Case Kaufst wo die neue Karte auch hinein Passt:D
und wie würde schon eine neue Leistungsstarke Grafikkarte mit nur einem Lüfter ausschauen, da müssen mindestens 4 Lüfter und deshalb die Karte 20 cm Länger werden, damit die Kundschaft es auch kauft.
 
Eine 5070 mit 12 GB Speicher... im Jahr 2025...
 
  • Gefällt mir
Reaktionen: MaverickM
DarthFilewalker schrieb:
Denn mal im Ernst: Wie viele Menschen können oder wollen sich eine Grafikkarte von deutlich über 1.000 Euro leisten?
Laut Steam haben dort mehr Leute eine RTX 4090 als eine RX 7700XT. Von daher: Einige.
 
Wobei eine RX 7700 XT auch ein eher schlechter Vergleich ist. Denn die Radeons machen auch unabhängig vom Preis, je nach Statistik, nur rund 10-20% Marktanteil aus. Die Radeons sind also generell schon unterrepräsentiert und noch dazu ist die RX 7700 XT auch nur ein Modell von mehreren für unter 1000€

Um die Aussage "kaum einer kauft über 1000€" zu belegen oder zu widerlegen, müsste man schon die Verbreiter der Karten > 1000€ (RTX 4080/4080 Super & RTX 4090) mit dem Anteil aller Karten unter 1000€ vergleichen und nicht nur ein Modell rauspicken, von einem Hersteller, der so oder so wenig gekauft wird.
 
BReTT PiTT schrieb:
Ich denke, das ist mit ein Grund, wieso AMD ganz oben aktuell nicht mitmischt. Sie können einfach kein konkurrenzfähiges Produkt auf den Markt bringen, was Nvidias Karten gut Paroli bieten kann.

Hoffentlich ändert sich das irgendwann mal wieder. Mir ist das nämlich egal, ob da was grünes oder was rotes im Rechner steckt. Hauptsache das Ding rockt :D
Selbst als AMD konkurrenzfähige HighEnd Produkte hatte, haben die Käufer lieber zu Nvidia gegriffen, daher bedient AMD diese Segment nicht mehr.
 
  • Gefällt mir
Reaktionen: eXe777
mibbio schrieb:
Um die Aussage "kaum einer kauft über 1000€" zu belegen oder zu widerlegen, müsste man schon die Verbreiter der Karten > 1000€ (RTX 4080/4080 Super & RTX 4090) mit dem Anteil aller Karten unter 1000€ vergleichen
Laut Valves Angaben haben sie knapp 132 Millionen aktive Nutzer. Laut Umfrage hat 1% davon eine 4090 im Einsatz. Nimmt man nur diese Zahlen zugrunde, wurden mehr als eine Million Karten verkauft, wobei die 4090 sehr gerne auch für andere Dinge eingesetzt wird und daher die Zahl viel höher sein dürfte.
Ergänzung ()

G3cko schrieb:
Selbst als AMD konkurrenzfähige HighEnd Produkte hatte, haben die Käufer lieber zu Nvidia gegriffen
Das stimmt so pauschal nicht, AMD war über eine lange Zeit ein ernsthafter Mitbewerber:

1735735841725.png

https://www.techpowerup.com/228095/...gpu-market-share-from-2002-to-q3-2016#g228095

Nur was kam von AMD in den letzten zehn Jahren so? Mit GCN begann der Untergang und trotzdem hat man Jahre lang dran festgehalten, mit Polaris brachte man schon einmal nichts mehr im High-End Segment, der Rest ist Geschichte.
1735736152037.png

https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-zweiten-quartal-2024
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
Du siehst es doch an deiner eigenen Tabelle:

5870 war deutlich effizienter, Nvidia säuft wie ein Loch und trotzdem hat die Masse Nvidia bevorzugt.
20% Mehrleistung, 50% mehr VRAM, 50% höherer Verbrauch. 5870 vs GTX480

AMD denkt sich OK, der Kunde will offensichtlich mehr Leistung koste es was es wolle.

2 Generation später:
7970 GHz vs GTX680
5% Mehrleistung, 50% mehr VRAM, 15% mehr Verbrauch

Die Masse bevorzugt Nvidia. AMD sei zu ineffizient. Ab da an drifteten die Marktanteil ungesund auseinander. Der Fanboy hat sich sein Hobby unnötig teuer gemacht. Der Kunde will Nvidia, so wie der Fanboy Apple oder was auch immer bevorzugt. Gründe kann man sich passend zurecht legen, teuer wirds in jedem Fall.
 
G3cko schrieb:
Selbst als AMD konkurrenzfähige HighEnd Produkte hatte...
Konkurrenzfähige Produkte sind nichts besonderes und das mindeste um ein unentschieden zu erreichen. Ist man nicht der Marktführer, muss der Preis des konkurrenzfähigen Produkts auch noch günstiger sein. Für Marktanteile muss es schon etwas mehr sein siehe CB Test zu Zen 3. Also in allen Bereichen überlegen sein. Wenn ein Angebot zu gut erscheint, um wahr zu sein, gewinnt man Marktanteile... ungeachtet des Stammtisch-Märchen, dass doch eh jeder blind nur Intel kauft.

G3cko schrieb:
Du siehst es doch an deiner eigenen Tabelle...
Interessant an der Grafik ist, dass jedes Mal nach Ende des Krypto-Booms die AMD-Marktanteile dramatisch eingebrochen sind. Hätten die mal lieber etwas für die einfachen Gamer gemacht. In der Öffentlichkeit stand nämlich Nvidia massiv in der Kritik und ich hatte den Eindruck, dass die am meisten profitieren. Aber anscheinend hat AMD aus der Position des Underdogs heraus, heimlich im Hintergrund massiv abgezockt. Es war doch klar, dass mit Minern keine Kundenbindung erreicht werden kann...
 
  • Gefällt mir
Reaktionen: xexex
@G3cko

Wobei man hier aber auch fairerweise sagen muss, das es lange her ist, das AMD in wirklich allen Belangen bessere Produkte im High-End Bereich hatte, als die Konkurrenz.

Dazu müssten sie halt mal wieder richtig Gas geben, damit eine Chance besteht, was in den Köpfen der Leute zu ändern. Das die ganzen Skeptiker verstehen, das AMD ebenfalls gute Produkte im High-End Grafikbereich macht. Dazu fehlt ihnen im Vergleich zu Nvidia aber sicher das Forschungsbudget. Und das war ja meine Kernaussage. Sie können es schlicht und ergreifend nicht. Wollen es aber vermutlich auch nicht (mehr?), weil der Kosten/Nutzen Faktor für sie nicht gegeben ist. Die Konkurrenz ist da einfach komplett außer Reichweite für sie.

Für uns Kunden, die zu High-End greifen wollen, ist das natürlich sehr ungünstig, weil Nvidia dadurch immer mehr eine Monopol-Stellung bekommt.
 
  • Gefällt mir
Reaktionen: Pisaro
G3cko schrieb:
Die Masse bevorzugt Nvidia. AMD sei zu ineffizient.
Die "Masse" bevorzugt vor allem Konstanz! Einen hohen Marktanteil bekommt man nicht durch einen Zufallstreffer, sondern nur wenn man konstant gute Produkte bringt. Das hat AMD nie richtig geschafft und kaum hat man ein gutes Produkt gehabt und konnte an den Marktanteilen knabbern, hat Nvidia schon die passende Antwort gehabt.

In den letzten Jahren kam dann allerdings gar nichts mehr gutes aus dem roten Lager. Mit GCN hat man Produkte am Markt vorbei entwickelt, mit Polaris sich vom High-End Markt verabschiedet und mir RDNA den Anschluss an Raytracing bis heute verpasst. Statt zurück an das Reißbrett, wird dem Kunden nun wieder so ein "Polaris move" vorgesetzt, also alter Wein in neuen Schläuchen.

Der springende Punkt an dieser Stelle, im Gegensatz zu Intel leistet sich Nvidia seit vielen Jahren kaum einen Ausreißer, und zufriedene Kunden kaufen bekanntlich meist das womit sie gute Erfahrungen gemacht haben. Da seitens AMD auch null Innovation kommt und man überall bestenfalls nur die zweite Geige spielt, gibt es auch gar keinen Anreiz mal bei der Konkurrenz einzukaufen. Im Endergebnis ging "jeder" verprellte Kunde und kam zu AMD auch nie wieder, über die 10% kann man im AMD Lager fast schon froh sein.
 
Zuletzt bearbeitet:
mibbio schrieb:
ASUS selber hat doch hier gar nichts offiziell verraten, sondern die Infos basieren auf einem Leak. Daher ist gar nicht bekannt, ob es "Astral" nur bei der 5080 geben wird oder auch bei den anderen Modell und damit sind auch keine verlässlichen Rückschlüsse auf die Vorstellungen von Nvidia auf der CES möglich.
https://www.computerbase.de/news/gr...rtx-5080-macht-am-21-januar-den-anfang.90823/

Immer noch der Meinung, dass ich so grundlegend falsch liege?
 
Ich hab ja gar nicht behauptet, dass dein Aussage falsch ist, sondern das sie falsch sein könnte, weil die Informationslage zum Zeitpunkt deines Posts die Schlussfolgerung noch nicht gesichert hergab. Denn zudem Zeitpunkt gab es eben nur den Leak (also noch nichtmal eine offizielle Bekanntgabe), dass es eine "Astral" 5080 von ASUS geben wird.

Die jetzige Ankündigung von Nvidia, dass erstmal nur die 5080 vorgestellt, ändert ja nichts daran, dass du eine Vermutung aus dem Leak hergeleitet hast.
 
xexex schrieb:
Die "Masse" bevorzugt vor allem Konstanz! Einen hohen Marktanteil bekommt man nicht durch einen Zufallstreffer, sondern nur wenn man konstant gute Produkte bringt. Das hat AMD nie richtig geschafft und kaum hat man ein gutes Produkt gehabt und konnte an den Marktanteilen knabbern, hat Nvidia schon die passende Antwort gehabt.
So ein Schwachsinn. Nvidia war schon immer konstant im VRAM knausern. Zudem war man sich auch nicht zu Schade regelmäßig den Kunden zu verarschen. GTX680 wurde mit falschem DX Level beworben. Bei der GTX 970 stimmte der real nutzbarer VRAM nicht. Welche Konstanz meinst du?


Das hat im übrigen ComputerBase bis heute nicht geschafft zu korrigieren.
So unterstützt die GK104-GPU neben PCIe in der Version 3.0 nun auch DirectX 11.1, um für zukünftige Spiele gerüstet zu sein.

https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/5/

https://www.heise.de/news/DirectX-1...nen der Programmierschnittstelle DirectX 11.1.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777
G3cko schrieb:
Bei der GTX 970 stimmte der real nutzbarer VRAM nicht
Stimmt, da war ja was mit 3,5gb statt mit 4GB
Also die restlichen 500mb waren glaub langsam angebunden, hatte auch diese Karte gehabt und weiß noch über den Skandal bescheid
 
G3cko schrieb:
So ein Schwachsinn. Nvidia war schon immer konstant im VRAM knausern.
Wo außerhalb der CB Blase ist das relevant? Es hat seinen Grund wieso "hier" der AMD Anteil bei 30% liegt, während weltweit der mittlerweile auf 10% gefallen ist. Du zählst außerdem technische Feinheiten auf, die kein Schwein außerhalb einer technikaffinen Blase interessieren.

Was Nvidia geliefert hat, ist konstante Innovation, und seit über 10 Jahren kommen die schnellsten GPUs nur noch aus dem grünen Lager. Wenn es was neues gab, von GSync über RT, Reflex bis hin zu DLSS, dann immer von Nvidia und dementsprechend wurde es auch vermarktet.

Nenne mir einfach mal einen Punkt, wo ein normaler Spieler in den letzten Jahren sagen konnte, "Boah das will ich haben, meine nächste Karte kommt von AMD".

Schaue einfach mal auf die vergangenen Jahre bei AMD. Mit GCN hatte man eine Architektur am Markt vorbei entwickelt und versuchte erst eine eigene API zu propagieren, bevor man die Entwicklung komplett fallen ließ. Mit Fiji brachte man HBM Karten auf den Markt, die dadurch zu teuer wurden, man musste mit VRAM geizen und die erhoffte Leistung kam auch nicht an. Mit Polaris hat man sich aus dem High-End Sektor komplett verabschiedet und während Nvidia mit Pascal nachlegte, gab es nur einen Polaris Aufguss.

Ein Jahr später dann Vega, zu teuer, zu wenig, zu unausgereift. Da mussten selbst sogar die Netzteilhersteller nachbessern, weil AMD es nicht schaffte die extremen Leistungsspitzen zu puffern, von überschrittenen Spezifikationen für die Stromversorgung über den PCIe Bus, reden wir gar nicht erst. Was kam dann? Als Nvidia mit Raytracing groß auf den Markt kommt und die Werbetrommel dafür rührt, kommt eine verkappte Radeon VII, da musste selbst Jensen mit dem Kopf schütteln und ein Jahr später stellt AMD RDNA vor, noch immer ohne RT Unterstützung.

Den Rest spare ich mir hier aufzuzählen, die Details dürften den meisten Technikaffinen bekannt sein und die sich daraus ergebenen Marktanteile sind ja bekannt. Bei CB hat Intel es geschafft in wenigen Jahren auf 20% Verbreitung abzustürzen, dabei sind die CPUs aus diesem Lager bei weitem konkurrenzfähiger, als die AMD GPUs gegenüber Nvidia es sind. Da gibt es auch nicht viel zu beschönigen, seit über einem Jahrzehnt ist AMD kaum noch ein ernsthafter Konkurrent und auch im Jahr 2025 bleibt man nur ein Marktbegleiter.
 
Zuletzt bearbeitet:
xexex schrieb:
Was Nvidia geliefert hat, ist konstante Innovation, und seit über 10 Jahren kommen die schnellsten GPUs nur noch aus dem grünen Lager. Wenn es was neues gab, von GSync über RT, Reflex bis hin zu DLSS, dann immer von Nvidia und dementsprechend wurde es auch vermarktet.

Nenne mir einfach mal einen Punkt, wo ein normaler Spieler in den letzten Jahren sagen konnte, "Boah das will ich haben, meine nächste Karte kommt von AMD".

Die wichtigste Innovation der letzten 20 Jahre kam von AMD. Ohne eine Low Level API wie Vulkan/DX12 wäre die Leistung moderner Grafikkarten gar nicht nutzbar, da alle im CPU Limit rumhängen würden.

Und nein, Nvidia hat Raytracing nicht erfunden, sondern nur die Beschleunigung der Berechnung mittels KI.

Nvidias Ansätze waren immer schon proprietär, außer sie haben bereits eine Hardwarelösung und entsprechend Vorsprung.

Deswegen waren dann auch Lösungen wie PhysiX eine Totgeburt. Auch Freesync ersetzt mittlerweile Nvidias proprietäres Gsync.

Es gibt 2000 Freesyncmonitore zu kaufen und nur noch 20 mit einem proprietäre Gsync Modul. Nvidias "Gsync kompatibel" ist technologisch identisch zu Freesync, daher offen. Dennoch gibt es nur 250 Monitore. Nicht einmal ein kostenloser Name hat sich im Markt durchgesetzt.

Langfristig setzen sich nur offene Standards durch. Nvidia kann Raytracing nicht proprietär umsetzen, da sie Raytracing nicht erfunden haben. Das ist ein alter Hut. Ginge es nach Nvidia Philosophie würden sie dies aber am liebsten machen. Dann müssten sie aber auch analog zu PhysiX jedem Entwicklerstudio Geld in den Rachen werfen damit sie es "freiwillig" implementieren. Durchsetzen würde sich diese Lösung dann aber auch ebenfalls nie.

AMDs Innovationen sind häufig nicht sofort sichtbar, weil sie der gesamten Branche dienen. ZB der unified Speicher in den Konsolen. Bei welchem RAM und VRAM logisch und physisch zusammengefasst wurden. Kopiervorgänge entfallen. Programmieren ist einfacher die Konsole schneller. Die Konsole ist im Gegensatz zum PC nun Mal auch der kleinste gemeinsame Nenner und die Leadplattform.

AMD ist dank der Konsolen auch bezogen auf verkaufte GPUs Marktführer. Der Fokus liegt dort. Innovation kommen also über die Konsolen und in Zusammenarbeit mit Sony/Microsoft in den Gesamtmarkt, während Nvidia als Einzelkämpfer nur den PC Markt hat und dort Innovationstreiber sein muss.
 
  • Gefällt mir
Reaktionen: eXe777
G3cko schrieb:
Die wichtigste Innovation der letzten 20 Jahre kam von AMD. Ohne eine Low Level API wie Vulkan/DX12 wäre die Leistung moderner Grafikkarten gar nicht nutzbar, da alle im CPU Limit rumhängen würden.
AMD hat also Vulkan oder DX12 entwickelt? Nö! Und deine Behauptung ist auch ziemlicher Blödsinn.
1735803006654.png

https://www.computerbase.de/2019-08/control-benchmark-raytracing-test/2/

Eine neue API wäre früher oder später für Raytracing sowieso nötig gewesen, was übrigens dann letztlich zusammen mit AMD und Nvidia von Microsoft entwickelt wurde und die Vulkan Erweiterungen kamen später von Nvidia.

Der springende Punkt hierbei, Nvidia hat die passende Hardware zu passender API geliefert, AMD über die Jahre hinweg am Markt vorbei. Das gilt nicht nur für GPUs, sondern gleichermaßen auch für damalige CPUs, die erst viele Jahre später ihr volles Potential ausspielen konnten.

Der von "Fans" vielbeschworene "fine wine", ist für den normalen Endkunden nun mal keines, sondern schlichtweg ein unausgereiftes Produkt. Ich will aber auch keine millionste Diskussion über AMD/Nvidia über den Zaun brechen, das ist nun mal der Eindruck den man von AMD bekommt, wenn man als außenstehender nicht versucht sich alles schön zu reden.
 
Zuletzt bearbeitet:
xexex schrieb:
AMD hat also Vulkan oder DX12 entwickelt? Nö! Und deine Behauptung ist auch ziemlicher Blödsinn.
Habe ich so nicht geschrieben/behauptet. Ohne AMDs Mantel gäbe es kein Vulkan oder DX12. Aus Wikipedia hierzu:

Etwa im Jahr 2008 ist Johan Andersson – damals Technical Director im Unternehmen DICE und 2013 Technikchef der Frostbite-Engine – an die verschiedenen Grafikkartenhersteller herangetreten, mit der Bitte um eine schlanke Programmierschnittstelle (auch englisch Low-Level-API genannt). Das Unternehmen AMD ist als einziger Grafikkartenhersteller auf seinen Wunsch eingegangen und hat begonnen alles vorzubereiten. Um Mitte 2012 begann dann der tatsächliche Aufbau der Schnittstelle (des Mantle-Codes).

Zurzeit (Stand: 14. November 2013) läuft der Aufbau der Schnittstelle in Zusammenarbeit mit der Frostbite-Engine.

Nach einer Veröffentlichung für die Fachpresse zum 1. Februar 2014 erschien am Folgetag das erste Catalyst-Treiberpaket für Windows, welches die Mantle-Schnittstelle in allen GCN-Grafikkarten softwareseitig – vorerst ausschließlich verfügbar im Spiel Battlefield 4 (Frostbite-3-Engine) sowie den Vorschau-Demos des kommenden Star Citizen – beinhaltet.

Anfang März 2015 legte ein hochrangiger AMD-Manager Entwicklern nahe, sich statt Mantle auf die neuen Low-Level-APIs DirectX 12 von Microsoft bzw. den plattformübergreifenden OpenGL-Nachfolger Vulkan zu verlegen.

AMD selbst hat die Vermutung bestätigt, dass die Vulkan-API zu einem großen Teil auf Mantle aufbaut. So habe sich die Khronos Group laut AMD „die besten Teile von Mantle“ ausgesucht und diese als Basis für Vulkan genommen. Das ist es auch was AMD mit dem gestrigen Kommentar zum Ausdruck bringen wollte, dass Mantle „offener“ werde, als man bis jetzt gedacht habe.

https://www.computerbase.de/2015-03/erste-details-zum-opengl-nachfolger-vulkan/
 
  • Gefällt mir
Reaktionen: eXe777
Zurück
Oben