Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGPU-Team: AMD in China dementiert Gerüchte über Entlassungen
Naja, denken dass es "Ramsch" ist sollte doch bei dem Marktanteil im Desktop- und Mobile-Segment so langsam keine Rolle mehr spielen, sonst verliert man das ganz
OK, gegen eine deutlich billigere AMD hätte ich nix, könnte ja leider trotzdem nix damit anfangen...
Das wird in dem Segment kaum einer sagen. Die Preise werden halt so gewählt was der Kunde bereit ist zu zahlen. AMD wird sich immer unter Nvidia positionieren aber nie so weit weg das sie ihre Produkte "verramschen" würden.
ThePlayer schrieb:
Ich Frage mich wirklich wie sich der Markt für GPUs in den nächsten 2-5 Jahren entwickeln wird. Werden die Preise weiter steigen und wird AMD das Highend Segment aufgeben? Und welche Konsequenzen ergeben sich daraus für mich? 800 Euro und mehr will ich für eine Grafikkarte nicht zahlen. Wenn ich genau weiß das der Preis nichts mit der Realität zutun hat. Und die Hersteller nur richtig abkassieren wollen. Aber Einstiegs GPUs für 400 Euro werde ich auch nicht kaufen.
Highend wird immer mehr zum reinen Luxus, die Mittelklasse nimmt den Platz ein. Was man aber nicht vergessen darf die GPUs, selbst die kleinen haben mittlerweile sehr viel Power. Wenn man also seine Ansprüche nicht allzu hoch schraubt kann man sog mir Budgetkarten Spass haben, ohne alles auf low stellen zu müssen.
ThePlayer schrieb:
Nvidia und AMD können bei solchen Preisen ihre Karten gerne behalten.
Das werden die sich auch denken, und bisher scheint es denen nicht weh zu tun. Interessant wird es wenn AMD und NV mal aus dem GPU Markt aussteigen. NV macht jetzt schon mehr Gewinn mit KI und Cloud als mit Desktophardware.
Ja genau könnte auch behaupten wie verschwenderisch die Menschen gpus kaufen und das es keine so starke gpu brauchen würde um gut zocken zu können.
Allerdings kann man mein Nutzerverhalten nicht auf andere übertragen.
Ich zocke halt so Games wie cs source, c&c die Stunde Null, A Way out oder auch serious Sam 2. Eines kann die Gtx 1650 gut auslasten, der rest ist low End Anforderung.
Und die meisten zocken gewiss was ganz was anderes als ich. Zudem villeicht nicht nur in full hd so wie ich sondern auch wqhd oder sogar in 4k,je nach dem.
Und dann noch die Tatsache das die meisten mehr als nur 60 oder 144 fps haben wollen. Zudem hält diese stärkere auch ne gewisse Zeit.
Und nur weil ich mit der Leistung schon damals sündhaft teuer gehabt hätte, hätte ich mir auch ein Tausch sparen können. Aber ich habe es gemacht gehabt. War 2011 eine Gtx titan.
Ich weiß noch wie ich mich damals gefreut hatte. Also so ein Gefühl könnten auch so manche erlebt haben.
Das kann man halt nicht mit vernünftig rechtfertigen, weil dann würde es solche guten Produkte nicht mehr geben.
Und es hat auch was mit Erlebnis und Genießen zu tuen.
Und das kostet halt manchmal. Solche wie ich können halt auch mit weniger Leistung zurecht kommen.
Und es wird die nachfolgende Konsole mit Sicherheit mich schon überholt haben.
Naja ich bin halt nicht mehr die gehobenen Klasse der hersteller, sondern eher richtung lowend sparte das ist klar. Lässt eure Hobbys nicht madig machen.
Du weist doch nichtmal ob ihr die selben Anwendungen (Spiele) nutzt, bzw. wie sich eure Nutzungsverhalten gleichen. Ohne das sind deine Aussagen absolut wertlos, wenn du nur WoW spielst und er CoD AW dann ist klar warum du länger mit der GPU klar kommst.
Willst du damit sagen dass meine Grafikkarte nicht für Call of Duty ausreicht ?
Ich Weiß ja nicht wie Hardwarehungrig das ist, aber ich spiele die neusten Spiele mit weit über 100fps.
Zb Armored Core 6, BF2042, Star Citizen, Forza Horizon 5
In keinem dieser Games hab ich unter 100fps bei 1440p.
Hier tun viele als bräuchten sie eine GTX4090.
Was würden diese Menschen bloß machen wenn der Fortschritt 3 Jahre langsamer bei Nvidia gelaufen wäre ?
Mehrleistung ist kein "Musthave", sondern ein Luxus.
Nicht nur die GPU kostet Geld, der Rest der Karte ist nicht umsonst.
Dabei ist der AD103 aber nur rund 20% größer als Navi 31 ohne MCD. Und der Rest des PCB ist deutlich weniger aufwendig als bei AMD. Vergleich mal Teardowns der Karten. Die 4080 könnte von den Specs her auch eine 4070 sein. Gerüchten zur Folge soll die Bill of Materials einer 7900 XTX deutlich teurer sein als die einer 4080 FE.
AD104 auf einer 4070 Ti ist 294mm² groß. Da dürfte eine 7900 XT bei den Herstellungskosten noch schlechter darstehen als die XTX im Vergleich zur 4080. Da hilft dir dann auch das Chiplet-Design nichts, wenn NVIDIA eine ähnliche Leistung mit deutlich weniger Aufwand erreicht. Und dann kommt das bessere Upscaling, Raytracing etc. noch oben drauf.
Und das kannst du so durchs komplette Portfolio durchdeklinieren. Die einzige Karte, die von der Kostenseite her zumindest auf dem Papier halbwegs konkurrenzfähig ausschaut, ist imho die 7800 XT.
Und wenn NVIDIA tatsächlich sein Portfolio mit Super-Modellen aufwertet, wird man sehen, ob sie bei AMDs leicht steigenden Marktanteilen mal kurz ihren Kostenvorteil in bessere Preise umsetzen und AMD damit wieder das Wasser abgraben. Ähnlich wie bei Turing, da hat AMD gegenüber den überteuerten Konkurrenzmodellen ordentlich aufgeholt, nur um dann gegenüber den Super-Modellen die Marktanteile wieder abzugeben.
Jetzt wird nur noch „verwaltet“ und nicht mal das bekommt man hin. Denke Lisa Su hat einen guten Job gemacht aber will jetzt nichts mehr riskieren. Würde Zeit hier auszutauschen und jemand zu holen der hungrig ist!
Nein. Mit den GPU Chiplets und Infitiy Cache hat AMD sehr wohl sehr viel riskiert. Was beim Speicher gut funktioniert hat, hat an anderer Stelle in der RDNA3 Architektur nicht funktioniert. Daß AMD mit FSR3 die hohe Qualität ohne Tensor-Cores hinbekommt, ist auch beachtlich.
Das Problem sind eben die langen Vorlaufzeiten. Wenn Du etwas verhunzt und es nicht sofort mit dem A0 Silikon entdeckst, weil die Treiber zu dem Zeitpunkt nur rudimintär funktionieren, dann mußt Du damit leben. Diese Chips sind ja auch nicht in ein paar Tagen gefertigt, so ein durchlauf durch verschiedene Anlagen (Wafer, Testing, Cutting, Packaging, Testing) kann bis zu drei Monate dauern bis ein fertiger Chip ausgeliefert werden kann. Und bis dann eine Grafikkarte auf den Markt kommt, ziehen sicher wieder vier bis sechs Wochen ins Land. Nochdazu müssen die Kapazitäten im voraus gebucht werden, ergo Du mußt spekulieren was Du verkaufen wirst, deswegen kanns es eben zu nem Überangebot oder Mangel führen. Und wenn ich AMD bin, setzte ich natürlich alles zuerst auf CPU Chiplets für Epyc, weil damit verdient die Firma ihre Kohle.
Sogesehen ist es eigentlich erstaunlich was AMD mit weniger Kohle und weniger Leuten technologisch hinbekommt.
Ergänzung ()
Tidus2007 schrieb:
AMD könnte den Markt mit ihren Produkten in Kombination mit Spottpreisen fluten und das für 1-5 Jahre. Ja, das wird ein enormes finanzielles Loch in alle Kassen reißen, aber es gibt durchaus ein Beispiel, bei dem es geklappt hat. Amazon.
Das hat AMD jahrelang gemacht, siehe HD3000, HD4000 usw. und das hat genau nichts gebracht. Wenn sich Leute durch rationale Argumente nicht davon abbringen lassen nur diese eine Marke zu kaufen, dann hilft das alles nicht.
Wundert mich eh das man Super Modelle macht.
Für Kunden wäre es zwar "schön", wenn korrekt eingepreist, aber daran glaubt wohl hoffentlich keiner.
Die müssen mit mehr Speicher massiv teurer sein um die Marge nicht zu gefährden.
Gleichzeitig erzeugt man jetzt Kaufzurückhaltung und ist quasi "gezwungen" Sie zu bringen.
Vielleicht meckern irgendwelche OEMs/Boardpartner herum das der Absatz einbricht und man eine höhere/andere Zahl oder Wort dahinter haben will. Das kann ich mir vorstellen.
Auch, wer jetzt ne NVIDIA Karte mit mehr Speicher kauft, wird so schnell nicht wieder kaufen.
Aber was denkt Ihr wie sich 3080TI Käufer gerade fühlen wenn man schreibt das WQHD mit 12GB 2023 schon eng ist?^^ Genau, die kaufen jetzt ne 4080/4090. Einzige logische Konsequenz. AMD taucht in dem Satz nicht auf.
Das will man natürlich in jedem Bereich so.
Daher wäre eine 16GB 4070 TI Kontraproduktiv und eine 4080 TI 20GB macht einer 5080 der Zukunft das leben ziemlich schwer.
Nein. Auf dieses Featureset wird gar nicht geschaut, wenn im Kopf nvidia verankert ist. Das interessiert den 08/15 Zocker überhaupt nicht und ist daher in den meisten Fällen nicht relevant.
Wenn Steve von Hardwareunboxed sagt, er verwendet AMD weil er Probleme hat, daß nvidia nicht mit SEINEN drei Bildschirmen funktioniert und die Bildschirme immer das Bild verlieren, auch dann ist das Featureset irrelevant, wenn die Grundfunktion ein Bild darzustellen schon fehlschlägt. Das ist natürlich nur ein extremes Beispiel und ein extremes Szenario, aber hier sieht man, daß auch bei nvidia nicht alles Gold ist und daß sich an diesem Zustand anscheinend auch seit langem nichts geändert hat.
Ergänzung ()
Ayo34 schrieb:
Genau, aber in jedem Bereich hast du irgendwas wo Nvidia mindestens (scheinbar) einen Vorteil hat.
Wenn du Multiplayer spielst, dann hast du bei Nvidia Reflex und bei AMD irgendwas, was zum Bann führt (CS2)...
nö, da hat AMD massiv aufgeholt. Zumindest YT unterstützt AV1 und da ist AMD fast gleichauf. Also auf RDNA3 sind die Codecs wesentlich besser geworden.
Ayo34 schrieb:
Wenn du Video/Bildbearbeitung machst, sei es auch nur zusätzlich zu Gaming, hat Nvidia wieder diverse Vorteile...
nicht wirklich. Kommt auf die Art des RTs an...
Leichte bis Mittlere RT Last ist auch bei AMD ok.
RT verliert generell zuviel Performance auf allen Karten.
Ayo34 schrieb:
Wenn man höhere Auflösungen spielen möchte, wird häufig DLSS wichtig und das schlägt einfach FSR zum Teil deutlich...
Depends. Wenn Du nen Shooter spielst, wird dir das in 99% der Fälle gar nicht auffallen, weil Du anderes zu tun hast. Und besser FSR2 auf einer GTX 1070/1080 als gar nichts.
Ayo34 schrieb:
Und dann kommen wir zu den Punkten, warum man sich eine 7000er AMD holen sollte:
Gleiche Rasterleistung depends. Du kannst auch argumentieren, 50€ günstiger, 4GB mehr Speicher, AMD läßt sich per Treiber tunen (nvidia nicht). So gesehen nehmen sich beide Karten nicht viel. Und maximales RT ist bis auf die 4090 sowieso mehr oder minder unbrauchbar.
Ergänzung ()
Holzkerbe schrieb:
Abseits davon sind sie auf das GPU-Geschäft mindestens schon einmal im Hinblick auf das AI-Geschäft angewiesen, siehe Nvidia und selbst Intel ist nicht aus reiner Nächstenliebe zum Gaming ins dGPU Geschäft eingestiegen, sondern primär weil sie dringend konkurrenzfähige GPUs für das AI / Datacenter Segment benötigen.
Jein, weil CDNA nicht gleich RDNA ist, auch wenn sie viele Ähnlichkeiten haben. Ergo was bei CDNA gut funktioniert kann für RDNA übernommen werden und umgekehrt. Aber AMD könnte auch echte GPUs direkt einstampfen, wenn sie das wollen.
Ergänzung ()
engineer123 schrieb:
Free-Sync wurde nur entwickelt weil NV mit G-Sync vorgelegt hat.
Nicht wirklich, das war ziemlich parallel als Adaptive-Sync von der VESA Workgroup (wo AMD treibende Kraft ist und nvidia nur ein Mitglied). nvidia hat das nur in eigene propritäre Hardware gegossen, damit sie noch mehr Kohle verdienen können.
DLSS jetzt so abzufeiern ist ja schön und gut, aber als es herauskam war DLSS der letzte Rotz und unbrauchbar.
Nein. Auf dieses Featureset wird gar nicht geschaut, wenn im Kopf nvidia verankert ist. Das interessiert den 08/15 Zocker überhaupt nicht und ist daher in den meisten Fällen nicht relevant.
Aha. Dumm nur, dass Einzelfälle nicht das Gesamtbild verändern. Und das ist weiterhin:
NVidia hat unwiderlegbar das bessere Featureset bei jeder Grafikkarten-Generation. Der "08/15 Zocker" den du da so schön erwähnst, der kennt Steve nicht mal.
Eli0t schrieb:
DLSS jetzt so abzufeiern ist ja schön und gut, aber als es herauskam war DLSS der letzte Rotz und unbrauchbar.
Also das, was im Großen und Ganzen AMDs Cheatfeature jetzt ist. Und was interessiert mich DLSS 1.0, wenn innerhalb weniger Monate bereits 2.0 rauskam?
Wo AMD abermals auf kaltem Fuß erwischt wurde, und man mal eben selbst was "hinrotzen" musste, was dann ebenfalls erst mit Version 2 halbwegs brauchbar war. Aber nicht innerhalb von Monaten, sondern länger.
Oder sollen wir mal mit dem Thema anfangen, dass AMD, als einziger Hersteller, aktiv bei geht und DLSS in den gesponsorten Games blockt?
Naja ich bin jetzt kein Enthusiast. Spiele in UWQHD und ich brauche mindestens 40 FPS ab 60 kappe ich meistens. Multiplayer Shooter spiele ich nicht mehr. In meiner Signatur siehst du mein System. Würde sagen meine Ansprüche sind schon gehoben aber kein High End. Und die 6800xt ist die bisher teuerste Karte die ich gekauft habe. Davor habe ich mich zwischen 250-400 Euro bewegt. Ja ich könnte auch in WQHD oder 1080p spielen. Aber wieso dann nicht gleich in 1280x1024 oder 800x600. Die Technik entwickelt sich weiter. Und bisher haben die 200-400 Euro gereicht. Wieso soll ich plötzlich 800 Euro und mehr zahlen?
sikarr schrieb:
Interessant wird es wenn AMD und NV mal aus dem GPU Markt aussteigen. NV macht jetzt schon mehr Gewinn mit KI und Cloud als mit Desktophardware.
Ich hoffe das sich dann andere Finden die diese Lücke dann mit guten und günstigen Produkten schließen werden. Das die Gamer nicht mehr die erste Geige Spielen bei Nvidia kann man seit dem ersten Miningboom von 2017 sehen.
Aha. Dumm nur, dass Einzelfälle nicht das Gesamtbild verändern. Und das ist weiterhin:
NVidia hat unwiderlegbar das bessere Featureset bei jeder Grafikkarten-Generation.
Versprochen September 2018 mit RTX 2000 Vorstellung, herausgekommen Februar 2019, DLSS2 März 2020, also innerhalb weniger Monate, klar
FSR Juni 2021, FSR2 Mai 2022, also sogar kürzer
Man kann sich natürlich immer alles schönreden.
bondki schrieb:
Wo AMD abermals auf kaltem Fuß erwischt wurde, und man mal eben selbst was "hinrotzen" musste, was dann ebenfalls erst mit Version 2 halbwegs brauchbar war. Aber nicht innerhalb von Monaten, sondern länger.
Das ist auch wieder eine Mär von einem guten Geschichtenerzähler, insbesondere was Starfield betrifft. Die Creative 2 Engine war so beschissen, daß AMD erst mal die Engine optimieren mußte, damit die überhaupt läuft. Nicht umsonst war 7900XTX und RTX 4090 gleichauf, weil nvidia NULL Optimierungen gemacht hat mit ihrem fake Gameready-Treiber. Das sich Bethesda nicht um DLSS schert, wenn ihre Engine schon mal gar nicht läuft, ist nicht weiter verwunderlich und daß man FSR benutzt, wenn man die AMD Leute schon im eigenen Haus hat, auch nicht.
Es wäre echt gut, wenn Du dich vorher informierst und die fanboy-Brille mal absetzt.
Ergänzung ()
SpartanerTom schrieb:
@xarfei Ja gibt es aber meines Wissens nach sinnvoll nur unter Linux.
Nicht nur die GPU kostet Geld, der Rest der Karte ist nicht umsonst.
Dabei ist der AD103 aber nur rund 20% größer als Navi 31 ohne MCD. Und der Rest des PCB ist deutlich weniger aufwendig als bei AMD. Vergleich mal Teardowns der Karten. Die 4080 könnte von den Specs her auch eine 4070 sein. Gerüchten zur Folge soll die Bill of Materials einer 7900 XTX deutlich teurer sein als die einer 4080 FE.
Klar kostet der Rest auch. Aber AMD kann pro DIE mehr Chips belichten lassen als Nvidia. Und auf Gerüchte gebe ich nichts. Die neuen Karten schlucken ja auch nicht 600-900W. Die genauen Preise kennen nur Nvidia und AMD. Ich schau mal ob ich das YouTube Video finde wo das einer Durchgerechnet hat wieviel teuerer ca. So ein Chip der 4090 und 4080 gegen die 7900xt(x) ist. Du darfst auch nicht vergessen das Teile des Chiplet Designs auch in 7 und 12nm gefertigt werden wenn ich mich nicht irre.
Ich denke auch nicht das die Spieler die Preise der Karten toll finden. Viele werden doch einfach auch kaufen weil sie es können. Nicht weil sie den Preis so bezahlen wollen oder diesen angemessen finden. Vor allem wenn man sich die UVPs der letzten Gen von 2020 ansieht. Da gab es die 3080 weit unter 1000 Euro. Weil AMD mit RDNA2 richtig geliefert hat.
Auch wieder eine Mär. Treiberprobleme hat auch nvidia bis heute. Vom höherem CPU Treiberoverhead gar nicht zu reden, weil nivida den Treiber noch nie neu geschrieben hat. AMD hat den Treiber seit Catalyst 2x neu gemacht und mittlerweile wird er modularisiert.
Ergänzung ()
SpartanerTom schrieb:
Bei ROCm gibt es noch einschränkungen unter Windows, die ich noch nicht ganz durchdrungen habe.
Einfach ROCm unter WSL2 benutzen, das ist der effizientere Weg. Viele Dinge werden für Windows in Zukunft nicht mehr entwickelt werden, weils dank WSL2 auch unter Windows läuft.
AMD setzt momentan, genauso wie viele andere auch, ihren Hauptfokus auf das Datacenter Geschäft. Spätestens seit Crypto und AI sieht man, wie viel Geld man hier in diesem Bereich herausholen kann.
Der Gaming Markt ist nicht mehr profitabel genug. Und bevor man zig Mio. wieder in diesen Bereich versenkt, wird lieber im Bereich Datacenter investiert. Auf langer Sicht wird AMD sowieso sich hauptsächlich auf den OEM-Markt (Low-Mid) konzentrieren müssen, da hier das meiste zu holen ist.
Ich schau mal ob ich das YouTube Video finde wo das einer Durchgerechnet hat wieviel teuerer ca. So ein Chip der 4090 und 4080 gegen die 7900xt(x) ist.
Die 4090 ist eine andere Sache als eine 4080. Und wie groß der Spielraum bei NVIDIA sein dürfte, hat man bereits ein paar mal sehen können. Die 4080 12GB einfach 20% günstiger als 4070 Ti vermarkten.
Sollte NVIDIA tatsächlich eine "echte" 4080 als 4080 Super mit 320-Bit-Speicherinterface und 20GB bringen, wird man sehen, wie sie die preislich aufstellen. Aber angeblich könnte es statt des AD102 doch nur der AD103 werden. Wird man sehen.
ThePlayer schrieb:
Klar kostet der Rest auch. Aber AMD kann pro DIE mehr Chips belichten lassen als Nvidia.
Einzig Navi 32 XT scheint in der aktuellen Generation konkurrenzfähig zu sein. Aber auch nur, wenn man allein bei der GPU bleibt. Schaut man sich mal das Ungetüm von PCB im Vergleich zu den einfachen AD104-Boards an, dann kann man erahnen, dass die Karten bei den Produktionskosten in einer komplett anderen Liga spielen.
Das waren keine Gerüchte vor Veröffentlichung, sondern Spekulationen von Leaker(n) nach Veröffentlichung. Wie viel man darauf geben will, muss jeder selbst entscheiden. Aber man kann sich auch anhand verschiedener wirtschaftlicher Daten ganz grob zusammenreimen, dass egal wie die BOM im Detail aussieht, die AMD-Karten in der Herstellung ziemlich sicher nicht günstiger sind als die direkte NVIDIA-Konkurrenz.
ich gehe davon aus, dass sich AMD mittelfristig aus dem dGPU Markt zurückzieht. Der Fokus liegt ganz klar bei Datacenter und AI, was man auch an der Fusion mit Xilinx und dem Kauf von Nod.ai sieht.
Auch iGPU resp. integrierte Lösungen werden sie weiter verfolgen, primär um im CPU / Laptop Markt noch Bestand zu haben und natürlich bei den Konsolen. Das wird aber vermutlich weit weg bleiben von Leistungsklassen die wir uns am PC gewohnt sind.
Desktop Gaming wird deutlich zurück gehen, spätestens wenn Cloud-Gaming Einzug hält. Und dann sind starke DC Lösungen wichtiger.
Diese Entlassungen haben vermutlich nicht direkt damit zu tun, aber man sieht klar, dass AMD das dGPU Geschäft mindestens konsolidiert (auch die Ankündigung von RDNA4 nur in Mittelklasse).
nVidia wirds freuen, die 5090 kann dann auch 8000.- kosten, dafür gibts dann DLSS 4.0
RDNA3 ist jetzt nicht der Brüller. RT-Performance ist so lala & die Treiber sind auch nix.
Hatte selbst eine 6900 XT, 6950 XT & 7900 XTX im PC. Die verstauben mittlerweile im Regal.
RDNA4 wird nur Mittelklasse.
Mal sehen, was Intel mit Battlemage bringt.
Evtl. können die AMD im High End-GPU-Segment ablösen.
PC Gaming war und sollte nie ein Luxusgut sein. Wer das akzeptiert, hat sich ordentlich zum Narren machen lassen.
Ergänzung ()
Nikon71 schrieb:
RDNA3 ist jetzt nicht der Brüller. RT-Performance ist so lala & die Treiber sind auch nix.
Hatte selbst eine 6900 XT, 6950 XT & 7900 XTX im PC. Die verstauben mittlerweile im Regal.
Wenn das so ist Schenk mir doch bitte die 7900XTX.
Ich kann auf RT verzichten und hab mit dem Treiber null Probleme.
Dann wären die Ressourcen wenigstens genutzt.
Die anderen kannst dann ja auch bedürftigen weiter geben als gute Tat.
Kommt jedenfalls besser als hier so rum zu trollen, dass man offensichtlich wenig auf hochpreisige Dinge nichts gibt wovon andere bei ihrer finanziellen Lage nur träumen können.