Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an
Trotzdem liegt die Marge im Automobilbereich nur bei wenigen Prozent. Denn es gibt mehr Kosten zu decken als nur die Herstellung. Dementsprechend kann AMD auch keine High-End-Grafikkarte für 500€ verschleudern, wenn diese in der Herstellung 400€ kostet z.B..
Trotzdem liegt die Marge im Automobilbereich nur bei wenigen Prozent. Denn es gibt mehr Kosten zu decken als nur die Herstellung. Dementsprechend kann AMD auch keine High-End-Grafikkarte für 500€ verschleudern, wenn diese in der Herstellung 400€ kostet z.B..
Klar, die Frage ist jetzt wo liegen die tatsächlichen Kosten mit F&E sowie Marketing und Produktion? Vielleicht weiß jemand hier etwas im Forum. Und kann uns hier mit Infos versorgen.
?? 😆
denkst du Nvidia schläft und bringt keine neue und leistungsstärkere Generation heraus? wir werden nächstes Jahr sehen, wer mehr Leistung bietet zu welchem Preis.
?? 😆
denkst du Nvidia schläft und bringt keine neue und leistungsstärkere Generation heraus? wir werden nächstes Jahr sehen, wer mehr Leistung bietet zu welchem Preis.
Tatsächlich ist der Informationsfluss was Nvidia angeht relativ dürftig. Das riecht nach einer Strategieanpassung bei Nvidia meiner Meinung nach mit dem Ergebnis, dass wir absurde Auswüchse bei Verbrauch und Preis erleben werden in Bezug auf die Top-SKUs in 2022.
Schätzen kann man aktuell nicht viel.
Nur grob vermuten auf dem was bisher passiert ist.
Eine 2080Ti war Standardmäßig glaub bei 250 Watt, die 3080 und 3090 haben da also nochmal 70 bis 100 Watt drauf gepackt.
Bei AMD sind es immerhin auch schon 300 Watt.
Man hat nun gesehen, die Leute kaufen es trotzdem und kühlen lässt sich das Ganze auch noch.
Wir können für die Topmodelle also ausgehen von:
Es wird sehr wahrscheinlich nicht weniger
Es wird sehr wahrscheinlich mindestens genauso viel
Es wird eventuell sogar erhöht, weil man Luft nach oben sieht.
Das schlimmste für uns ist mal wieder die Ungewissheit, das lange Warten.
Ich hoffe AMD hat an eine gute Raytracingleistung eingebaut.
aus dem anderen Thread hier.
Ich hoffe das mehr Länder sowas einführen. Ich bin für maximal 300W für den ganzen PC. Das gleiche natürlich auch für Spielkonsolen (PS5, Xbox usw).
Das die GPU alleine 300W, nur zum zocken, verbrauchen ist nicht lustig.
Ich denke auch dass die Preise nur bei den großen GPUs verheerend ausfallen werden. Kleine GPUs lassen sich sicherlich günstig produzieren und kommen auch ohne Chiplets aus.
Was Intel betrifft: da passiert wohl erstmal garnichts. Aber sicherlich nicht so schlimm, da hier immer wieder nach 100 Euro GPUs geschrien wird können sie diese Lücke erstmal füllen.
Das könnte natürlich eine Chance darstellen für Intel. Während AMD und Nvidia Preise, Verbrauch und Transistorzahlen ins Absurde treiben, könnte Intel mit aggressiven Preisen im Low- und Midrange reingrätschen. Man stelle sich das mal vor, eine gute Midrange Karte für 350-400 Euro, die alles kann, was man braucht. Das wäre wirklich nice.
Ob jetzt Lovelace noch kommt oder gleich Hopper, steht ja alles irgendwie auch noch in den Sternen. Auf jeden Fall hatte bekommt Hopper wohl sein Tape Out.
Lovelace wird sicher kommen da man nicht den Aufwand betreibt und dann nichts bringt. Wenn es nicht ganz reicht wird man es eben über den Preis regeln.
Die Frage ist eher ob dann 2 Jahre lang darauf gesetzt wird oder man Hopper oder Varianten davon das evtl. zuerst für den Profi Bereich gedacht ist dann schneller für Consumer adaptiert.
Tatsächlich ist der Informationsfluss was Nvidia angeht relativ dürftig. Das riecht nach einer Strategieanpassung bei Nvidia meiner Meinung nach mit dem Ergebnis, dass wir absurde Auswüchse bei Verbrauch und Preis erleben werden in Bezug auf die Top-SKUs in 2022.
Ich bin echt gespannt ich glaube aber nicht dass die viel Wert auf einen niedrigen Verbrauch legen werden. Nichtsdestotrotz bist du ja selbst in der Lage die TDP je nach Auslastung einzustellen und zu beeinflussen.
Ergänzung ()
Matthias B. V. schrieb:
Lovelace wird sicher kommen da man nicht den Aufwand betreibt und dann nichts bringt. Wenn es nicht ganz reicht wird man es eben über den Preis regeln.
Die Frage ist eher ob dann 2 Jahre lang darauf gesetzt wird oder man Hopper oder Varianten davon das evtl. zuerst für den Profi Bereich gedacht ist dann schneller für Consumer adaptiert.
Wenn ich als Konsument weiß, dass diese Hopper Variante zeitnah an Lovelace anknüpfen wird, dann würde ich direkt auf Hopper warten, selbst wenn es ein halbes Jahr oder länger dauern würde.
Wenn ich als Konsument weiß, dass diese Hopper Variante zeitnah an Lovelace anknüpfen wird, dann würde ich direkt auf Hopper warten, selbst wenn es ein halbes Jahr oder länger dauern würde.
Ja nur wird man es halt nicht wissen. Denke eh dass Lovelace wettbewerbsfähig sein wird.
AMD verdoppelt zwar die Shader aber Nvidia geht auch um 70% hoch. Dazu sollte man taktmäßig mehr rausholen können da man von Samsung 8LPP zu TSMC N5 mehr Luft nach oben - was Takt und Verbrauch angeht - hat als AMD von TSMC N7 zu TSMC N5.
Beide werden sicher auch noch die IPC steigern aber insgesamt wird es so raus laufen dass AMD in Rasterizing vorne liegt aber Nvidia weiter bei Raytracing... Insgesamt werden beide deutlich besser als Ampere und RDNA2 was uns freuen kann.
Denke nicht dass man bei den Nachfolgern was überstürzt und erstmal abwartet was Intel mit DG3 bringt... Solange man gegen AMD oder Intel nicht deutlich zurück liegt wird keiner in Panik geraten. Auch kosten Designs von Generation zu Generation immer mehr was anreize gibt diese länger zu nutzen.
Ich geh aber stark davon aus das die Leute hierzulande, ... Deinen Infos und Aussagen mehr vertrauen als denen von diversen Twitter Nutzern die bisher genannt wurden.
Greymon55 zeigt sich weiterhin unbeirrt optimistisch. Aber mal Hand aufs Herz und so, wer braucht denn 3x die Leistung einer RX 6900 XT, falls das Topmodell gemeint ist?! Bezogen auf Rasterisierungsperformance erscheint das mal abgesehen davon utopisch hoch. Die RT Performance könnte so eine Steigerung natürlich vertragen. Selbst Faktor 3 wäre hier für Brute Force Ansätze immer noch lächerlich wenig.
Gut, für 8K könnte man das einsetzen, aber wer spielt schon in 8K? Ich habe gefühlt ewig gebraucht, um auf 4K zu wechseln. Am Ende betrifft das eh nur ein unbezahlbares Halo Produkt. Ernsthaft darüber zu diskutieren macht nicht so viel Sinn.
Mal sehen was draus wird. Mit Chiplets erhöht man natürlich enorm den Druck auf Nvidia weil ein 700mm² Klopper wohl sicher nicht billig zu produzieren ist und die Yields sicher nicht die besten sein werden. Das könnte wieder ein Gamechanger sein für AMD jedenfalls bis Nvidia nachziehen kann. Obs wirklich so kommt? Wer weiß.
@ZeroStrat ich denke mal das eine muss das andere nicht ausschließen.
Könnte doch einfach beides passieren. Also x-fache Rasterperformance und hinzu kommen die Verbesserungen bei RT. ^^
Und ja. Es würde DLSS und FSR in niedrigen Auflösungen komplett obsolet machen.
Ist doch aber auch nicht schlecht,. dafür funktioniert es auf den kleineren Karten weiterhin ausreichend. Die großen sind dann eben was für 8k und professionelle. Gaming war doch immer schon nur Beiwerk
Hier wird von 8K gesprochen und Spiele wie Cyberpunk laufen ohne DLSS noch keine 60FPS in 4K konstant.
Oder Metro Exodus Max Out in 4K keine Chance aktuell für 60FPS konstant !
Sollte so nicht sein wie mit AFR und SFR .
Die GPU sollte dann als Monolithischer Chip erkannt werden und auch so angesprochen werden.
SLI wurden zwei getrennte Karten erkannt und jede hatte ihren eignen Speicherpool.
Jede GPU hat ihr eigenes Bild gerendert die Ausgabe erfolgte dann nacheinander was zwar die FPS steigerte aber die Frametimes verschlechterte und Microruckler zu Folge hatte.
Bei dem dem neuen Ansatz von AMD und NV werden alle GPUs gemeinsam an einem Bild rendern so wie ich das verstanden habe und aus einem Speicherpool die Daten verarbeiten.
Vor einigen Jahren war das noch nicht möglich da die Schnittstellen limitiert haben es schein so als hätte man es nun geschafft!