Serandi
Lieutenant
- Registriert
- Juli 2021
- Beiträge
- 744
owned139 schrieb:Keine Ahnung. Im Grunde keiner, weil alles Leaks sind.
Verlink mal bitte deine Quelle.
Auf die Antwort hab ich gehofft und es mir fast gedacht 👍
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
owned139 schrieb:Keine Ahnung. Im Grunde keiner, weil alles Leaks sind.
Verlink mal bitte deine Quelle.
Auf jeden Fall werden die genau definierte Ziele gehabt haben.Haldi schrieb:Die werden ja wohl kaum einfach mit Geld in die Entwicklungsabteilung gestolpert sein und haben gesagt "Ey Leute guckt mal. Es läuft finanziel Rund. Stellt mehr Leute and und entwickelt einfach was tolles".
Die werden genau definierte Ziele gehabt haben die erreicht werden müssen.
Ob für Endkonsumenten günstiger wird sich zeigen müssen. Dass AMD aber ihren Seiten einen Preis-Leistungs-Kracher bauen möchte ist glasklar. Die MCDs lagern einfach mal 225mm² Chipfläche aus. Das ist eine Hausnummer. Selbst wenn man annimmt, dass diese Blöcke sich noch halbwegs hätten schrumpfen lassen können, wenn sie auch in N5 gefertigt werden würden, wäre man sicherlich immer noch im Bereich über 150mm² gesparte Fläche. Das ist einfach ein Kracher.Haldi schrieb:Sofern die nicht mit dem Schlachtplan "Wir wollen mehr marktanteil, wir müssen einfach stärkere und billigere Produkte als Nvidia anbieten. Unter allen Umständen! " gibt es keine schlüssige Argumentation wieso die Grafikkarten so viel mehr verbrauchen werden(¿) um so viel mehr Performance zu bekommen.
CDLABSRadonP... schrieb:AMD hatte das letzte Mal im Jahre 2009 mit Evergreen die technologische Führungsrolle inne. Seitdem war das für sie positivste ein Schlagabtausch, während Nvidia immer wieder Jahre oder zumindest Marktsegmente hatte, in denen sie frei wildern konnten. Fast während der gesamten Zeit von Maxwell hatten sie die freie Bahn und von AMD konnte währenddessen eine Karte in einer sehr speziellen Nische (die R9 Nano) rundherum überzeugen. Pascal war Nvidia-Dominanz in der Breite plus obendrauf freie Marktsegmente, Turing war Nvidia-Dominanz in der Breite plus obendrauf freie Marktsegmente. Jetzt sind wir gerade am Ende einer Ära des Schlagabtauschs und mit RDNA3 gibt es erstmals seit langem eine realistische Chance, dass AMD die Führungsrolle wieder übernehmen wird.
Cool Master schrieb:Ich denke das wird dieses Jahr noch nicht zum tragen kommen ähnlich wie das mit Ryzen 1 war wird das denke ich noch 1-2 Generationen sprich 8xxx oder 9xxx dauern bis wir da wirklich den vollen Effekt sehen.
Vorsicht bei diesen „Laborwerten“. Ich erinnere an die Radeon VII, die auf dem Papier ein Monster war und demnach die 2080Ti hätte schlagen müssen.owned139 schrieb:Die rohen Leistungsdaten sind laut Leaks wie folgt:
Navi 31: 66.36 TFLOPS
AD102: 82.58 TFLOPS
Also mich wunderts schon warum sie angeblich weniger Infinity Cache verbauen/brauchen. War nicht ein Argument für den Cache zusammen mit einem kleineren Bus die gesteigerte Effizienz? Ein 1-2 GCD Topmodell mit großem Infinity Cache hätte mich sehr interessiert, auch bei vorhersehbar hohen Preisen.3faltigkeit schrieb:RDNA3 hat doch immernoch Infinity Cache. Nur etwas weniger. Wie kommen denn einige hier drauf, dass das AMD nicht mehr verbaut. Steht doch im Text und mehrfach in den Kommentaren. Wird das jetzt eine Art Running-Gag?
Wieso? Der zaubert nicht... Seit Jahren ist er einer der wenigen der wenn er Infos hat diese sehr häufig Hand und Fuß haben. Im dt. sprachigen Raum kenne ich keinen der so ne technische Expertise mit bringt... Schon das alleine öffnet Ihm bestimmt an der ein oder anderen Stelle die Türe...klpp schrieb:Immer wieder amüsant wo Igor die Infos herzaubert.
AMD soll mal bitte Fahrt aufnehmen, meine Geldbörse juckt.
Wie gesagt:Epistolarius schrieb:Also mich wunderts schon warum sie angeblich weniger Infinity Cache verbauen/brauchen.
Doppelt so schneller L3-Cache wäre mit Sicherheit in den meisten GPU-Anwendungen einem doppelt so großen Cache vorzuziehen. Das könnte eine Erklärung sein. Abseits dessen hat AMD ja anscheinend auch mit einer V-Cache-Lösung experimentiert.CDLABSRadonP... schrieb:→ Wahrscheinlich wird AMD entsprechend den Cache noch stärker in Richtung niedriger effektive Latenzen und höhere Bandbreite getrimmt haben. Vielleicht ist das alles mit einer Geschwindigkeitsverdoppelung verbunden?
Auf der Folie wurde angegeben, dass 256bit+InfinityCache weniger Leistungsaufnahme als 384bit ohne Infinity Cache und mehr Performance als 512bit ohne InfinityCache bieten würde. Dennoch kann natürlich sein, dass sich 384bit+InfinityCache auch lohnt; das ist kein Widerspruch.Epistolarius schrieb:War nicht ein Argument für den Cache zusammen mit einem kleineren Bus die gesteigerte Effizienz?
Nvidia wird allen Gerüchten zufolge den L2-Cache vergrößern, statt einen L3-Cache hinzufügen. Wahrscheinlich müssen sie für die L2-Cache-Vergrößerung diesen aber verlangsamen. Wie stark verlangsamen, das ist hier die Frage.Epistolarius schrieb:Gespannt bin ich auch sehr auf den Vergleich mit den RTX 4080/90, manche Leaks sprachen von massiv vergrößerten Caches, trotz breitem Bus.
Ich erinnere mal daran, es gab Zeiten da haben sowohl NV als auch AMD durch interne Kompression große Mengen an Daten "gespart" im RAM damals noch... Vielleicht haben sie was ähnliches im Cache gemacht...Epistolarius schrieb:Also mich wunderts schon warum sie angeblich weniger Infinity Cache verbauen/brauchen. War nicht ein Argument für den Cache zusammen mit einem kleineren Bus die gesteigerte Effizienz?
Auf jeden Fall. Karten können in der Gamingpraxis etwa gleichauf sein, obwohl ihre FP32er-TFLOPS drastisch auseinanderliegen. Die 6900XT hat ja zum Beispiel etwa ein Drittel weniger FP32er-TFLOPS als die 3090 bzw. die 3090 etwa die Hälfte mehr, dennoch liegen sie ziemlich gleich.Laphonso schrieb:Vorsicht bei diesen „Laborwerten“.
Da hast du allerdings wohl falsche Daten im Kopf, die Radeon VII und die 2080ti hatten quasi identische FP32er-TFLOPS-Werte. Entsprechend hätte sie der falschen Logik nach, dass sich FP32-TFLOPS 1:1 in Gamingleistung übersetzen lassen würden, gleichauf mit der 2080ti sein "müssen".Laphonso schrieb:Ich erinnere an die Radeon VII, die auf dem Papier ein Monster war und demnach die 2080Ti hätte schlagen müssen.
Dass die Latenzproblematik bei GPUs tatsächlich viel weniger ist als bei GPUs wurde dir ja schon von mehreren Stellen aus gesagt. Auch den Beitrag von DevPandi vor deinem Post hättest du dir durchlesen müssen. Und die Lasterverteilung ist zwar auch ohne GCD-Chiplets schwierig, aber daran kranken beide Hersteller bei den hohen Shaderzahlen. Hat also nichts mit AMD zu tunRogueSix schrieb:Im Bereich GPU ist die inhärente Latenzproblematik wegen der extremen Parallelisierung um ein Vielfaches kritischer als im CPU-Bereich.Auch die Problematik der Lastverteilung dürfte nicht einfacher werden.
Die Aussage ist echt heftig, wenn jeder Hersteller es genauso sieht wie derjenige, dem du das an den Kopf wirfst.RogueSix schrieb:Warum arbeitest Du nicht bei AMD, Intel oder nVidia und zeigst denen mal, wie locker und flockig man das umsetzen kann?
TPU geht aber anscheinend von sehr niedrigen Taktraten bei AMD aus. Das kann ich mir beim besten Willen nicht vorstellen. Alleine der Prozess N5 erlaubt die gleiche Taktrate bei doppelt so vielen Shadern, mit dem gestiegenen Powerlimit und den Architekturverbesserungen sollte das weiter nach oben gehen. Bei Nvidia geht TPU von gestiegenen Taktraten aus.owned139 schrieb:Die rohen Leistungsdaten sind laut Leaks wie folgt:
Navi 31: 66.36 TFLOPS
AD102: 82.58 TFLOPS
RogueSix schrieb:P.S.: Zur Lastverteilung solltest Du vielleicht mal selbst googlen und zum Beispiel auch mal an die ASync Compute Problematik zurückdenken. Es ist keineswegs trivial bei den tausenden von in Clustern organisierten Cores moderner GPUs diese so auszulasten, dass die maximale Performance dabei herauskommt. Es dürfte klar und logisch sein (OK, für Genies wie Dich ist auch dies vermutlich trivial, aber ich meine jetzt für normal begabte Ingenieure ), dass sich diese Problematik noch mal verschärft, wenn die Cluster auf unterschiedlichen Dies liegen und dass dann eben auch die Latenzproblematik sehr vordergründig wird.
Die Theoriewerte waren tatsächlich fast 1:1, aber bei Speichereurchsatz lag die RVII (~ 1000 GB/s) deutlich vor der 2080Ti (~ 600 GB/s). Das war der Wert, der mir entfallen war in welchem die RVII quasi einen rechnerischen Generationsvorsprung hatte, auf der, Papier.CDLABSRadonP... schrieb:Da hast du allerdings wohl falsche Daten im Kopf, die Radeon VII und die 2080ti hatten quasi identische FP32er-TFLOPS-Werte. Entsprechend hätte sie der falschen Logik nach, dass sich FP32-TFLOPS 1:1 in Gamingleistung übersetzen lassen würden, gleichauf mit der 2080ti sein "müssen".
Weil dieses Missverständnis immer wieder auftritt: Es gibt seit Jahren Multicore-GPUs.RogueSix schrieb:Warum gibt es dann nicht schon seit vielen Jahren Multicore GPUs
Das, was du meinst, ist hingegen eine Multi-DIE-GPU oder eben eine Chiplet-GPU. Bei Prozessoren gab es das mit identischen DIEs schon früh, für Consumer berühmt sind die Core2 Quad (Kentsfield, Yorkfield, Penryn-QC) und bei den frühen DesktopRyzen (Summit Ridges, Pinnacle Ridge) wurde das wieder aufgegriffen.RogueSix schrieb:Warum gibt es dann nicht schon seit vielen Jahren Multicore GPUs mit vielen, vielen Chiplets, um die Performance bis in die Petaflops zu treiben? Ist ja laut Dir doch total einfach. Bissl IMC und Cache auslagern und los...
Naja, bei den ersten Leaks wurden AMD und Nvidia eine relativ hohe Rohleistung attestiert, welche beiderseits mit jedem neuen Leak immer weiter nach unten korrigiert wurde. In den aktuellsten Leaks ist die Leistung der RDNA3 Karten auf dem Papier niedriger.Colindo schrieb:TPU geht aber anscheinend von sehr niedrigen Taktraten bei AMD aus. Das kann ich mir beim besten Willen nicht vorstellen. Alleine der Prozess N5 erlaubt die gleiche Taktrate bei doppelt so vielen Shadern, mit dem gestiegenen Powerlimit und den Architekturverbesserungen sollte das weiter nach oben gehen. Bei Nvidia geht TPU von gestiegenen Taktraten aus.
Ganz ehrlich: Dass die Karte kein 3.072bit-Interface, sondern das volle 4096bit-Interface hatte, lag eher an Marketing und EconomyOfScale als sonst etwas. Mit 3072bit hätte die Karte dann bloß 12GiB gehabt und das wäre einfach zu nah an der 2080ti gewesen. Wer hätte die Radeon VII dann überhaupt noch gekauft? Oder sie hätte 24GiB haben müssen und das wäre für AMD richtig teuer geworden, hätte also auch keinen Sinn ergeben. Vor allen Dingen spart man bei HBM auch keine Leiterbahnen auf der Karte, wenn man das Interface verkleinert, das heißt es wäre wirklich nur ein HBM-Package gewesen, das hätte eingespart werden können. Und selbst für dieses hätte es dann noch einen auf passende Höhe gefertigtes Dummy gebraucht, das den Platz des fehlenden vierten Packages eingenommen hätte. Da ist es einfach viel gewesen, der Karte das volle Interface und die 16GiB zu verpassen, auch wenn die Bandbreite im Gaming kaum irgendwo einen Nutzen hatte.Laphonso schrieb:Die Theoriewerte waren tatsächlich fast 1:1, aber bei Speichereurchsatz lag die RVII (~ 1000 GB/s) deutlich vor der 2080Ti (~ 600 GB/s). Das war der Wert, der mir entfallen war in welchem die RVII quasi einen rechnerischen Generationsvorsprung hatte, auf der, Papier.
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
https://www.techpowerup.com/gpu-specs/radeon-vii.c3358
Das unterschreibe ich auch absolut.Laphonso schrieb:Diese Gleichwertigkeit finden wir im Gaming nicht, darauf wollte ich hinaus. Die Gesamtarchitektur entscheidet und wie sie im Gaming Übersetzung findet.
Dann solltest du einfach ein 350W Modell nehmen und selbst Hand anlegen, wird immer mehr bei rsuskommen als in der orginären 250W Klasse.Ayo34 schrieb:... ich will Leistung unter 250 Watt. Mal schauen ob AMD oder Nvidia da mehr bieten kann.
Letzte Leaks sprechen von N4 für Ada, der aber halt enorm ähnlich zu N5P für das RDNA3-GCD ist.owned139 schrieb:Und Nvidia pumpt wohl mindestens 450W in ihr Flagschiff. Einen Fertigungsvorteil hat AMD in dieser Gen. auch nicht mehr, weil beide wohl auf 5NM TSMC setzen.