News Gerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs

pipip schrieb:
Gut. Es gibt die Folien mit den 50%. Da gebe ich dir recht, das kann man mit Vorsicht genießen!

genau das meine ich ;)
 
Taxxor schrieb:
Als Konkurrenz zur Turing GTX16er Serie? Dafür hat man Navi 14 schon.
Low-End RDNA2 heißt ja nicht Low-End des Portfolios. Wenn Navi23 eine effizientere und leicht schnellere 5700 XT ohne RT wird, fände ich das nicht schlecht. Die RDNA1-Karten dann entsprechend eine Preisstufe runter.

RT als Exklusivfeature für die HighEnd-Karten fand ich schon immer sinnvoller anstatt das bspw. in eine 2060 zu pressen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Edelhamster
Die Folien mit den 50% hatten aber auch die 50% von GCN auf RDNA drauf und die sind eingetroffen, insofern ist es nicht sehr abwegig.
Ergänzung ()

Revan1710 schrieb:
Low-End RDNA2 heißt ja nicht Low-End des Portfolios. Wenn Navi23 eine effizientere und leicht schnellere 5700 XT ohne RT wird, fände ich das nicht schlecht. Die RDNA1-Karten dann entsprechend eine Preisstufe runter.
Ich bezog mich dabei nur auf die Formulierung von wccftech, wonach Navi23 gegen die GTX16er Turings gestellt werden soll.
Wenn es eine Karte mit der Leistung einer 5700XT bei 150W wird(+50% Perf/Watt), dann ist es aber eher weiterhin Konkurrenz zur 2070 oder dem Nachfolger der 16er Turings, wie auch immer die bei Ampere dann heißen sollen.


Mit dem Preis wäre ich auch nicht so sicher, 7nm+ soll doch günstiger in der Produktion sein als 7nm, dazu ist Navi 10 auch noch minimal größer als Navi23 sein soll.
Da wäre es doch unlogisch die teurer zu produzierende Karte günstiger zu machen. Eher werden sie komplett verschwinden und nur Navi14 übergangsweise bleiben.
 
  • Gefällt mir
Reaktionen: Revan1710
7hyrael schrieb:
ich hab Undervoltet und nicht übertaktet. Die Artefakte sind bekannt und Engine-Probleme im zusammenspiel mit AMD Grafikkarten/Treibern.

Such nach CoD Modern Warfare pixelated sights. Scheint zwar gestern ein Patch dafür gekommen zu sein, allerdings ist das eben nur ein Beispiel von mehreren und er scheint wohl nur Vega64 zu adressieren.

Wenn ich dieses Problem recherchiere komme ich sehr schnell zu dem Schluss, dass es sich nicht, wie suggeriert, um einen AMD-exclusiven Fehler handelt, sondern dass aktuelle nVidia-Modelle ebenso betroffen sind.
 
modena.ch schrieb:
Klar Engine Bug, drum hat es ja auch der Gameentwickler behoben und nicht AMD.
Es wird aber leider AMD zugeschrieben
 
Taxxor schrieb:
Als Konkurrenz zur Turing GTX16er Serie? Dafür hat man Navi 14 schon.
Und es würde keinen Sinn machen einen 240mm² Chip der, wenn er ohne RT kommt, nicht langsamer als eine 5700XT sein dürfte, gegen eine 1650 oder 1660 zu stellen.
Der Bezug zur GTX16ér Serie im Artikel ist Käse, das denk ich auch. Ein solcher Chip könnte in Zukunft dann aber vielleicht eine ziemlich attraktive Alternative zu einer wohl kommenden Nvidia 3060 werden. Eben für ambitionierte, aber dennoch preisbewusste FullHD/WQHD Spieler. Das ist ein großer Markt, in dem RayTracing eine untergeordnete Rolle spielt.
 
  • Gefällt mir
Reaktionen: Revan1710
Taxxor schrieb:
Ich bezog mich dabei nur auf die Formulierung von wccftech, wonach Navi23 gegen die GTX16er Turings gestellt werden soll.

Achso okay - das kann ich mir auch nicht wirklich vorstellen. Das würde nur Sinn machen, wenn die RDNA1-Karten dann EOL gehen.

Wäre aber ja zu begrüßen, wenn das gesamte Portfolio durch RDNA2 ersetzt wird. Wenn ich mir aber angucke, wie lange die 5600 XT auf sich warten ließ, glaube ich da nicht dran.
 
  • Gefällt mir
Reaktionen: Chismon
just_fre@kin schrieb:
Bin man gespannt, was in Zukunft auf uns zu kommt, aber bevor nicht die ersten Tests raus sind (wenn es dann irgendwann mal soweit ist) glaube ich nicht an ernsthafte Konkurrenz in der Oberklasse.

Zu sehr hat AMD die Käufer in den letzten Jahren in diesem Preisbereich im Stich gelassen. Auch aktuelle "Flaggschiffe" wie die Radeon VII oder die RX 5700 XT sah ich zu ihrem jeweiligen Launchzeitpunkt bestenfalls in der gehobenen Mittelklasse, dazu noch mit schlechterer Effizienz als vergleichbare Konkurrenzprodukte.

Mir persönlich wäre es lieber, wenn sich AMD auf eine effiziente Mittelklasse (Preisbereich 200 - 450€) fokussieren würde, auch im mobilen Sektor. Intel soll dann mit ihren neuen dGPUs den Einsteigerbereich abdecken und Nvidia können dann die 450€ aufwärts übernehmen - alle Produkte darunter von denen sind sowieso seit Jahren hoffnungslos überteuert, ich glaube die letzte echt stimmige und günstige Karte war die GT 750 (Ti), sofern mich meine Erinnerungen nicht täuschen.



Sofern das nicht als Ironie gedacht war: in welchem Szenario bringst du eine RTX 2080 Ti denn so ans Limit, dass du eine schnellere Grafikkarte benötigst?

dein Ernst? In so gut wie jedem..

des Weiteren will ich keine Nvidia mehr im System haben mit rückschrittlichem c64 Treiber und features
 
Das mit den 50% mehr Effizienz sollte man auch ein wenig mit Vorsicht genießen. Auch mit moderarten Steigerungen kommt das schnell zusammen. 30% mehr Leistung bei ca. 12% weniger Stromverbrauch wäre brereits ca. 50% effizienter. Nur mal so als Beispiel aus der Hüfte geschossen.
 
GERmaximus schrieb:
Ich würde durchdrehen.
Das ist ein absolutes No Go für mich, wenn der Treiber rum Spackt.
Sollte ich auf AMD wechseln, würde ich meinen Gsync Monitor noch für zwei Wochen behalten. Innerhalb dieser zwei wochen (nur zwei Wochen) würde ich die Karte Stock betreiben und darf sich maximal 0 mal durch den eigenen Treiber abschießen...

Naja bei neuer Hardware kann man einen Absturz nicht komplett ausschließen. Außerdem ist nicht jeder System oder Spielabsturz automatisch ein Treiberproblem, was ja viele ganz schnell und gerne annehmen. Ich hatte mit meiner 5700 XT seit Kauf im Dezember genau 0 Blackscreens gehabt, und das war ja angeblich ein Riesenproblem.
 
  • Gefällt mir
Reaktionen: Smartbomb und Onkel Föhn
@CB

"""Zunächst einmal gilt aber, dass sämtliche Gerüchte mit Vorsicht zu genießen sind. Auch wenn ComputerBase die Spekulationen für realistisch hält, der Leaker bekannt ist und das ein oder anderen Mal richtig gelegen hat, bedeutet das nicht, dass dies wieder so sein muss. """

würde ich gerne in zukunft DICK und eventuell in nem rahmen versehen markiert sehen. gibt leute die lesen sowas sicher nicht sollte aber als DEUTLICHER hinweis eventuell helfen.


ABER sehr schön das ihr das direkt mit rein schreibt!
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Haldi schrieb:
Das ist aber schon ein Engine Bug und hat nicht wirklich so viel mit den GPU Treibern zu tun oder?
Genau und ja. Es tritt auch vglw. sehr selten bei einigen wenigen nVidia GPUs auf, aber bei den Vegas ist es quasi üblich. Es ist ein Bug der Engine und eigentlich kann man da AMD wenig Vorwürfe machen wenn der Saftladen Activision bzw IW wie üblich ne Schrottengine verwendet die sie nicht im Griff haben...

Prinzipiell bin ich ja komplett Pro-AMD nach der 970er verarsche die auch mich erwischt hat... aber dazu hatte ich mit der Vega nun doch für meinen Geschmack zu oft mal solche Dinger, auch wenn die nicht komplett verhindert haben dass ich die Spiele spiele und damit Spaß habe, aber es nervt. Und wie gesagt, hauptgrund für die Entscheidung ist der Wunsch nach max. Leistung für VR. Ich rede ja nicht davon mit statt einer RDNA-2 Karte ne 2080 zu kaufen sondern die erste 3080(Ti) mit CustomDesign die verfügbar wird. Wenn AMD etwas in der Leistungsklasse anbietet, bin ich gern wieder bei ihnen Kunde, aber ich wechsle die GPU normalerweise auch nicht alle 2 Jahre. Beim Wechsel auf die Vega war klar dass es ein Übergang ist, der nur eintrat weil bei der 970 dann auch noch ein Rotorblatt brach und der Custom-Luftkühler ewig im Versand steckte bis die 970 dann in den Rechner meiner Frau wanderte.
Ergänzung ()

Otsy schrieb:
Wenn ich dieses Problem recherchiere komme ich sehr schnell zu dem Schluss, dass es sich nicht, wie suggeriert, um einen AMD-exclusiven Fehler handelt, sondern dass aktuelle nVidia-Modelle ebenso betroffen sind.
Ja, hab nicht behauptet dass es nicht so ist, beim selbstversuch auf der 970 trat das Problem aber konsequent nie auf und auch im Freundeskreis kannte das Problem niemand da die alle typisch Ahnungslos fest verankert in BlauGrün unterwegs sind.
 
Beim Überfliegen habe ich jetzt zu viel gesehen was ich hätte zitieren können, also ohne Zitat: Die 5700XT hat 9,8 die 2070S 9,7TFLOPs. Die Series X soll bei ähnlichen Taktraten (1,8Ghz) 12TFLOPs haben und hat einen nur 360qmm großen SoC (hier wurden 270qmm für die reine GPU genannt).

Da könnte doch schon der 340qmm Navi 22 die 2080Ti schaffen.
 
just_fre@kin schrieb:
Ich würde mir manchmal wünschen, dass die Leute hier im Technikforum nicht so engstirnig durch die Welt gehen und auch mal andere Perspektiven einnehmen
Genau das hätte ich eher dir vorgeworfen ohne mehr Kontext. Einfach mal über den eigenen Tellerrand gucken und Leute verstehen, die so viel Geld ausgeben und trotzdem noch mehr wollen, weils einfach nix besseres gibt.
 
tookpeace. schrieb:
Abwarten.. Nvidia ist AMD um einiges voraus und ich genieße das AMD marketing im GPU bereich mit Vorsicht
nVidia ist AMD nicht wirklich um einiges Voraus - jetzt mal abgesehen von DXR, VSR und eben den TensoreCores.

Nimmt man es genau, hat NVIDIA auf Hardware-Ebene mit Turning gerade zu AMD aufgeschlossen, was so einige Aspekte angeht. Das habe ich aber bereits schon mal ellenlang erläutert, darunter so sachen wie gleichzeitiges Ausführen von INT32 und FP32-Berechnungen usw.

GCN war in seiner Form sehr zukunftsträchtig, jedoch hatte AMD damals - wie bei Bulldozer - ein paar Zeichen falsch "gedeutet" und hatte von Anfang an Probleme GCN, besser die vorhandenen Shader auszulasten. NVIDIA hatte im übrigen ähnliche Probleme mit Kepler, was die Auslastung angeht, konnte aber z.B. durch gewisse damalige Designentscheidungen sehr effektiv über den Treiber lösen (Der DX11-Wundertreiber als Antwort auf Mantle), während AMD ein Nadelöhr hatte.

Haldi schrieb:
Allerdings kennen wir ja die Frontend probleme von AMD bei grossen chips... Wenn wirklich 3 Grössen kommen bin ich sehr gespannt darauf ob die Karte die doppelt so gross ist auch 200% Leistung haben wird!
Die "Frontend"-Probleme konnte AMD mit RDNA und der Umorganisation der CUs weitgehen beseitigen, das sieht man ja nun gut daran, dass sie aus 2560 Shader mehr Leistung heraus holen als Vega64.

Ab jetzt würde es aber sehr technisch werden, du kannst dir aber mal die neue Shader-Organistation ansehen. Es hatte ein Grund warum man nun statt 4 Vec16 pro CU nur noch 2 Vec32-Einheiten einsetzt, warum man statt der Wave16 auf Wave32-Befehle usw. umstellte.


Trefoil80 schrieb:
Bei der vergrößerten Chipgröße bitte nicht vergessen, dass dort wohl auch die zusätzlichen Einheiten für Raytracing, KI-Deep-Learning-Blabla und co. untergebracht sind.
KI-Deep-Learning findet bei AMD weiterhin über die Shader statt. Spezielle Tensor-Kerne sind von AMD nicht angekündigt worden.

RT wiederum wird als Funktionserweiterung in den TMUs gelöst, da wird sicher Chipfläche dazu kommen, aber gegenüber NVIDIA und der Tesla-Architektur als "ganzes" und dem aktuellen Ableger Turning ist RDNA regelrecht schlank.

Trefoil80 schrieb:
Jetzt laufen die Navi 10-Chips zwar fehlerfrei, aber dieser Zustand war erst 6 Monate nach dem Release erreicht.
So hat man sicher unnötig einige Kunden an den dubiosen Lederjacken-Mann von nVidia verloren...
Da merkt man wieder, das AMD ihre Architektur von GCN zu RDNA wirklich grundlegend an vielen Stellen überholt haben und eigentlich nur noch die Organisationsstruktur als grober Aufbau geblieben ist, während nVidia seit der G80-Generation im Endeffekt nur ein wirklich großen Bruch in der Architektur hinlegten (Kepler) und ansonsten ihre Architektur nur in der Organisation optimierte und um Funktionen erweiterte.

Ich find es echt erstaunlich, wie viel Ähnlichkeit man zwischen Kepler und Turning immer noch findet, wenn man sich mal die Blockdiagramme usw anschaut.

Trefoil80 schrieb:
Was AMD definitiv nicht wieder passieren darf: Die Treibersituation.
Da stimme ich dir zu, das darf AMD nicht passieren. Ich bin da aber guter Hoffnung. AMD hat RDNA jetzt vom Treiber her halbwegs gut im Griff. Der Schritt RDNA zu RDNA2 wird jetzt eher mit Bedacht erfolgt sein.

AMD hatte in den letzten 10 Jahren, im Gegensatz zu NVIDIA, mehrere massive Brüche in ihrer GPU-Architektur gehabt. VLIW5(TeraScale) zu VLIW4 (etwas kleiner) zu GCN und nun zu RDNA. Jeder diese Schritte ist sehr gewaltig gewesen, während die Schritte innerhalb von GCN sehr überschaubar war.

NVIDIA hat hier einen gewaltigen Vorteil, auch wenn man hier bei jeder GPU von einer neuen "Architektur" spricht, sind die Schritte die NVIDIA pro Architektur ging sehr überschaubar gewesen. Die Änderungen von NVIDIA seit G80 bis heute zu Turning sind zwar ähnlich gewaltig wie nun VLIW5 zu RDNA, aber diese Änderungen haben "konstanter" von Generation zu Generation stattgefunden, sodass die Treiberbasis effektiver genutzt werden konnte. Größere Brüche wurden von NVIDIA über die Jahre aber vermieden und oft hat man dann eher Funktionseinheiten lieber als eigenständige Funktionen gelöst, als die Architektur grundlegend zu überarbeiten. Sieht man gut an Turning und der gleichzeitigen Ausführung von INT32 und FP32-Berechnungen.

DarkerThanBlack schrieb:
Nein, brauchen sie nicht. Das RT wird direkt über die Shader laufen.
Das ist so falsch!

Es gibt hier einen recht guten Artikel, der es bereits grob erläutert, deswegen die stark vereinfachte Kurzfassung:
Auch AMD hat spezielle "RT-Einheiten", diese werden aber anders als bei nVidia nicht als eigenständiger Core implementiert, sondern als Erweiterung der TMU realisiert. Der Shader - anders als bei nVidia wiederum - kann jedoch freier Entscheiden darüber ob er eine Anfrage an die TMU schickt, oder lieber selbst weiter macht.

Wichtig ist aber folgendes: RT läuft bei beiden Herstellern "über" die Shader, gewisse Aufrufe werden bei beiden dann an spezielle Einheiten "ausgelagert" da diese wesentlich schneller sind. nVidias-Ansatz ist etwas starrer, AMDs Ansatz flexibler.

GERmaximus schrieb:
Nvidia lässt fertigen und hängt nicht, im gegenteil, die können mit 12nm noch immer 7nm schlagen.
BZW anders herum, AMd benötigt 7nm um mit Nvidias 12nm Fertigung mitzuhalten
Im groben zwar nicht falsch, aber zu kurz gedacht.

NVIDIA bekommt bei TSMC aktuell einen für sie "angepassten" 12nm-Prozess, der für NVIDIA zum Teil optimiert wurde. Das ist bereits ein Vorteil. Dazu kommt auch, dass NVIDIA mit dem Ursprungsprozess bereits entsprechende Erfahrungen sammeln konnte, was ebenso sehr wichtig ist. NVIDIA kann so die gesammelten Erfahrungen beim 12nm Prozess nutzen, um die GPU entsprechend anzupassen um möglichst noch mehr "Leistung" herauszuziehen. Dazu kommt, dass - ich sprach es weiter oben an - NVIDIA zwischen den einzelnen GPU-Generationen ihre Architekturen recht vorsichtig anpasst.

AMD konnte zwar theoretisch mit Vega7 Erfahrungen bereits mit den 7nm erlangen, jedoch wird die Zeit zu kurz gewesen sein um diese Erfahrungen bereits bei RDNA wirklich umzusetzten. Erfahrungen aus den 7nm bei RDNA als auch Vega7 kann nun AMD jedoch auch bei RDNA2 nutzen, sie kennen den Prozess besser und können nun auch entsprechenden Anpassungen vornehmen.

Erfahrungen, die man mit einem entsprechenden Prozess sammeln kann, können sehr wertvoll sein und auch Teilweise Vorteile eines neuen Prozesses kompensieren. Also ja, du hast recht in dem Sinne das AMD 7nm TSMC brauchte um mit den 12nm TSMC mitzuhalten.

Jetzt kommen aber die wichtigen Punkte: NVIDIA scheint nun wohl den 7nm-Prozess von Samsung zu nutzen, die Frage ist, wie gut/schlecht ist der 7nm-Prozess von Samsung im Vergleich zu den 7nm von TSMC und die zweite Frage ist wie viel sind AMDs Erfahrungen nun mit dem 7nm-Protess wert und was können sie alleine dadurch gewinnen. NVIDIA arbeitet nun mit einem neuen Prozess, bei dem ihnen auch Erfahrungen wieder fehlen und da ist halt die Frage, wie gut können sie das kompensieren.

Oder kurz:
NVIDIA hatte bei 12nm viel Erfahrung. Erfahrung in einem Prozess kann Vorteile eines neuen Prozesses zum Teil kompensieren.
NVIDIA wechselt nun auf einen neuen Prozess, AMD wiederum hat diese Erfahrungen nun sammeln können. (Im übrigen auch ein Grund, warum Intel mit ihren 14nm recht gut mit halten kann. ;))
Wie gut ist Samsung 7nm gegen TSMC 7nm.

Das Duell "Ampere" gegen "RDNA2" könnte wirklich sehr spannend werden und für mich ist das alles nicht wirklich klar, was da am Ende rum kommt. NVIDIA hat in meinen Augen einen Nachteil, den AMD nicht hat: Sie benötigen für viele Sachen extra "Chipfläche" die AMD durch die Flexibilität ihrer Architektur lösen kann. Gleichzeitig ist NVIDIAS-Ansatz bisher wirklich "effizient" gewesen und wiegt daher die Chipfläche auf. Am Ende ist hier die Frage, welcher Weg nun wirklich wie lange "effizient" funktioniert. NVIDIAs weg, alles per "extra"-Cores zu Lösen kann genau der richtige sein, kann mit der Zeit aber auch schief gehen. AMDs Weg, dass sie versuchen sowohl Shader als auch TMUs flexibler zu bekommen/zu erweitern kann genau so gut der richtige sein oder auch mit der Zeit schief gehen.
 
  • Gefällt mir
Reaktionen: Smartbomb, ThePlayer, Connsen27 und 10 andere
zeedy schrieb:
Ich hatte mit meiner 5700 XT seit Kauf...

Du hast eine AMD GPU? Für Hochleistungs Gamer sind doch die Nvidia Dinger besser :D ;) :schluck:

Ich verstehe den Kern deiner Aussage, ist an sich auch richtig.
Reifende Treiber sind für mich kein Problem, so lange die Reifung die Leistung höher treibt. Besteht das Reifen eines Treibers darin das die Grundfunktionen absturzfrei funktionieren, ist das Produkt mMn noch nicht Marktreif und nichts für mich (allgemein bezogen)

Die 5700Xt im Bekanntenkreis lief übrigens von Anfang an top. Derjenige hat aber auch ein sauberes System und sauber installierte / deinstallierte Treiber.
Ich denke das bei vielen AMD Problemen das Problem wie so oft vor dem Monitor sitzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Rage und Onkel Föhn
BoardBricker schrieb:
Mal sehen. Meine Vega64 ist mir für WQHD je nach Titel ein bisschen schlapp, wenn die Regler rechts von der Mitte stehen sollen. Eine RX5700XT bietet mir bei dem Preis zu wenig Mehrwert gegenüber dem, was ich gerade habe und eine Neuerscheinung, wenn sie dann mal kommt, ist wahrscheinlich auch außerhalb meines Budgets.

Ich glaub, ich kauf mir einen 17'' TFT und spiele wieder in 1280x1024
Das ist immer genau das Problem, das ich mit höheren Auflösungen hatte. Die Grafik ist die gleiche (aber schärfer), dafür frisst es viel Leistung. Und genau da sehe ich die Chance eines offenen, DLSS2.0 (oder besser) vergleichbaren Features für alle Spiele
 
  • Gefällt mir
Reaktionen: GERmaximus
Teralios schrieb:
Das ist so falsch!

Nein, das ist absolut richtig. Du hast es doch gerade erklärt.
Bei AMD sind die Shader so aufgebaut, dass sie zusammen mit dem RT-Teil agieren, also ein Teil von den Shadern sind.

Bei NVIDIA sind sie getrennt und müssen umständlich über die Tensors zusammen in Einklang mit den Shadern gebracht werden.

Ergo, Bei AMD läuft alles über die Shader. Daher absolut korrekt von mir gesagt.
 
Ich bin etwas spät zu der Party, aber wollte nochmal bei vielen Kommentaren etwas aufgreifen.
Shoryuken94 schrieb:
Konkurrenz fördert die Weiterentwicklung von produkten und man bekommt als Kunde deutlich bessere Produkte in kürzeren Abständen. Die Preise sinken aber nicht.
Aber man bekommt die gleiche Leistung für weniger Geld. Das ist doch schonmal ein Fortschritt. Beim letzten Test der 1650 mit GDDR6 habe ich gesehen, dass die Leistung ähnlich wie meine alte RX470 ist. Die hat Ende 2016 250€ gekostet. Die 1650 ist kaum günstiger.
DarkerThanBlack schrieb:
Soweit ich das mitbekommen habe, nutzt AMD keine dedizierten RT-Einheiten. RDNA2 hat die Shader so umgebaut, das RT direkt über die Shader parallel laufen kann.
Würde vermutlich sogar besser sein.
Da bist du noch auf dem alten Stand, als hier auf CB das AMD-Patent analysiert wurde. In meinem Artikel, der hier vor kurzem raus kam, habe ich das nochmal deutlich präzisiert. AMD wird auch eigene Schaltkreise nur für RT benutzen. Allerdings wird von 2 Berechnungsfunktionen eine vom Texturprozessor übernommen, nur die zweite kommt als Funktionseinheit hinzu.
Die RT-Cores von Turing benötigen nach Schätzungen übrigens ca. 10% der Streamprozessor-Fläche. Also nicht allzuviel. Bei AMD dann vielleicht 5%?
Revan1710 schrieb:
Mein letzter Stand war, dass sowohl für die Zen3 als auch die RDNA2-Chips alles noch Mutmaßnungen sind, ob N7P oder N7+
N7P wurde anscheinend bereits für Navi10 verwendet, also wäre nur N7+ überhaupt ein Fortschritt in der Fertigung. Ansonsten ist läuft alles über die Architektur, was die +50% P/W so erstaunlich macht. Und anders als beim Node-Shrink gibt es auch weniger Möglichkeiten zum Cherry-Picking.
Shoryuken94 schrieb:
Da RDNA2 auch keine dedizierten Raytracing Einheiten hat, wird es noch enger,
Nein! Siehe oben.
Teralios schrieb:
Es gibt hier einen recht guten Artikel, der es bereits grob erläutert,
Danke! Wer ihn noch nicht kennt, einfach nach "Raytracing VI" suchen.

Edit: Oder hier klicken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Onkel Föhn und Grundgütiger
Zurück
Oben