Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon Instinct MI60: Die erste PCIe-4.0-Grafikkarte setzt auf 7-nm-Chip
Nachdem man sein Pulver verschossen hat kann man nicht mehr schießen. Bezogen auf 7nm würde das bedeuten dass AMD keine weiteren 7nm Produkte mehr liefern kann.
Nun, zumindest kann man bei der Effizienz nicht mehr schießen. Man braucht 7nm und 300W für knapp 15TFlops. Etwas was Nvidia auch mit 12nm fast schafft.
Ich würde gerne wissen wo hier für manche das ein großer Wurf für die 7nm Fertigung sein soll, siehe 3dcenter Artikel.
Also im Artikel steht drin, dass AMD 2020 erst wieder High End bringen wird. Geht man von einer normalen und realistischen Leistungssteigerung durch die AMD Mittelklasse 2019 aus, also in etwa Vega 56-64 Leistung bei viel kleinerem Chip in 7nm für 200€, wäre das für viele vermutlich in Ordnung.
Nur damit gewinnt man keinen Blumentopf gegen Nvidia. Denn selbst wenn man 2070 Leistung erreichen sollte (welche nochmal 10% über der Vega 64 liegt), hat man mit dem Mittelklassechip des Konkurrenten gleichgezogen. Die fertigen aber wohlgemerkt immer noch in quasi 16 (12) nm.
Mit einer Navi Mittelklasse, ich nenn sie jetzt mal RX680
und einem sagen wir 250-300mm2 Chip, den man locker für 250-300$
verkaufen kann, hat man viel gewonnen, wenn sie gegen eine 450mm2
TU106 (RTX2070) anstinken kann, die eben 500-600$ kostet.
Und welcher gar nicht viel billiger verkauft werden kann aufgrund der Grösse
und dem Speicher.
Diese Navis würden sich stand jetzt und sicher auch in einem Jahr verkaufen
wie geschnitten Brot und hätten eine ordentliche Marge für AMD.
Das kann man nun aber auch missverständlich interpretieren. Ja, der Aufbau und die Weiterentwicklungen von GCN in Navis Generation sind auch in offenbar starker Kooperation mit Sony im Hinblick auf die Playstation 5 entstanden. Aber wie bewertet man dies nun?
Im Hinblick darauf, dass die SoC-Lösung der nächsten Konsole wahrscheinlich Zen-Kerne hat, also weniger CPU-Limit besteht, könnte dies darauf hinweisen, dass Navi vielleicht stärker auf Spielegraphik hin optimiert wurde. Das wäre eine mögliche Annahme.
Ansonsten ist die Aussage in einer Hinsicht aber vor allem missverständlich: Navi wird es auch in andere Varianten als der Playstation-Variante geben. Natürlich wird AMD auch Chips mit weniger und wahrscheinlich auch mit mehr Compute Units für den PC-Markt entwerfen und herstellen, bzw. anbieten. Dies suggeriert zumindest die Historie. Die erste Playstation 4 hatte 18 Recheneinheiten (CUs). Das sind bedeutend weniger als die größte Variante, mit der die Polariskarten aufwarten konnten.
Ich spekuliere, dass wir demnach ähnliches auch bei Navi beobachten werden können.
Oh man ob AMD überhaupt noch mal im Gaming Bereich mit einer Top Grafikkarte angreift?
Man sagt sich wohl wir haben die Deals für die neue PS5 und die Xbox da machen wir unser Geld.
Richtig und Richtig!
Man muss es sich leichter machen im Leben.
Wenn man alles nur bunt sieht, hat man keine Basis mehr.
Daher vereinfache ich alles und es läuft prima bei mir.
AMD bekommt auch nix auf die Reihe. CPU´s laufen wieder, die Vega GPU´s sind einfach nur schlecht in der Gesamtabrechnung. Hab ich auch nie was dagegen gesagt.
Mit einer Navi Mittelklasse, ich nenn sie jetzt mal RX680
und einem sagen wir 250-300mm2 Chip, den man locker für 250-300$
verkaufen kann, hat man viel gewonnen, wenn sie gegen eine 450mm2
TU106 (RTX2070) anstinken kann, die eben 500-600$ kostet.
Und welcher gar nicht viel billiger verkauft werden kann aufgrund der Grösse
und dem Speicher.
Nvidia könnte vermutlich ohne nennenswerten Aufwand die RT Features weglassen und den TU106 auf 7nm shrinken. Der TU106 ist ja nur so riesig, weil man das RT Zeug drinnen hat.
Zudem müssten sie auch erst mal in die Leistungsregion einer 2070 vorstoßen.
Es ist recht unwahrscheinlich, dass der Mittelklasse Chip mehr Leistung hat, als der High End Chip der letzten Gen.
Ich finde es auf alle Fälle schade, dass man erst 2020 wieder was gescheites auf den Markt bringen will.
Vielleicht kommt der Chip aber dann mit RT Features, das wäre immerhin etwas.
Beweis durch Behauptung? Nur dumm dass wir hier nicht auf P3D sind wo eine Behauptung durch fünfmalige Wiederholung in den Status eines Beweises erhoben wird.
Ergänzung ()
Wodurch ist das offensichtlich? Durch wiederholtes wiederholen eines Gerüchtes in den üblichen verdächtigen Bullshit-Bingo-News-Seiten?
Falls Du eine ernstzunehmende Quelle (die selbst hinter der Aussage steht und nicht Berichtet das Charly gesagt hat sein Papa hättte gesagt...) für dieses "offensichtlich" hast - dann immer her damit.
Speaking to industry sources this week under conditions of anonymity, I've learned that the PS5 will use both AMD's Zen and Navi graphics architectures.
Which brings us to, in my eyes, the more interesting revelation. According to my sources, Navi isn't just inside the Sony PS5; it was created for Sony. The vast majority of AMD and Sony's Navi collaboration took place while Raja Koduri -- Radeon Technologies Group boss and chief architect -- was at AMD.
But the collaboration came at the expense of Radeon RX Vega and other in-development projects. Allegedly, Koduri saw up to a massive 2/3 of his engineering team devoted exclusively to Navi against his wishes, which resulted in a final RX Vega product Koduri was displeased with as resources and engineering hours were much lower than anticipated. As I mention in my companion report, the implication is that AMD CEO Dr. Lisa Su wanted to devote more energy into its semi-custom business than its desktop graphics division.
On a related note, a new rumor emerged recently about Navi for desktop being merely a midrange part and not competing with Nvidia's high-end GeForce cards. That makes perfect sense if it was developed primarily for a console first.
The other interesting aspect to all of this is that my sources never mentioned Microsoft in the Navi conversations. This is pure speculation, but maybe Microsoft's next Xbox devices -- code-named "Scarlett" -- won't use Navi at all. Perhaps it will use a separate semi-custom solution incorporating Vega, or something else entirely that we're not privy to. Either way, the conversations I had referred to Navi in the past tense, as if it was already finished.
aso du bist ein AMD Fanboy ok .... dann versteh ich nicht warum du dich so künstlich aufregst.
Frage: kennst du alles was Gameworks etc beinhaltet an spezelle Anweisungen? das weiß dummerweise niemand weils ne propitäre Lib ist. Könnten ja Routinen wie bei PhysX sein, nicht Nvidia HW erkennt und die Graka erstmal ewig mehr berechnen muss bis zum Ziel. Wie bei PhysX eben, nur CPU only und ganz alte ineffizente Befehlsätze..
RB6istGut schrieb:
Hitman ist ein Radeon sponsored Titel und die RTX demontiert die Vega sowas von.
das kann durchaus sein, allerdings gebe ich immer wieder zu bedenken, das man bei Nvidia vorsichtig sein muss. Weglassen von Details und Obeflächendichte etc hatten wir ja schon, Einmal bei dem 970 Desaster, als die Treiber dann alles versuchten um unter 3,5 GB zu bleiben und bei den Benchmarks mit 3D Mark wo die Qualtät massiv reduziert wurde um doppelt so schnell zu sein.
Wodurch ist das offensichtlich? Durch wiederholtes wiederholen eines Gerüchtes in den üblichen verdächtigen Bullshit-Bingo-News-Seiten?
Falls Du eine ernstzunehmende Quelle (die selbst hinter der Aussage steht und nicht Berichtet das Charly gesagt hat sein Papa hättte gesagt...) für dieses "offensichtlich" hast - dann immer her damit.
Abgesehen davon: Was hat das mit der Radeon Instinct zu tun um die es hier geht?
Ich empfehle dir, deinen Ton doch etwas zu sänftigen. Mit Unterstellungen um sich zu werfen, ist kein guter Ton - hat mir meine Mutter zumindest mal gesagt.
Eine einfache Aussage wie "War das nicht nur ein Gerücht, oder gibt es dazu belastbare Quellen?" hätte durchaus gereicht.
Den Rest kannst du im Beitrag von Goodplayer nachlesen.
Was das mit Radeon Instinct zu tun hat? Das kann man nachlesen. Das Gespräch hat sich etwas verschoben durch die Aussage, AMD hätte bis 2020 keine neue High-End GPU im Petto. Das ist Gesprächsdynamik. Passiert.
Bevor du aber durch dieses Off-Topic wieder unpassendes Vokabular auspackst, suche ich mir angenehmere Foren. Einen schönen Abend. Ich schüttle den Kopf.
Nvidia könnte vermutlich ohne nennenswerten Aufwand die RT Features weglassen und den TU106 auf 7nm shrinken. Der TU106 ist ja nur so riesig, weil man das RT Zeug drinnen hat.
Zudem müssten sie auch erst mal in die Leistungsregion einer 2070 vorstoßen.
Es ist recht unwahrscheinlich, dass der Mittelklasse Chip mehr Leistung hat, als der High End Chip der letzten Gen.
Könnte NV schon, wollen sie aber garantiert nicht. Das ist die neue Sau die durchs Dorf getrieben
wird, das neue Must Have, das keiner braucht wie Physix und Gamemurks.
Da wird man sich dran gewöhnen müssen, dass alle GamerGPU unnötig mit Deep Learning und
RT daher kommen. Ob mans braucht oder nicht.
Ausserdem, die 7NM Kapazitäten sind sehr knapp. AMD konnte froh sein, dass TSMC einen
7NM HP Prozess auf die Beine stellen konnte. Apple und Huawei und bald auch Qualcomm kaufen
alles in 7NM Kapa was sie bekommen können. Was mal locker 90% der Kapazität ausmacht.
Vor mitte/ende 2020 sehe ich keinen Touring Refresh in 7NM(+).
Was aber eher an mangelnder Konkurrenz als an den Fertigungskapazitäten liegen dürfte. Nvidia wird sich da schon entsprechend Kapazitäten gesichert haben. Zur Not könnte wohl auch auf Samsung ausgewichen werden.
Echtzeitraytracing wird man früher oder später brauchen, insofern würde ich diejenige Firma, die das Feature einführt, nicht gleich zum Buhmann machen.
Raytracing ist auch irgendwie das einzige Feature, das DX12 grafisch vom Vorgänger abheben würde.
Sollte es hart auf hart kommen und AMD sich weigern ebenfalls RT Hardware zu bauen, wird es zumindest interessant wo sich der Markt hin entwickelt.
Wie gesagt, auf lange Sicht ist es bestimmt nicht dumm, wenigstens was in der Schublade diesbezüglich zu haben.
beweise eher erst einmal bitte das Gegenteil bevor du sowas sagst, danke. Denn das Gameworks andere Grakas ausbremst ist erwiesen, nur ist die Frage ob das absichtlich passiert oder einfach in der Natur liegt. Wenn es in der Natur liegt, warum macht Nvidia es dann nicht OpenSource wie AMD es bei seine Libs macht?
Also sieht man schon, wo Vega auf alle Fälle "überlegen" ist. Es ist für mich mehr oder weniger, die neue Karte die bei AMD Hawaii ersetzt
FirePro W9100
2,619 TFLOPs
Oneplusfan schrieb:
Raytracing ist auch irgendwie das einzige Feature, das DX12 grafisch vom Vorgänger abheben würde.
Sollte es hart auf hart kommen und AMD sich weigern ebenfalls RT Hardware zu bauen, wird es zumindest interessant wo sich der Markt hin entwickelt.
https://www.golem.de/news/computerg...ltra-settings-im-grafikmenue-1803-133464.html
Wird nicht passieren, da AMD selbst bei Raytracing ein Statement abgegeben hat, dass das ein Feature ist, welches bald in vielen Games vorhanden sein wird. Ich glaube nur, dass AMD selbst keine "eigenständige" Cores entwickelt, so wie es NV das gerade macht, sondern das irgendwie mit CUs und Async Compute umgesetzt werden könnte. Für AMD wäre das deshalb nicht so verkehrt, weil man nämlich APUs (bzw HPU für Server) somit das Feature beibringen könnte. Mal sehen, aber zu glauben diese ältere Technologie würde nur NV arbeiten oder es sei was komplett neues, ist schon sehr naiv. NV hat als erstes eine Hardware-Co-Prozessor zur Unterstützung der GPU eingeführt. Aber man sieht es schon bei der 2080TI, dass vermutlich erst in 7nm, die Mittelklasse gutes Raytracing haben wird.
Ich kann mir gut vorstellen, dass Navi RayTracing beherrscht. Für Konsolen wäre das durchaus ein Feature, speziell Sony. RayTracing könnte bei exklusiv Games nicht nur die Grafik schöner machen, sondern auch effizienter entwickeln lassen:
Letztlich dürfte sich Raytracing aber auf allen Plattformen etablieren, weil es nicht nur schickere Grafik bietet, sondern nach Ansicht von AMD auch die Arbeit der Entwickler massiv vereinfachen dürfte. Statt Umgebungen mit aufwendigen, teils von Hand angelegten Verfahren wie Screen Space Ambient Occlusion (SSAO) oder mit Shadow Maps auszuleuchten, wäre die Sache mit der Brute-Force-Technologie Raytracing in wesentlich weniger Schritten erledigt.
Ich sage nix gegen Raytracing als solches.
Aber bisher wird es doch nur in wenigen Ausnahmefällen punktuell eingesetzt.
Vom kompletten Bildschirminhalt mit Raytracing gerendert sind wir 3, 4 GPU Generationen entfernt.
Bis dahin ist es meiner Meinung nach fast schon unnötiger Ballast auf dem Chip, welcher ne Menge Platz frisst, welchen man vorläufig sinnvoller nutzen könnte und welcher die Preise in ungeante Höhen treiben wird.
Mit einer Navi Mittelklasse, ich nenn sie jetzt mal RX680 und einem sagen wir 250-300mm2 Chip, den man locker für 250-300$ verkaufen kann, hat man viel gewonnen, wenn sie gegen eine 450mm2 TU106 (RTX2070) anstinken kann, die eben 500-600$ kostet.
Du vergleichst Äpfel mit Birnen.
Der fertiggestellte Wafer in 12FF wird deutlich weniger kosten als der in 7FF. Es ist unbekannt ob überhaupt und wenn, wieviel billiger ein 300mm³ 7FF Die gegenüber einem 450mm² 12FF Die ist!
Schon in 10FF war der Preis pro Transistor gegenüber 16FF/12FF kaum mehr gefallen, bei 7FF ist er sogar wieder gestiegen. Erst mit 7FF+ wird sich das dann drehen (da weniger Masken in der Fertigung benötigt werden und der Prozeß einen kleinen Shrink erlaubt).
aso du bist ein AMD Fanboy ok .... dann versteh ich nicht warum du dich so künstlich aufregst.
Frage: kennst du alles was Gameworks etc beinhaltet an spezelle Anweisungen? das weiß dummerweise niemand weils ne propitäre Lib ist. Könnten ja Routinen wie bei PhysX sein, nicht Nvidia HW erkennt und die Graka erstmal ewig mehr berechnen muss bis zum Ziel. Wie bei PhysX eben, nur CPU only und ganz alte ineffizente Befehlsätze..
das kann durchaus sein, allerdings gebe ich immer wieder zu bedenken, das man bei Nvidia vorsichtig sein muss. Weglassen von Details und Obeflächendichte etc hatten wir ja schon, Einmal bei dem 970 Desaster, als die Treiber dann alles versuchten um unter 3,5 GB zu bleiben und bei den Benchmarks mit 3D Mark wo die Qualtät massiv reduziert wurde um doppelt so schnell zu sein.
1. Reg ich mich gar nicht auf. Ich weise dich daruaf hin, dass du dich etwas vertust, wenn du glaubst, dass nei 2080ti nur aufgrund von tricksereien schneller ist.
Eine Vega liegt preislich neu ungefähr bei ner 1070ti und ist im schnitt sogar etwas langsamer in abhängigkeit auf den Titel. Dazu kommen dann noch der jährliche Stromverbrauch und schwubbs ist die Entscheidung zu ner Vega auch wieder nicht zu rechtfertigen.
2. Treiberanpassungen mit tricksereien machen beide. Am ende des Tages und nach finalen anpassungen, waren beide abgelieferten Bilder identisch in den games, die ich kenne.
3. ist die 970er nach wie vor eine der besten grafikkarten für ihren preis, und ob ich 3,5 oder 4gb hab ist mir sowas von povidl, solang alles läuft wie intendet. 970er Besitzer können bis heute in FullHd alles auf mittleren bis max Details Zocken zu nem damaligen preis, der Heute im mainstream anzusiedeln ist.
Selbst wenn es stimmt, dass sie im 3dmark geschummelt haben... Wen bitte tangiert das? Den Zocker, der flüssig und mit schönen details zocken kann sicher nicht.
Ich persönlich bin zufrieden mit meiner rx480, aber alles was danach kam, konnte man einfach nicht kaufen. Wenn du dir die AMD welt schönreden willst, dann freu dich weiterhin über deine vega, aber red sie niemand anderem ein.
Diese Gameworx geschichte, wird nicht 100%falsch sein, aber wenn amd außer in sniper elite und doom immer hinten liegt, dann wirds wohl auch an was andrem liegen.
Nvidia hatte seit der 960er nen wesentlich besseren komprimierungs Algorythmus und rannte nicht mehr in ein bandbreitenproblem. Das tun ja die Polaris nach wie vor, wenn man sich die skalierung mit der Speicherübertaktung anschaut. Darum haben sies nicht umsonst mit der Brechstange HBM2 bei Vega versucht. Ohne dem Memory könntest die Karte vermutlich nur noch zum heizen benutzen.
Gleichzeitig war die effizienz immer etwas schlechter als bei nvidia.
Man kann nur hoffen dass Navi da einiges rausreißen wird, aber die Vega architektur, basierend auf nem alten Hitzkopf, der damals schon kacke war, ist nicht nur für mich, sondern auch objektiv gesehen einfach unterlegen in jeglicher hinsicht.
Der Vieelpolige NVLink-Kupfer-Stecker bietet wohl 6 NVlinks a jeweils 200 GBit/s je Richtung. Mithin 200M*12=2400GBit/s=300GByte/s. Also schon etwas geschönt denn sie haben einfach beide Richtungen zusammengezählt - bei den heute üblichen Infiniband/Omnipath/Ethernet heißt 100 GBit/s Transfer von 100G je Richtung. Wie auch bei PCIe3.0 (8G für jede Richtung) oder PCIe4.0 (16G). Insofern sind's also eigentlich nur 150 GBbyte/s oder 1.2TBit/s.
Ergänzung ()
Volker schrieb:
Die AMD Radeon Instinct MI60 ist die erwartete erste Grafiklösung von AMD auf Basis eines 7-nm-Grafikchips. Vega Enhanced sorgt bei dieser Fertigungsstufe für einen kleineren Die und trotzdem mehr Leistung, zudem wird erstmals PCI-Express 4.0 unterstützt. Es soll die schnellste FP32/64-Grafikkarte sein.
Schade das von der "dicken Inifinity-Switch-Brücke" nix abgebildet war .. oder was für ein Monster Steckverbiner das wird.
Oder wird's gar auch der BluLink oder NVLink Stecker um im Power Konsortium mitspielen zu können ? Heißt nur diesmal nicht Twix sondern RadeonLink vielleicht ?
Oder ist das Konsortium seit den NIvida DGX-1/-2 GPU-Monstern (-2 mit Switch) mit 2xIntelXEON statt IBMPower als Antrieb für die GPUs eh Geschichte ?
Hmm - alles baut Fabric-Switches wann kommt endlich die Fabric (äh Glasfaser) dazu - die dann diese dicken Datenkabel mit Nx200 Cu-Strippen in ein handliches Format (vielleicht ein kleines Glasfaserbündelchen möglicherweise auch nur aus einer Faser) bringt ? Zumindest 400G Transceiver (QFSP Stecker und möglicherweise PCB Module) auf einer Faser hat ja wohl nicht nur Intel in der Mache .. dann ginge ja wohl auch ein bißchen mehr als die obigen Transferraten ..
Daran und an dem Trend zu Spiele-Abo-(Abzock-)Modellen der Publisher, wovon aber leider auch Konsolenbesitzer betroffen sind.
Alles in allem keine guten Aussichten, aber ...
... was Navi angeht dürfte, bei dem gemunkelten Mehr an Ressourcen, welches man im Vergleich zu Vega dort für Konsolen/Gaming hinein gesteckt hat und steckt, man wohl einiges erwarten können (je nachdem, was bei GCN architekturtechnisch noch möglich oder wandelbar ist), nicht nur Takt ist dort relevant (siehe Turing-Leistung, die nicht vorwiegend durch Nodenfertigungsoptimierung sondern Architekturanpassung erzielt wurde).
Mir würde (Stock) GTX 1080Ti Niveau oder knapp darunter bei(m) Navi(-Mittelklassetopmodell, also einer "80er" Karte, eine viel spätere mögliche "90er" Karte nicht einbezogen) dicke reichen (für WQHD, alles darüber ist sowieso medial gehypter, rudimentär optimierter 4K/UHD-(HDR-, DLSS-)Schmarrn, bei dem ich nicht anbeissen werde, sorry nVidia, AMD/RTG, CB, PCGH, etc.), zumal die gleiche Technik in der kommenden Konsolengenerationen stecken wird (ein Grossteil der Spiele darauf optimiert werden dürfte).
Die Zeiten in denen sich Gaming-Oberklasse-GPUs noch (preis-leistungstechnisch) gelohnt haben, gehen mehr und mehr zuende, auch angesichts der oft halbgar umgesetzten oder massiv überteuerten und dazu nötigen Peripherie, Stichwort Monitore.
Ergänzung ()
Waelder schrieb:
... hoffe sie wollen das High End Feld nicht nvidia überlassen bzw. nicht zu lange, die Grünen verdienen sich da aktuell dumm und dämlich...wäre wünschenswert wenn die Roten ein wenig mehr Aufmerksamkeit Richtung GPU Markt lenken...
Das ist im Gaming-Bereich womöglich schon lange geschehen, leider, denn Vega ist primär nicht auf Gaming ausgelegt, anders als die nVidia-Oberklasse-GPUs, und taugen in der RX-Ausführung aber trotzdem noch dazu.
Wie niedrig die Priorität einer Gaming-GPU-Oberklasse bei AMD/RTG mittlerweile angesiedelt ist, lässt sich gut ablesen am geschätzten Veröffentlichungsdatum der (RX-)Vega-Nachfolge-GPUs .
Solange die (m.E. aktuell leicht überlegenen, im Falle der RX570 gar klar überlegenen) Mittelklasse-GPUs von AMD/RTG nicht einmal annähernd in gleicher Menge wie die direkten Konkurrenzmodelle des Marktführers gekauft werden (ohne Miningboom wäre das ungleiche Verhältnis noch verheerender für AMD/RTG ausgefallen), sähe ich als AMD/RTG da bei der für Gaming teurer zu entwickelnden Oberklasse überhaupt keinen Handlungsbedarf mehr.
Es bleibt die Hoffnung, dass Intel im Gaming-GPU-Oberklassebereich als Gaming-Alternative zu nVidia wird gut einsteigen können, mehr leider nicht.
Allerdings haben Intel-Produkte i.d.R. auch nicht den Ruf preiswert zu sein .
Solange die Mittelklasse bei AMD/RTG nicht in ähnlichem Maße wie bei nVidia gekauft wird, solange wird eine Oberklasse-GPU vermutlich dort allenfalls als nicht wirklich für/auf Gaming optimiertes "Spaltprodukt" einer Profi-GPU erhältlich sein, ergo, stiefmütterlich behandelt und diejenigen (nVidia-Jünger), die das kritisieren, sollten erst einmal Ihr einseitiges, verblendetes Kaufverhalten hinterfragen, welches massgeblich zur aktuellen Quasi-Monopolstellung nVidias (und der Preisentwicklung im GPU-Markt) beigetragen hat.