News AMD-Gerüchte: Navi-PCB aus der Fertigung, X570 im technischen Detail

Interessant wäre es vielleicht nach Erscheinen von AMDs/RTGs Navi (10 oder 20 GPUs) per Interview mit Raja Koduri (schon eine Weile zu Intel abgewandert zwecks dGPU-Entwicklung dort) zu erfahren, wie viel am Ende noch von seinem "Baby"/der Entwicklung unter seiner Regie damals übrig geblieben ist?

Nach Veröffentlichung sollte das NDA von Koduri (mit AMD/RTG, nach seinem Ausscheiden) eigentlich nicht mehr greifen.

Es wäre theoretisch noch eine andere Begründung denkbar, weswegen das PCB hier so überproportioniert erscheint (abseits einer frühen "one-for-all" Navi Entwicklungs-GPU-Platine), nämlich, dass der Einstieg in RT-Raytracing - Pendant zu Turing - nach viel Platz verlangt (zumal AMD/RTG ja erklärt haben, anders als nVidia es direkt in allen GPU-Leistungsklassen einführen zu wollen).

Letzteres spricht aber eher für eine weniger aufwendige Einstiegslösung als bei RTX, wobei sicherlich unter DX12 quelloffen Microsofts DXR angesteuert werden dürfte und nur bei Vulkan evt. eine hauseigene Lösung kommen wird (ob sich der Aufwand allerdings lohnen wird, da Vulkan ja leider immer noch Nischen-Low-Level-API in Spielen ist?).

Gespannt bin ich zudem, ob man zum Marktstart von Navi anders als bei nVidia Turing direkt schon mindestens einen halbwegs RT-Raytracing optimierten/mitentwickelten Titel parat haben wird (bspw. in Zusammenarbeit mit Bethesda)?

Laut John Peddie wird eine Abwanderung von Gaming-PCs in großem Massstab hin zu den kommenden Konsolen (wieder einmal) für möglich gehalten in den kommenden Jahren (kein Wunder bei der GPU-Preisentwicklung).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Natürlich und mich freut es ersten NV haut sich dadurch selbst in die Fresse und meant to play is Sony.

Genau deswegen haben sie ja den Deal mit Nintendo gemacht, naja NV Kann mich mal lieber eine PS5 statt völlig überteuerte RTX20er.

Naja gab es nicht von Crytek was zu RT auf GPUs wie Vega56 naja vielleicht was in der Richtung bei Navi.

Zumindest hätte Crytek, dann was in iher Engine was U Engine nicht hat. 😉
 
  • Gefällt mir
Reaktionen: Chismon
Hier mal der link zum Video nur nochmal für alle die es noch nicht kennen.

Und ende des Jahres ist Cry 5.5 fertig mh fie PS5 kommt 2020 Zufall glaube nicht. 😉

 
  • Gefällt mir
Reaktionen: .fF
Mcr-King schrieb:
... meant to play is Sony.

Genau deswegen haben sie ja den Deal mit Nintendo gemacht, naja NV Kann mich mal lieber eine PS5 statt völlig überteuerte RTX20er.

Naja gab es nicht von Crytek was zu RT auf GPUs wie Vega56 naja vielleicht was in der Richtung bei Navi.

Zumindest hätte Crytek, dann was in iher Engine was U Engine nicht hat. 😉

Eine Art CryTek-ähnliche Zwischenlösung wäre durchaus möglich und so schrecklich viel macht RT-Raytracing (abseits teurer RTX 2080(Ti) GPU Leistung vielleicht noch) bisher (als Einstiegstechnik) auch nicht her, zumindest ist es für die meisten kein vordergründiges GPU-Kaufargument bisher.

Gespannt bin ich auch schon wie die kommende Konsolengeneration von Sony und Microsoft ausfallen wird und ein Einstieg meinerseits in PS5 oder XB2 Konsole ist auch nicht komplett unwahrscheinlich (das hängt wohl eher von den Navi GPUs/NextGen GPUs und der Preisentwicklung bei AMD/RTG ab).

Ein Turing Refresh oder Nachfolger in 7nm dürfte zwar irgendwann reichlich Leistung liefern, aber die nVidia Preise gehen dann wohl noch mehr als bei Turing durch die Decke (werden z.T. surreale Ausmaße annehmen, könnte ich mir vorstellen).

Eine enge Kooperation von AMD/RTG und CryTek wäre wünschenswert, zumal die Unreal Engine etwa zunehmend auf nVidia GPUs optimiert wird und AMD/RTG bei der Engine von Epic schon lange den kürzeren ziehen muss ... "wer gut schmiert, der gut fährt" und darauf versteht sich "die Lederjacke" leider bestens ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Hier noch eine halbwegs gute Übersetzung.
777077
 
  • Gefällt mir
Reaktionen: .fF, NMA, thuNDa und 6 andere
Ja genau aber leise sonst kommen die ganzen PCler und mimimim tja wie ich sage Intel und NV haben ganze Arbeit geleistet, dass der PC noch mehr Randprodukt ist was Gaming angeht danke.

Ja bin auch gespannt auf PS5 und Xbox mehr auf die PS5 die dreier mus mal ersetzt werden BD Laufwerk kaputt.

Aber Crytek braucht Abnehmer für ihre Engine und Sony und MS brauchen RT und AMD braucht alle drei. WINWIN würde ich dass nennen und die U Engine braucht Konkurrenz so.
Ergänzung ()

Cool ryzen 3er ich komme naja habe noch zeit zum sparen brauche erstmal ein neues gutes NT. 😬
 
  • Gefällt mir
Reaktionen: Rockstar85
cypeak schrieb:
das bezweifle ich - gerade amd's karten mit hbm, also vergleichsweise hoher speicherbandbreite - haben sich nicht wirklich absetzen könen von ihren nvidia counterparts, welche "nur" mit üblichem gddr unterwegs sind...

man vergleiche z.b. die vega's mit gtx1070/1080 oder die "neue" radeon 7 mit einer rtx2080 - z.b. steht es bei der vega56 mit 410gb/s gegenüber einer 1070 mit 256gb/s - trotzdem ist die vega nur minimal flotter.
das gleich gilt für vega64 vs. gtx1080 oder radeon 7 vs. rtx2080 - bei der letzteren sind es gar 1024gb/s gegen 448gb/s.
speicherbandbreite alleine macht es also nicht.
Doch. Theoretisch hat die Vega 64 LC sogar teilweise mehr Rechenleistung als die Radeon 7. Die Radeon 7 setzt sich von Vega 56/64 ab, da sie diese enorm hohe Speicherbandbreite hat. Die Leistung von GCN ist mehr vom Speicherabhängig als Turing und co. Ich meinte das die eine hohe Speicherbandbreite benötigen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bei GCN war immer das Problem die Cluster auszulasten.

Bandbreite ist mit hbm Speicher mehr als genug vorhanden.

Erwartet keinen 2080 ti Killer. Sondern ne midrange Lösung unter halb von 2080.

Wichtig ist die defekten Features zu fixen. Als Beispiel sei hier tile-based deferred rendering genannt.

Aktuell deutet alles auf DDR 6 Speicher hin. Wann und wo hbm nochmals zu sehen sein wird, aktuell unklar.
 
  • Gefällt mir
Reaktionen: NMA, Volvo480, yummycandy und eine weitere Person
Ob Navi dann eventuell 2 Generationen später eine 1080Ti besiegen kann? Wir werden wohl auf CB Navi Benchmarks exklusiv in Wolfenstein sehen damit Navi nicht einfach nur als eine große Ressourcenverschwindung erscheint ....
 
Der hauptfaktor für gute GCN Performance ist Optimierung der Spiele. Forza horizon ist ein perfektes Beispiel. GCN kann gut performen, wenn die Software mitmacht. Ob sich das mit einer anderen Architektur grundlegend ändert, kann ruhig angezweifelt werden. Jede Architektur wird mehr oder weniger Optimierungen brauchen. GCN ist sicherlich nicht die perfekte gaming Architektur, aber eine andere Architektur löst dieses Problem auch nicht grundlegend.

Meine v56 hat mit UV bei 1500mhz realtakt ohne powerlimit einen "Verbrauch" von 160w (+wandlerverluste), und die ist nicht mal besonders gut. Navi müsste bei selber Performance hier nochmal ne ordentliche Ecke mehr herausholen, wenn die große ähnlich viele CUs hat. Bei vega hängts in erster Linie an den Stock 1,15v core, die sich bei den allermeisten Karten problemlos um 100mv senken lassen, viele machen 150mv, einige auch etwas mehr, und das beim selben Takt.

Man hätte bei vega ruhig auch ein paar MHz weiter unten ansetzen können und die 14nm Effizienzkurve besser mitnehmen, damit hätte man >90% Performance bei <70% leistungsaufnahme haben können, mit oc headroom. Das wäre die schlauere Marketing Strategie gewesen.

Und die 150$ für 8gb gddr5, die hier genannt wurden, sind absoluter Käse. Das ist der Preis von hbm2 in der "speicherkrise" gewesen.
 
  • Gefällt mir
Reaktionen: Chismon und Mcr-King
duskstalker schrieb:
Und die 150$ für 8gb gddr5, die hier genannt wurden, sind absoluter Käse. Das ist der Preis von hbm2 in der "speicherkrise" gewesen.

Das ist auch völliger Käse. Du bekommst für 130 Euro Grafikkarten inklusive 8 GByte GDDR5, und der geringste Kostenanteil da ist Speicher. Grafikspeicher ist genau so massiv im Preis gefallen wie DRAM für Arbeitsspeicher. Der liegt jetzt an jeder Ecke rum und die großen wie Samsung und SK Hynix versuchen aktuell eher, den überhaupt über den Herstellungskosten loszuschlagen das sie evtl. auch 1 Cent daran verdienen und keine Miese machen.
 
  • Gefällt mir
Reaktionen: Chismon, Infi88, Mcr-King und 3 andere
SlaterTh90 schrieb:
Ich hoffe echt es gibt wesentlich mehr PCI-E bei Ryzen 3000. Für mich hat X470 mit Ryzen 1000/2000 zu wenig Lanes.

Sehe ich auch so. Es muss nicht gleich die 64 von Threadripper sein aber 48 wäre heute schon gut.
 
  • Gefällt mir
Reaktionen: NMA, Mcr-King und FCK-THIS
Volker schrieb:
Das ist auch völliger Käse. Du bekommst für 130 Euro Grafikkarten inklusive 8 GByte GDDR5, und der geringste Kostenanteil da ist Speicher. Grafikspeicher ist genau so massiv im Preis gefallen wie DRAM für Arbeitsspeicher. Der liegt jetzt an jeder Ecke rum und die großen wie Samsung und SK Hynix versuchen aktuell eher, den überhaupt über den Herstellungskosten loszuschlagen das sie evtl. auch 1 Cent daran verdienen und keine Miese machen.

Bloß nicht auf meinen Beitrag eingehen, dann müsste man ja zugeben, dass man im Unrecht war :evillol:

Nochmal, mindestens (!) 190$ Im Einkauf für 16GB GDDR6 - realistisch für die Mittelklasse - Fehlanzeige.

Ich zitiere mich mal nochmal selbst, vielleicht hast du es ja auch übersehen ;)

FCK-THIS schrieb:
Du darfst mich gerne aufklären weshalb ich oder sonst jemand an 16 Kerne für 300€ glauben sollte? Wo hast du das aufgeschnappt? In dem von dir zitierten Beitrag offensichtlich nicht :rolleyes: Schön wäre es, realistisch sicher nicht.
Und wer hat behauptet, dass 16GB GDDR6 grundsätzlich nicht möglich wären?
Selbstverständlich ist nur, dass AMD keine 16GB GDDR6 in die Mittelklasse bringt.

https://www.guru3d.com/news-story/gddr6-significantly-more-expensive-than-gddr5.html

1GB GDDR6 14Gbps Chips von Micron liegen aktuell bei 11,69$.
Meinst du wirklich 2GB GDDR6 18Gbps Chips von Samsung werden günstiger pro GB sein? :rolleyes:
Rechnen wir mal großzügig (!) mit dem selben Preis pro GB sind wir bei 187,04$ für 16GB ...
Und nun bitte eine professionelle Meinung: wie realistisch soll das bei einer Mittelklassen-Grafikkarte für +- 200-400$ sein?

Und nein, man bekommt 8GB GDDR5 (!!!) aktuell für 150€. GDDR6 spielt wie schon erwähnt in einer anderen Leistungs- wie auch Preisklasse (x2), damit wären auch keine 8GB bei einer 150€ Grafikkarte möglich. Also bitte nicht GDDR5 mit GDDR6 verwechseln ...

Bin jedenfalls gespannt wie viele von den üblichen Verdächtigen dann wie bei Turing nun auch bei Navi schreien werden „8GB eine Frechheit“ „Zukunftsverweigerer“ „Wucher“ etc. :evillol:

Ergänzung ()


:stacheln:

Und nein, wir sprechen immer noch von GDDR6, nicht GDDR5, der nur die Hälfte kostet.
Ergänzung ()

Chismon schrieb:
Gespannt bin ich zudem, ob man zum Marktstart von Navi anders als bei nVidia Turing direkt schon mindestens einen halbwegs RT-Raytracing optimierten/mitentwickelten Titel parat haben wird (bspw. in Zusammenarbeit mit Bethesda)?

Natürlich werden sie das, allein Battlefield V, Metro Exodus usw. die API ist DXR, die Spiele sind nicht exklusiv für Nvidia RTX gemacht worden, falls du das immer noch nicht verstanden hast :rolleyes:
Auch AMD kann und wird Hardware basiertes Raytracing bringen wie wir nun wissen, ein Jahr später kommen, nachdem man die ganzen „Fanboys“ schreien lassen hat wie unnütz Raytracing doch sei, hat da selbstverständlich seine Vorzüge ...
 
Zuletzt bearbeitet:
FCK-THIS schrieb:
Bloß nicht auf meinen Beitrag eingehen, dann müsste man ja zugeben, dass man im Unrecht war :evillol:

Nochmal, mindestens (!) 190$ Im Einkauf für 16GB GDDR6 - realistisch für die Mittelklasse - Fehlanzeige.

Ich zitiere mich mal nochmal selbst, vielleicht hast du es ja auch übersehen ;)

Die Seiten da sind völlig am OEM- und Massenmarkt vorbei, die zahlen ganz andere Preise. Als wenn da irgendwer noch 40 Dollar für 8 GB zahlen würde .. haha never ever. Zudem hat sich der Preis in den letzten 100 Tagen seit Ende 2018 nicht um einen Cent verändert! Völlig realistisch ... NOT!
 
  • Gefällt mir
Reaktionen: Balikon
Nur wilde Spekulationen. Abwarten!:schaf:
 
  • Gefällt mir
Reaktionen: fitzelsche
leckerbier1 schrieb:
Anhand des Layouts einer Vorserie kann man natürlich die Leistung berechnen. Wusstest du dass nicht??? XD
 
  • Gefällt mir
Reaktionen: fitzelsche
Dann Kauf weiter Intel
Als wären 5GHz nötig xD
 
  • Gefällt mir
Reaktionen: KingLM97, Chismon, Acedia23 und 7 andere
Der Nachbar schrieb:
@ Marflowah
Die Softwarentwickler hätten ... [...]Bei Prozessoren hätte ... [...]
Alles richtig soweit, aber mit "hätte" kommt man nicht weiter. Zur Aufgabe von AMD gehört eben auch, den Entwicklern in den Hintern zu kriechen, wie nvidia das eben tut. "Von nix kommt nix."
 
  • Gefällt mir
Reaktionen: Chismon, Mcr-King und kisser
Klar sagt doch Intel hust mit irem 10nm hust. Ach die haben ja gar keinen.

So zur GNC wie gut der sein kann wenn die SW passt sieht man an der aktuellen Konsolen GEN. 😉

Dass Problem ist UT ist NV optimiert und DXR ist auch auf NV optimiert. 😉
 
Zurück
Oben