News AMD-Gerüchte: Navi-PCB aus der Fertigung, X570 im technischen Detail

nochmal aus ner anderen Quelle
https://www.dsogaming.com/articles/...d-war-z-higher-framerates-but-major-stutters/
777322


bemerkenswert finde ich hier die 73 FPS min unter Vulkan bei der RX 580 , die Vega hat 71 und die 2080 TI gar nur 51 , aber auch bei DX11 kann die RX580 noch bemerkenswert gut mithalten bei den min FPS , sieht tatsächlich schlecht optimiert aus , die Unterschiede zur RX580 müßten eigentlich größer sein

PS: hat nen Patch gegeben https://play4.uk/first-world-war-z-patch-improves-vulkan-performance-game-news-2238
am 22.04 , könnte jetzt schon wieder anders aussehen
 
Zuletzt bearbeitet:
Full HD und ne angestaubte CPU. Da können min. FPS schonmal gleichauf sein.
 
@MK one
dass vulkan den amd karten "gut schmeckt" ist nun wirklich kein geheminis und würden mehr engines/games diesen renderpfad bedienen, so würden die benchmarks recht schnell zugunsten von amd kippen.
die realität sieht aber leider nicht so aus.
so gut amd mit vulkan umgehen kann, so sehr hat man definzite bei der shader-effizenz unter direct3d.

was ansonsten die performace und energieeffizenz von "navi" sowie deren marktsegment angeht, so wird hier schlicht geraten - es könnte so aber auch so² sein...das ist als "information" oder gar als diskussionsgrundlage einfach zuwenig.
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: Mcr-King, Infi88 und v_ossi
übrigens zu den 4,5 Ghz ....

https://www.gamestar.de/artikel/amd-ryzen-zen-2-fruehes-sample-mit-8-kernen-und-45-ghz,3335369.html
Ein sehr frühes Sample dieser neuen Prozessor-Generation erreicht laut einem Nutzer aus dem HardOCP-Forum bereits einen Takt von 4,5 GHz, ist allerdings instabil. Die Informationen sollen nicht direkt aus dem CPU-Bereich von AMD stammen, sondern von der Radeon Technologies Group (RTG). Dort müsse man sich den Prozessor wegen Veränderungen genauer ansehen, um auch die Grafiktreiber entsprechend anzupassen. Der Forennutzer ist bei HardOCP als seriös und für seine Verbindungen zur RTG bekannt.


Laut seinen Aussagen müssen viele Tests mit dem frühen Sample wiederholt werden, weil die CPU einfach noch zu oft abstürzt. Trotzdem läuft der Prozessor schon mit 4 GHz und erreicht per Boost sogar 4,5 GHz. Auch mit DDR4-3600 und schnellen CL15-Timings versteht sich die Zen-2-CPU bereits. In diesem Zustand und ohne Absturz kann es der Prozessor laut den Aussagen bereits mit einem Intel Core i7 8700K aufnehmen.
 
  • Gefällt mir
Reaktionen: Mcr-King
 
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: Mcr-King
r4yn3 schrieb:
Full HD und ne angestaubte CPU. Da können min. FPS schonmal gleichauf sein.
+ veraltet + völlig Praxis und realitätsfern, quasi die "Fakten" des klassischen träumenden Fanboy's.

Wichtig für den Ryzen 3000 sollte eigentlich nur sein etwas Effizienz und Performance Lücken dort zu schließen wo man das kann und als nötig erachtet, die Frequenz sollte da nicht über alles gehen und man sollte jetzt keinen zu schlechten Pass spielen was das Gesamtpacket betrifft.

Ein relativ einfach zu übertaktender 5ghz 8 Kerner mit ordentlicher Skalierung könnte theoretisch für lange Zeit das Ende Intels bedeuten in fast jedem Bereich, da sollte man nicht zu gierig werden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
Der leak ist doch schon ein halbes Jahr alt.

Neuer sind die infos über die 4 Kerner mit 4,5ghz und da sind die Samples auch schon etwas weniger early
http://www.pcgameshardware.de/AMD-Z...-technischen-Eckdaten-und-Mainboards-1280787/
Das weiß ich doch .... , ich wollte damit nur sagen das sie erst einmal die Instabilitäten beseitigt haben , die 4,5 Ghz waren eigentlich schon von Anfang an im Gespräch ... , das was die MoBo Hersteller bekommen haben waren garantiert noch keine QS Samples
 
  • Gefällt mir
Reaktionen: Mcr-King
MK one schrieb:
Gerüchten zufolge soll der X570 40 mal PCIe 4.0 Lanes erhalten ...
Nicht der X570, sondern Mainboards mit X570. Und die Rechnung halte ich für ein wenig fragwürdig.

24 Lanes vom AM4 + 16 Lanes vom X570 = 40 insgesamt, aaaber
  • 4 Lanes vom AM4 werden für die Chipsatzanbindung genutzt
  • Die Chipsatzlanes sind auch nicht vollwertig, sondern teilen sich den x4 Link des X570 zur CPU
  • In der Praxis werden wohl 1 PCIe 3.0 x8 GPU + 2 M.2 PCIe 3.0 x4 (oder 1 M.2 PCIe 4.0 x4) möglich ohne wesentlichen Geschwindigkeitsverlust
  • Alles darüber hinaus wird denke ich mit Einschränkungen gegenüber direkter CPU-Anbindung rechnen müssen, es sei denn AMD bindet den X570 statt über PCIe über IFIS o.ä. an
Krautmaster schrieb:
Dass AMD Pins dazuzaubert oder doppelt belegt?
Bei SP3 kommen laut STH noch irgendwo 1-2 Lanes her, auch bei AM4 gibt es 2 SATA-Lanes die auf neueren Boards nach PCIe 3.0 umschaltbar sind. Auszuschließen ist es nicht, aber das Potenzial ist eher beschränkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
Neuer sind die infos über die 4 Kerner mit 4,5ghz und da sind die Samples auch schon etwas weniger early

Das werden wir alles in ein paar Monaten sehen.

Was Fakt ist, dass dieser mind. 4 GHz B-Takt und 4,5 GHz T-Takt hat. Wir wissen nicht was das für ein Model war (X oder non-X Version). Wir kennen das OC-Potential der Chips nicht. Early Samples takten vollkommen anders, als das Endprodukt - selbst bei QS ist der Takt noch nicht festgeschrieben.

Wenn das Sample nur einen 1400er darstellt in 7nm und auch so niedrig im Gegensatz zum 1800X taktet, ist noch viel Luft nach oben möglich. (3,2/3,45 -> 3,6/4,0)
 
r4yn3 schrieb:
Full HD und ne angestaubte CPU. Da können min. FPS schonmal gleichauf sein.
Nicht wenn wir über eine API reden die die CPU entlasten und die Last besser verteilen sollte. Gerade wenn es um das CPU Limit geht sollte diese besser abschneiden.
Das sieht einfach nur nach einem 0815 billig Port der DX11 Version aus.
 
  • Gefällt mir
Reaktionen: Mcr-King und r4yn3
duskstalker schrieb:
Ich denke man kann hier doch von v64 +15% zum Preis von 275$ ausgehen.

Für alles andere ist das Board zu fett und die geleakten Preise zu hoch.

AMDs Strategie gegen nvidia muss extrem aggressiv sein. Alles andere kann AMD eigentlich direkt stecken lassen.

Möchtest du AMD eigentlich in den Ruin treiben? 7nm Chipkosten und dann kaum Marge?
V64 + 15% ist eine RTX 2070 +5%, letztere kostet aktuell 460 Euro als günstigste Variante, ergo wird AMD´s Preis dem Marktiveau entsprechen und sich wohl etwas günstiger bei 449 Dollar und Straßenpreisen bis auf 400 Euro herunter einpendeln.

AMD hat die letzten 10 Jahre kein einziges mal den Preis des Konkurrenten stark unterboten.
Warum soll das also jetzt der Fall sein? Träumereien sind das.

duskstalker schrieb:
gewinnmarge sollte amd derzeit überhaupt nicht jucken. wer nix verkauft, hat garkeine marge. es müssen marktanteile her - und wenns geld pro karte kostet. vega ist mit den 250€ endkundenpreis sicherlich auch nicht kostendeckend.

Genial, ein Unternehmen sollen die Margen oder eine kostendeckende Produktion nicht interessieren, damit sie mehr Marktanteile bekommen, als Unternehmen das immer noch kaum Gewinne einfährt und somit mit solchen Robin Hood Spielchen mal ganz schnell pleite gehen kann.
Solche Hochrisikoplanungen wird hoffentlich niemand von dort ernsthaft in Erwägung ziehen, ich hätte gerne auch in 3 oder 4 Jahren noch AMD als Player im GPU Bereich.


duskstalker schrieb:
vega lässt sich sehr effizient betreiben. wäre effizienz das hauptziel, könnte man einfach besser binnen und die stock vcore um 150mV senken - butz 80w weniger verbrauch bei vollast.

Warum setzt es AMD dann nicht um, wenn das alles möglich ist?
Ich verrate es dir: Ein Betrieb mit weniger Spannung bei gleichzeitiger Einhaltung eines gewährleisteten stabilen Betriebs über die ganze Produktion, ist keinesfalls gewährleistet.
Oder nenne es Sicherheitspolster. Die Karten müssen in jeder Situation stabil laufen.

duskstalker schrieb:
natürlich wird vega abgelöst, aber nicht zum selben preis zur selben leistung, und das mit 7nm. das kann man gleich bleiben lassen.

Warum eigentlich? Die Vorteile der höheren Effizienz, der geringeren Die-Höhe und andere könnten endlich dazu führen, dass AMD auch seine Karten wieder ins Notebook bringt und mehr Marge einnimmt.

duskstalker schrieb:
so viel billger ist gddr6 im vergleich zu hbm2 auch nicht. und die günstige produktion von 7nm kommt auch erst noch, das zeug ist derzeit noch eher teurer.

Es wird keine günstige Produktion von 7nm geben, jedenfalls die ersten 5 Jahre nicht.
Ein 7nm Die kostet heute noch mehr als doppelt so viel als ein 12nm Die.
HBM2 ist mehr als doppelt so teuer als GDDR6, der ganze HBM Ausflug bei den Gaming Karten war ein strategischer Fehler.

MK one schrieb:
Wenn alle Games Vulkan benutzen würden und ähnlich gut optimiert wären wie World War Z , hätte die Vega 64 öfter eine höhere FPS Rate wie die 2080 Ti .... und sie stände an der Spitze bzw direkt hinter der Radeon VII
http://www.pcgameshardware.de/World...-Technik-Test-besser-als-Geforces-ab-1280318/

Das hat man bei Doom (Vulkan) gesagt, danach bei Wolfenstein ( Vulkan) gesagt.
Die Realität ist, dass dieses Spiel im derzeitigen Zustand unfertig und verkorkst ist, Nvidia hat mit Turing in Vulkan mit ihrem Featureset Vorteile gegenüber einer Radeon 64, sie unterstützen nämlich Mesh Shader, wie unter anderem auch adaptive shading, FP16, usw.
Die Leistung in Wolfenstein einer RTX2080 Ti inkl. AS ist > 50% über einer Radeon VII und der Titel ist auf beide Architekturen hervorragend optimiert.

Rein von der Logik her ist es auch mega-schwach sich ein Spiel zu picken das unfertig ist, wenn man mehrere gut optimierte und von den Möglichkeiten ausgereizte Vulkan Spiele zur Verfügung hat um die Performance auf NV und AMD unter dieser API seriös einzuorden.

Da besitzt Vega Vorteile gegenüber Pascal, gegenüber Turing die in Sachen Featureset, async compute, FP16, adaptive shading (Wolfenstein) etc.. nachgezogen und überholt haben, aber keine.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: USB-Kabeljau, .Sentinel. und Mcr-King
Best analysis, sry falls schon gepostet
 
  • Gefällt mir
Reaktionen: Mcr-King und KlaraElfer
FCK-THIS schrieb:
Natürlich werden sie das, allein Battlefield V, Metro Exodus usw. die API ist DXR, die Spiele sind nicht exklusiv für Nvidia RTX gemacht worden, falls du das immer noch nicht verstanden hast :rolleyes:
Auch AMD kann und wird Hardware basiertes Raytracing bringen wie wir nun wissen, ein Jahr später kommen, nachdem man die ganzen „Fanboys“ schreien lassen hat wie unnütz Raytracing doch sei, hat da selbstverständlich seine Vorzüge ...

Derjenige, der hier nicht zu verstehen scheint bist offensichtlich Du ;), denn ich habe Microsofts DXR hier im Thread als quelloffen angeführt und dass es für beide nVidia und AMD, Grafikchips neuester Generation wohl genutzt werden wird.

Vielleicht solltest Du aufmerksamer lesen, bevor Du (nicht zum ersten Mal) grob unsinnige Andeutungen von Dir gibst :rolleyes:.

Des Weiteren habe ich mich nicht auf die aktuellen, speziell für nVidia optimierten RTX-Titel bezogen (da fliessen auch noch z.T. Geschichten wie DLSS und die spezifische GPU-Architektur ein), sondern Optimierung auf AMD/RTG-Architektur und deren DXR-Umsetzung (denn, dass beide exakt Stock DXR ohne irgendwelche Architektur-Anpassungen verwenden ist m.E. nicht anzunehmen, sondern vielleicht Wunschdenken Deinerseits).

Inwieweit Unterschiede in der Umsetzung zwischen nVidia- und AMD/RTG-Anpassung an DXR eine Rolle spielen, ist nämlich noch nicht heraus/analysiert worden und so gesehen lässt sich auch nicht ausschließen, dass Sponsoring der Entwickler nicht wie bei GameWorks und anderen Geschichten einen Entwickler soft- und nicht hardwareabhängig massiv begünstigt ;).

Vielleicht geht AMD/RTG aber auch einen anderen RT-Raytracing Weg als nVidia, denn Details wissen wir noch gar keine und wie der Ansatz bei AMD/RTG aussieht.

Ein Heilsbringer ist RT-Raytracing in erster, unausgegorener Generation auf RTX-GPUs mitnichten und es braucht Zeit, bis es so viel Mehrwert bietet, dass keine RT-Raytracing-losen GPUs mehr verkauft werden.

Auch nVidia hat das teilweise eingesehen (GTX 1660Ti als Alternative zur RTX 2060 gebracht) und sinnvoller Weise noch GTX Karten aufgelegt (was Du scheinbar gerne auszublenden scheinst).

Zwischenlösungen oder solche Ansätze wie bei der CryEngine-Demo erlauben vergleichbar gute Resultate und die wenigsten werden Unterschiede wahrnehmen beim spielen.

Das heißt natürlich nicht, dass die Vereinfachung (für Entwickler durch geringeren Aufwand) bei RT-Raytracing nicht irgendwann ausschlaggebend sein wird und komplett darauf umgestiegen wird, aber momentan sind wir noch weit davon (hardwaretechnisch und was das KnowHow der meisten Entwickler angeht) entfernt.

Mit viel Glück wird RT-Raytracing in 2 GPU-Generationen Standard/merkliche Unterschiede produzieren, aber bis dahin steht der dafür verlangte Preisaufschlag bei GPUs mit Sicherheit nicht in Relation zum vorhandenen Nutzen, sondern ist cleveres Marketing beider GPU-Entwickler, mehr leider nicht.

Vermutlich wird sich RT-Raytracing zukünftig schleichend etablieren (wie andere GPU-Technik auch, die erst reifen musste) und in einigen Jahren werden wenige noch so einen Wind/Hype darum machen, wie Du und eine Handvoll andere aktuell im CB-Forum ;) ... die wenigsten haben RT-Raytracing in GPUs per se eine Zukunft abgesprochen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aldaric, Revan1710, Rockstar85 und 2 andere
Chismon schrieb:
Zwischenlösungen oder solche Ansätze wie bei der CryEngine-Demo erlauben vergleichbar gute Resultate und die wenigsten werden Unterschiede wahrnehmen beim spielen.

Woher weißt du das? Es gibt nicht eine spielbare Version des Crytek Ansatzes.
AMD setzt sich bezüglich Raytracing was die drei veröffentlichten Spiele angeht, dann einfach ins gemachte Nest.
Den negativen Unterton deinerseits bei solch wichtigen Entwicklungen wie RT, hab ich noch nie verstanden, merkliche Unterschiede gibt es schon heute. Für das Beleuchtungsmodell in Metro und die Spiegelungen in Battlefield gibt es kein gleichwertiges, spielbares Beispiel.

Grafikrevolutionen passieren immer schleichend, anders ist das gar nicht möglich.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
@KlaraElfer Warum so pessimistisch? Wir kennen weder die Größe des Navi Dies, noch den Yield oder die Preise, die TSMC aufruft.

Im Endeffekt spekulieren hier alle wild herum. Da sind auch die Gedanken von @duskstalker mMn nachvollziehbar; vlt. etwas optimistisch, aber nachvollziehbar.

Zumal du Aussagen wie "Ein 7nm Die kostet heute noch mehr als doppelt so viel wie ein 12nm Die." erst mal mit Quellen belegen solltest.
Wenn AMD (mal so rein hypothetisch) aus einem ~220-250mm^2 7nm Die die Leistung eines ~440mm^2 12nm Dies quetscht (was der RTX 2060 und 2070 entsprechen würde), muss das in der Produktion nicht unbedingt teuerer sein.

Momentan ist das Geschäft der RTG quasi nicht existent und es geht nur 'Alteisen' (aka. Blower Vega 56) für ~250€/$ im Abverkauft raus.

Da kann ich mir auch vorstellen, dass man Navi preislich aggressiv positioniert, sonst passiert eh wieder das gleiche wie bei RX480/580 zu GTX 1060.
Also lieber viel Navi für wenig Marge verkaufen, als wenig/kaum Navi für ne gute Marge.
Zumal man damit langfristig, wie bei Ryzen, Marktanteile und Mindshare gewinnen kann, was sich ebenfalls positiv auswirken kann. Mehr Navi am Markt sorgt z.B. bei Entwicklern auch dafür, das mehr für Navi optimiert wird.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ihr macht euch echt zuviele Hoffnungen wie immer beim AMD Hype. Letztendlich gehts vllt 15-20% schneller als die 2000er Reihe. Große Sprünge sind nicht zu erwarten sondern wird es nur Stück für Stück die nächsten Jahre ganz langsam aufbauend geben. Hier gibts wohl echt Leute die glauben Nen 3400er wäre schneller als ein 1800er... oder gar 100% schneller, oder das ein AMD CPU Intels Flaggschiff schlagen wird und Intel die Preise daraufhin senkt, davon hätte AMD nichts, weil dann jeder Intel kaufen würde lolololol

edit: Ok hier gehts um die Grafikkarte, die ist sowieso bedeutungslos, nur noch was für Fanboys...
 
v_ossi schrieb:
als wenig/kaum Navi für ne gute Marge.


ich sage da genau das gleiche, wie damals zu christiano roberto als er am 1. april seine neue duft reihe "quantum" angekündigt hat ← es war als scherz gemeint, leider liegt viel wahrheit darin.

wenn sein produkt das kann, was ich erwarte (SC), könnte er auch bei douglas seine säfte mit alkohol verdünnen und die leute würden es kaufen, wenn man noch ein wenig rosen wasser mit dazu mengt.

ich gehe davon aus, dass navi vor allem im konsolen markt (dafür ist er gebaut) einschlägt wie eine bombe und wir desktop pc user müssen halt sehen, wie viel tsmc wirklich davon bauen kann.

evtl. bekommen wir ein paar early modelle, damit die fertigung optimiert wird und dann geht alles an MS und SONY.

es ist ein zweischneidiges schwert. ich würde zwar amd den erfolg gönnen, hätte aber auch gerne preiswerte karten im verkauf.

beides wird wahrscheinlich nicht möglich sein.

mfg
 
FCK-THIS schrieb:
Wie war das noch einmal mit der Radeon VII zum identischen Preis der RTX 2080 mit 10% weniger Leistung? :lol: Wenn Nvidia „Wucherpreise“ aufruft, wie nennst du dann das?

Ich glaube ja, dass die Existenz der Radeon VII ironischer Weise Nvidia zu verdanken ist. Die Karte ist in der Produktion so teuer, dass AMD ursprünglich nicht daran gedacht hatte, sie für Pro-/Consumer rauszubringen. Die Fachwelt und AMD selbst gingen ja davon aus, dass bis Navi und Next-Gen nichts mehr auf Vega-Basis für Consumer kommen würde.
Tja, und dann kam Nvidia mit ihren Einstiegspreisen, und irgendjemand bei AMD dachte: Dann können wir ja doch noch eine Vega Prosumer-Karte bringen.
Wäre Nvidia mit 100 - 200 Euro weniger gestartet, würde es keine Radeon VII geben, da bin ich mir sicher.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Mcr-King, yummycandy und 6 andere
Zurück
Oben