News AMD-Gerüchte: Navi-PCB aus der Fertigung, X570 im technischen Detail

FCK-THIS schrieb:
Wie war das noch einmal mit der Radeon VII zum identischen Preis der RTX 2080 mit 10% weniger Leistung? :lol: Wenn Nvidia „Wucherpreise“ aufruft, wie nennst du dann das?

Und wie, alle anderen News Seiten sprechen eindeutig von 8GB? Von dem Bild lassen sich keine 16GB ableiten, CB ist auch die einzige Website, die das behauptet. 8GB werden doch schon vorgestern zu wenig sein, hat AMD die Stimmen der Verzweifelten Vollzeit FFXV Ultra Spieler nicht erhört? :evillol:

Wer wirklich an 16GB VRAM bei Navi geglaubt hat, der sollte erst einmal etwas BWL studieren ...

An 16 Kerne glauben für 300 Euro aber nicht an 16 GB. Logisch. Samsung baut die Chips seit über einem Jahr: https://www.computerbase.de/2018-01/samsung-gddr6-18gbps/
Und wenn AMD bisher immer etwas mehr bot war es Speicher. Du bekommst 8 GB bei 150 Euro jetzt. Also lass mal das special navi Flaggschiff in anderen Bereichen rumspielen. Technisch ist es möglich, nichts anderes sagt die Meldung.
 
  • Gefällt mir
Reaktionen: JJJT, Excel, Cpt.Willard und 14 andere
Faust2011 schrieb:
sind zusätzlichen Bit(s) für die Fehlererkennung und Korrektur (das sind übrigens zwei verschiedene paar Stiefel! -
Ja, die einfache Parity konnte nur Singlebitfehler erkennen, aber die Fehlerkennung bringt viel weniger als dies auch Beheben zu können, denn man kann bei nicht korrigierbaren Fehler allenfalls mit einer Kernel Panik reagieren um keine falschen Daten weiterzureichen.
Faust2011 schrieb:
Aber ein Client dessen (also die CPU) hat damit nichts zu tun. Letztlich interessiert (und adressiert) eine CPU nur die (Nutz)Daten, aber nicht die Parity-Infos.
Das ist falsch, die DRAM selbst erkennen und korrigieren keine Fehler (außer der CRC zur Erkennung von Übertragungsfehlern die mit DDR4 eingeführt wurde), die ECC erfolgt immer im RAM Controller, also in der CPU und nicht im DRAM selbst. Damit weiterhin die volle Breite an Nutzdaten hat, braucht man dazu mehr Bits, denn Fehlererkennung (und -korrektur) braucht immer Redundanz, also hat man eben pro 8 Datenbits noch jeweils ein neuntes und somit bei den normalen x86er Plattformen 72 Bit pro Channel, bei 64 Datenbits. Bisher jedenfalls, bei DDR5 ECC RAM wird es (auch?) 80 Bit breite Riegel geben, die dann also statt pro 64 Bit Daten 16 statt 8 Bit zusätzlich für die ECC bieten und bei RYZEN 3000 wird es gerüchteweise auch eine ECC RAM Funktion ohne ECC RAM Riegel geben. Dies kann nur funktionieren, wenn man von den 64 Bit dann z.B. nur 56 Bit für die Daten nutzt, dann hätte man eben bei 32GB installiertem RAM nur 28GB nutzbar und entsprechend auch nur 7/8 der Bandbreite, da ja dann 1/8 der übertragenen Daten nur ECC und keine Nutzdaten wären.

Die ECC Funktion ist also gerade im RAM Controller und das RAM hat damit nichts zu tun, außer eben die zusätzlichen Bits für die zusätzlichen ECC Informationen (z.B. Hamming Codes) zu bieten. Es bringt daher auch nichts, wenn man ECC RAM Riegel in ein System steckt, welches dies nicht unterstützt, denn dann hängen die zusätzlichen Bits nur nutzlos in der Luft. Da der RAM Controller heutzutage in den CPUs steckt, muss man also neben den ECC RAM Riegeln auch ein Board und eine CPU mit ECC RAM Unterstützung haben, damit die ECC Funktion auch vorhanden ist.
Faust2011 schrieb:
Aber wir driften ab in Richtung Off-topic...
Ja, aber dem einen oder anderen hilft das ja auch und wie gesagt, sollen ja gerüchteweise die RYZEN 3000, um die es in der News ja auch geht, eine Neuheit bzgl. einer ECC RAM Funkion ohne ECC RAM Riegel bringen. Dies und die Tatsache das man bei DDR5 RAM statt 9 Bit pro Byte nun auf 10 Bit geht um eine noch stärkere ECC zu ermöglichen, deutet für mich darauf, dass RAM Fehler offenbar immer öfter ein Problem werden und man deswegen gegen verstärkt Maßnahmen gegen RAM Fehler ergreift.
 
  • Gefällt mir
Reaktionen: NMA, iNFECTED_pHILZ und Tanzmusikus
@Volker
Vllt ist es wie bei Polaris damals und es gibt beides, 8 und 16 GB Modelle. Bei RX480 war das damals ca 50 Euro Preisunterschied (4 vs 8GB)
 
  • Gefällt mir
Reaktionen: Transistor 22, Che-Tah und Volker
Auch als AMD-Befürworter muss ich sagen - solange Navi auch noch auf GCN basiert, erwarte ich da keine großartigen Überraschungen.

Generell ist GCN entweder 15 Jahre zu früh auf den Markt geworfen worden oder es taugt grundsätzlich nicht für Spieler und hätte eher nur im (Semi-)professionellen Bereich verbleiben sollen.
 
  • Gefällt mir
Reaktionen: Transistor 22 und Obvision
Transistor 22 schrieb:
@Volker Ich hoffe das Navi die letzte GCN Architektur wird, die Architektur pfeift leider aus dem letztem Loch.
und was würdest du den verbessern wollen?
die (grund)architektur ist nicht verkehrt - auch die anzahl der cluster/shader ist ok, nur an der auslastung dieser scheint es immernoch zu hapern...
 
@ Marflowah
Die Softwarentwickler hätten auch für GCN Lösung entwickeln können und nicht nur für die, wo man von nvidia mit Honig beschmiert wird. Bei Konsolen klappt es ja bei der AMD Lösung. Bei Prozessoren hätte man auch nicht nur den intel Compiler verwenden müssen und Händler hätten sich nicht vor dem intel Manager bücken brauchen um sich die Geldscheine zustecken zu lassen. Wer ein ehrlicher Kaufmann sein will, der steht auch hinter dem Sortiment um auch der Kunden willen. Er kann durch objektive Tatsachen verkaufen und nicht den Kunden nur für blöd verkaufen.


Zur Nachricht im Allgemeinen. Wenn AMD seine Chipsäzte endlich im Griff hat, wird Frau Su drei Zen Generationen gebraucht haben um mich auf diese Plattform zur Aufrüstung zu bewegen. Auch wenn ich mit dem A-Link Interface immer noch nicht zufrieden bin, trotz annehmbaren Durchsatz. Wenn dann noch die Mainboard Manager nicht wieder ihre vorzeigbaren Genitalien mit RGB Vorsätzen ausstatten und das Mainboard Design hauptsächlich nur die Taschengeldfraktion bedienen, dann könnte ich sicher zugreifen.
 
  • Gefällt mir
Reaktionen: Denniss, fox40phil, fraqman und 2 andere
Strahltriebwerk schrieb:
Navi muss einfach Preis-Leistungstechnisch die Konkurrenz übertrumpfen und ich bin zufrieden.
Das könnte passieren.
Aber vermutlich wieder nur ganz knapp ... und wenn dann die Verfügbarkeit wieder so schwach ist, fallen die Preise eh höher aus.

Ich habe das Hoffen auf AMD mittlerweile aufgegeben.
Die werden erst wieder einen Stich landen können, wenn sie mit einer ganz neuen Architektur um die Ecke biegen.
Bis dahin wird es weiter so sein, daß sie ständig zu spät kommen, und dann nicht mal mit einem "Bang".

Ein bisschen günstiger reicht halt nicht, wenn die Karte dafür wieder 100W mehr schluckt und am Limit betrieben wird. Das weckt einfach kein Vertrauen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
cypeak schrieb:
und was würdest du den verbessern wollen?
die (grund)architektur ist nicht verkehrt - auch die anzahl der cluster/shader ist ok, nur an der auslastung dieser scheint es immernoch zu hapern...
Meinung als Laie:
GCN ist sehr Speicherbandbreitenlimitiert. Die Speicheranbindung muss grundlegend überarbeitet werden. AMD taktet die GPUs um Konkurrenzfähig zu bleiben immer ans Limit mit sehr hohen Spannungen. Eine niedrige getakteter Polaris 42 cu könnte z. B. bei ähnlicher Leistungsaufnahme wie bei der GTX 1060 mehr Leistung haben. Damit gäbe es kein Grund für eine GTX 1060. Dann könnte AMD sehr hohe Marktanteile bekommen.
 
v_ossi schrieb:
Der soll laut Gerüchten aber auch frühestens Ende 2020 kommen und daher wird das hier wohl kein PCB dafür sein.

Also nicht explizit an dich gerichtet:
Einfach mal den Ball flach halten und auf offizielle Angaben oder unabhängige und nachprüfbare Quellen warten.

Oder auch: Navi wird erstmal die neue Mittelklasse. Alles andere würde mich wundern!

Es würde auch Team green blöd aussehen lassen, die sich in diesem Segment mit der 1660 erstmal so richtig schön breitgemacht haben. Und ich glaube da nicht an ne Marketing-Fehlentscheidung von denen, abgesehen von 6GB natürlich.

HOT schrieb:
Ich glaub vom 2060-Gedanken kann man sich bei 2x 8-Pin PCIe schnell wieder verabschieden. Das Teil wird schneller als V20, soviel ich sicher.
Luxmanl525 schrieb:
Ich kenne eine Autofirma, die eine Schraube im Wert von 1 € weg gelassen hat - nur nebenbei, die hatten deswegen mehr Ärger als sonstwas und im Nachhinein haben die das bereut -. Gerechnet haben die in Mengen, bei 1 Million Autos mal 1 €. Nur mal als Beispiel. Das läuft bei den Graka-Herstellern nicht anders ab, nur in kleinerem Maßstab.

Ich sag nur: aus thermischen oder andern, nicht nachvollziehbaren Gründen 16GB HBM2 Speicher leicht schräg montiert und dann nen Kühlkörper drauf, der nur zu 80% draufpasst und daran anschliesst? ;)

Roche schrieb:
Ich will doch nur ne Karte auf dem Leistungsniveau einer Vega 64 mit deutlich weniger Stromverbrauch für max. 300€, die nicht von NVidia kommt.
Kann doch nich so schwer sein, oder?

Der Wunsch ist verständlich, aber dein designierter Wunscherfüller ist Gewinnorientiert, das wird so wohl nicht kommen. Leg für den Release 120€ -180€ drauf und für die abrufbare Leistung: Aktuell hilft da nur ne Kristallkugel.

duskstalker schrieb:
Das sieht ganz schön mächtig aus für eine kolportierte "unter 200w" gpu. Vielleicht ist an den rtx 2080 Gerüchten doch was dran.

Das BGA ist für einen "winzigen 7nm die" auch relativ groß.

Spannende Geschichte. Das ist relativ sicher nicht die 150w rtx 2060 Konkurrenz.
Ja, das passt irgendwie nicht zusammen. Die gezeigte Karte da ein Sizingmonster. Einerseits wäre es Futter für die Fanboys, andererseits passt das überhaupt nicht zum Underdog-Image.

Zieht euch mal die Menge der möglichen VDCCs rein. Ist eher wie bei ner V64 bzw VII. Was bei unter 12nm eher bedeutet und bei DER Chipgröße, dass der gezeigte PCB ein 300W Schlachtschiff mit ziemlich viel Power sein muss.
Das... bringt.. mich grade... durcheinander.
Würde da Nvidia drauf strehen statt AMD - was zur Anordnung auch besser passt, wäre das ne neue Variante von ner 2080 oder ner 2080ti.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Transistor 22 und duklum
Persönlich kann ich von Navi wirklich gar nichts mehr erwarten. Werd ich halt immerhin nicht enttäuscht. Das Gute wird sein, es gibt wieder Custom Modelle und muss sich nicht mit so nem Murks wie bei der VII rumärgern.
Hoffentlich bringt man, zumindest optional ,16GB Modelle. Aber auch da bin ich wenig optimistisch.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Klar doch. Ein Fail auf ganzer Linie. Eine 300-400 Euro Karte mit 4096 Shader die bis zu 2,2 Ghz boostet und 16GB Speicher besitzt und auch noch RT beherrscht, kann ja nur ein Fail werden.
 
mir reicht 2070 er Leistung bzw 1080 er Leistung für 300 Euro , brauche keine High End GraKa
 
  • Gefällt mir
Reaktionen: Revan1710
Transistor 22 schrieb:
Meinung als Laie:
GCN ist sehr Speicherbandbreitenlimitiert. Die Speicheranbindung muss grundlegend überarbeitet werden. AMD taktet die GPUs um Konkurrenzfähig zu bleiben immer ans Limit mit sehr hohen Spannungen. Eine niedrige getakteter Polaris 42 cu könnte z. B. bei ähnlicher Leistungsaufnahme wie bei der GTX 1060 mehr Leistung haben. Damit gäbe es kein Grund für eine GTX 1060. Dann könnte AMD sehr hohe Marktanteile bekommen.

das bezweifle ich - gerade amd's karten mit hbm, also vergleichsweise hoher speicherbandbreite - haben sich nicht wirklich absetzen könen von ihren nvidia counterparts, welche "nur" mit üblichem gddr unterwegs sind...

man vergleiche z.b. die vega's mit gtx1070/1080 oder die "neue" radeon 7 mit einer rtx2080 - z.b. steht es bei der vega56 mit 410gb/s gegenüber einer 1070 mit 256gb/s - trotzdem ist die vega nur minimal flotter.
das gleich gilt für vega64 vs. gtx1080 oder radeon 7 vs. rtx2080 - bei der letzteren sind es gar 1024gb/s gegen 448gb/s.
speicherbandbreite alleine macht es also nicht.
 
WCCFTech , also .... , jedoch wenn es stimmt werden die X570 hammermässig ... , ich zähle 12 Sata Anschlüsse ...

https://wccftech.com/amd-ryzen-3000-15-percent-ipc-uplift-4-5-ghz-x570-pcie-gen-4-40-lanes/
AMD X570 Reportedly Offers 40 PCIe Gen 4 Lanes, No Ryzen 3000 Support on A320 Chipset
776992
 
vforce schrieb:
Stimmt. Wobei die Radeon VII mit 295 Watt angegeben wird was einfach zu viel wäre für eine Mid-range Karte.
Mit GDDR6 hat die neue Karte etwas höheren Stromvebrauch und eine ähnliche Bandbreite wie die die 345W Vega64. Laut dem Test hier ist die VII nur durch höheren Takt und mehr Bandbreite schneller als die Vega64.

Schwierig zu sagen also, der TDP sollte lieber Richtung 200W gehen um bei der 2060 mitzuhalten. Im Vergleich zur Vega müsste die Naviarchitektur also um einiges zulegen.
Ich rede ja auch von Radeon VII -25%. Das reicht für die RTX2060

Und da kommen wir wieder auf den 7nm Prozess zurück: 1.25x Performance bei gleichem Verbrauch oder alternativ 0.5x Verbrauch bei gleicher Performance.

Die VII hat fast alles in die Taktsteigerung gesteckt, taktet 20% höher und hat auf die letzten 5% verzichtet zugunsten einer 10% geringeren Leistungsaufnahme.

Jetzt nehm eine Radeon VII mal mit den Taktraten der Vega64, dann hast du die gleiche (Transistor)Performance bei halbiertem Verbrauch der Vega64, also 150W.
 
  • Gefällt mir
Reaktionen: iNFECTED_pHILZ
Taxxor schrieb:
Ich rede ja auch von Radeon VII -25%. Das reicht für die RTX2060

Und da kommen wir wieder auf den 7nm Prozess zurück: 1.25x Performance bei gleichem Verbrauch oder alternativ 0.5x Verbrauch bei gleicher Performance.

Die VII hat fast alles in die Taktsteigerung gesteckt, taktet 20% höher und hat auf die letzten 5% verzichtet zugunsten einer 10% geringeren Leistungsaufnahme.

Jetzt nehm eine Radeon VII mal mit den Taktraten der Vega64, dann hast du die gleiche (Transistor)Performance bei halbiertem Verbrauch der Vega64, also 150W.

Meinste nicht die Hälfte an Verbrauch sind zu optimistisch? Dagegen spricht ja auch der 2x8 Pin Anschluss. Außerdem haben wir ja HBM2 vs GDDR6.

Wobei wiederum die Vega 56 auch nur knapp langsamer als die 2060 ist bei 230W Verbrauch.

Wenn AMD aber tatsächlich eine 250W Karte mit 2060 Geschwindigkeit rausbringt, dann wärs nichts anders als eine "Vega 60" mit GDDR6. Also eine ziemliche Enttäuschung.
 
Volker schrieb:
An 16 Kerne glauben für 300 Euro
Wo nimmst du die Aussage her? 16 Kerne für 500€ besagen die Leaks und ich habe hier noch von keinem gelesen, dass er 16 Kerne für 300€ erwartet.
Ergänzung ()

vforce schrieb:
Meinste nicht die Hälfte an Verbrauch sind zu optimistisch? Dagegen spricht ja auch der 2x8 Pin Anschluss.
Nein, denn das ist genau das, was der Prozess hergibt und was man auch schon bei der Vega56 sehen kann, 0.77x Verbrauch bei 9% weniger Performance zur Vega64.
Nimmst du jetzt die Radon VII mit ihren 275W und ziehst ihr ganze 25% Takt ab, kommst du leicht auf 150W für eine Navi mit RTX2060 Leistung.

Damit würde auch eine Navi Karte mit der Leistung zwischen RX590 und Vega56 mit 120W auskommen.

Und für welche Karte dieses PCB ist, weiß ja niemand, kann genausogut ein internes PCB zum Testen im Labor sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Balikon, Hayda Ministral und FCK-THIS
Volker schrieb:
An 16 Kerne glauben für 300 Euro aber nicht an 16 GB. Logisch. Samsung baut die Chips seit über einem Jahr: https://www.computerbase.de/2018-01/samsung-gddr6-18gbps/
Und wenn AMD bisher immer etwas mehr bot war es Speicher. Du bekommst 8 GB bei 150 Euro jetzt. Also lass mal das special navi Flaggschiff in anderen Bereichen rumspielen. Technisch ist es möglich, nichts anderes sagt die Meldung.

Du darfst mich gerne aufklären weshalb ich oder sonst jemand an 16 Kerne für 300€ glauben sollte? Wo hast du das aufgeschnappt? In dem von dir zitierten Beitrag offensichtlich nicht :rolleyes: Schön wäre es, realistisch sicher nicht.
Und wer hat behauptet, dass 16GB GDDR6 grundsätzlich nicht möglich wären?
Selbstverständlich ist nur, dass AMD keine 16GB GDDR6 in die Mittelklasse bringt.

https://www.guru3d.com/news-story/gddr6-significantly-more-expensive-than-gddr5.html

1GB GDDR6 14Gbps Chips von Micron liegen aktuell bei 11,69$.
Meinst du wirklich 2GB GDDR6 18Gbps Chips von Samsung werden günstiger pro GB sein? :rolleyes:
Rechnen wir mal großzügig (!) mit dem selben Preis pro GB sind wir bei 187,04$ für 16GB ...
Und nun bitte eine professionelle Meinung: wie realistisch soll das bei einer Mittelklassen-Grafikkarte für +- 200-400$ sein?

Und nein, man bekommt 8GB GDDR5 (!!!) aktuell für 150€. GDDR6 spielt wie schon erwähnt in einer anderen Leistungs- wie auch Preisklasse (x2), damit wären auch keine 8GB bei einer 150€ Grafikkarte möglich. Also bitte nicht GDDR5 mit GDDR6 verwechseln ...

Bin jedenfalls gespannt wie viele von den üblichen Verdächtigen dann wie bei Turing nun auch bei Navi schreien werden „8GB eine Frechheit“ „Zukunftsverweigerer“ „Wucher“ etc. :evillol:

Ergänzung ()

Taxxor schrieb:
Wo nimmst du die Aussage her? 16 Kerne für 500€ besagen die Leaks und ich habe hier noch von keinem gelesen, dass er 16 Kerne für 300€ erwartet.
:stacheln:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und teufelernie
Zurück
Oben