News AMD-Gerüchte: Navi-PCB aus der Fertigung, X570 im technischen Detail

Hallo zusammen,

@ mcdexter

mcdexter schrieb:
Sorry für meine meinung aber AMD traue ich 375 Watt bei Grafikkarten inzwischen zu.

Ich denke, da tust du denen mittlerweile Unrecht. Immerhin haben sie bei den CPU`s es auch hinbekommen. Sie sind also lernfähig. Warum sollten sie bei den GPU`s nicht auch ihre Lehren gezogen haben? Spricht aus meiner Sicht nichts dagegen, zumal die VII zeigte, daß sie auf einem Guten Weg sind in Punkto Effizienz.

Und 375 Watt im 7 Nm Prozeß bei einer Mittelklasse Karte, das traue ich nicht einmal AMD zu, daß sie sowas auf den Markt bringen würden.

@ andi_sco

andi_sco schrieb:
Kenne ne Firma, die drei Leitern von jeweils drei Metern teuer demontieren und transportieren wollte, nur um keine neuen, 200 km entfernt zu kaufen.

Der Spruch "es gibt nichts, was es nicht gibt", ist ja nicht umsonst Existent, wie man alleine schon anhand deines Beispiels unschwer Erkennen kann :p.

So long....
 
Luxmanl525 schrieb:
Ich wäre speziell bei AMD vorsichtig, irgendetwas von den Stromanschlüssen abzuleiten. Denn AMD hat auch in der Vergangenheit auch bei Mittelklasse Modellen schon 2 x 8-Pin Anschlüsse verbaut. Denk nur mal an die R9 290 / 290 X / R9 390 / 390 X Modelle. Das waren durch die Bank Schluckspechte sondergleichen.

So long...

Hawaii und Grenada also 290X und 390X waren nun alles Andere als Mittelklasse.
438 mm² und 512 Bit SI sind nun bei aller Liebe keine Mittelklasse sondern ganz oben anzusiedeln.

Fiji kam dann als Ablöse ja ein paar Wochen nach Grenada.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Balikon, Yesman9277, darkcrawler und 5 andere
Taxxor schrieb:
Im oberen Segment wird es von Navi aber dieses Jahr nichts geben .Für das Segment, in dem die Karten erscheinen, ist 2060 Leistung voll okay.
Ergänzung ()


Die Radeon VII ist schon 20-30% über der 2060 bei 275W, Navi müsste also noch schlechter als Vega werden, um bei 250-300W nur 2060 Leistung zu erreichen.

Mit der Radeon VII ist durch den 7nm Prozess schon viel möglich beim Verbrauch ohne viel Leistung einzubüßen.
Die Leistung einer 2060, also 20-30% unterhalb der VII, dürfte man gut mit 120-150W realisieren können

Stimmt. Wobei die Radeon VII mit 295 Watt angegeben wird was einfach zu viel wäre für eine Mid-range Karte.
Mit GDDR6 hat die neue Karte etwas höheren Stromvebrauch und eine ähnliche Bandbreite wie die die 345W Vega64. Laut dem Test hier ist die VII nur durch höheren Takt und mehr Bandbreite schneller als die Vega64.

Schwierig zu sagen also, der TDP sollte lieber Richtung 200W gehen um bei der 2060 mitzuhalten. Im Vergleich zur Vega müsste die Naviarchitektur also um einiges zulegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS
mcdexter schrieb:
"Dass die 7-nm-Mittelklasse-Lösung von AMD aber kaum 375 Watt verbrät, dürfte quasi außer Frage stehen."
Sorry für meine meinung aber AMD traue ich 375 Watt bei Grafikkarten inzwischen zu.
Bis vor kurzem, habe ich trotz einiger nachteile nur auf AMD gesetzt. Inzwischen ist meine Grafikkarte von Nvidia.
Sind ja unterschiedliche Aussagen. AMD sind sicher 375 Watt zuzutrauen - aber eben nicht unterhalb der Vega VII.
 
  • Gefällt mir
Reaktionen: TheUngrateful, stevefrogs und FCK-THIS
Faust2011 schrieb:
Vielleicht liege ich auch falsch, aber Speicherbusse mit einer ungeraden Anzahl an Bits hatte ich bisher noch nicht gesehen, insbesondere für die Datenleitung
Genau das hatte der XT aber, es war ja nur eine 8 Bit CPU und um RAM Fehler (zumindest Singlebitfehler) erkennen zu können, gab es eben die parity. Da man damit noch keine Fehlerkorrektur machen kann, ist es eben keine ECC, aber im Grunde ist die heute noch bei der ECC so, dass man eben ein 9. Bit hat, nur hat man eben bei heutigen Riegeln nicht nur 8 sondern 8x8 = 64 Bit Datenbreite und mit ECC dann eben 8x9 = 72 Bit, womit es dann eben keine ungerade Zahl mehr gibt und es ist eben neben der (besseren) Erkennung von Fehlern, auch eine gewissen Chance auf eine Fehlerkorrektur vorhanden. Es gibt aber kein "Gesetz" wonach Speicheranbindungen immer eine gerade Anzahl von Bits breit sein müssen, auch wenn es wegen der Organisation der heutigen Chips wohl immer so sein wird, denn während man damals pro Bit (und Bank) einen Chip hatte, haben die Chips heute 8 oder wenigstens 4 Bit, denn man bekommt keine 72 Chips auf einen RAM Riegel gelötet.

PS: Eine Bitte noch: Könntet ihr künftig auf das Vermischen von Graka und CPU/Chipsatz Themen in einer News verzichten! Dieser Thread wurde im Unterforum Mainboards und CPUs: Fachgespräche, aber fast alle Beiträge würde nicht hierhin, sondern eigentlich ins Forum Grafikkarten: Fachgespräche gehören.
 
  • Gefällt mir
Reaktionen: MeisterOek, .fF, duklum und 3 andere
fox40phil schrieb:
RTX 2060 Niveau wäre mir deutlich(!) zu schwach =/...(von einer rx 480 ausgehend)... letztendlich kommt es auf den Preis an.

Mehr als maximal RTX 2070 Niveau dürfte aber anfangs (bei Navi 10) nicht herüber kommen, für (Beinahe-) GTX1080Ti/RTX2080 Niveau gibt es ja schließlich noch nicht so lange die Radeon VII.

Letztere dürfte frühestens durch Navi20 GPUs ersetzt werden, wenn sich denn die aktuellen Gerüchte bewahrheiten sollten.

So schrecklich viel Leistung hat eine RTX2070 aber auch nicht mehr als eine RTX2060, aber wenigstens verhungert erstere nicht (oft) am verbauten Speicher im Gegensatz zu letzterer ;).

Wieder nur 8GB fände ich enttäuschend (die teure Samsung Double-Capacity-HighEnd-Variante dürfte es wohl auch nicht werden), aber direkt mit einem Schritt auf 16GB in der Mittelklasse (auch wenn GDDR6 spürbar günstiger als HBM2 sein dürfte) rechne ich jetzt (mit Navi10 Chips) noch nicht, sondern vielleicht bei Oberklasse-Nachfolgern (Navi20 Chips).

Schade, ich hatte auf mindestens 10 GB oder besser noch 12 GB und größeres Speicherinterface bei Navi10 GPUs gehofft, aber das wäre wohl zu Lasten der Effizienz gegangen, auch wenn die GPUs dann deutlich langlebiger wären und sich evt. in einigen Spielen (je nach Entwickler) durch den größeren Speicher absetzen könnten.

Mir würde RTX2060 Niveau gerade noch so reichen bei passendem Preis für ein solides Custom-Design (es muss nicht unbedingt von Sapphire sein; XFX oder Powercolor haben hoffentlich auch passende Vertreter), aber etwas optimistischer (zwischen RTX2060 und 2070 liegend) bin ich dann schon, was die Navi10-Leistung angeht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs und fox40phil
Das sieht ganz schön mächtig aus für eine kolportierte "unter 200w" gpu. Vielleicht ist an den rtx 2080 Gerüchten doch was dran.

Das BGA ist für einen "winzigen 7nm die" auch relativ groß.

Spannende Geschichte. Das ist relativ sicher nicht die 150w rtx 2060 Konkurrenz.
 
Hallo zusammen,

@ modena.ch

modena.ch schrieb:
Hawaii und Grenada also 290X und 390X waren nun alles Andere als Mittelklasse.

Da hst du völlig Recht. Mein Fehler. Gleichwohl waren die R9 290 / 390 kaum weniger Schluckfreudig. Und diese gehörten zur Mittelklasse.

@ SothaSil

SothaSil schrieb:
AMD sind sicher 375 Watt zuzutrauen - aber eben nicht unterhalb der Vega VII.

Da braucht man kein Prophet zu sein um Navi nicht annähernd in verbrauchstechnischen Regioen einer VII zu Sehen. Den Fehler wird AMD nicht machen. Und nach allem was so zu Hören bzw. Sehen ist in Form der üblichen Quellen, wird das auch nicht Passieren.

@ vforce

vforce schrieb:
Schwierig zu sagen also, der TDP sollte lieber Richtung 200W gehen um bei der 2060 mitzuhalten.

Hast du dir das ein oder andere RTX 2060 Custom Modell mal näher angeschaut? Da sind einige dabei, die sich auch locker um die 190 Watt einvernehmen. Wenn die entsprechenden Navi Konkurrenzmodelle also um die 200 Watt benötigen sollten, wäre das aus meiner Sicht völlig okay, so denn die Leistung in entsprechender Relation steht.

So long...
 
Zuletzt bearbeitet:
modena.ch schrieb:
Also RTX2080 planieren für 350€?
Wow mit solchen Kunden braucht man keine Feinde mehr....

deswegen habe ich extra ein "+" dahinter gesetzt ;)! Damit meinte ich so ab 350 aufwärts (350 bis V7). Klar das ein 2080 Killer nicht 350€ kosten würde (vllt in 3-4 Jahren). Naja egal. Wir können es eh nicht beeinflussen und wünsche bleiben sowieso ungehört.

Sun-Berg schrieb:
Die Erwartungen an NAVI bitte klein halten, sonst wird die Enttäuschung groß. :)

Ich glaube das wird für viele wirklich enorm schwierig! Weil die Erwartungen schon bei Fiji und allen bis heute gefolgten sehr hoch waren und sehr viele enttäuscht wurden.
 
Das PCB könnte auch einfach ein Engineering Sample darstellen, bei dem die Spannungsversorgung großzügiger ausfällt um evtl. auch in Testreihen Spannungs-Peaks sehen zu können.

Wenn mich nicht alles täuscht hatte AMD auch schon Probleme mit Karten - Mittelklasse - die sich am Ende mehr Strom genehmigt hatten als nach offiziellen Spezifikationen gestattet war.

Letzten Endes ist aber alles nur mit Spekulatius verbunden. Die Reviews bei Release werden dann schon Licht ins Dunkeln bringen.
 
  • Gefällt mir
Reaktionen: Balikon, KlaraElfer, Chaos Theory und 6 andere
mcdexter schrieb:
"Dass die 7-nm-Mittelklasse-Lösung von AMD aber kaum 375 Watt verbrät, dürfte quasi außer Frage stehen."
Sorry für meine meinung aber AMD traue ich 375 Watt bei Grafikkarten inzwischen zu.
Bis vor kurzem, habe ich trotz einiger nachteile nur auf AMD gesetzt. Inzwischen ist meine Grafikkarte von Nvidia.
Selbst die Radeon 7 benötigt keine 300W. Wieso sollten jetzt auf einmal Karten, die in der Mittelklasse angesiedelt sind, soviel verbrauchen?
 
  • Gefällt mir
Reaktionen: Balikon, TheUngrateful, Chaos Theory und 8 andere
mcdexter schrieb:
"Dass die 7-nm-Mittelklasse-Lösung von AMD aber kaum 375 Watt verbrät, dürfte quasi außer Frage stehen."
Sorry für meine meinung aber AMD traue ich 375 Watt bei Grafikkarten inzwischen zu.
Bis vor kurzem, habe ich trotz einiger nachteile nur auf AMD gesetzt. Inzwischen ist meine Grafikkarte von Nvidia.
Du weisst schon, was dann die Karte für eine theoretische Leistung haben müsste, oder? Schau dir die Radeon 7 an und was diese an Leistung besitzt (diese rennt grob bei 300W Leistungsaufnahme). Dann weisste ja, welche Leistung deine Mittelklasse Navi haben müsste ;)
Also beim nächsten vorher Nachdenken, dann reden

Das wird ein Entwicklerboard sein und es ist am Ende wie bei dem von Nvidia, wir werden sehen, was die Karte kann, wenn sie kommt.. Sollte Navi aber bei 375W die Mittelklasse der Riege sein, dann dürften es 2080Ti User schwer haben mit ihren 1200€ Karten :D
 
  • Gefällt mir
Reaktionen: Balikon
Roche schrieb:
Kannste dich bei NVidia bedanken, die für ihre Produkte Wucherpreise aufrufen.
Nein, da darf man sich bei den Kunden bedanken, die trotz diverser "Ausrutscher" (flasche DX-Level, VRAM-Angaben, etc) den Spaß mitmachen.
 
  • Gefällt mir
Reaktionen: Hembi, Alphanerd, stevefrogs und 3 andere
SKu schrieb:
Wenn mich nicht alles täuscht hatte AMD auch schon Probleme mit Karten - Mittelklasse - die sich am Ende mehr Strom genehmigt hatten als nach offiziellen Spezifikationen gestattet war.
Meinst du zufällig Polaris und die 75W über PCIe? Ja, es waren mehr (80-85 imho), aber das wurde ja durch ein Biosupdate behoben.
 
  • Gefällt mir
Reaktionen: Rockstar85
Holt schrieb:
Da man damit noch keine Fehlerkorrektur machen kann, ist es eben keine ECC, aber im Grunde ist die heute noch bei der ECC so, dass man eben ein 9. Bit hat, nur hat man eben bei heutigen Riegeln nicht nur 8 sondern 8x8 = 64 Bit Datenbreite und mit ECC dann eben 8x9 = 72 Bit, womit es dann eben keine ungerade Zahl mehr gibt und es ist eben neben der (besseren) Erkennung von Fehlern, auch eine gewissen Chance auf eine Fehlerkorrektur vorhanden.

Was Du schreibst, hört sich schlüssig an, aber ich glaube, da ist insgesamt noch ein Denkfehler drin. Wenn ich mich noch richtig an meine Vorlesung Technische Informatik erinnere, dann sind zusätzlichen Bit(s) für die Fehlererkennung und Korrektur (das sind übrigens zwei verschiedene paar Stiefel! - je nach Verfahren können mehr Fehler erkannt werden, aber nicht immer komplett korrigieren) soweit richtig, aber sie haben nicht mit dem Datenbus zu tun, denn die Fehlerkorrektur ist Bestandteil im System "DRAM". D.h. die Daten im flüchtigen Speicher können über die Zeit auf Fehler untersucht und ggf. korrigiert werden. Aber ein Client dessen (also die CPU) hat damit nichts zu tun. Letztlich interessiert (und adressiert) eine CPU nur die (Nutz)Daten, aber nicht die Parity-Infos. Wozu auch, sie möchte ja nichts selbst kontrollieren, sondern sich darauf verlassen, dass die Daten korrekt sind.

Aber wir driften ab in Richtung Off-topic...
 
Roche schrieb:
Kannste dich bei NVidia bedanken, die für ihre Produkte Wucherpreise aufrufen.

Wie war das noch einmal mit der Radeon VII zum identischen Preis der RTX 2080 mit 10% weniger Leistung? :lol: Wenn Nvidia „Wucherpreise“ aufruft, wie nennst du dann das?

Und wie, alle anderen News Seiten sprechen eindeutig von 8GB? Von dem Bild lassen sich keine 16GB ableiten, CB ist auch die einzige Website, die das behauptet. 8GB werden doch schon vorgestern zu wenig sein, hat AMD die Stimmen der Verzweifelten Vollzeit FFXV Ultra Spieler nicht erhört? :evillol:

Wer wirklich an 16GB VRAM bei Navi geglaubt hat, der sollte erst einmal etwas BWL studieren ...
 
  • Gefällt mir
Reaktionen: Transistor 22, psychotoxic, USB-Kabeljau und 2 andere
Luxmanl525 schrieb:
Sowas hängt streng von den Stückzahlen ab.
...die bei einem Evaluations-Board sehr klein ist, "one size fits all". Die spätere Serienproduktion wird dann auf Kosten optimiert.

iglitare schrieb:
Parity Bit ist kein Datenbus bit
Da musste ich auch lachen. Solche Stilblüten ...
Schon der allererste IBM XT PC hatte 9 Bit RAM Anbindung

kommen zu Stande, wenn HOLT besonders schlau wirken will.

modena.ch schrieb:
Wow mit solchen Kunden braucht man keine Feinde mehr....
Wenn nicht mindestens Vega 64 plus 321 % geboten wird, das Ganze noch zum Preis von 150 €, ist es halt epic mega fail. :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BacShea, geist4711 und Luxmanl525
Ich denke es kommt als Top Version mindestens eine Vega 64 ähnliche Karte, mit weniger Stromverbrauch und Raytracing Unterstützung für höchstens 350€, eher weniger.
Warum? Weil Navi + Zen2 höchstwahrscheinlich in der PS5 landen werden (bzw eine darauf basierende APU) und Raytracing angekündigt wurde. Also muss AMD mal langsam eine Karte rausbringen, die effizient RT berechnen kann, damit sich die Entwickler drauf einstellen können, wie man den Code anpassen muss usw. Die PS5 kommt ja schon nächstes Jahr laut diversen Gerüchten.
Desweiteren dürfen Konsolen nicht all zu viel Strom verbraten. Auch deswegen muss AMD den Stromverbrauch optimieren.
Wir werden also die Versuchskaninchen sein, die solche Karten auf Herz und Nieren testen und dann landet etwas ähnliches in den Konsolen.
 
@BiGfReAk

Es ist die Rede von RT-Unterstützung, was alles bedeuten kann. Ich würde da keinen Semi-Custom erwarten, der in 4k Echtzeit-RT in Vollbild hinbekommt. Abgesehen davon, kann man auf der PS lowlevel programmieren, was eine Menge ausmacht.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Zurück
Oben