Reinheitsgebot schrieb:
Meine Frage ist, wie prüfen Sie, ob es ein gutes oder schlechtes Die ist.
Die lassen die Dies auf nem speziellen Sockel laufen und starten ein Diagnoseprogramm, welches unterschiedliche Spannungen und Frequenzen testet. Ein Chip schafft zB eine bestimmte Frequenz bei besonders wenig Spannung => Serverchip der andere Chip schafft besonders hohe Frequenzen => Top-Modell wie 3950x . Es kann auch sein, dass ein Chip beides schafft, muss aber nicht. Es kann auch sein, dass der Chip wenig Takt schafft und dafür sogar verhältnismäßig viel Spannung braucht und noch nen Core defekt hat => Ryzen 3600
Icetea36 schrieb:
Dann lieber Comet Lake für den Desktop im April.
Die Taktraten der Comet Lake-Modelle wurden doch schon geleakt?! Da gibt es ja quasi kaum Verbesserungen. Höchstens preislich wird man da etwas aggressiver sein.
Faust2011 schrieb:
Vega hat sich deutlich weiterentwickelt? Ich hatte mir gerade in den letzten Tagen nochmals die Artikel seit dem Vega-Launch angesehen. Ich kann da absolut keine Weiterentwicklung sehen, eher teils einen Rückschritt, leider.
@Volker hatte bei der Fragerunde mi Lisa Su ja auch gefragt, warum man Vega verwendet,statt Navi.
Meine Theorie:
- Weil es ausgereifter ist und es Treiberseitig weniger Probleme gibt.
- Und weil Navi (mit RDNA1) kaum Vorteile bringen würde im Mobile.Ich vermute Navi kann seine IPC-Vorteile nur ausspielen, wenn genug Bandbreite zur Verfügung steht.Zwischen Vega 8 und Vega 11 gab es ja wegen der Bandbreite schon kaum Unterschiede. Da wegen 7nm-Fertigung die Vega GPU höher takten kann, reicht auch ne Vega 8 und man spart sich lieber die 3 CUs auf dem Die um den Chip kleiner und günstiger fertigen zu können.
Was ich damit sagen will. Die IPC von RDNA gegenüber GNC ist sehr gut und der Sprung auf 7nm macht schon was aus bezüglich Verbrauch, aber die Performance/Watt an sich finde ich grade für den riesigen IPC-Sprung und 7nm-Fertigung sogar eher mau.
Man hat ja dafür gesorgt, dass die CUs besser ausgelastet sind aber das führt auch zu einem höheren Verbrauch führt. Siehe Vergleich einer EX 480 zu einer 5700 mit gleich viel CUs. Die 5700 verbraucht 176 Watt im Vergleich zur RX480 mit gleich viel VRAM und CUs.
Würde mal gerne ne RX480 und 5700 beide mit 1 Ghz getaktet vergleichen. Und dann IPC und Verbrauch gegenüberstellen.
RDNA2 sollte hier ansetzen und wie bei Nvidias Maxwell dafür sorgen, dass die Karten schon vorher bandbreitenmäßig entlastet werden und somit weniger verbrauchen, ohne dafür fps opfern zu müssen.
Brink_01 schrieb:
Bin immer noch auf High End Navi gespannt, da nVidia hier die Nase deutlich vorn hat.
Auch hoffe ich das die Custom Modelle besser werden. Die Thicc 3 drehte oft unnötig auf und das Spulenfiepen war nicht zu ertragen. Da zusätzlich der Leistungszuwachs in der Praxis nicht so hoch war wie erwartet, ging diese dann leider zurück und nun läuft weiterhin eine GTX1070.
Hat dir RadeonChill nichts gebracht? Hattest in deinem Thread ja nicht mehr geantwortet. Ich hab nur Spulenfiepen in 2D-Menüs älterer Spiele, oder 3D-Menüs ohne grafischen Anspruch, wo die fps dann über 500 gehen. Da sollte man dann manuell eingreifen. Ist aber kein AMD Problem, sondern kann jedem Hersteller passieren.
RayKrebs schrieb:
Ich hoffe mal das "wccftech" eher Recht behält
NVIDIA Ampere RTX 3000 Series - Performance & Pricing ( Rumors )
....
Ja hatte ich auch schon gehört, dass die Karten günstiger werden würden. Das kann einerseits für 7nm+ (EUV) sprechen, andererseits aber auch, dass man keinen großen Leistungssprung gegenüber Turing hat, sondern wie bei Pascal erstmal auf kleinere Chips setzt. Vielleicht gibts dann ja sogar zwei 7nm+ Generationen bei Nvidia wie bei 16/12nm.