News Interview: AMD über Zen 3, Big Navi, Desktop-APUs und mehr

Kacha schrieb:
Was genau fuer Erfahrung hat Nvidia gesammelt? Wie man es nicht machen sollte? Es gab ein paar Spiele damit, das war es. Was Nvidia hoffentlich hinbekommt ist die Leistung mit RT verbessern. AMD hat hier mit Konsolen einen riesen Vorteil. Die Entwickler wissen, dass jeder mit neuer Konsole RT haben wird und koennen es alle nutzen. Mich wuerde es nicht mal wundern wenn AMD jetzt schon mehr Feedback hat als Nvidia aufgrund der Situation.

Nvidia konnte relevante Daten sammeln und auch so z.B. über die Zeit ihr Deep Learning Super Sampling verbessern. Wenn AMD bislang Feedback bekommen konnte, dann doch eher von Entwickler- und nicht Konsumentenseite. Neue Technologien in den Markt bringen zu wollen, ist oftmals mit Komplikationen verbunden. Die Spiele, die es bislang mit Raytracing Unterstützung gibt, sind zwar überschaubar, nichtsdestotrotz aber wurde stetig weiter verbessert in Zusammenarbeit mit den Entwicklerstudios. Wer ein Metro oder Control einmal mit Raytracing gespielt hat, wechselt da nicht wirklich freiwillig wieder zurück.

Von Konsolen auf PCs schließen zu wollen, halte ich nicht für vergleichbar. Konsolen sind ein geschlossenes System, bei PCs hingegen gibt es unzählige unterschiedliche Konfigurationen. Dass Konsolen hier einwandfreie RT-Technik umsetzen, möchte ich auch gar nicht bezweifeln. Dahinter stehen aber auch noch andere Großunternehmen wie Sony und Microsoft, die auch in die Technik investieren. Bezogen auf den PC, ist man primär aber auf AMD angewiesen, die auch weniger Budget zur Verfügung haben. AMD und Software war schon immer so ein zweischneidiges Schwert. Daher würde ich bei AMD auch bei Release mit Softwareproblemen rechnen, erst recht, wenn "Neues" eingeführt wird.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Mustis
Und die Information stammt aus letztem Jahr. Somit, du hast dich nicht informiert.
1578484090895.png
 
  • Gefällt mir
Reaktionen: Blekota, master.science und DonL_
@Mustis

Und du willst mir doch nicht voller Überzeugung erklären, dass du es nicht verstehen kannst, dass man:

a) in einem neuen Fertigungsprozess keinen Mega-Chip auflegt
b) keinen Mega-Chip auflegt, wenn die Folgearchitektur schon fast fertiggestellt ist (PS5/MS setzen auf RDNA2)
c) der Konkurrent seinen Mega Chip auch lieber im alten Prozess auflegt, wegen der Yield-Rate.
 
  • Gefällt mir
Reaktionen: Kodak, Blekota, master.science und eine weitere Person
Doch, aber warum würden sie es dann jetzt bei RDNA2 tun? Neue Architektur und neuer Prozess (7nm+)…. Waum dann nicht jetzt Mittelklasse in 7nm+ und high end in 7 nm?
 
SKu schrieb:
on Konsolen auf PCs schließen zu wollen, halte ich nicht für vergleichbar. Konsolen sind ein geschlossenes System, bei PCs hingegen gibt es unzählige unterschiedliche Konfigurationen. Dass Konsolen hier einwandfreie RT-Technik umsetzen, möchte ich auch gar nicht bezweifeln. Dahinter stehen aber auch noch andere Großunternehmen wie Sony und Microsoft, die auch in die Technik investieren. Bezogen auf den PC, ist man primär aber auf AMD angewiesen, die auch weniger Budget zur Verfügung haben. AMD und Software war schon immer so ein zweischneidiges Schwert.

Ein geschlossenes System, bestehend aus AMD CPU + GPU und angepasstem Raytracing (was auch immer die da machen) und du glaubst etwa, es wird am PC etwas anderes geben? Das wird genau das selbe sein technisch.
Würde mich sogar so weit aus dem Fenster lehnen das man die Next-Gen Konsolen von der Hardware bis auf bestimmte integrierte Sachen auf dem Board fast 1:1 am PC nachbauen können wird. Vielleicht etwas langsamer, wegen der Optimierung. Dennoch ist es im Grunde die selbe Technik, sowohl was Hardware und Software angeht. Wer sich RDNA2 kauft wird am PC nix falsch machen können, darauf kann ich dir jetzt schon Brief und Siegel geben, da es die nächsten Jahre Gaming und Raytracing auf Konsole darstellt und am PC nichts anderes kommen wird.


pipip schrieb:
Und die Information stammt aus letztem Jahr. Somit, du hast dich nicht informiert.

Er wettet doch so gerne zukünftige Sachen! Da darf man doch sicher frei interpretieren, fern jeder Faktenlange. Hoffentlich macht er nicht noch in Aktien... könnte böse ausgehen.
 
aldaric schrieb:
Ich verstehe auch nicht wie man bei Navi vs. Turing von Lichtjahren Vorsprung für nVidia sprechen kann. Man sieht ja im Architekturvergleich das Turing und Navi praktisch die identische Leistung bieten. AMD ist architektonisch also schonmal auf dem gleichen Level wie nVidia,
Die Architekturen sind in etwa gleich schnell bei gleichem Takt, jedoch erreicht Nvidia diesen Takt schon seit der ersten 16nm Fertigung und AMD braucht dafür 7nm. Da kann man also nicht von identischer Leistung sprechen. Hinzu kommt, dass AMD mit 7nm mehr Energie verbraucht als ihre Nvidia Konkurrenz.
 
  • Gefällt mir
Reaktionen: Colindo
Reinheitsgebot schrieb:
Meine Frage ist, wie prüfen Sie, ob es ein gutes oder schlechtes Die ist.
Die lassen die Dies auf nem speziellen Sockel laufen und starten ein Diagnoseprogramm, welches unterschiedliche Spannungen und Frequenzen testet. Ein Chip schafft zB eine bestimmte Frequenz bei besonders wenig Spannung => Serverchip der andere Chip schafft besonders hohe Frequenzen => Top-Modell wie 3950x . Es kann auch sein, dass ein Chip beides schafft, muss aber nicht. Es kann auch sein, dass der Chip wenig Takt schafft und dafür sogar verhältnismäßig viel Spannung braucht und noch nen Core defekt hat => Ryzen 3600 ;)
Icetea36 schrieb:
Dann lieber Comet Lake für den Desktop im April.
Die Taktraten der Comet Lake-Modelle wurden doch schon geleakt?! Da gibt es ja quasi kaum Verbesserungen. Höchstens preislich wird man da etwas aggressiver sein.
Faust2011 schrieb:
Vega hat sich deutlich weiterentwickelt? Ich hatte mir gerade in den letzten Tagen nochmals die Artikel seit dem Vega-Launch angesehen. Ich kann da absolut keine Weiterentwicklung sehen, eher teils einen Rückschritt, leider.
@Volker hatte bei der Fragerunde mi Lisa Su ja auch gefragt, warum man Vega verwendet,statt Navi.
Meine Theorie:
  1. Weil es ausgereifter ist und es Treiberseitig weniger Probleme gibt.
  2. Und weil Navi (mit RDNA1) kaum Vorteile bringen würde im Mobile.Ich vermute Navi kann seine IPC-Vorteile nur ausspielen, wenn genug Bandbreite zur Verfügung steht.Zwischen Vega 8 und Vega 11 gab es ja wegen der Bandbreite schon kaum Unterschiede. Da wegen 7nm-Fertigung die Vega GPU höher takten kann, reicht auch ne Vega 8 und man spart sich lieber die 3 CUs auf dem Die um den Chip kleiner und günstiger fertigen zu können.
Was ich damit sagen will. Die IPC von RDNA gegenüber GNC ist sehr gut und der Sprung auf 7nm macht schon was aus bezüglich Verbrauch, aber die Performance/Watt an sich finde ich grade für den riesigen IPC-Sprung und 7nm-Fertigung sogar eher mau.

Man hat ja dafür gesorgt, dass die CUs besser ausgelastet sind aber das führt auch zu einem höheren Verbrauch führt. Siehe Vergleich einer EX 480 zu einer 5700 mit gleich viel CUs. Die 5700 verbraucht 176 Watt im Vergleich zur RX480 mit gleich viel VRAM und CUs.

Würde mal gerne ne RX480 und 5700 beide mit 1 Ghz getaktet vergleichen. Und dann IPC und Verbrauch gegenüberstellen.

RDNA2 sollte hier ansetzen und wie bei Nvidias Maxwell dafür sorgen, dass die Karten schon vorher bandbreitenmäßig entlastet werden und somit weniger verbrauchen, ohne dafür fps opfern zu müssen.

Brink_01 schrieb:
Bin immer noch auf High End Navi gespannt, da nVidia hier die Nase deutlich vorn hat.
Auch hoffe ich das die Custom Modelle besser werden. Die Thicc 3 drehte oft unnötig auf und das Spulenfiepen war nicht zu ertragen. Da zusätzlich der Leistungszuwachs in der Praxis nicht so hoch war wie erwartet, ging diese dann leider zurück und nun läuft weiterhin eine GTX1070.
Hat dir RadeonChill nichts gebracht? Hattest in deinem Thread ja nicht mehr geantwortet. Ich hab nur Spulenfiepen in 2D-Menüs älterer Spiele, oder 3D-Menüs ohne grafischen Anspruch, wo die fps dann über 500 gehen. Da sollte man dann manuell eingreifen. Ist aber kein AMD Problem, sondern kann jedem Hersteller passieren.
RayKrebs schrieb:
Ich hoffe mal das "wccftech" eher Recht behält :D

NVIDIA Ampere RTX 3000 Series - Performance & Pricing ( Rumors )
....

Ja hatte ich auch schon gehört, dass die Karten günstiger werden würden. Das kann einerseits für 7nm+ (EUV) sprechen, andererseits aber auch, dass man keinen großen Leistungssprung gegenüber Turing hat, sondern wie bei Pascal erstmal auf kleinere Chips setzt. Vielleicht gibts dann ja sogar zwei 7nm+ Generationen bei Nvidia wie bei 16/12nm.
 
Zuletzt bearbeitet:
Dass die nächsten Ryzen dieses Jahr noch kommen war wohl zu erwarten. Immer her damit und dann vielleicht ne vernünftige Mainboardplattform ohne Lüfter und mit besserem Bios zum Start.

Big Navi nach wie vor nichts greifbaren in Sicht, zumindest aus Konsumentensicht. "Wir halten das Segment für wichtig", gleichbedeutend mit wir tun das Nötigste und vllt kommt irgendwann mal was bei rum. Das ist doch genau der Satz den ein Hersteller von was auch immer aus der Kiste holt, wenn man gerade angekündigt hat etwas einzustellen oder zurückzufahren bzw. wenn einfach nichts vernünftiges in der Pipeline steckt.

Am Ende wird es wieder eine Karte die gerade so mit den jetzigen High End Nvidias konkurriert und Ampere stampft die wiederum in den Boden.
 
zeedy schrieb:
Die Architekturen sind in etwa gleich schnell bei gleichem Takt, jedoch erreicht Nvidia diesen Takt schon seit der ersten 16nm Fertigung und AMD braucht dafür 7nm. Da kann man also nicht von identischer Leistung sprechen. Hinzu kommt, dass AMD mit 7nm mehr Energie verbraucht als ihre Nvidia Konkurrenz.

Wer sagt das nVidia in 7nm den gleichen Takt fahren kann ? Man schaue sich Strukturverkleinerungen in anderen Bereichen an. Meist verliert man sogar an Takt. Du kannst noch gar nicht beurteilen inwiefern Ampere mit der Fertigung skalieren wird, wäre 7nm für Turing so Vorteilhaft gewesen, hätte nVidia diesen Prozess gewählt. Es gab wohl mehr als genügend Gründe sich dagegen zu entscheiden.


Mustis schrieb:
Doch, aber warum würden sie es dann jetzt bei RDNA2 tun? Neue Architektur und neuer Prozess (7nm+)…. Waum dann nicht jetzt Mittelklasse in 7nm+ und high end in 7 nm?

7nm+ ist ein optimierter 7nm Prozess. Der von vorneherein eine deutlich bessere Yield bieten wird. Das ist kein neuer Prozess.
 
  • Gefällt mir
Reaktionen: .Sentinel., DF86, Ozmog und eine weitere Person
just_fre@kin schrieb:
Dann mal die Gegenfrage: was hast du denn so alles auf dem PC, dass du die Konsolen ignorieren kannst?^^

Relativ einfach: Fast alles Spiele die es auch auf Konsole gibt. Nur tue ich die mir nicht auf Konsole an, keine Lust auch eine Ruckelorgie. Natürlich haben die Konsolen viel mehr Exklusiv-Titel. Wenn die aber alle Müll sind juckt mich das nicht ;).
Wobei mir da gerade Grim Dawn einfällt.

Das beste Beispiel hier ist Ark. Ist auf dem Pc fast ein komplett neues Game.

Okay, bis auf God of War. Das ist einfach unfassbar gut. Habe mich damit aber auch teilweise sehr schwer getan bei manchen FPS Einbrüchen.
 
Mustis schrieb:
Die 2080 Ti ist locker flockig 40-60% (von FHD nach UHD) schneller als die 5700XT. Also hier nur zur bestehenden Nvidia Generation aufzuholen wäre sportlich.

Selbst wenn eine 2080 Ti in WQHD ist nicht wirklich 50% schneller. Aber ich müsste das 3-fache zahlen - ich drück es mal nicht in Prozent aus. Apples & Peaches.
 
  • Gefällt mir
Reaktionen: master.science
master.science
Ich kann auch nur mit dem argumentieren, was ich auf den News Seiten zu lesen bekomme.

Mustis schrieb:
Neue Architektur und neuer Prozess (7nm+)….
Weil RDNA2 auf RDNA1 basiert und 7nm+ auf 7nm mit Teil anderer Belichtung ?

zeedy
https://www.pcgameshardware.de/AMD-...yzen-5-Radeon-Technologies-Group-RTG-1254102/
Ich hatte es schon gestern verlinkt. Mal sehen ob sie bei RDNA 2.0 was Richtung Turbo, Takt machen konnte.
Ob sie es schaffen, muss man abwarten. RDNA 2 ist einfach die unbekannte.

Ist es RDNA nur mit RT. Ist es mit höhere IPC. Wie ist die Skalierbarkeit usw. Mit Fijii und Vega konnte AMD große Chips fertigen lassen. Aber Takt und Auslastung war das Problem. Letzteres haben sie schon mal mit RDNA 1 verbessert.
 
Zuletzt bearbeitet:
DJ2000 schrieb:
AMD interessiert die 2080TI nicht und auch keine 2180TI/3080TI. Es besteht kein Interesse mit diesen Karten zu konkurrieren.

Widerspricht der Aussage von Dr. Lisa Su aus dem Interview. Wenn High-End für AMD eine Rolle spielt, dann MÜSSEN sie Lösungen finden wie sie konkurrenzfähig werden können.

DJ2000 schrieb:
Der Markt für den Desktop wird erst und nur aufgrund der Einführung der Konsolen durch AMD bedient.
Die Konsolenlösung kommt dann entsprechend in abgewandelter Form als "Big Navi" auf den Markt.
Das sind Semi Custom SoCs. Die gab es so auch nicht in abgewandelter Form bei der letzten Konsolengeneration auf dem Retail-Markt zu kaufen und werden auch dieses Mal so nicht aufzufinden sein. AMD würde sich keine Freunde bei Sony und Microsoft machen, wenn sie den SoC für den Retailmarkt anbieten würden und das wird mit Sicherheit auch vertraglich geregelt sein.

DJ2000 schrieb:
Nvidia wird das zwar sehr wahrscheinlich schon wissen:
Inwieweit die jetzige RTX Lösung mit der Konsolenlösung kompatibel ist.
Sollten jetziges "RTX" das nämlich nicht sein, wäre es das ende der jetzigen RTX Karten, sowie auch alle dazugehörigen Spiele.

Nvidias Raytracing Lösung ist proprietär auf Hardwareseite, indem sie eben zusätzliche Recheneinheiten für RT nutzen. Angesprochen werden kann es aber sowohl über die Vulkan, Microsoft DX12 API (DXR ist Teil der DX12 API) und auch über Nvidias OptiX. Von daher sehe ich da nicht warum Spiele für die RTX Karten auf dem Desktop auf einmal nicht kompatibel sein sollten.
 
  • Gefällt mir
Reaktionen: .Sentinel. und DJ2000
Seit einer Ewigkeit jetzt in der Klemme mit meiner Vega 64. Wegen Freesync geht Nvidia nicht, die Vega lässt sich kaum Übertakten und es kommt und kommt einfach nichts stärkeres.

Ich glaub ich schmeiss den 34" mit Freesync aus dem Fenster, dann geht auch eine Karte von Herstellern die aus den Pötten kommen.
Frustrierend!

Zur CES erwartet man endlich news und Benchmarks und die schaffen nichtmal ein Releasedatum anzukünden.
Eine 2 Jahre alte Karte (die bereits für damalige Verhältnise bescheidene Performance hatte) ist nach wie vor die Speerspitze von AMD...
ATI wo bist du nur?!
 
Smartin schrieb:
wenn man sieht wieviel Strom die 5700XT jetzt schon verbraucht, dann dürfte der Verbrauch der "5800XT/5900XT" auch nochmal extrem steigen.

Das stimmt nicht unbedingt. Wenn man die doppelte Anzahl CUs hat, dafür aber den Takt um 25% senkt, kann man theoretisch trotzdem 50% mehr Leistung bei nur 50% mehr Stromverbrauch erreichen.

Je nachdem wie Spannung/Takt korrelieren kann die Effizienz ohne Probleme sogar steigen.
 
pipip schrieb:
Vega 10 zu vega 20
331 mm² / 495 mm² => ca 0,67 der Fläche (mit doppelten SI)

2080TI
775 mm² => Wäre also ca 519,25‬ groß.

Ein Tapeout von AMD soll bereits 505 haben.

Du musst bei den 519 nochmal *0,85 rechnen. Das ist im Schnitt die Flächenersparnis von 7nm auf 7nm+
Nvidia geht ja direkt auf 7nm+ und AMD mit RDNA2.
 
  • Gefällt mir
Reaktionen: pipip
master.science schrieb:
Ein geschlossenes System, bestehend aus AMD CPU + GPU und angepasstem Raytracing (was auch immer die da machen) und du glaubst etwa, es wird am PC etwas anderes geben?

Es wird am PC mit Sicherheit keine abgewandelte Form des Semi Custom SoCs aus den Konsolen geben. Irgendwann wird es evtl. eine APU geben, die auf Navi mit RDNA2 aufbaut aber auch wesentlich weniger Leistung zur Verfügung stellen wird als eine Lösung aus CPU und dezidierter Grafikkarte.

Wie AMD das am PC umsetzen wird, wird man sehen. Wenn ich mich recht entsinne, hatte AMD damals bei der Präsentation von Navi bereits über Cloud basierte RT Lösungen nachgedacht. Dass sie, wie Nvidia, in Hardware vorgesehene Recheneinheiten nutzen werden, das glaube ich erst, wenn ich es sehe.
 
Mustis schrieb:
Und AMD hat auf Niveau der 2080 TI nichts gebracht, dass ist Fakt...
Müssen sie auch nicht.

2080 Ti ist doch eine Nische. Da findest Du hier im Forum vlt. 3-5% - ich glaube kaum, das es "overall" mehr als 1% 2080 Ti Nutzer geben wird. Die Karte ist einfach Luxus / zu teuer. Die kostet soviel wie vor 4-5 Jahren ein Highend-PC (mit GPU).

50% mehr Leistung für 300% mehr Cash. Ist halt der SUV für den Stadtverkehr.
 
  • Gefällt mir
Reaktionen: master.science
@Rock Lee
Leider nicht. Spulenfiepen war auch bei 80FPS störend und da ich mit 120-150FPS spielen möchte, bringt das Tool hier nicht viel.
Muss wohl warten bis ich alt genug bin, um solche Frequenzen nicht mehr wahrzunehmen.
Bis dahin kommen Dell Notebooks nicht in Frage, Netzteil vom Monitor wird abgedeckt und bestimmte Geräte werden Nachts vom Strom genommen.
Bei meiner GTX1070 nehme ich nichts wahr, zumindest nicht von meinem Stuhl aus.

Manche Hersteller decken die Bauteile besser ab oder verändern die Frequenz dahingehend das man es nicht mehr wahrnimmt.
 
SKu schrieb:
Es wird am PC mit Sicherheit keine abgewandelte Form des Semi Custom SoCs aus den Konsolen geben. Irgendwann wird es evtl. eine APU geben, die auf Navi mit RDNA2 aufbaut aber auch wesentlich weniger Leistung zur Verfügung stellen wird als eine Lösung aus CPU und dezidierter Grafikkarte.

Es ist auch gar nicht nötig es als APU raus zu bringen, es wird eine RDNA2 Grafikkarte für Desktop kommen und die wird natürlich die gleiche RDNA2 Technologie sein wie die verbauten in den Konsolen. Natürlich haben Sony und Microsoft so Ihre Anpassungen, aber das betrifft teilweise auch andere Sachen.
Schon aus Sicht von Portierungen wäre es aber sinnlos da nochmal eine andere Technik für den Desktop zu machen, wenn es sowieso schon die gleiche Technik ist. Ist halt alles massiv vereinheintlicht seit der letzten Gen.

SKu schrieb:
Wie AMD das am PC umsetzen wird, wird man sehen. Wenn ich mich recht entsinne, hatte AMD damals bei der Präsentation von Navi bereits über Cloud basierte RT Lösungen nachgedacht. Dass sie, wie Nvidia, in Hardware vorgesehene Recheneinheiten nutzen werden, das glaube ich erst, wenn ich es sehe.

Die Frage ist eher wann AMD die Technik am PC überhaupt bringt, wenn es auch erst mit RDNA2 ist kann es noch über 1 Jahr dauern, also dann deutlich später als auf den Konsolen. Es wird denke ich eine Hardware-Lösung sein, Cloud halte ich für wenig praktikabel, zumal es wohl auf dem High-End Chip kommen wird. Wäre z.B. eine Überraschung, wenn AMD schlechtere Serien damit bestückt, schon wegen der Leistung. Bei der aktuellen Gen hat man es ja auch schon im voraus bleiben lassen, aus gutem Grund. Macht in der Leistungsklasse eben kaum Sinn.
 
Zurück
Oben