News Interview: AMD über Zen 3, Big Navi, Desktop-APUs und mehr

estros schrieb:
Lieber schon, aber umsetzbar? Nein.
15-18% nur bei einem verbesserten 7nm Prozess, ich halte das für nicht realistisch.
Takterhöhung liegt am Fertigungsprozess. Die nimmt man mit, aber kann es nicht forcieren.

Man muss die Taktsteigerung nicht mitnehmen bei einem neuen Prozess, es heist ja immer: x% mehr Takt oder y% weniger Verbrauch. Die 15-18% müssen also zwangsweise vom Chipdesign bzw der IPC kommen, nicht vom Fertigungsprozess. Ob das realistisch ist oder nicht kann ich nicht bewerten.
 
t3chn0 schrieb:
Ich denke aber, dass Nvidia ein absolutes Monster raushauen wird. Die Lederjacke ist nicht auf dem Intel-Tripp und verpennt den Markt. Hier wird sich AMD richtig auf die Hinterbeine setzen müssen.
Da bin ich eher skeptisch denn wenn ich mir so anschaue was bisher in 7nm auf den markt kam dann wird man ganz einfach keine so großen Chips wie bisher sinnvoll produzierne können. Das dürfte die mögliche Leistungssteigerung empfindlich begrenzen und wie weit man dann mit dem Takt gehen kann ist auch noch die große Preisfrage. Ich gehe davon aus das man nicht umsonst bei Turing auf einem vergleichsweise groben Prozesss gesetzt hat. Ich tippe eher auf max. +20% bei einer Desktop Karte die die 2000er Mauer durchbricht und damit meine ich nicht die Taktfrequenz.
 
  • Gefällt mir
Reaktionen: Unnu und DonL_
Wo sind eigentlich die ganzen Hater hin, die bei Ryzen 1000/2000 noch der Meinung waren, dass Intel sich das nicht gefallen lassen wird und AMD sowieso nix Brauchbares bringt? :D
 
  • Gefällt mir
Reaktionen: Kodak, Unnu, Wow4ikRU und eine weitere Person
master.science schrieb:
Bin auch am PC aber Konsole ist im Vergleich zu früher deutlich besser geworden und am Ende geht es um die Games. Die exklusives auf der Sony Konsole sehen alle extrem gut aus und haben spielerisch eine hohe Qualität. Du beziehst Qualität wohl nur auf die Technik, wüsste nicht das ein Detroit Become Human oder God of War auch nur im Ansatz scheiße aussieht auf der Konsole...

wo sind die denn besser geworden? sony und nintendo hatte schon IMMER phantastische exklusives. da hat sich genau NADA NIX geändert.

wer sagt das god of war scheisse aussieht? niemand! ich sage das god of war in 30 fps läuft und ich mir das nicht mehr antue. du kannst auch auf einem pc 4k ultra anschalten und dann mit 10 fps durch die gegend ruckeln. sieht PHANTASTISCH aus (solange man sich nicht bewegt).
es gibt so viele spiele releases das ich es einfach nicht nötig habe und sogar so gute spiele wie god of war und spidermen ignorieren kann weil man heutzutage eh nicht mehr mit seiner zeit hinterherkommt zwischen gaming/netflix und RL...

übrigens: wenn ich sage das konsole für mich nicht mehr in frage kommt wegen 30 fps und du sagst aber spiel xy sieht doch klasse aus dann nennt man das „moving the goal post“

bitte schön:
https://simple.wikipedia.org/wiki/Moving_the_goalposts
 
aldaric schrieb:
Du vergisst das AMD auch einfach, wie nVidia, einen großen Chip auflegen kann. Wichtig ist doch viel mehr, was beide Architekturen leisten und da sind Navi und Turing auf einem Level, siehe CB Test.

Edith: Man darf schlichtweg nicht einen Vollausbau mit einem Mittelklasse-Chip vergleichen. Deshalb hat CB ja die GPU Architekturen verglichen und da herrscht zwischen Navi und Turing gleichstand.

Komisch, Du hast meinen pro AMD Beitrag gar nicht mehr geliked und zu dem Lüfterthema gestern hast Du Dich auch nicht mehr geäußert.

---

Was die Rohleistung angeht ist man mit Navi evtl. auf einem ähnlichen Stand wie Turing. Allerdings sind die Nvidia Karten dennoch deutlich komplexer aufgebaut und können einfach erheblich mehr. Alleine die Architektur rund um die Tensor Cores, dazu noch einen Hardware Encoder fürs Streaming welcher kaum Leistung zieht, aber ähnliche Bildqualität bietet wie ein CPU Encoding. Hier ist Turing schon klar überlegen. Dafür sind die AMD Karten auch günstiger, um mal fair zu bleiben.
 
immortuos schrieb:
Träumt weiter. Mit solchen Vorstellungen kann man nur enttäuscht werden. Als ob AMD den großen Chip verramschen würde.

Da bin ich voll bei dir.👍
AMD wird einen Chip der die selbe Leistung wie eine 3080TI hat auch zu einen ähnlichen Preis vieleicht €100.- günstiger bringen. Da ich Big Navi Leistungsmäßig aber eher <= 2080TI angesetzt habe und der 3080TI ja ein Leistungs plus von 50% haben soll wäre der Navi Chip nicht mehr als obere Mittelklasse. Da würden €600.- bis €700.- hinkommen. Aber es ist alles eh nur Spekulation. Auf jeden bin ich nicht bereit 1300.- Euro für eine Grafikkarte auszugeben.
 
Strikerking schrieb:
Sehe ich auch so, Big Navi macht nur sinn mit RDNA2 und aktuellen Features. Big Navi mit RDNA1 wäre nicht Konkurrenzfähig.
Auch weil die Konsolen unter anderem auf RDNA 2 setzen mit RT etc.

Sie könnten aber noch eine RDNA1 als RX5800XT mit 64CUs bringen, die dann in der Leistungsklasse einer RTX2080Ti wildert für 600-700 Euro. Würde Sinn machen, da sie eine RTX2080 Super preis-leistungsmäßig deklassieren würden.
Würde auch zu den Gerüchten einer kommenden RTX2080Ti Super passen, da NVIDIA wieder einen Respektabstand benötigt, auch wenn Preis/Leistung für den Popo wäre.

Naja, würde hätte könnte...hoffe... :)
 
cppnap schrieb:
Wo sind eigentlich die ganzen Hater hin, die bei Ryzen 1000/2000 noch der Meinung waren, dass Intel sich das nicht gefallen lassen wird und AMD sowieso nix Brauchbares bringt? :D

Naja ZEN1 und ZEN1+ waren nun keine wirklich Konkurrenten zu vergleichbaren Intel Produkten (rein von der Performance her). Die Intel Prozessoren waren dafür erheblich teurer, den Mehrpreis aber auch (meiner Meinung nach Wert).

Ich glaube das kaum jemand gesagt hat, dass ZEN2 schlecht werden würde. Im Gegenteil, der Hype war doch gigantisch. Jedem war klar, dass der Corecount zumindest gleich, oder noch erhöht werden würde. Dazu mehr Takt und deutliche IPC Steigerungen. Da konnte man schon von ausgehen, dass hierbei schon eine Granate entstehen könnte.
 
  • Gefällt mir
Reaktionen: Unnu
DonL_ schrieb:
Dieses Gerücht mit 50% mehr Leistung bei 50% besserer Effizienz ist der größte Schwachsinn auf Erden
Natürlich ist das SO vollkommener Schwachsinn. Die Taipeh Times hat da wohl etwas verwürfelt. ;)
Entweder das eine oder das andere. Beides zusammen, wäre ein mittleres Wunder.
aldaric schrieb:
Du vergisst das AMD auch einfach, wie nVidia, einen großen Chip auflegen kann. Wichtig ist doch viel mehr, was beide Architekturen leisten und da sind Navi und Turing auf einem Level, siehe CB Test.

Edith: Man darf schlichtweg nicht einen Vollausbau mit einem Mittelklasse-Chip vergleichen. Deshalb hat CB ja die GPU Architekturen verglichen und da herrscht zwischen Navi und Turing gleichstand.
Stimmt, nicht richtig nachgedacht.
Wollen wir es hoffen. Meine besten Wünsche begleiten AMD.
Ich bin bzgl AMD + Grafik aber ziemlich geerdet und noch mehr gefrustet.
Obwohl ich ja die leise Hoffnung habe, das es ohne Raja, welcher wohl andauernd das Rad neu erfinden wollte, besser läuft.
 
  • Gefällt mir
Reaktionen: Unnu und Atlan2101
aldaric schrieb:
einen großen Chip auflegen kann.
Können sie das? Vll geht genau das nicht und deswegen gibt es auch keinen? Vll lässt sich der Mittelklassechip eben ganu nicht einfahc in einer gröere Itteragtion überführen. Wenn das Segment, wie Su bestätigt, für AMD wichtig ist, gäbe es keinen Grund, es nicht zu tun, wenn sie könnten.
 
Dreamliner schrieb:
Für mich muss AMD die kommende 3080 oder 3080Ti schlagen.

Bitte was? Manche träumen eher als überhaupt ansatzweise realistische Gedankengänge zu haben o_0
 
-Ps-Y-cO- schrieb:
@zeedy
Die Reviewer haben die VII halt im Temp-Limit getestet. Kein Wunder das sie "Abkackt"
zumal eine Schraube! nicht festgezogen werden kann bei der Retail-Version.
Alleine nur an dieser Schraube liegt es, dass die VII nicht an die 2080 und 2080ti ran kommt.
glaubst du nicht? ich schon. bemühe google, und du wirst fündig.
ne glaub ich tatsächlich nicht. aber selbst wenn es so wäre... EINE SCHRAUBE hindert amd also seit über einem jahr performance könig zu sein? das wäre in einem maß dilletantisch, dass würde alles sprengen was ich je von einer multi milliarde firma gehört habe.
 
Mustis schrieb:
Können sie das? Vll geht genau das nicht und deswegen gibt es auch keinen? Vll lässt sich der Mittelklassechip eben ganu nicht einfahc in einer gröere Itteragtion überführen. Wenn das Segment, wie Su bestätigt, für AMD wichtig ist, gäbe es keinen Grund, es nicht zu tun, wenn sie könnten.

Dafür gibt es mehr als genügend Gründe. Warum hat nVidia wohl einen alten, bekannten und optimierten Prozess für ihren Monster-Chip genutzt? Warum mit RDNA (der ersten Iteration der Architektur) in einem neuen 7nm Prozess direkt einen Monster-Chip auflegen, wo man praktisch in ein Minusgeschäft läuft ?

Für AMD hätte es wenig Sinn gemacht, ein Design auf den alten TSMC Prozess aufzulegen, dass hätte nur Kosten verursacht, dann lieber einen Mitteklasse-Chip im neuen Verfahren. Da dieser nun immer besser läuft, macht es zukünftig auch Sinn große Chips darin zu fertigen mit RDNA2.
 
  • Gefällt mir
Reaktionen: Kodak, rolandm1, Blekota und eine weitere Person
d3nso schrieb:
Man muss die Taktsteigerung nicht mitnehmen bei einem neuen Prozess, es heist ja immer: x% mehr Takt oder y% weniger Verbrauch. Die 15-18% müssen also zwangsweise vom Chipdesign bzw der IPC kommen, nicht vom Fertigungsprozess. Ob das realistisch ist oder nicht kann ich nicht bewerten.
Müssen? Natürlich nicht, dir wird ja keine Waffe an den Kopf gehalten, aber die wird natürlich mitgenommen. Nennt sich im Zweifel Boost oder Turbo.
PS: Auch ist die Leistung des Chipdesigns Teil des Fertigungsprozesses.
 
Mustis schrieb:
Können sie das? Vll geht genau das nicht und deswegen gibt es auch keinen?
AMD kann keine Chips fertigen, aber TSMC kann es und es gibt soviel bekannt, angeblich einen 505 mm^2 Die, der gerade sein erstes Tape out hatte.
Und der Grund wieso es nicht früher gab, ist der selbe wie bei NV. Man setzt auf 7nm+.
Vllt besser informieren, bevor du anfängst eine 5700XT mit einer 2080Ti zu vergleichen. Klar wäre es sportlich, wenn AMD zu einer selben Chipgröße wie Navi 10 ein Navi 2X bringen würde, der es mit einer 2080TI mithalten könnte, welche auch in 7nm um einiges größer wäre.

Vega 10 zu vega 20
331 mm² / 495 mm² => ca 0,67 der Fläche (mit doppelten SI)

2080TI
775 mm² => Wäre also ca 519,25‬ groß.

Ein Tapeout von AMD soll bereits 505 haben.
 
Zuletzt bearbeitet:
@aldaric und warum dann nicht gleich den großen Chip zur 5700 XT dazu? Ich mein mit der VII hat AMD auch nurn teuren Rettungsanker rausgebracht und jetzt auf einmal geht das nicht mehr? ICh will nicht sagen, dass es nicht so sein könnte, aber wirklich nachvollziehbar ist es für mich nicht, dass AMD den Chip nicht bringt obwohl es für kein Problem sein soll und sie damit Nvidia komplett das Feld überlassen aber der 2070 S.

pipip schrieb:
Vllt besser informieren, bevor du anfängst eine 5700XT mit einer 2080Ti zu vergleichen
Das habe ich nicht? nochmal, einige scheinen Probleme mit dem LEsen von Beiträgen zu haben, die sich aufeinander beziehen: Die 5700 XT wurde herangezogen, weil es die aktuellste und derzeit schnellste GPU seitens AMD ist, die ich kaufen und damit testen kann. Ob der 505 im Tapeout nicht genau der Chip ist, der jetzt 2020 kommen soll, würde mich wundern. Denn das AMD noch was zwischen schiebt, zu dem es bis dato kaum infos gibt, bezweifele ich.
 
Inxession schrieb:
AMD ist nicht die Wohlfahrt .... aber wenn Sie im GPU Sektor was brauchen, dann Marktanteile.

Ich sehe es so ...
- Ampere wird, entgegen der Meldung wccftech, nur die RT Leistung beachtlich steigern. Beim rastern ist es in den letzten Jahren schon immer weniger geworden. 2080 ist ja kaum schneller als die 1080ti. Die 2080ti nur 25% schneller als ihr Vorgänger, aber gleich mal um 40% teurer.

Öhm. Es sind in Full HD und WQHD etwa 35%, bei 4K dann 40%. Ist schon ein wenig mehr als deine 25%. Spielt man dann noch aktuelle Titel mit Low Level APIs wie z.b. Red Dead Redemption 2, bricht eine 1080 Ti richtig ein.
 
  • Gefällt mir
Reaktionen: Unnu
Die Radeon VII war ein Wink mit dem Zaunpfahl. Damit wollte man doch nur zeigen, dass wenn man eine starke GPU bauen möchte, dies jederzeit könnte. Das die Radeon VII mit ihrem HBM Speicher nicht wirtschaftlich war, wusste AMD selbst. Daher war die Stückzahl dementsprechend auch gering.
 
Pisaro schrieb:
Red Dead Redemption 2, bricht eine 1080 Ti richtig ein.

Die Zahlen sind sowieso völlig obsolet wenn man sich mal vorstellt wie es wäre RDR2 explizit für die 1080 Ti entwickelt... das Thema ist einfach nur zum heulen, daher gebe ich kein großes Geld mehr für Grafikkarten aus. Die Performance ist bei Frame pro Euro doch ziemlich peinlich, beste Karten hin oder her.
 
aldaric schrieb:
Die Radeon VII war ein Wink mit dem Zaunpfahl. Damit wollte man doch nur zeigen, dass wenn man eine starke GPU bauen möchte, dies jederzeit könnte. Das die Radeon VII mit ihrem HBM Speicher nicht wirtschaftlich war, wusste AMD selbst. Daher war die Stückzahl dementsprechend auch gering.
Das heißt, AMD baut lieber eine teure, technishc nicht mehr taufrische VII um zu zeigen, dass sie große Chips können und wollen statt einen schlagfertigen RDNA Chip rauszubringen und damit ein echtes Statement abzugeben, vorlalem wnen das technisch kein Problem wäre? Ne, sorry, das ist in meinen AUgen schlicht nicht logisch. Wer eine VII baut und rausbringt und sich damit eine kleine Schlete zurecht abholt, der hätte auch den großen Bruder der 5700 Xt gebracht wenn es machbar gewesen wäre.
 
Zurück
Oben