News AMD Gonzalo: Konsolen-SoC mit acht Zen-Kernen und Navi-Grafik

@DonL_ das mag sein. Ist aber trotzdem ein Art "Kompromiss". Klar für den Walt und Wiesen Streamer eine gute Option. Für jemanden wie Gronkh, einfach unprofessionell bzw. schlecht beraten...
 
Wenn ein TR 2990WX beraten wurde, war diese in der Tat unterirdisch, die beschriebenen Probleme kann ich mir beim TR 2950X nicht vorstellen, da alle Kerne direkt am RAM angebunden sind und 99% der Spiele mit 16c/32t umgehen können.

Was ich dazu noch merkwürdig finde ist, das ihm empfohlen wurde, das alles über das Bios zu machen, was ich eigentlich auch präferiere, aber bei seinem Workload würde sich das Ryzen Mastertool anbieten und wesentlich komfortabler sein, weil es das alles auch kann, nur von der Windows Oberfläche gesteuert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, Obvision, KCX und 2 andere
DonL_ schrieb:
Was ich dazu noch merkwürdig finde ist, das ihm empfohlen wurde, das alles über das Bios zu machen, was ich eigentlich auch präferiere, aber bei seinem Workload würde sich das Ryzen Mastertool anbieten
Hat mich auch gewundert und ist auch lächerlich.. aber wundert mich nicht bei den ganzen Experten, die da unterwegs sind... Kein Plan aber über den TR maulen... Gronkh:freak:
 
KCX schrieb:
Wenn ich damit Geld verdienen würde, hätte ich fürs Gaming einen 9900K mit 2080Ti und fürs Streaming einen kleinen TR oder 2700X mit einer elgato 4K60 Pro.

Kommt natürlich auf die Konstellation an. Wenn ich hauptsächlich mit Streaming mein Geld verdienen würde, dann würde ich mir auch einen 9900K /9700K plus 2080Ti zum Zocken holen und als Streamingrechner einen 16 Kern Threadripper. Ein 8 Kerner kann da schon an seine Grenzen kommen. Wenn man etwas zukunftssicher unterwegs sein möchte und auch evtl. UHD / 1440p streamen möchte, ist ein 1950 / 2950x eine gute Wahl.

Würde ich mit Youtube Geld verdienen, würde ich mir eher was Richtung SkylakeX holen, zumindest wenn ich auf Adobe Produkte setze. Ist alles immer sehr abhängig vom Nutzen.und der eingesetzten Software. Wenn man mit Davinci arbeitet, ist ein Threadripper plus Radeon VII eine gute Wahl.

DonL_ schrieb:
Ein TR 2950X kann durchaus beides sehr zufriedenstellend, wenn man nicht das Geld für 2 Rechner ausgeben will!

Das stimmt vollkommen. Mit einem 16 Kern Threadripper fährt man ziemlich gut. Wenn man streamt oder Gamecaptures erstellt, arbeitet man eh nicht mit mehr als 60fps. In allen aktuellen Spielen liefern die Threadripper eine gute Performance und man kann parallel streamen, rendern etc.

In meinen Augen sind die 16 Kern Threadripper kleine Allroundwunder. Es ist eine menge parallel möglich. Da werden sich einige Leute sehr freuen, wenn 16 Kerne in den Mainstream kommen. 16 Kerne sind auch noch eine Zahl, mit denen so ziemlich alle Programme gut zurecht kommen, dazu stimmt die Speicheranbindung. Dazu nicht so extrem teuer.
 
  • Gefällt mir
Reaktionen: s0UL1, Chaos Theory, DonL_ und 2 andere
xexex schrieb:
... und definitiv nicht für Wald und Wiesen Spiele-PCs und Konsolen, sondern in Rechenzentren.

Was schluckt eine aktuelle Grafikkarte an Leistung? Nun verviefache die Leistung einfach mal! Glaubst du wir spielen bald mit 1000Watt Boliden in der Einstiegsklasse herum?

Ich finde es ehrlich gesagt immer lustig, wenn die Leute meinen, jeglicher Wachstum ist grenzenlos! Bei den Halbleitern ist dieser kurz vorm Ende und die Cloud wird zwar vieles "retten", aber natürlich abermals einige Änderungen mit sich bringen.

und ich finde es lustig das die Leute immer vergessen das es der hohe Takt ist der der überproportional in der Leistungsaufnahme zu Buche schlägt .... , nimm ne RX 580 und lass sie bei 1,1 Ghz statt 1,4 Ghz takten und schon bist du bei 70 - 80 Watt statt 190 .... und das ist 14 nm ... , bei 7 nm bist du da bei 45 - 55 Watt ....
je niedriger der Takt desto effizienter , schau dir den Epyc Rome an , 64 Kerne wo zuvor nur 32 Kerne möglich waren , nur wegen 7 nm ...

der einzige Haken bei der Sache ist , die Games müßten von Anfang an drauf ausgelegt werden das 1/4 des Bildschirms von einem GPU Chiplet bearbeitet und die restlichen 3/4 von drei weiteren ... , und es müßte eine effektive FPS Syncronisation zwischen den 4 GPU Chiplets her ... , aufwendig vielleicht aber nicht unmöglich ... , ich denke das sie das hinbekommen werden ... , 4 mal virtuell FHD zusammengekoppelt zu ein mal 8 K ....
 
  • Gefällt mir
Reaktionen: s0UL1
MK one schrieb:
der einzige Haken bei der Sache ist , die Games müßten von Anfang an drauf ausgelegt werden das 1/4 des Bildschirms von einem GPU Chiplet bearbeitet und die restlichen 3/4 von drei weiteren ... , und es müßte eine effektive FPS Syncronisation zwischen den 4 GPU Chiplets her ... , aufwendig vielleicht aber nicht unmöglich ... , ich denke das sie das hinbekommen werden ... , 4 mal virtuell FHD zusammengekoppelt zu ein mal 8 K ....

ja, das wäre ein netter... Boost.
Wenn wir dann schon dabei sind, träume ich ja davon, dass ne APU zusammen mit ner dedizierten GPU Daten durchbringt. Wenn man überlegt, was eine kleine Vega Apu durchbringt und dann später DAS nochmal in 7NM dann will will will ich sowas wie Infinty Fabric zwischen APU und GPU haben, eine gewisse Kompatibilität beider Chips zueinander vorausgesetzt, natürlich.
 
Das Problem was ich mit der Sony Hardware habe das es seit der PS2 keine leisen Sonykonsolen mehr gab. PS3/PS4/PS4Pro nein danke. Was die Lautstärke anging unzumutbar. Einer der Gründe warum ich jetzt erstmal einen eigenen PC zusammenstelle.
 
  • Gefällt mir
Reaktionen: tomasvittek
MK one schrieb:
der einzige Haken bei der Sache ist , die Games müßten von Anfang an drauf ausgelegt werden das 1/4 des Bildschirms von einem GPU Chiplet bearbeitet und die restlichen 3/4 von drei weiteren

Das funktioniert halt nicht, sonst wäre SLI der absolute Renner.
MK one schrieb:
je niedriger der Takt desto effizienter , schau dir den Epyc Rome an , 64 Kerne wo zuvor nur 32 Kerne möglich waren , nur wegen 7 nm ...

Je niedriger der Takt desto langsamer! Schiel nicht zu Rome, schaue dir stattdessen die Radeon VII an. Jetzt reicht die Karte nicht ganz für 4K und auch nicht für Raytracing. Verdoppel die benötigte Fläche und Leistungsaufnahme für 4K, verachtfache diese für 8K dann bist du bei 2400W für "normale" 3D Grafik ohne Raytracing. Selbst wenn man irgendwann mit "1nm" Fertigung die Fläche auf 0,25% vom jetzigen Wert geschrumpft bekommt und die Leistungsaufnahme vielleicht nochmal halbiert, wird es nicht in 5 und auch nicht in 10 Jahren passieren, horrende Kosten mit sich tragen und ganz andere Probleme mit sich bringen.

Die Zeit der "einfachen" Shrinks ist so gut wie vorbei und von 8K brauchen wir eigentlich gar nicht zu träumen, ausser es kommt gerendert aus der Cloud und dies wird noch ein paar Jährchen dauern.

EDIT: Man braucht aber auch gar nicht soweit zu spekulieren, sondern sich nur die Entwicklung der letzten Jahre ansehen.
771881

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/

Für 8K ohne RT, brauchen wir mindestens die vierfache Leistung einer 4K Karte. Das würde einem Schritt von GTX580 zu GTX1080 entsprechen und selbst ohne die erschwerten Fertigungsbedingungen 6-7 Jahre bedeuten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Bin ja mal auf das erste AMD Autonomes Auto SOC gespannt.

Ich glaube nicht das die Navi rein wegen dem Stern so genannt haben.
 
  • Gefällt mir
Reaktionen: s0UL1
Eine Meldung der Klasse Nein, Doch, Oh. Zen und Navi... Das Stand vor Jahren schon fest weil AMD überhaupt keine anderen Produkte hat und die Kombi so kommen muss.
 
xexex schrieb:
Je niedriger der Takt desto langsamer! Schiel nicht zu Rome, schaue dir stattdessen die Radeon VII an. Jetzt reicht die Karte nicht ganz für 4K und auch nicht für Raytracing. Verdoppel die benötigte Fläche und Leistungsaufnahme für 4K, verachtfache diese für 8K dann bist du bei 2400W für "normale" 3D Grafik ohne Raytracing.
Und sämtliche Softwareoptimierungen sowie IPC Steigerungen lassen wir ganz geschickt außer Acht dabei?
Hätte man deine Rechnung 2009 gemacht, wären wir 2019 wohl auch bei 2000W für eine Karte die 4K kann.
 
  • Gefällt mir
Reaktionen: matze313
Taxxor schrieb:
Und sämtliche Softwareoptimierungen sowie IPC Steigerungen lassen wir ganz geschickt außer Acht dabei?

Selbst wenn man irgendwann mit "1nm" Fertigung die Fläche auf 0,25% vom jetzigen Wert geschrumpft bekommt und die Leistungsaufnahme vielleicht nochmal halbiert,

Auch hier kann ich nur sagen, schaue dir mein Edit an und vergleiche die GTX580 und die GTX1080 miteinander und vergiss dabei bitte nicht, dass sich die Physik nicht überlisten lässt. Hier wird eben nicht mehr von 40nm auf 12 nm geschrumpft, sondern in Bereichen gearbeitet, wo weitere Verkleinerung der Strukturen nicht mehr so viel bringt.

Schaue dir einfach mal die Vega 64 und die Radeon VII an, hier gab es noch einen großen Sprung in der Fertigung und was hat dieser gebracht? Pi mal Daumen 30% mehr Leistung bei gleicher Stromaufnahme. IPC Steigerung? Gab es nicht!

Für 5nm wird dann folgendes angekündigt.
Die Boni, die TSMC bei N5 verspricht, können sich sehen lassen. Gegenüber der aktuellen 7-nm-Fertigung soll die 5-nm-Fertigung „1.8X logic density and 15% speed gain on an ARM® Cortex®-A72 core“ liefern, parallel dazu „superior SRAM and analog area reduction enabled by the process architecture“ bieten.
https://www.computerbase.de/2019-04/foundry-tsmc-5-nm/

Also nicht einmal eine Halbierung der Fläche und eine kaum spürbare Steigerung der Taktraten.
 
Zuletzt bearbeitet:
Viel wichtiger sind die nicht im Artikel genannten GPU Taktraten von 1800MHz laut Apisaks Entschlüsselung.

also quasi auch Radeon VII Taktraten. Ich bin entzückt!
771886
 
  • Gefällt mir
Reaktionen: ghecko
xexex schrieb:
Für 8K ohne RT, brauchen wir mindestens die vierfache Leistung einer 4K Karte.
Mindestens die 4 fache Leistung? Warum? Weil es die 4 fache Pixelzahl ist?

Demnach benötigt man für 4K auch die 4 fache Leistung einer 2K Karte.

Ich nehme mir mal die RTX2080 als Beispielkarte mit ein paar Beispielspielen, deren FPS müssten beim Sprung von 1080p auf 4K auf 25% einbrechen, wenn die Karte 4mal so schnell für die gleichen fps sein muss.

AC: Origins: 102fps in 1080p, 52fps in 4K (51%)
Destiny 2: 156fps in 1080p, 61fps in 4K (39%)
Far Cry 5: 128fps in 1080p, 57fps in 4K (44%)
Ghost Recon: 67fps in 1080p, 37fps in 4K (55%)
Kindom Come: 84fps in 1080p, 44fps in 4K (52%)
Jurassic World: 99fps in 1080p, 47fps in 4K (47%)
Monster Hunter World: 99fps in 1080p, 51fps in 4K (52%)
Tomb Raider: 100fps in 1080p, 41fps in 4K (41%)
Ergänzung ()

xexex schrieb:
Schaue dir einfach mal die Vega 64 und die Radeon VII an, hier gab es noch einen großen Sprung in der Fertigung und was hat dieser gebracht? Pi mal Daumen 30% mehr Leistung bei gleicher Stromaufnahme. IPC Steigerung? Gab es nicht!
Weil an der Architektur nichts geändert wurde, da helfen auch 7nm nicht.
Außerdem ist die Stromaufnahme um 15% gesunken.
Schau dir an, was Nvidia mit 12nm schafft und stell dir deren Nachfolger Karten mit 7nm vor, dann hast du die doppelte Leistung einer Radeon VII.

Und wie an obigen Beispielen zu erkennen, wenn die VII fast für 4K ausreicht, reicht es mit einer doppelt so schnellen Karte dann auch schon fast für 8K, die darauffolgenden 7nm+ Karten werden mit weiteren Architekturverbesserungen also ziemlich sicher 8K tauglich sein.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich nehme mir mal die RTX2080 als Beispielkarte mit ein paar Beispielspielen, deren FPS müssten beim Sprung von 1080p auf 4K auf 25% einbrechen, wenn die Karte 4mal so schnell für die gleichen fps sein muss.

Die Quelle für deine Zahlen? Ich nehme einfach an, dass die RTX2080 im CPU Limit lief! Dazu hast du noch dieses Problem.
771894

https://www.reddit.com/r/nvidia/comments/9qkdnl/resolution_scaling_1080p_to_4k_gtx_1070_to_rtx/

Taxxor schrieb:
Schau dir an, was Nvidia mit 12nm schafft und stell dir deren Nachfolger Karten mit 7nm vor, dann hast du die doppelte Leistung einer Radeon VII

Schau dir einfach an wie gross ein 2080Ti ist! Nehme vier davon und du kommst auf eine riesige Fläche und einen Stromverbrauch von ungefähr 1000W. Und jetzt schließe mal die Augen und stelle dir die Frage, wieviel würden wohl 4x2080Ti auf einem Chip kosten?
 
xexex schrieb:
Die Quelle für deine Zahlen? Ich nehme einfach an, dass die RTX2080 im CPU Limit lief!
letzter CB Test der Radeon VII, die 2080Ti ist immer noch weit vorne in 1080p also kein CPU Limit.

xexex schrieb:
Schau dir einfach an wie gross ein 2080Ti ist! Nehme vier davon und du kommst auf eine riesige Fläche und einen Stromverbrauch von ungefähr 1000W. Und jetzt schließe mal die Augen und stelle dir die Frage, wieviel würde wohl 4x2080Ti auf einem Chip kosten?
Warum vier? Du brauchst maximal die doppelte Fläche(gemäß dem Fall dass sie mit der Leistung so skaliert), dazu kommen dann Architekturverbesserungen, wodurch mal sagen wir noch die 1,8fache Fläche benötigt.
Dann kommen 7nm, wodurch man noch die 0,9 fache Fläche benötigt

xexex schrieb:
Für 5nm wird dann folgendes angekündigt.

Also nicht einmal eine Halbierung der Fläche und eine kaum spürbare Steigerung der Taktraten.
Mal ein Beispiel einer Nachfolgerkarte mit kaum spürbarer Taktsteigerung:

Die HD7970 war 33% schneller als die HD6970, der Taktunterschied lag nur bei 5%(925MHz zu 880MHz)
 
xexex schrieb:
Das funktioniert halt nicht, sonst wäre SLI der absolute Renner.
Bei Games die tatsächlich darauf optimiert wurden , von Anfang an , konnte SLI durchaus 70 % Mehr FPS bringen ... , und SLI ist wesentlich langsamer und latenzbehafteter als ein MCM Design .
Du scheinst wirklich nicht begreifen zu können was ich sagte , klar hat man weniger Leistung wenn man mit den Takt runtergeht , wenn jedoch 25 % weniger Takt = 50 % weniger Leistungsaufnahme bedeuten , sehe ich da durchaus einen Unterschied ....
Schau dir mal Laptops an , meist du das ein 15 W Notebook tatsächlich nur 10 % der Leistung einer Desktop CPU hätte , oder noch ne Nummer kleiner , Apples A12 zb...
https://www.ubergizmo.com/2019/02/apple-2020-a-series-built-5nm-process/
So far Apple’s A12 chipsets have proven themselves to be extremely capable. For example when benchmarked last year, the A12 chipsets were found to have scores comparable to that of a desktop chipset. While it might not necessarily be the most accurate comparison, it’s hard to deny how powerful the A-series chipsets have gotten over the years.

Ich schätze mal so ein A12 ist leistungsfähiger als es ein P4 jemals war ....
 
Taxxor schrieb:
Warum vier? Du brauchst maximal die doppelte Fläche(gemäß dem Fall dass sie mit der Leistung so skaliert), dazu kommen dann Architekturverbesserungen, wodurch mal sagen wir noch die 1,8fache Fläche benötigt.
Dann kommen 7nm, wodurch man noch die 0,9 fache Fläche benötigt

Ich lass deine Prognose einfach mal so stehen, aber wundere dich nicht wenn du mit dieser weit daneben liegst.

MK one schrieb:
Du scheinst wirklich nicht begreifen zu können was ich sagte , klar hat man weniger Leistung wenn man mit den Takt runtergeht , wenn jedoch 25 % weniger Takt = 50 % weniger Leistungsaufnahme bedeuten , sehe ich da durchaus einen Unterschied ....

Das Problem dabei ist, du brauchst auch die Leistung. Natürlich arbeiten die Karten im Sweetspot wesentlich effizienter, wir reden hier aber von einer Vervierfachung einer Auflösung, die nach dem jetzigen Stand nur eine (naja zwei) Karte halbwegs flüssig und ohne Raytracing bedienen kann.

Da brauchen wir von 8K eigentlich gar nicht zu reden und schon gar nicht wenn es um Konsolen geht, die in knapp 2 Jahren vermutlich "flüssige" 4K in 60FPS erreichen werden.

Darum geht es aber letztlich nicht. Anscheinend glauben eben viele, der Wachstum (oder die Verkleinerung) wird ewig weiter so gehen wie bisher und genau das ist eben absoluter Schwachsinn. EUV bringt nochmal 3-4 Shrinks, danach ist Sense und ich gehe sowieso nicht davon aus, dass man mit "1nm" (oder wie sie dann heissen mag) Fertigung überhaupt Desktopchips herstellen wird.

Specifically, the industry is pinpointing and narrowing down the transistor options for the next major nodes after 3nm. Those two nodes, called 2.5nm and 1.5nm, are slated to appear in 2027 and 2030, respectively, according to the International Technology Roadmap for Semiconductors (ITRS) version 2.0. Another organization, Imec, is more aggressive with the timetable, saying that 2.5nm or thereabouts will arrive by 2024.
https://semiengineering.com/transistor-options-beyond-3nm/

Rechne mal damit nicht vor 2035 oder noch später und dann sind das Prozesse, die so teuer und so aufwändig sein
werden, dass sie sich nur für Spezialanwendungen eignen werden.

Schon 7nm ist sehr teuer und ein Chip wie der von einer RTX2080Ti fast schon unbezahlbar, es gibt Gründe wieso AMD deshalb auf kleinere Chips setzt. Bei den Grafikkarten geht es aber eben nur um das, viel bringt viel.... Die benötigte Rechenleistung für 8K Auflösungen ist eigentlich weder bezahlbar noch sinnvoll in Desktop-PCs einsetzbar und daran werden die nächsten 10 Jahre auch kaum was ändern.

Dabei reden wir noch immer vor Fakegrafik und keinem Raytracing und damit meine ich auch nicht entweder Schatten, Reflexionen oder Beleuchtung, sondern um Spiele mit Schatten, Reflexionen und Beleuchtung. Da sehe ich selbst bei 4K in der nächsten Zeit schwarz!
 
Zuletzt bearbeitet:
Edelgamer schrieb:
Das Problem was ich mit der Sony Hardware habe das es seit der PS2 keine leisen Sonykonsolen mehr gab. PS3/PS4/PS4Pro nein danke. Was die Lautstärke anging unzumutbar. Einer der Gründe warum ich jetzt erstmal einen eigenen PC zusammenstelle.

Echt? Habe nie damit Probleme gehabt, weder meine PS3 Slim, noch meine PS4 und meine PS4 Pro machen lärm. Ich weiß nicht was einige so anstellen das diese stören sollte, aber ich zocke auch einfach mit Ton. Einzig meine alte PS3 Fat war relativ Laut, aber selbst dort war es kein wirkliches Problem.

gruß
 
Taxxor schrieb:
1080p auf 4K auf 25% einbrechen, wenn die Karte 4mal so schnell für die gleichen fps sein muss.

AC: Origins: 102fps in 1080p, 52fps in 4K (51%)
Destiny 2: 156fps in 1080p, 61fps in 4K (39%)
Far Cry 5: 128fps in 1080p, 57fps in 4K (44%)
Ghost Recon: 67fps in 1080p, 37fps in 4K (55%)
Kindom Come: 84fps in 1080p, 44fps in 4K (52%)
Jurassic World: 99fps in 1080p, 47fps in 4K (47%)
Monster Hunter World: 99fps in 1080p, 51fps in 4K (52%)
Tomb Raider: 100fps in 1080p, 41fps in 4K (41%)

Hast du bedacht das eine 2080 in FHD im CPU Limit hängt und daher gar nicht die gesamte Leistung abgefragt wird?

Wenn die CPU schneller wäre, würde der Abstand FHD zu 4K deutlich größer sein.

Logisch, oder?
 
Zurück
Oben