News Zen 4 mit RDNA 2: AMD Ryzen 7000 soll bis zu 256 Shader mit 1,1 GHz besitzen

maximus_hertus schrieb:
Der Markt" will sowas nicht. Von Intel gab es mal eine Top-Aktuelle CPU mit integrierter AMD Radeon GPU inklusive(!) HMB Speicher (2018, auf Polaris Niveau). Hat kaum einer gekauft. Klar, es gibt sinnvolle Use-Cases und einige Interessenten, aber halt keine größere Menge an Leuten, die sowas haben wollen.

Du vergisst aber das auch diese nicht als Desktop CPU verkauft wurde sondern nur im NUC (weiß garnicht ob es überhaupt ein Laptop Modell gab) als verlötete CPU. Als desktop CPU Wäre das Interesse bei weitem größer ausgefallen, aber dafür war sie nicht gemacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBo87
maximus_hertus schrieb:
99% kaufen dann eine fette iGPU, die nicht benötigt wird. Und müssen deutlich mehr bezahlen, da mehr Chipfläche. Und weniger CPUs (APUs) pro Wafer.
Du tust als wäre das zwingend so zu machen. Aber dem ist ja nicht so. Welche Modelle mit welchem iGPUs angeboten werden kann AMD entscheiden. Niemand zwingt AMD in jede APU den Maximalausbau zu packen. Es würde vermutlich schon viele glücklich machen einen Kompromiss im mittleren Bereich zu haben. Also z.B. das Äquivalent eines 3700X einmal mit kleiner iGPU und einmal mit der großen. Evtl. sogar nur eine Stufe drunter mit 5600X + iGPU.
maximus_hertus schrieb:
"Der Markt" will sowas nicht. Von Intel gab es mal eine Top-Aktuelle CPU mit integrierter AMD Radeon GPU inklusive(!) HMB Speicher (2018, auf Polaris Niveau).
Du meinst Kaby-Lake G? Das kann man absolut nicht vergleichen. Da wurde an die CPU ein großer AMD Chip sowie HBM drangeflanscht und das Zeug wurde nahezu nirgendwo in den Markt gebracht. Konnte man so gut wie nicht kaufen. Zudem waren die Umstände damals völlig andere, denn dedizierte Grakas kosteten keine Vermögen und die Fertigung war 14nm, wenn ich nicht irre.
 
Kassandra_89 schrieb:
vorstellen). Insbesondere bei 16 Kernern. Die dürfen in Zukunft auch wieder zulegen. Die ganzen Kerne verhungern doch.
Kann man pauschal nicht sagen, Games mögen Latenz, mein Videoencoding interessiert sich nicht, ob das DDR4 2133 oder 3600 sind.
Das muss man anwendungsbezogen beurteilen
 
Kassandra_89 schrieb:
Du erwartest, dass jemand zwischen HEDT und Mainstream noch eine Plattform einschiebt?

Natürlich gibt es für alles Anwendungsfälle, aber die Frage ist kommen die Entwicklungskosten wieder rein. Der Markt wird klein sein die Boards werden überproportional teuer und näher bei den Preisen für HEDT-Boards liegen.
Kassandra_89 schrieb:
Ich hätte da schon Bedarf gehabt. Threadripper war mir aber wiederum zu riesig und Stromfressend, da ich den nicht ständig auslasten könnte.
Die doppelte Anzahl der Speicherkanäle steigert auch den Verbrauch.

Sollte die Speicherbandbreite tatsächlich die CPU-Performance beeinträchtigen gibt es auch andere Methoden.
 
elmex201 schrieb:
Die 9800GT ist schlappe 14 Jahre alt. 1/3 der Leistung von einem Handheld ist extrem schwach.
Wozu braucht man in der Prozessorreihe mehr als eine beschleunigte Bild und Videoausgabe.

Für alles andere gibts GraKas oder APUs.
 
  • Gefällt mir
Reaktionen: R O G E R, cookie_dent und Nitschi66
Potent sieht echt anders aus. Ich würde mich freuen, wenn man den Grundgedanken geht, die iGPU ist stets aktiv und primär, die dGPU wird bei hoher Last (Spiele, Grafiksoftware) zugeschaltet inkl. Videobeschleunigung und G-Sync.
 
  • Gefällt mir
Reaktionen: Nefcairon
Also ich finde den Schritt gut. Endlich kann man die dGPU in einem AMD Build für VFIO verwenden, ohne eine zweite Graka einbauen zu müssen. Das war bis jetzt Intel vorbehalten.
 
Schade das die iGPU nicht mehr Leistung haben kann. Sofern av1 mit dabei ist sollte es aber reichen für youtube und co. Was mich ein wenig stört ist das man das Speicherinterface nicht verbreitert um daraus mehr Leistung zu holen was auch der iGPU zugute kommen sollte.
 
Moep89 schrieb:
Welche Modelle mit welchem iGPUs angeboten werden kann AMD entscheiden. Niemand zwingt AMD in jede APU den Maximalausbau zu packen. Es würde vermutlich schon viele glücklich machen einen Kompromiss im mittleren Bereich zu haben. Also z.B. das Äquivalent eines 3700X einmal mit kleiner iGPU und einmal mit der großen. Evtl. sogar nur eine Stufe drunter mit 5600X + iGPU.
Es kostet einfach viel Geld ein weiteres Design zu entwickeln. Erst Recht wenn die Stückzahlen minimal sind.

Als Chiplet wäre das einfacher machbar. Dann wäre man flexibel und könnte auch eine deutlich größere GPU verbauen. Aber dafür braucht es moderne packaging Technologien für nen schnelleren interconnect und stacked Infinity Cache. Das ist heute noch zu teuer. Vielleicht in drei Jahren.
Ergänzung ()

Nitschi66 schrieb:
klar es gibt ausnahmen, aber games mögen eher bandbreite. GDDR hat nicht die besten latenzen dafür aber massig BB. So war mir zumindest.
Es geht hier um die CPU, nicht die GPU.
 
  • Gefällt mir
Reaktionen: Nitschi66
Nitschi66 schrieb:
klar es gibt ausnahmen, aber games mögen eher bandbreite. GDDR hat nicht die besten latenzen dafür aber massig BB. So war mir zumindest.
Es ging doch um CPUs, GPUs brauchen viel Bandbreite ja, aber CPUs nicht unbedingt und Games eher selten
IM 12900K Test von CB sieht man sehr gut, wie wichtig Bandbreite ist
1645800959100.png

DDR4 3200 zu DDR5 6000 -> + 80% Bandbreite
 
bad_sign schrieb:
@InsideInfinity Du siehst es doch im GPUZ Screenshot, Videoengine 0%, es läuft auf der CPU, ein bisschen Bildzeichnen läuft dennoch auf der GPU

Ja sag ich doch die ganze Zeit, es zieht halt auch GPU und das garnicht so wenig.

"Bisschen Bildzeichnen läuft dennoch auf der GPU", zwar sehr simpel formuliert aber das stimmt meiner Aussage ja vollständig zu ;)
 
Kassandra_89 schrieb:
Sicher? 6 Kanäle fände ich jetzt auch etwas übertrieben, aber für 4 im Desktop besteht doch nun wirklich öfters schon mal Bedarf. (Allein Gaming kann ich mir schon gut vorstellen). Insbesondere bei 16 Kernern. Die dürfen in Zukunft auch wieder zulegen. Die ganzen Kerne verhungern doch.
Naja die Anwendungen wo Alderlake mit DDR5 gegenüber DDR4 deutlich zulegen kann sind rar. Bandbreite ist nicht so knapp. Erst recht nicht mit DDR5, der ja noch gut Luft nach oben hat. Für die Mainstream Plattform wäre ein aufbohren des Speicherinterface kompletter Unfug.
 
owned139 schrieb:
Bei mir sieht das ganze so aus:
Anhang anzeigen 1191354

Der Idleverbrauch, wenn ich absolut gar nichts mache, liegt bei 29W. Die Karte benötigt also ~10W für das 4K Video.

Du verfehlst hier worum es mir ging. Mir ging es nicht um den Verbrauch sondern darum das ein 4k video bei youtube allein ca 11-13% von rund 6.6tflops (welche meine Karte hat) zieht, was 660gflops sind. Die neue AMD Apu aber soll nur 500glfops machen was ganz schön schwach erscheint. Wie auch schon gesagt, meine GTX 670er die ich April/Mai 2012 gekauft hab hat schon 2.6tflops gehabt (da sie auch WerksOced war hatte sie wohl eher 3tflops). 0.5tflops sind echt ein Witz, zumal intels igpus schon mehr als 1tflop bieten ;)
 
InsideInfinity schrieb:
Ja sag ich doch die ganze Zeit, es zieht halt auch GPU und das garnicht so wenig.

"Bisschen Bildzeichnen läuft dennoch auf der GPU", zwar sehr simpel formuliert aber das stimmt meiner Aussage ja vollständig zu ;)
Aber nur wenn du keinen passenden Decoder hast, denn mit Decoder läuft das Gesamte Video über diese Einheit.

Bei AMD ist wird leider die Videoengine nicht eigens ausgeführt, aber man sieht am GPU clock, die Computeshader machen nichts
1645801661500.png
 
Zuletzt bearbeitet:
InsideInfinity schrieb:
Du verfehlst hier worum es mir ging. Mir ging es nicht um den Verbrauch sondern darum das ein 4k video bei youtube allein ca 11-13% von rund 6.6tflops (welche meine Karte hat) zieht, was 660gflops sind. Die neue AMD Apu aber soll nur 500glfops machen was ganz schön schwach erscheint.

Nimm doch einfach die neue igpu der 6000er Serie als Vergleich. Hier benötigt die igpu auch 11%. Sie hat aber nur 3,2tflops
Was die Hälfte von deinem System sind https://www.computerbase.de/artikel...schnitt_leistung_beim_av1decoding_auf_youtube
 
Ravenstein schrieb:
Hmm mein uralter phenim IIx4 945v3 läuft heute noch mit 95c° unter vollast kann da keine Beeinträchtigung bisweilen feststellen.
Da zeigt dein Programm aber Mist an, der hätte schon lange abgeschaltet. die sind für ~70 Grad spezifiziert
 
Denniss schrieb:
Da zeigt dein Programm aber Mist an, der hätte schon lange abgeschaltet. die sind für ~70 Grad spezifiziert
Sicher? Ich konnte bei amd jetzt nur den x940 finden und dieser hat 100c Max https://www.amd.com/de/products/cpu/x940

Ok liegt wahrscheinlich daran das der x940 eine mobil CPU ist. Der Phenom II x945 ist wohl garantiert bis 70c. Steht aber nicht bei das er dann abschaltet. Sonder es können auch höhere Temperaturen passieren wenn der Kühler defekt ist.
 
Zuletzt bearbeitet:
Zurück
Oben