News Exynos 2200 mit RDNA 2: Samsung bläst Vorstellung ab, widerspricht aber Gerüchten

dhew schrieb:
Aber du meintest vermutlich, dass die Plattform generell nicht gut am Markt ankam.
So ähnlich, war ja auch nur der Versuch von Intel x86 Technik im Smartphone unterzubringen. DIe letzten Versionen hatten mit dem PC Pendant nichtmehr viel zu tun und trotzdem gelang es Intel nicht gegen die ARMs anzukommen die von vornherein auf solche Anwendungsfelder entwickelt wurden.

Das sehe ich bei RDNA 2 eigentlich genauso. Was in groß gut funktioniert muss es im kleinen nicht auch. Evtl. wären sie mit ner Eigenentwicklung oder bei einem anderen Lizenznehmer besser gefahren.
 
deo schrieb:
Die GPU wäre ja mal endlich ein würdiger Genespieler zu den Adrenos.
Das ist lustig.
Zumal die Adreno GPUs ursprünglich von ATi, also später AMD stammen.
 
  • Gefällt mir
Reaktionen: sikarr
sikarr schrieb:
Das sehe ich bei RDNA 2 eigentlich genauso. Was in groß gut funktioniert muss es im kleinen nicht auch. Evtl. wären sie mit ner Eigenentwicklung oder bei einem anderen Lizenznehmer besser gefahren.
Jetzt mal langsam. Es gibt ja APUs mit 15 Watt tdp.. Und ich gehe davon aus daß der x64 CPU Teil da mehr als die Hälfte an TDP Budget verbrät...
Ich denke also schon das der RDNA2 Teil abliefern wird. Die Architektur gibt es her. Und Samsung müsste ja was tun. Wenn alle andern (Appel voran) stark an der GPU Leistung schrauben... Muss man mit schrauben...
Selbst wenn das jetzt noch nichts wird.. Beide Seiten sollten lernen - dann wird es was mit RDNA 3...

Bezüglich der Prozesse. Samsungs Baugruppen Bibliotheken könnten andere sein. Wir wissen ja alle die Nanometer Angaben sind leider nicht vergleichbar zwischen den verschiedenen Prozessen. Das größte Problem wäre wenn Samsung hitzekritische Bauteile noch dichter packen könnte.. Dann gibt es Hotspots die man eventuell nicht in den Griff bekommt.
Aber wenn die beteiligten das wissen wird normalerweise im Bauplan des Chip mit z.b. Kühlflächen (Flächen die keine Transistoren beinhalten) oder mehr Abständen (im nm Bereich) dagegen gearbeitet und so das Problem normalerweise beseitigt...
 
Tulol schrieb:
Zumal die Adreno GPUs ursprünglich von ATi, also später AMD stammen.
ATI hatte zudem das Glück, schon im Gründungsjahr 1985 einen Auftrag von Commodore über 7000 Grafikchips pro Woche zu erhalten, mit denen eine frühe Pleite abgewendet werden konnte.
Also haben wir den noch verbliebenen Nvidia Konkurrenten im Grafikkartenmarkt einem Homecomputer? zu verdanken.
 
deo schrieb:
Also haben wir den noch verbliebenen Nvidia Konkurrenten im Grafikkartenmarkt einem Homecomputer? zu verdanken
Es würde dann wahrscheinlich einen anderen Player geben. Ein Monopol ist nicht gern gesehen. Intel hat nicht ohne Grund AMD zu Beginn selbst gesponsert.
Ob die 3dfx Übernahme von Nvidia sonst gekommen wäre? Ob es Matrox noch mit eigener Chipentwicklung geben würde oder einen der anderen?
Ob es überhaupt ohne einen starken Konkurrenten wie ATI heute auch nur annähernd so eine Grafikleistung geben würde?
Man weiß es nicht
 
das die Gpu heiß läuft und runter getaktet werden muss merken die rund 4 Wochen vor Marktstart??

und was soll das löschen von Twitter Posts, wow..

das wir in EU in ~1000€ teuren Geräten nur zweitklassige Hardware bekommen ist unter aller Sau. wir sollten zumindest die Wahl haben uns für das eine oder andere entscheiden zu können denn alles andere ist unfair.

kein Wunder das so viele Samsung User zu Xiaomi abwandern. daran hat allein Samsung selber Schuld und sie merkens gar nicht oder wollen nicht weil die Gewinnmarge wichtiger als Kundenzufriedenheit ist.

das einzige was mich nach weit mehr als 10 Jahren noch bei Samsung hält ist die Samsung One Ui und Sachen wie Bixby Routines, Good Look und Good Guardians. die Hardware grade im High End Bereich können und wollen andere inzwischen besser machen!! Schade..
 
Kann exynos gar nicht leiden, miese gpu Treiberunterstützung, Throttling ohne Bezug zu den Temps und diese Benachteiligung in Abhängigkeit von der Region.
Nicht umsonst wurde ne Petition gegen exynos gestartet und erhielt viel Zuspruch, trotzdem kann samsung es einfach nicht sein lassen.
Achja, samsung blockiert sogar absichtlich den eigentlich integrierten aptx-hd codec in der sd Variante, danke auch.
Wozu braucht es unbedingt eine leistungsfähigere gpu in heutigen Sps, profitiert man davon nennenswert, wird das für "ai" Berechnungen der Kamera genutzt?
Ne leistungsfähige cpu ist wenigtens für emulation gut, der Mehrwert bei der gpu ist jedoch sehr eingeschränkt.
 
deo schrieb:
ATI hatte zudem das Glück, schon im Gründungsjahr 1985 einen Auftrag von Commodore über 7000 Grafikchips pro Woche zu erhalten, mit denen eine frühe Pleite abgewendet werden konnte.
Also haben wir den noch verbliebenen Nvidia Konkurrenten im Grafikkartenmarkt einem Homecomputer? zu verdanken.
Nein, denn Commodore hat die ATi Chips für Grafikkarten ihrer "IBM PC Kompatiblen" verwendet.
Weder 8Bit "Homecomputer" noch die Amiga fanden (damals) verwendung für solche Fremdchips.
 
Ganz nett aber wozu braucht man einen 1,9/2GHz GPU in einem Handy, ich könnt da eh nicht Zocken drauf.

Was mich richtig abfuckt ist, das schon bei WhatsApp die Tastatur bei meinem 6,7z Handy selbst auf Groß die Buchstaben winzig klein sind für meine Männerfinger und vertippe mich dadurch ständig beim Schreiben.
Nie eine Lösung für gefunden bis Dato.

Handy bleibt bei mir Handy, lieber längere Akkulaufzeit für die Aufgaben für das ich es wirklich brauche.

mfg
 
  • Gefällt mir
Reaktionen: sikarr
Wundere mich, wie viel von etwaigen Problemen mit Überhitzen darin liegt, daß Samsung und AMD immer noch daran arbeiten müssen, die RDNA2 GPU Tech in das neue SoC zu integrieren ohne das TdP zu groß zu machen.
Die CPU Kerne des neuen Exynos SoC sind doch die gleichen Stock ARM Designs die Qualcomm auch in ihren neuen SD benützt. Da beide SoCs auch in demselben Node von Samsung gefertigt werden, ist die RDNA2 GPU eines der Hauptunterschiede. Ja, Samsung baut auch sein eigenes 5G Modem und NPU Design ein, aber die funktionierten eigentlich okay im derzeitigen Exynos.
 
  • Gefällt mir
Reaktionen: sikarr
https://www.anandtech.com/show/16815/samsung-deployment-of-3nm-gae-on-track-for-2022

[...]Samsung originally announced its MBCFET-based 3GAE and 3GAP nodes in May 2019. Back then, the company promised a 35% performance increase, a 50% power consumption reduction, and a 45% area reduction for 3GAE compared to 7LPP. Furthermore, the company announced the availability of v0.1 of its 3nm PDK and at the time said that volume production using 3GAE was set to start in late 2021. With that moving to 2022 based on the latest information, one might interpret this as either a delay or miscalculation based on enabling GAA designs at scale.[...]

Daran kann es vielleicht auch liegen. Man wollte das ganze eigentlich auf 3nm bringen, was was hätten die sonst Ende 2021 auf dem Prozess hergestellt?
 
  • Gefällt mir
Reaktionen: Jan
eastcoast_pete schrieb:
Da beide SoCs auch in demselben Node von Samsung gefertigt werden,
Gerüchten zufolge ist das nicht der Fall. Qualcomm in 4LPX, was ein umbenannter 5LPP ist, also kein 4nm sondern Marketing. Der Exynos in 4LPE, was der erste richtige 4nm sein sollte. Theoretisch sollte der Exynos also sogar im Vorteil sein.
 
6 CUs, 384 Shader, 24 TMUs, 8-16 ROPs, die GPU hat schon richtig zunder.
Das bei 1,29 GHz das sind 990 Tflops im Smartphone!! Fast XBOX One Niveau!

klar wenn die noch etwas am Takt schrauben und 1,74 GHz erreichen, dann können die mit One S Leistung angeben.

echte FP32 und keine FP16 was Apple im Marketing nutzt
 
Ghostshield schrieb:
Das bei 1,29 GHz das sind 990 Tflops im Smartphone!! Fast XBOX One Niveau!
GFlops. Und ein SD888 hatte vor einem Jahr 1700 GFlop. Mal abgesehen davon, dass die Zahl nichts über die reale Leistung aussagt: Werben sollte man mit 990GFlop nicht, wenn es ein Jahr vorher 1700 gab.
 
  • Gefällt mir
Reaktionen: rg88
Philste schrieb:
GFlops. Und ein SD888 hatte vor einem Jahr 1700 GFlop. Mal abgesehen davon, dass die Zahl nichts über die reale Leistung aussagt: Werben sollte man mit 990GFlop nicht, wenn es ein Jahr vorher 1700 gab.
Ja theoretisch im Geekbench, WOW....
die Adreno 660 hat zwar 1024 ALUs aber keine angabe zu den TMUs oder ROPs etc...
Und die kommt nicht gegen die Effizienz der RDNA2 oder Ampere an. vllt. mit glück GCN 1.0 oder Pascal?
 
Ghostshield schrieb:
Ja theoretisch im Geekbench, WOW....
die Adreno 660 hat zwar 1024 ALUs aber keine angabe zu den TMUs oder ROPs etc...
Wie gesagt, der Wert sagt ja eh nichts aus. Das weiß aber der Großteil der Kunden nicht. Und darum geht es: Wenn Qualcomm vor einem Jahr schon mit 1700 wirbt brauch man jetzt nicht mit 990 zu kommen. Der Normalkunde kauft das mit dem höherem Wert. Selbes Prinzip wie "x.x GHz Prozessor" in den typischen Prospekten von Mediamarkt und co. Sagt auch nichts aus, aber der Kunde kauft im Zweifelsfall das höhere.
 
Philste schrieb:
Gerüchten zufolge ist das nicht der Fall. Qualcomm in 4LPX, was ein umbenannter 5LPP ist, also kein 4nm sondern Marketing. Der Exynos in 4LPE, was der erste richtige 4nm sein sollte. Theoretisch sollte der Exynos also sogar im Vorteil sein.
Das Problem mit diesen Gerüchten um Samsung's 4 nm Low Power Early ist genau das - Gerüchte. Da die neue Samsung Smartphone Generation ja schon demnächst ausgeliefert werden soll, müssen die SoCs schon seit Wochen oder Monaten fertiggestellt sein, d.h. allerspätestens Q4 2021. Vielleicht ist ja was an den 4 nm LPE Gerüchten dran, aber die abgeblasene Vorstellung des 2200 so kurz vor dem Debüt der neuen Smartphones wäre dann wirklich ein Zeichen daß Samsung den Node nicht wirklich am Laufen hat.
 
sikarr schrieb:
Bitte wofür?
1. eine RDNA 2 GPU ist wahrscheinlich nur aus dem Notebook Bereich nochmals abgespeckt. Sowas hat noch nie funktioniert, man denke an die Intel Atoms fürs Handy.

2. Was braucht die CPU den noch? an der Geschwindigkeit kanns nicht liegen. Jedes Jahr mehr Kerne und Mhz aber brauchen tut man das schon lange nicht mehr. Dann lieber an der Effizienz arbeiten, die Geschwindigkeit vom Vorgänger halten aber das bei deutlich weniger Leistungsaufname und Wärmeabgabe.
Habe eigentlich auf mehr GPU power gehoft.
Aber ohne Steckdose wahrscheinlich nicht.
 
Zurück
Oben