News AMD Radeon 780M: RDNA-3-iGPU aus der Phoenix-APU erstmals im Benchmark

Was hat der Decoder mit dem Encoder zu tun?

Flexibilität. Auch wenn ich gleich viele sachen encoden kann, kann ich mehr Sachen anschauen / angenehmer schauen wenn ich die passenden decoder hab.
Mir geht es ja bei meiner Bibliothek nicht darum, dass ich alles einmal durch den ffmpeg Fleischwolf drücke, zumindest noch nicht, solange man einen bemerkbaren Quality decrease hat.

Aber du hast natürlich recht, an sich haben die beiden nix miteinander zutun.

Wenn es dir wirklich um die Decoder geht landest du nicht bei nVidia sondern bei Intel da die sehr viel mehr beschleunigen können als die Konkurrenz.

Das hab ich mir noch gar nicht angeschaut, klingt aber sehr spannend. Hast du zufällig ne gute Quelle die man sich mal dazu durchlesen kann, parat? :D

Da kannst du eh jeden Encoder nehmen für's Telefon... Für alles andere verwendet man sowieso Software.
Klar, nur beim Handy würd ich eher neuere und bessere Komprimierungsalgorithmen verwenden, weil es die auch lesen kann, im Vergleich zu nem BR Player. (Nur mal als Beispiel, ich hab ewig rumexperimentiert bis ich nen Command gefunden hab mit dem ich alles Filme, Serien, YT Videos, etc. auf meinem BR Player abspielen kann. Die Dateien werden halt groß. Sehr groß. ''ffmpeg -i input.webm -vcodec mpeg1video -b:v 6000k -acodec libmp3lame output.mkv'' .webm ist ersetzbar durch was du willst, benutz ich nur am häufigsten weil Yt-dlp standardmäßig in .webm zieht.

4K HDR (die Herr der Ringe 4K BluRays) zu 1080p läuft hier auf meinem popeligen 3500u mit 150 FPS in Handbrake.

Kommt natürlich auch auf die Einstellungen an, aber das hört sich schon ziemlich sick an.
 
franzerich schrieb:
Naja, konkreter meinte ich: wenn in einer APU sich CPU + GPU das TDP Limit teilen, wieviel Leistung kann man dann wirklich noch reinpressen?
Was das Notebook halt an Kühlleistung hergibt. Ob dedizierte GPU oder APU ist da wenig relevant.
 
ETI1120 schrieb:
Bei X86 ist die Frage ob die OEMs da mitspielen.
Warum sollte sie nicht?
Prinzipiell können sie nur so ernsthaft Konkurrenz zu den Macbooks anbieten. Geräte mit dedizierter GPU werden immer Abstriche bei Gewicht, Kühlung und Akkulaufzeit machen müssen.
Eigentlich müssten sich die OEMs nach ordentlichen x86 APUs (egal ob AMD oder Intel) die Finger lecken.
 
KurzGedacht schrieb:
Warum sollte sie nicht?
Zynismus an: Weil die Boomer im Management bei Lenovo/HP/Dell/Asus/Acer/etc. das Problem nicht verstehen wollen. Die sind viel zu sehr dran gewöhnt, mit MaRkTsEgMeNtIeRuNg 2000 "Product Wins" pro Jahr rauszuprügeln, wo Privat-Kunden zwischen 500 und 2500 Euro sich aussuchen dürfen, auf welche Art und Weise sie für ihre Armut bestraft werden; und Buchhalter dürfen zwischen hunderten praktisch unbrauchbaren, aber in Excel-Checklisten exzellent positionierten, Business-Krüppeln auswählen, womit sie den Rest ihrer 100.000-Mitarbeiter-Großfirma zwangsbeglücken, ohne jemals in die Gefahr zu laufen ihre Entscheidung gegenüber den tatsächlichen Usern rechtfertigen zu müssen. (Die Manager kriegen eh Macbooks, weil sie es verdient haben.)

Eine eierlegende Wollmilchsau, wo du mit 3 Grund-Produkten (vielleicht 6, wenn du noch Convertibles anbieten willst) im Jahr eigentlich alle Märkte abdecken könntest, wenn die Kunden tatsächlich Vertrauen in dich hätten und gewillt wären ein paar Prozent mehr zu bezahlen, passt denen einfach nicht ins Konzept.

Und bei so viel Mist, wie alle diese Hersteller die letzten Jahrzehnte verzapft haben, werden sie es eh nicht mehr schaffen, das nötige Kundenvertrauen aufzubauen. Da müsst irgendein Startup herkommen, und absurd viel Marketing-Budget vorgeschossen kriegen, was mit den aktuellen Zinsen auf absehbare Zeit nicht realistisch ist.
 
  • Gefällt mir
Reaktionen: Snoop7676 und KurzGedacht
Creshal schrieb:
Und bei so viel Mist, wie alle diese Hersteller die letzten Jahrzehnte verzapft haben, werden sie es eh nicht mehr schaffen, das nötige Kundenvertrauen aufzubauen.
Es stimmt schon, dass sich alle x86 OEM Hersteller so einige grobe Schnitzer geleistet haben. Nur ist das bei Apple auch nicht anders gewesen (TB only, Touchbar, super anfällige Tastatur die alle paar Tage gereinigt werden will, kein HDMI usw....). Da hieß es dann immer Friss oder Stirb und die meisten Apple Kunden haben den Unfug brav hingenommen (und die jährlichen Preissteigerungen dazu).

Aber es ist halt auch nicht alles schlecht.
Man kann regelmäßig recht gute x86 Laptops kaufen, Mit meinem aktuellen Thinkpad T4s Gen3 mit 6000er Ryzen bin ich sehr zufrieden. Das T480 davor war zu dem Zeitpunkt auch kein schlechter Deal.
Beide zu absolut vertretbaren Preisen mit 2 TB (beim T480 sogar 2,5 TB) SSDs und 32 GB Ram ausgestattet bekommen.

Dennoch ist da gut Luft nach oben. Ich bin nicht bereit für mehr Grafikleistung ernsthaft deutlich Gewicht in Kauf zu nehmen, also geht das nur über ne leistungsfähige APU. Zudem ist es an der Zeit, dass >=64 GB Ram bei Oberklasse Notebooks zumindest zur Option werden.
 
franzerich schrieb:
Naja, konkreter meinte ich: wenn in einer APU sich CPU + GPU das TDP Limit teilen, wieviel Leistung kann man dann wirklich noch reinpressen?
Durch Beseitigung der Engpässe des Systems noch so einiges und effizientere Ausführungseinheiten sollte da auch noch einiges möglich machen.
KurzGedacht schrieb:
Eigentlich müssten sich die OEMs nach ordentlichen x86 APUs (egal ob AMD oder Intel) die Finger lecken.
Ja aber vielleicht warten die auf möglische Alternativen die mehr Profit bringen könnten.
 
ETI1120 schrieb:
Weil die OEM, deren Vertriebspartner und die Kunden einiges an Konfigurationsoptionen verlieren.
Wieso das?
Mit den großen APUs, die natürlich teurer und Größer sind sowie vermutlich ein modifiziertes Kühlsystem benötigen kommt prinzipiell erst Mal eine dazu.
Die kleinen APUs gibt es nach wie vor, die großen dedizierten GPUs sowieso da so ne APU maximal Mittelklasse abdeckt.

Auch für die mittelklasse GPU + kleine CPU bleibt ein Markt, da die günstiger angeboten werden können (aber Nachteile bei Gewicht und effizienz mitbringen).
Ich sehe jetzt nicht unbedingt, wieso da weniger Optionen bei rumkommen sollten.

High end APU ist einfach nur eine weitere Option im Premium Segment. Günstig können die nicht angeboten werden, da alle mir bekannten Optionen das Speicher Bandbreiten Problem zu lösen eben teuer sind.
 
cruse schrieb:
naja nicht wirklich. viel wird nicht rumkommen.
doppelte leistung wäre schon eher was. vorher lohnt das einfach nicht.
Es geht mir um cpu Power und zen 4
Bei 15w sicherlich doppelt so schnell als zen 2, sogar zen 3 wird bei geringeren TDP immer mehr abgehängt bis zu 100% mehr Leistung bei selben Verbrauch

Der ryzen 7700x ist bei selber TDP 25% schneller, als der 6900hs der einfach nur auf effizients getrimmt ist

Der 7700x ist bei 45w genauso schnell wie ein 5800x der ungebremst Arbeit
 
bensen schrieb:
Warum muss der RAM zwingend aufs Package? Kann man genauso gut aufs Board löten.
Es geht um 2 Dinge:
  1. Breites Interface: dies lässt sich im Package per HBM oder LPDDR5 viel einfacher realisieren als auf dem Board. FanOut und Si-Interposer haben eine erheblich höhere Liniendiche als PCB.
  2. Höhere Effizienz: Extrem kurze Signalwege und Microbumps im Package. Auch hier wirkt sich die Liniendichte aus, weil man nicht so viel Platz für die Signalführung braucht.
 
Eine neue Meldung von Wccftech - wenn auch nicht wirklich Neues:

Also da wurden mit einem 7940HS, 780m, LPDDR5X-7500 bei Timespy 3146 Punkte erreicht.

Im Vergleich dazu hat Eta Prime mit dem 6900HX, 680m, DDR5-6000 (OCed) bei Timespy 3142 Punkte erreicht.

Da ist kein Unterschied in der Leistung. Anzumerken ist vielleicht noch, dass beide 54W bei ihrem System eingestellt hatten statt wie bei den meisten Geräten 35-45W im Auslieferungszustand.

Interessant ist vielleicht auch noch, dass der gelötete LPDDR5X-7500 keine Mehrleistung bringt im Vergleich zu den gesteckten DDR5-6000 (OCed).

bad_sign schrieb:
@franzerich Es gibt ein kein Benchmark, der mehr auf VRAM Bandbreite und Latenz anspringt, als Timespy.
Anbei gilt vermutlich auch das was der Kollege sagte. Man kann Timespy nicht als Maßstab für die tatsächliche Leistung nehmen. Da in den Artikeln immer wieder mit der RTX2050 verglichen wird, weil sie bei Timespy eine ähnliche Punktezahl hat - hier die Klatsche: Vergleich zwischen 680m und RTX2050 - da sieht man dass die RTX2050 in echten Spielen um 50-100% voraus ist. Wobei in diesem Fall die Radeon 680m langsameren RAM als oben verwendet. Aber selbst wenn sie 25% stärkeren RAM hätte (und damit 25% mehr Leistung), wäre die RTX2050 deutlich voraus.
 
  • Gefällt mir
Reaktionen: Creshal
@ETI1120
Das ist klar. Aber 256 Bit LPDDR oder mehr würde auch ohne Probleme funktionieren. Der Chip ist eh groß genug mit fetter GPU.
Siehe auch die Konsolen, funktioniert wunderbar. Mit LPDDR anstatt GDDR wäre das dann sparsamer.
Wenn man es richtig sparsam will, dann mit großem Cache.
 
bensen schrieb:
@ETI1120
Das ist klar. Aber 256 Bit LPDDR oder mehr würde auch ohne Probleme funktionieren. Der Chip ist eh groß genug mit fetter GPU.
Siehe auch die Konsolen, funktioniert wunderbar. Mit LPDDR anstatt GDDR wäre das dann sparsamer.
Wenn man sparsam will dann mit großem Cache.
Wenn man es wie Apple im Package umsetzt dann kann man direkt die Chips verwenden ohne Gehäuse. Aus diesem Grund wird Fanout bei Mobiltelefonen schon seit Jahren verwendet.

Ich denke die Tests der PS5 APU haben gezeigt, dass GDDR6 nicht gut für CPUs ist.

Deshalb hat Apple LPDDR5 verwendet.

HBM ist IMO solange zu teuer als man eine Si Bridge oder Interposer braucht.
 
franzerich schrieb:
Also da wurden mit einem 7940HS, 780m, LPDDR5X-7500 bei Timespy 3146 Punkte erreicht.

Im Vergleich dazu hat Eta Prime mit dem 6900HX, 680m, DDR5-6000 (OCed) bei Timespy 3142 Punkte erreicht.
Welche System wurden verwendet und wieviel Watt können die abführen? bei einer Notebook CPU sagt das erstmal gar nichts aus. Wenn der 6900HX seine 54 Watt abführen kann weil das notebook das hergibt und der 7940HS in nem ultrathin hängt das nur 21 Watt schafft wäre der Test schon wieder total für den Arsch.

Allein durch den schnelleren RAM sollte die neue GPU einiges an Punkten mehr machen.
 
  • Gefällt mir
Reaktionen: ETI1120
Sunjy Kamikaze schrieb:
Wenn der 6900HX seine 54 Watt abführen kann weil das notebook das hergibt und der 7940HS in nem ultrathin hängt das nur 21 Watt schafft wäre der Test schon wieder total für den Arsch.
Ich persönlich glaube nicht an diesen exotischen Fall. Damit es nicht nur Glaubenssache ist: Bilibili schrieb in einem seiner Kommentare, dass er in der Fabrik testet (das kann man zumindest mit Übersetzungstools rauslesen). Vermutlich wird er dort ein Board haben, das die ganzen 54W abführen kann.

Sunjy Kamikaze schrieb:
Allein durch den schnelleren RAM sollte die neue GPU einiges an Punkten mehr machen.
Nunja, aber wenn beide (680m und 780m) mit demselben schnellen RAM upgegradet werden, würden auch beide denselben Performance-Schub kriegen. Der Performance-Schub wird eigentlich nur durch externe Komponenten gewonnen und nicht durch die iGPU. Und da liegen beide in Timespy gleichauf.

Also am Schluss kann die 780m nur ein paar Prozente mehr als die 680m rausholen durch den höheren Boost-Takt, und vielleicht mit Treibern für Dual-Issue (was ein anderer Kommentar hier schon erwähnt hat).

Hier noch was Interessantes:
Bilibili erwähnte, dass beim "Port Royal" Benchmark 60% mehr Leistung drin sein soll als bei der 680m.

Das würde darauf hindeuten, dass Dual-Issue vielleicht bei Raytracing hilft (da Port Royal ein Raytracing-Benchmark ist). Und ja - Raytracing war auch mit der 680m in einigen Titeln eingeschränkt möglich (z.B. Hellblade, Doom Eternal, Marvels Spiderman). Wenn Raytracing jetzt noch performanter läuft, umso besser.

P.S. Es wird langsam Zeit für echte Gaming-Tests. Aber wenigstens kommt etwas Bewegung in die Sache.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Archivar
bensen schrieb:
Na du hast ja nicht nur die Temperatur Begrenzung, sondern auch die eingestellte TDP. Was nützt mir ein Temp.limit bis 80°, wenn die APU bei 70° läuft und max. 20W
 
Zurück
Oben