Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRadeon 680M & 660M vs. Iris Xe im Test: Mobile iGPUs von AMD und Intel im Gaming-Duell
Ist diese Menge so viel höher als bei einem ausgewachsenen PC? Kann ich mir nicht so recht vorstellen.
Außerdem, wer redet denn von Idle? Mir geht es um alle Lebenslagen. Und spätestens unter echten Lasten sieht die Welt ganz anders aus.
Idle erzeugt am besten gar keine Last. Wenn die Kiste nicht gebraucht wird kann man sie auch ausmachen.
Mag sein, dass da unterm Strich nicht irre viel raus kommt. Aber wenn man überall ein bisschen was zusammen spart kommt da in Summe dann schon was bei rum.
Eben. Jeder der großen Player "könnte" ja so ein Design aufsetzen und in tsmc' neuesterheißerscheiß Fertigung produzieren lassen. Macht aber komischerweise keiner. Auch Intel als tsmc' Großkunde nicht.
AMD designt den geilen shice, tsmc' produziert nur. Und das kann jeder mit genug Kohle und Wartezeit
Und hält trotzdem gut mit dem M2 mit. Denn nicht nur bei AMD stagniert die CPU Leistung.
Apple mit seinen überbewerteten ARM-Prozessoren ist für mich keine Option, fertig aus.
Gedankengang war folgender: Produktion eines Lappis braucht xxx Energie und produziert yyy Tonnen CO2 in der Produktion.
Da lohnt es sich nicht, aus Umweltgründen zu wechseln.
Zum Geld sparen ist der Rahmen halt auch eng und rentiert sich nur bei Low Budget Geräten in der Laufzeit des Gerätes.
Habe erst dieses Jahr 18 Jahre alten Kühlschrank und 20+ Jahre alten Trockner für knapp über 1k€ (Preis von nem lappi oder PC) ersetzt. Da der Energiemix immer grüner wird, war es wahrscheinlich ökologisch nicht besonders wertvoll, aber alleine der Kühlschrank braucht 350 kWh im Jahr weniger bei 30% mehr Volumen. Der musste ewig laufen um sein CO2 Budget auszugleichen, spart aber bare 100€ (steigend) im Jahr.
Ich habe das 2022er ROG Flow X13 mit 6800HS und 680M und die Leistung ist schon klasse. Allerdings bin ich froh, die Variante mit zusätzlicher 3050ti genommen zu haben. Nicht nur, dass die ein ganzes Stück flotter ist. Mit der GeForce läuft es deutlich unkomplizierter.
Mit der 680M habe ich immer wieder Abstürze. Von Crash to Desktop über komplette Freezes bis hin zu plötzlichen Neustarts ist alles dabei. Der Shadow of the Tomb Raider Benchmark hängt sich z.B. bei maximalen Details auf, Raytracing eine Stufe runter und er läuft ohne Probleme durch.
Das in einem 7700X wird witzig... Aber war eig abzusehen, das auch hier die Spielstärke steigt.. Leider glaub ich kaum, dass so eine GPU nachher im Raphael steckt
Ich habe das 2022er ROG Flow X13 mit 6800HS und 680M und die Leistung ist schon klasse. Allerdings bin ich froh, die Variante mit zusätzlicher 3050ti genommen zu haben. Nicht nur, dass die ein ganzes Stück flotter ist. Mit der GeForce läuft es deutlich unkomplizierter.
Mit der 680M habe ich immer wieder Abstürze. Von Crash to Desktop über komplette Freezes bis hin zu plötzlichen Neustarts ist alles dabei. Der Shadow of the Tomb Raider Benchmark hängt sich z.B. bei maximalen Details auf, Raytracing eine Stufe runter und er läuft ohne Probleme durch.
Vermutlich genau deswegen. Die Nachfrage nach 100W APUs in Mobilgeräten hält sich vmtl in Grenzen. Dazu war diese Vega mit HBM gepaart, also auch noch verdammt teuer und kein shared RAM.
Noch dazu hat Intel den Support für diese Dinger schnell wieder eingestellt.
Die Kombi Ryzen + kleine Vega war da sicherlich ökonomischer.
Ergänzung ()
Moep89 schrieb:
Ansonsten muss man eben Auflösung und Qualität stark runterschrauben.
Ist am Ende halt eine iGPU, da wird das immer so sein.
900p + upscaling + mittlere Settings ist auf der 680M oft drin.
Ich bin auf dem Steam Deck immer wieder überrascht, wie weit die kleine iGPU darin kommt, bei nur 8 CUs RDNA2 mit 1.0-1.6GHz. Da laufen sogar aktuelle neue Titel oft noch mit 40fps. (Ja, bei 800p oder 720p, aber wie gesagt: iGPU; mit der 680M auf nem kleinen Laptop Screen mit ~900p + FSR/TAA ist das gar nicht so schlecht)
Ergänzung ()
GeleeBlau schrieb:
Ich entnehme aus den Testergebnissen: Wer Spiele spielen will, greift zu einer dedizierten GPU.
Spielen auf den AMD iGPUs ist schon seit geraumer Zeit möglich. Man muss sich eben der Kompromisse bewusst sein und auch mit weniger als 4K Ultra zufrieden geben.
Ergänzung ()
BornBad schrieb:
Welche Einstellungen/Auflösung wurde für Timespy genommen?
Wären das nicht immer noch bei 4CU mehr als Vega ?
Damit müsste man doch irgendwo bei einer 1030 also ca Vega 8 rauskommen, oder vertu ich mich?
Okay mit 2CU eher nicht.
Grafikprodukte für Consumer werden durch HBM viel zu teuer. Ausserdem hat der Kaby Lake G n.m.E. 100 Watt TDP gehabt, was in kleinen Notebooks sehr schwierig ist.
Ich habe eine Video zu Deinem Hades Canyon NUC gesehen, der besteht zur Hälfte aus Kühler.
wobei man auch im Hinterkopf behalten sollte, dass auf einem 14" Display selbst in nur 720p die ppi mit ~105 wesentlich höher ausfällt, als mit 1080p auf einem 24" Display (~92ppi), vom Steamdeck und vergleichbaren Geräten mit noch mal kleineren Displays bei 720p, brauchen wir bei der Thematik gar nicht erst einzusteigen.
Es spricht also bei Notebooks im Interesse der Performance absolut nichts gegen so eine "geringe" Spiele und Display Auflösung.
Überraschend ist doch, dass die Iris Xe relativ nah an die 680M rankommt, also nur etwa 30% Unterschied. Der Abstand lag jahrelang bei 2x und mehr. Die Iris Xe ist wirklich ein großer Schritt gewesen für Intel und ist es jetzt noch. Dabei hat AMD bei den mobilen CPUs mit 6nm einen Effizienzvorteil gegenüber Intel 7 oder sollte es haben.
2P Kerne sind zu wenig selbst fürs iGPU gaming, auch interessant. Unter 4P Kerne würde ich nicht gehen.
Trotz uarch Verbesserungen und Prozess parity zeigt Xe HPG größere Schwächen, anscheinend ist die PCIe und IMC Integration bei den dGPUs eine Schwachstelle, irgendwie geht dort Leistung verloren.
Bei den iGPUs hat Intel viel mehr Erfahrung, PCIe spielt keine Rolle. Deswegen glaube ich kann Xe HPG bzw. Xe LPG in Meteor Lake und Arrow Lake zusammen mit Intel 4/TSMC 5nm/4nm/3nm nochmal ein großer Schritt werden. Es würde mich nicht überraschen, wenn Intel damit 2x gegenüber Iris Xe erzielt.
Die Vegas in den iGPUs der Desktop-APUs laufen wenn benötigt immer in ihrem Maximaltakt, da wird nix gedrosselt. Die Vega8 in meinem 5700G läuft beim zocken permanent auf 2.2GHz (10% OC über PBO).
@lydec
Meinst du beim zocken? Hab ich nicht exakt die Zeit gestoppt. Im "Leise" Modus genehmigt sich die APU ca. 30 Watt. Plus die übrigen Komponenten ist damit rechnerisch nach zwei Stunden Schluss, was sich ganz gut mit dem deckt, was ich in den paar Sessions abseits der Steckdose gemessen habe. Den Akku komplett leer gespielt habe ich jedoch nie.
Mit GeForce im "Leistung" Modus genehmigt sich aus Performancesicht optimalerweise die CPU 15 Watt und die GPU 40 Watt. Ich habe es nicht getestet, aber viel mehr als ne Stunde dürfte nicht drin sein.