Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNotebook-CPU-Vergleich 2022: Intel Core i-1200P/U vs. AMD Ryzen 6000H/U im Benchmark
Du hast keine Probleme. Aber es gibt viele hier im Forum die bei dem Anblick von 4 pciE lanes in Ohnmacht fallen würden, da man mit so etwas nicht zocken kann. Genauso das zocken unter 100fps.
Solange alles in den Speicher der GPU passt hast du keine Probleme. Und PciE3x4 scheint da noch zu reichen. Wenn der Speicher aber nicht mehr reicht und im Spiel nachgeladen werden muss, dann vollen die fps recht schnell.
@Ultharandor Deine 5700XT ist auch eine alte Mittelklassekarte.
Mit neuen Highendkarten verlierst du halt immer mehr.
Da ists dann manchmal kaum teurer du stellts dir daheim ein kleines Barebone hin mit dedizierter GPU, die dann sogar kleiner sein kann als eine eGPU, da sie die volle Bandbreite nutzt, und für unterwegs ein günstiges leichtes Notebook.
Größere Datenmengen lagern ja ohnehin meist am NAS oder einer externen Platte.
Wer sich etwas intensiver über den USB4/TB/Lightning Wahnsinn informieren will, soll sich mal die neue Folge vom c´t Bitrauschen Podcast anhören. Christof Windeck dröselt das ziemlich gut auf, irgendwann gehts dann auch um TB.
Ich mag die Stelle jetzt nicht nochmal extra raussuchen, weil mir am Handy in AntennaPod auch keine Kapitelmarken angezeigt werden, da keine vorhanden sind.
Es ist aber ohnehin die ganze Folge recht interessant (eigentlich der ganze Podcast)
Du hast keine Probleme. Aber es gibt viele hier im Forum die bei dem Anblick von 4 pciE lanes in Ohnmacht fallen würden, da man mit so etwas nicht zocken kann. Genauso das zocken unter 100fps.
Solange alles in den Speicher der GPU passt hast du keine Probleme. Und PciE3x4 scheint da noch zu reichen. Wenn der Speicher aber nicht mehr reicht und im Spiel nachgeladen werden muss, dann vollen die fps recht schnell.
Bei 8 FpS, in deinem Fall also 10% sprechen manche hier im Forum bei Grafikkartentests ja bereits von "Hersteller X" wischt mit "Hersteller Y" den Boden auf.
Ergänzung ()
Ultharandor schrieb:
Leider testet CB keine eGPU-Systeme mit verschiedenen Grafikkarten Igor hat glaube ich sowas gemacht
@gustlegga
Da ists dann manchmal kaum teurer du stellts dir daheim ein kleines Barebone hin mit dedizierter GPU, die dann sogar kleiner sein kann als eine eGPU, da sie die volle Bandbreite nutzt, und für unterwegs ein günstiges leichtes Notebook.
Ja aber das ist das was ich nicht möchte:
2-4x Firmennotebooks / 1x Apple Mac mini / 2 Private Notebooks / 1 NAS. da ist jedes weitere Gerät
nur nervig
@Ultharandor Wirf den Mac mini weg, dann ist Platz für ein Barebone.
Das Apple Geraffel ist eh überschätzt.
Aber ne, is schon klar, wenn eh schon soviel Zeugs rumsteht wirds irgendwann nervig.
Auf meinem Eck-Schreibtisch (2,10 x 1,50) ists ähnlich eng. Könnte auf der schmalen Seite ruhig nen halben Meter mehr haben. Ich will mir längst schon mal ein niedriges Kästchen auf Rollen kaufen, wo ich dann zumindest den DinA3 Multifunktionsdrucker raufstellen kann.
Daten aus Ryzen 3900x at 65W PPT, gemessen wurde eine 6000x6000 Matrix-Multiplikation auf allen 24 Threads: die Laufzeit verlaengerte sich durch die Reduzierung des PPT von 142W auf 65W von 1.54s auf 2.06s.
Vergleich mit der Apple M Serie wäre interessant gewesen. Also Apple VS AMD vs Intel in den Bereichen Leistung, Laufzeit, Effizienz, Leistung pro Watt, Temperatur etc.
Schade, denn bei Laptops ist Apple keine kleine Hausnummer..,
Ja, aber wie oft kommt es im Büro vor, daß man zwei 4k Monitore hat und dann noch unbedingt mehr als nur Maus/Tastatur an den Monitor anschließen möchte und nicht ans Laptop das in so einem Setup meist näher an einem steht als der Monitor? Die einzige Ausnahme wäre Gigabit Ethernet.
Ich wüsste a) nicht warum und hoffe b) dass der Mist nicht Einzug hält.
Wie man hier wunderbar sehen kann, braucht kein Mensch das Zeug. Am Ende ist das wieder so eine kompromiss-krücke die mal mehr mal weniger gut läuft.
Es kommt nur dann gut was bei rum, wenn die Anwendung auch wirklich alle Kerne nutzt, was um so schwieriger wird, je mehr es werden.
Das war gar nicht das Thema. Lies dir doch wenigstens die Posts durch bevor du meinst drauf antworten zu müssen.
Ergänzung ()
kramko schrieb:
Ja, aber wie oft kommt es im Büro vor, daß man zwei 4k Monitore hat und dann noch unbedingt mehr als nur Maus/Tastatur an den Monitor anschließen möchte und nicht ans Laptop das in so einem Setup meist näher an einem steht als der Monitor? Die einzige Ausnahme wäre Gigabit Ethernet.
Genauso häufig, als wenn ich nur einen Monitor angestoßen habe.
Wenn wer zwei Monitore nutzt, dann ist das eben ungünstig. Ja Ethernet ist ein Fall und der andere sind Card Reader, die ich nicht jedes mal an- und abstecken will und der nächste USB Port der am Monitor ist, für USB-Sticks oder Festplatten.
Wenn ich ne Dockingstation habe, will ich auch alle daran anschließen.
Du hast recht, dass für viele Setups USB-C voll ausreichte. Aber für Multimonitor Setups mit hoher Auflösung haben TB Docks schon eine Berechtigung.
Das größte Problem ist auch, dass viele Displays noch auf DP 1.2 hocken. Und die tauscht man nicht mal eben aus.
Boah, wer mobil sein will, der kann eigentlich nur AMD wählen. Interessant wäre mal eine Laufzeit gewesen als Test der diversen Modelle unter gleichen Bedingungen.
Es ist halt der Vergleich mit AMDs neuster Serie und Intels "alter" Serie (Was halt gerade auf dem Markt ist). Für den wirklich interessanten Vergleich müsste man auf Intel 13th warten, vorausgesetzt der Start kommt nicht so stark versetzt zu AMD 6000, also am besten noch diese Jahr.
Hahaha….. hier gibts keine alte oder neue Serie. Denn nur aktuelle. Schau dir doch mal die Release Dates an. Da liegen vielleicht 2-3 Monate zwischen. Das Tests der 6000er so spät kommen liegt eher an der geringen Verfügbarkeit im handel.
Was das Ergebnis der Effizienz angeht, eine kleine Katastrophe für Intels Fertigung oder/und Big Core Design. Diese deutete sich, wie im Test geschildert, beim Vortest der 45W Klasse (eher ~100W Klasse) bereits an.
Noch dazu auch weil jeder P Kern Intels auf dem DIE auch größer ist, als AMDs "P Kerne".
Ist es denn so, dass Intels Fertigung so viel schlechter ist? Oder ist es eher so, dass Intels Big Little Prinzip Stand AL noch nicht so weit ist? Bzw. andersrum, dass AMD nicht unrecht hat damit, wenn sie sagen, dass sie P und E Cores nicht brauchen um effizient zu sein.
@Northstar2710 deswegen ist es ja auch in "" geschrieben...und einen Releasetermin gibts ja nicht, nur Vorstelltermin am 27.9 . Interessant wird dennoch erst Ryzen 7000 vs intel 13th und dann nochmal vs. ARM Notebooks.
So ganz richtig ist es nicht, Notebooks mit den Alder Lake P/U CPUs sind weitgehend gerade erst frisch auf dem Markt! Nur um mal ein paar Beispiele zu nennen:
Da der Tag bei diversen Geräten der 16.09 ist, gab es da wohl sowas wie einen bestimmten Veröffentlichungstermin. Lange Zeit war weit und breit davon nichts zu sehen und pünktlich am 16.09 fing bei allen größeren Firmen der Sale an und neue Geräte wurden und werden präsentiert. Ein Zufall ist es nicht!
Ergänzung ()
blechd0se schrieb:
Releasetermin gibts ja nicht, nur Vorstelltermin am 27.9 . Interessant wird dennoch erst Ryzen 7000 vs intel 13th und dann nochmal vs. ARM Notebooks.
Ryzen 7000 ist zunächst Desktop und auch Intels zukünftige Generation an Mobil-CPUs wirst du vermutlich erst im kommendem Jahr sehen. Es ist also schon ein direkter Vergleich aktueller Technik.