Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen vs. Intel Core im Test: Gaming-Benchmarks mit Windows 11 24H2 & BIOS-Updates
Klar gab es das schon. Intel Sandy Bridge, Januar 2011.stefan92x schrieb:Kann man gar nicht hoch genug schätzen. Gab es das vor den X3D überhaupt schonmal, dass das schnellste Modell gleichzeitig das effizienteste war? Ich kann es mir zumindest kaum vorstellen, geschweige mich denn daran erinnern.
Damals war der 2600K (32 nm) im CPU Limit (Spiele in 640x480) 49 % schneller als der Phenom II X6 1100T mit 6 Kernen (45 nm).
Und im Performancerating zu minimaler/maximaler Leistungsaufnahme lag Sandy Bridge auch ganz vorne.
Oder 2003, Athlon 64 gegen Pentium 4.
Im Athlon 64 FX-51 Test von 2003 gibt es noch keine Messung der Verlustleistung, auf Seite 15 schreibt Computerbase aber von einem "Schock", weil AMD 89 Watt genannt hatte, 12 Watt mehr als beim Athlon XP, mit dem man bereits kleinere Räume heizen könnte. Der Pentium 4 3,2 GHz lag bei maximal ca. 100 Watt. In Spielen lag der Athlon 64 FX-51 um 12 % vor dem Pentium 4 3,2 GHz.
Alles wiederholt sich. Ich bleibe erstmal noch beim Core i5 2500K...
Kann mir Mal einer zusammen rechnen was der Stromverbrauch ausmacht ? Hier werden immer mit Superlativen umsich geworfen
Also da helfe ich gerne Mal nach .... Da ja so auf dem Strom rumgehackt wird
Die Annahme , Strompreis 23cent kWh (Google) durchschnitt Neukunde
4h zocken am Tag
365 Tage im Jahre
7800x3d 62 Watt 0,062 kwh 90,52kwh
20 Euro Jahr
9950x 113 Watt 0,113kwh
14900ks 171 Watt 0,171kwh 250kwh.
57€ Jahr
Also schaut doch gar nicht so schlecht aus auch für Intel , und wenn dazu kommt das 720p angenommen wurde oder ?
Und der 9950 ehr der Konkurrenz ist in Anzahl von Kerne .... Was würde passieren wenn man die 16 kleinen Kerne abschaltet bei Intel ?
Edit
Wollte nur damit sagen weil ja immer so getan wird als brauche man ein akw bei Intel , sicher er verbraucht das dreifache eines 7800x3d dann aber nicht mehr so viel im Vergleich zu einem 16kerner AMD
Und wenn man weiter spinnt und zb einen 13900k oder 14900k zb die 16 ekerne abschaltet und dann 8 kerne vs 8 Kerne vergleicht sieht das dann immer noch so schlecht aus ? Es wird ja immer gesagt die e Kerne bringen nichts beim spielen
Gortha schrieb:In der Hoffnung, dass Intel dann weniger beschissen aussieht!?^
Also da helfe ich gerne Mal nach .... Da ja so auf dem Strom rumgehackt wird
Die Annahme , Strompreis 23cent kWh (Google) durchschnitt Neukunde
4h zocken am Tag
365 Tage im Jahre
7800x3d 62 Watt 0,062 kwh 90,52kwh
20 Euro Jahr
9950x 113 Watt 0,113kwh
14900ks 171 Watt 0,171kwh 250kwh.
57€ Jahr
Also schaut doch gar nicht so schlecht aus auch für Intel , und wenn dazu kommt das 720p angenommen wurde oder ?
Und der 9950 ehr der Konkurrenz ist in Anzahl von Kerne .... Was würde passieren wenn man die 16 kleinen Kerne abschaltet bei Intel ?
Edit
Wollte nur damit sagen weil ja immer so getan wird als brauche man ein akw bei Intel , sicher er verbraucht das dreifache eines 7800x3d dann aber nicht mehr so viel im Vergleich zu einem 16kerner AMD
Und wenn man weiter spinnt und zb einen 13900k oder 14900k zb die 16 ekerne abschaltet und dann 8 kerne vs 8 Kerne vergleicht sieht das dann immer noch so schlecht aus ? Es wird ja immer gesagt die e Kerne bringen nichts beim spielen
Zuletzt bearbeitet:
Inxession
Captain
- Registriert
- Sep. 2008
- Beiträge
- 3.370
Na da bin ich ja mal gespannt wie das Ganze in 3 Wochen aussieht.
Wenn Arrow Lake sich nur "einreiht" und 9xxxX3D noch ein paar (wenige) Prozent drauf setzt, sieht das Balkendiagramm schon echt faszinierend aus Pro AMD.
Und das obwohl die 9000er Serie jetzt wirklich auch nur ein Mini Upgrade ist.
Wenn Arrow Lake sich nur "einreiht" und 9xxxX3D noch ein paar (wenige) Prozent drauf setzt, sieht das Balkendiagramm schon echt faszinierend aus Pro AMD.
Und das obwohl die 9000er Serie jetzt wirklich auch nur ein Mini Upgrade ist.
- Registriert
- Okt. 2023
- Beiträge
- 2.166
Um es mit deinen Worten etwas zu komödisieren/paraphrasieren.Inxession schrieb:Wenn Arrow Lake sich nur "einreiht" und 9xxxX3D noch ein paar (wenige) Prozent drauf setzt, sieht das Balkendiagramm schon echt faszinierend aus Pro AMD.
Die "FPS geilen" holen sich einen teuren aber sparsamen 8Kern 9800X3D und die anderen die wohl günstigeren Intel zum parallel Passwortentschlüsseln und entpacken.^^
Und der Anteil an Spieler, die einen Unterschied zwischen 265K und 9800X3D merken, ist kleiner als 0,01%.^^
Weil es bleibt ja immer der Preis und der Verweis auf E-Penis Gedöns, AMD ist halt nur was für absolute FPS Freaks.
Spaß beiseite. Es hat schon eine gewisse Tragik wie unterschiedlich die Wahrnehmungen sind, dabei geht es letztendlich nur um Prozentwerte und Zahlen.
Zuletzt bearbeitet:
Aber war der 2600K auch effizienter als z.B. dein 2500K?25Plus schrieb:Klar gab es das schon. Intel Sandy Bridge, Januar 2011.
Damals war der 2600K (32 nm) im CPU Limit (Spiele in 640x480) 49 % schneller als der Phenom II X6 1100T mit 6 Kernen (45 nm)
Schneller und effizienter als die Konkurrenz ist klar, aber wie sah es innerhalb des Intel-Portfolios aus?
Ich nutze in meinen Programmen ander Windows Programme und com Schnittstellen.KurzGedacht schrieb:Hmm was für Programme denn?
Die allermeisten nicht übertrieben komplexen Windows Programme lassen sich eigentlich auch unter Linux ausführen und wenn man eh den Code hat und auch noch der Entwickler ist, kann ich mir kaum vorstellen, dass man da tatsächlich von vorn anfangen muss.
Außerdem habe ich aufwendige Autohotkey Programme mit GUI.
Ein Umzug auf Linux hätte monatelange Programmieraufgaben zur Folge und Einarbeitung. Bei einigen Sachen bin ich skeptisch, ob sich das überhaupt umsetzen lässt, da ich Schnittstellen zu Internetseiten haben, vor denen ich meine Programme verstecken muss.
Hast du dazu eine Quelle? meines Wissens gabs dazu auch bei cb nen artikel und sie haben mit den bios updates den Takt dann doch recht schnell geschafft. Oder?duskstalker schrieb:amd hat das feature damals mit einem takt beworben den keine cpu erreicht hat.
Freiheraus
Lt. Commander
- Registriert
- Nov. 2017
- Beiträge
- 1.253
Erstaunlich wie stark der 14900K bei den Frametimes/Percentils nun gegenüber Ryzen (9000) einbüßt. Das muss besonders bitter sein, wurde bisher als Intel-Steckpferd präsentiert (z.B. bei PCGH).
MGFirewater
Lt. Commander
- Registriert
- Mai 2010
- Beiträge
- 1.508
Wohlgemerkt für Menschen die nur Games interessiert.Inxession schrieb:Und das obwohl die 9000er Serie jetzt wirklich auch nur ein Mini Upgrade ist.
Wenn ryzen 5 nun unter 24/H2 endlich auch unter Windows in Anwendungen so performt wie unter Linux, ist es mehr als ein Mini Upgrade. Weswegen ich so sehr auf den aktualisierten Anwendungsparcours warte
Weil jedes System hauptsächlich in Teillast unterwegs ist?! Während ich diesen Kommentar schreibe, befindet sich mein System in Teillast. Und eine 9600x die in idle/Teillast genauso ineffizient ist ist nun wirklich keine high-end CPU.SKu schrieb:Die Frage, die man sich dann stellen sollte, ist:“Wieso baue ich mir ein leistungsfähiges System für Idle und Teillast zusammen?“
Ergänzung ()
Wer kennt es nicht, mit einer gaming CPU nichts anderes machen außer Zocken. Da wird der gaming Rechner selbstverständlich heruntergefahren um mit dem Zweitrechner in teillast im Computerbase Forum zu kommentieren. Man möchte schließlich keinerlei Teillast auf einer X3D CPU weil ineffizient.alkaAdeluxx schrieb:Wer kennt es nicht, mit einer Gaming CPU den ganzen Tag Teillast zocken, hat das genauso eine gute Story wie idle? 🤷
Zuletzt bearbeitet:
TjaHate01 schrieb:Und damit willst du erklären warum der 9900x schneller ist als ein 9950X?
Deine Aussage ist komplett verkehrt und macht überhaupt keinen Sinn.
Windows Scheduling scheiße? Damit kann man alle erschlagen xD
Ich kann mich nicht daran erinnern bei 5950X vs 5900X so ein durcheinander gesehen zu haben.
Vielleicht liegts daran:
@Jan Ist das (7800X3D) (5800X3D) (9950X + 9900X) (9700X + 9600X)?Um Probleme mit dem Chipsatztreiber zu vermeiden, wurden bei AMD vier verschiedene Systeme aufgesetzt: für 7800X3D, 5800X3D, 9950X + 9900X und 9700X + 9600X.
- Registriert
- Apr. 2001
- Beiträge
- 16.116
Jabad_sign schrieb:@Jan Ist das (7800X3D) (5800X3D) (9950X + 9900X) (9700X + 9600X)?
Nanatzaya
Lt. Commander
- Registriert
- Apr. 2010
- Beiträge
- 1.228
Aus unternehmerischer Sicht absolut nachvollziehbar.duskstalker schrieb:beim 7800x3d und 5800x3d wird aber schnell klar, warum amd die CPUs vom Markt nimmt.
Für mich als Kunde war der 5800X3D die beste Gaming-Hardware seit 10 Jahren.
100 % Fluch und Segen für AMD. Wer einen 5800X3D hat, wir lange ohne Upgrade auskommen.
Ich finde du übertreibst da etwas. Man sieht ja an vielen Benchmarks über verschiedene Spiele, dass man gesichert gar nicht sagen kann, dass der 5800X3D / 5700X3D immer langsamer oder schneller als ein kleiner 7000er Ryzen ist. Mal bringt der Cache extrem viel, so dass sogar ein 7700(x) keine Chance hat und im Extremfall bringt er quasi gar nichts.incurable schrieb:Um einen 5700X3D zu schlagen reicht schon ein 7600. Und weil soweit ich mich erinnere schon unter 200 Euro lag als der 5700X3D für mehr Geld auf den Markt kam, war es in meinen Augen nie sinnvoll, um den 5700X3D ein neues System zu bauen.
Und wenn du dir das AM4 System unter dem Spoiler von @mscn im Beitrag #59 anguckst, weißt du auch, dass es sich schon lohnen kann ein AM4 System neu zu kaufen. Ein vergleichbares AM5 ITX Board kostet einfach mal die hälfte mehr als das B550 von mscn. Der etwas teurere DDR5 Ram kommt noch dazu und spätestens dann hat sich in meinen Augen das Argument "nie neu ein AM4 System mit 5700X3D" erledigt.
Das Thema hat sich spätestens in einem Jahr erledigt ;-)BloodGod schrieb:Jetzt fehlt tatsächlich immer noch der dickste Brocken:
Lohnt sich nun als Gamer ein Umstieg von Windows 10 auf Windows 11??
Mehr FPS würden mich definitiv zu einem sehr zeitigen Wechsel bewegen.
Mal schauen ob sich da auch mal jmd. Deutschlandweit erbarmt und mal vergleichende Benchmarks bringt…
Ich wäre immer für den Vergleich Windows <---> Linux...
bad_sign schrieb:Tja
Windows Scheduling scheiße? Damit kann man alle erschlagen xD
Ich kann mich nicht daran erinnern bei 5950X vs 5900X so ein durcheinander gesehen zu haben.
Vielleicht liegts daran:
@JanIst das (7800X3D) (5800X3D) (9950X + 9900X) (9700X + 9600X)?
Respekt. Da sieht man mal wieder einmal mehr, was sich hier für Arbeit gemacht wird. 👍Jan schrieb:
- Registriert
- Juli 2021
- Beiträge
- 2.852
Es kommt darauf an, in welcher Sprache du das Programm geschrieben hast, welche APIs du verwendet hast und wie gut du die eigentliche Programmlogik von OS-spezfischen Code gekappselt hast.KurzGedacht schrieb:Die allermeisten nicht übertrieben komplexen Windows Programme lassen sich eigentlich auch unter Linux ausführen und wenn man eh den Code hat und auch noch der Entwickler ist, kann ich mir kaum vorstellen, dass man da tatsächlich von vorn anfangen muss.
Wenn man Sprachen wie Pyhton, Java und Co genutzt hat, dann kann man die Programme relativ schnell übertragen, ggf. minimale Anpassungen wenn man gewisse Plattformspezifikat eingebaut hat. Skript- und JIT-Sprachen sind da relativ dankbar.
Kommt C# und Co zum Einsatz, sieht das schon anders aus, auch wenn mit Teile des .net-Frameworks auch unter Linux laufen, muss man hier schon mehr Aufwand reinstecken, wenn neuere .net-Versionen verwendet werden oder Funktionen aus dem "geschlossenen" Teil.
Darüber kommt dann alles was man in Rust, C++ und Co schreibt. Prinzipiell kann man es kompilieren, nur wenn man Windows spezifische APIs nutzt und diese Aufrufe vorher nicht kapselt, benötigt man unweigerlich Wine und Co. Ansonsten bleibt nur ein umfrangreiches Refactoring und das kann Zeit in Anspruch nehmen.
Ich muss an der Stelle jetzt mal kurz festhalten, dass das, was ich nun schreibe, allgemein weder gegen Intel noch AMD gerichtet ist und auch keine der beiden Firmen bevor- und benachteiligen soll. Was ich jetzt schreibe, spricht in der Regel genauso gegen den 9950X als auch gegen den 285 und 265.Quidproquo77 schrieb:Weil es bleibt ja immer der Preis und der Verweis auf E-Penis Gedöns, AMD ist halt nur was für absolute FPS Freaks.
Für große CPUs wie den 9950X oder eben den 285 und 265 mit ihren 16 - 24 Kernen, gibt es in der Regel immer weniger wirkliche Argumente. Auch wenn wir hier in der Regel noch die "Anwendungsleistung" ermitteln, in vielen Bereichen gewinnt auch hier die GPU immer stärker an bedeutung und macht in manchen Bereichen diese CPUs unnötig.
Gehen wir mal in den Bereich der Mediengestaltung und da als erste zu Blender. Hier kann man eine CPU nutzen, am Ende reichen hier aber bereits Mittelklasse-GPUs aus, die quasi die meisten CPUs altausehen lassen. Die schnellsten CPU-Systeme kommen auf 6000 Punkte, eine RTX 4090 auf über 10.000. Ein 9950X kommt auf 600 Punkte gemittelt, ein 285K auf 560 Punkte. Eine RTX 4060 auf 3000, eine RX 6600 auf 1000.
Maxon hat mit ihren Zukäufen auch neue Render einverleibt und weiter entwickelt, die heute die GPUs nutzen. Während wir bei den CPUs nun um die 2500 - 3000 Punkte rechnen können, liegen wir selbst mit Mittelklasse-GPUs schon bei 6000 Punkten.
Und auch beim Filmschnitt verliert die CPU an bedeutung, weil vieles auf der GPU ausgelagert wird und dort läuft und die CPU nur noch Zuspieler ist.
Es gibt natürlich noch Domänen, wo CPUs gebraucht werden, gerade bei der Softwareentwicklung und wenn dann die Software kompiliert und gepackt werden soll. Nur, wer von uns macht das bitte täglich?
Im Endeffekt ist es schön, wenn Intel mit dem 285K bei den Anwendungsleistungen, gerade im nT vor einem kommenden 9800X3D liegt und das sei ihm auch gegönnt. Am Ende des Tages sind aber viele der Benchmarks, in denen der 285K deutlich vor dem 9800X3D liegt, genau die Anwendungen, die heute auch wunderbar mit einer GPU laufen und es noch mal eine ganze Ecke besser wäre, die GPU zu nutzen.
Und das soll jetzt kein Miesmachen der 285K sein, das gilt auch für den 9950X und den 9900X. Alles gute CPUs, nur der Nutzen vieler Kerne ist durchaus überschaubar, auch im Workstation-Bereich.
Solange hier keine wissenschaftlichen Berechnungen und Co gemacht werden, ist die GPU-Leistung in vielen Szenarien einfach wichtiger geworden.
conglom-o
Vice Admiral
- Registriert
- März 2006
- Beiträge
- 6.510
+1TøxicGhøst schrieb:Das Fazit finde ich sehr kurz und ein Vergleich zu den Werten vorher hätte ich auch noch gerne gesehen.
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 7.504
CloudConnected schrieb:Bin ich blind?
Ich seh zwar die aktuelle Leistung.
Aber wie ist diese im Vergleich zu den vorherigen Windows Versionen?
Wo steht geschrieben das es ein Windows11 vs Windows11 test ist?
manchmal hilft es tatsächlich den Artikel zur überschrift zu lesen und nicht nur balkendiagramme zu studieren.
Ähnliche Themen
- Antworten
- 295
- Aufrufe
- 26.198