Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra

Rockstar85 schrieb:
Das kann man so absolut nicht stehen lassen, denn diese Preisschwankungen waren Markgeschuldet..
Und dass der 9800X3D schon ausverkauft ist, da hat auch der Markt schuld. Es liegt nicht an AMD die zu wenige Einheiten geliefert haben. :lol:
Rockstar85 schrieb:
Die UVP des 7800X3D lag bei 499€ und alles danach obliegt nicht AMDs Verantwortlichkeit, sondern der der Großhändler.
Und morgen kommt der Weihnachtsmann.^^
 
Ach komm, wenn das Teil nicht am ersten Tag ausverkauft wäre sind dann Trolle wie du die Ersten die vor Freude gackern weil das Teil angeblich wie Blei in den Regalen liegt.

xD
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli, Dittsche, catch 22 und 4 andere
Quidproquo77 schrieb:
Und dass der 9800X3D schon ausverkauft ist, da hat auch der Markt schuld. Es liegt nicht an AMD die zu wenige Einheiten geliefert haben.
Die Stückzahlen die über die Theke gingen waren massiv größer als bei den neuen Intel Ultra, hier gabs halt Nachfrage. So ist das mit guten Produkten. Kennt Intel doch von früher auch.

Quidproquo77 schrieb:
Und morgen kommt der Weihnachtsmann.^^

Du hast den Markt halt weiterhin nicht verstanden.
 
  • Gefällt mir
Reaktionen: Quidproquo77, catch 22, Kommando und 6 andere
Hallo zusammen,

@Quidproquo77
Quidproquo77 schrieb:
Und morgen kommt der Weihnachtsmann.^^
Wenn ich so sehe, wie sehr du einmal mehr wieder deinem Fanboytum frönst, sicherlich bei dir eher nicht.
Quidproquo77 schrieb:
Und dass der 9800X3D schon ausverkauft ist, da hat auch der Markt schuld.
In diesem Fall ist das nicht unwahrscheinlich. Es waren in jedem Fall deutlich mehr als bei der Veröffentlichung bzw. dem Markteintretens der Neuesten Intel-Generation.

Und letzteres war defintiv nicht dem Markt geschuldet:cool_alt: .

Ich weiß ja nicht, aber was du entwickelst und so von dir gibst, trägt mittlerweile beinahe "verhaßte" Züge.

Dann bleib doch weg, wenn du nicht damit klar kommst, daß sich in diesen Zeiten die Dinge mal gedreht haben und ein anderer Wettbewerber jetzt Vorteile hat.

Das ist gelebte Marktwirtschaft. Sowas passiert immer wieder, so wie es immer wieder Leute gibt, die damit nicht klar kommen, ganz offenbar.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, NerdmitHerz, Pisaro und 2 andere
black-wizard schrieb:
Mir fehlt der Flight Simulator als Benchmark
Ja so gehts mir auch immer. Und wenn, wird nie das eigentliche getestet.
Der Flightsimulator ist und war schon immer ein Kaliber für sich.

Denn es geht bei Flugsimulation nicht darum wieviele FPS ich über New York habe mit der standard Cessna, sondern darum wie ich mit Fenix A320, FBW A380, PMDG 777, also mit komplexen Flugzeugen auf Addon Flughäfen wie Frankfurt, immer noch gute Frames habe. Dazu kommen reales Wetter, Traffic der angezeigt werden muss und so weiter.

Ich warte jetzt erst mal den MSFS 2024 ab, der am 19. November veröffentlicht wird.

Dieser Chip bzw. 9800X3D könnte ein Sweet Spot werden für MSFS 2024. Mal abwarten.
 
  • Gefällt mir
Reaktionen: Recharging, black-wizard, Apocalypse und eine weitere Person
Ich bestelle 2 fürs Gästeklo :D

Mal im Ernst:
Darf man auch mal was für "Normalos" mit einer 4070 Ti Super oder 7900XT festhalten bei all dem Enthusiasmus. (der sicherlich berechtigt ist)

Ein 7800X3D ist fürs Spielen im Mainstraim mit WQHD wohl für Jahre mehr als ausreichend. Intel allerdings hat mehr Sorgen insgesamt als dem Konzern lieb sein kann

Drüber hinaus wünsche ich euch allen viel Spass mit der besten CPU (Stand heute) die man kaufen kann 🤟
 
  • Gefällt mir
Reaktionen: danyundsahne und Youngtimer
@UrlaubMitStalin
Ich habe mich mit dem Thema schon vor Ewigkeiten ausgiebig beschäftigt und hab da deutlich mehr Kompetenz als so mancher Keyboard-Krieger hier.
Wenn man sich mit etwas beschäftigt hat, bedeutet das noch lange nicht, dass man es verstanden hat. Wissen ist etwas, dass man sich erarbeitet - zumeist. Und der Mensch, welcher sich bewusst ist, was das bedeutet, sieht in keinem Fall auf andere herab, oder negiert sie. Das machen nur Grosskotze und "sich aufspielende-nichtswisser" denn gerade so führst du dich auf!
Wenn du dir Wissen tatsächlich angeeignet hättest, wäre dein beissreflex gleich null. Dann würdest du es sachlich, vielleicht betont gelangweilt erklären. Das Verhalten jedoch zeigt, dass da kein Wissen ist, noch sozialkompetenz.

Im übrigen:
https://de.wikipedia.org/wiki/Idle
Idle (englische Aussprache ['aɪdl], für „untätig“ oder „unausgenutzt“) oder der Leerlauf bedeutet in der Informationstechnik, dass ein Prozess untätig ist oder ein Betriebsmittel ungenutzt bleibt.
https://kreiszeitung-osnabrueck.de/panorama/idle-bedeutung/
Idle beschreibt in der Informationstechnik den Zustand eines Systems, Prozesses oder einer Anwendung, der sich im Leerlauf befindet. Dies bedeutet, dass keine aktiven Aufgaben durchgeführt werden. In einem Rechenzentrum kann dies auf Server zutreffen, die auf Anfragen warten und somit Ressourcen ungenutzt lassen. Ein gutes Beispiel für einen idle Zustand in der Softwareentwicklung ist Python IDLE, welches für die Programmierung in der Sprache Python als Integrated Development and Learning Environment fungiert. In dieser Entwicklungsumgebung können Programmierer ihre Codes erstellen, testen und debuggen, auch während keine aktiven Prozesse laufen. Der Begriff spielt eine wesentliche Rolle in der IT-Infrastruktur, da das Management von idle Ressourcen oft entscheidend für die Effizienz eines Systems und die Kostenkontrolle in einem Unternehmen ist. In der Informatik ist es wichtig, den idle Zustand zu verstehen, um die Leistung und Skalierbarkeit von Anwendungen und Systemen zu optimieren. So können Unternehmen sicherstellen, dass ihre IT-Ressourcen jederzeit optimal genutzt werden.
Surfen im Netz, Textverarbeitung oder Youtube gelten also definitiv NICHT als idle. Egal wie blöde man es argumentieren will. Faktisch ist es schlicht falsch. Ja, ich weiss, man will es anders sehen, da man ja so viel cleverer sein möchte, als alle anderen - klar.

Ist wie bei dem Witz:
"Achtung, ein Geisterfahrer ist auf der A1 unterwegs." schallt es aus dem Radio.
"Was heisst hier einer?" ruft UrlaubMitStalin aus.. .
Übrigens, dein Nick lässt auch auf ein extrem fragwürdiges Wissen in Sachen Geschichte schliessen. Oder welcher Psycho wird schon Urlaub mit einem Massenmörder machen? Ein harter Hund, oder eher ein laut kläffender Idiot, der sich im Netz aufplustert?

Ich finde es fast nicht mehr witzig, wie hier zig male darüber diskutiert werden will, ob die Tests von CB nun in 4k ausgeführt werden sollen, oder nur in 720p. Was CB da tut, ist RICHTIG! Denn es ist der einzig vernünftige Weg das abzubilden. Wer das nicht verstehen will/kann, sollte nicht hier lesen. Klugscheisser gibt es schon genügend und wird auch der Grund sein, warum man manchmal in Foren angeblafft wird. Eben weil man eigentlicht nichts weiss und dich aufspielen will.

Der Preis ist so hoch für diese CPUs und eine Grafikkarte darf schonmal über 700Euro kosten, aber die CPU, die mehr kann, dann eben nicht? Ähm, merkt wer die Ironie bei der Sache? Aber, die Grafikkarte zaubert doch die netten bunten Bildchen auf den Monitor? Richtig, aber ohne CPU würden wie viele Bildchen auftauchen? Richtig, kein einziges! Irgendwie sollten manche erstmal den Aufbau eines Rechners verstehen, das würde bei vielem helfen.
Apropos Preis, schonmal einer darüber nachgedacht, dass AMD NICHT davon lebt, uns die CPUs für ein Appel und ein Ei nachzuwerfen? Schon witzig, bei Intel staunt man nicht über die 650Euro für Core Ultra9 285k, aber bei AMD, bei dem 9800x3d für 530Euro, als Spiele-CPU und da Spitzenmodell ohne grosse Konkurrenz, da soll AMD aber maximal 300Euro verlangen! Fällt irgendwem etwas auf? Also ganz nebenbei, ich an AMDs stelle, würde das niemals tun, wenn meine Marktmacht bei grob geschätzen 25% sind und Intels bei 75%. Aber natürlich soll AMD weiterhin klein bleiben, damit wir Käufer weiterhin viel mehr Geld für eine CPU bezahlen. Genauso wie bei den GPUs, da wird Nvidia weiterhin den Markt bestimmen, genauso wie Intel das Jahrelang getan hat, das ist natürlich so viel besser, als das was AMD gerade tut. Eigentlich müssten wir AMD die Füsse küssen für die Konkurrenz, die sie für Intel bedeuten und uns die Preise beschehren, die früher kaum denkbar waren. Dabei sind die Herstellungskosten gestiegen(Damit das klar ist, AMD ist und bleibt eine Firma und die tun das nicht aus hehren Gründen, sondern für Geld. Nicht dass noch einer glaubt, ich vergesse das).

Bis jetzt, hat CB mit Abstand die besten Tests geliefert, die Bestand hatten. Das konnte bis jetzt kein anderes "Blatt", ausser vielleicht c`t. Und ja, darüber kann man gerne streiten, ich liefere hier gerade nur meine Meinung ab.

Ich finde der Preis ist für die CPU fair. Natürlich hätte ich gerne jetzt sofort eine solche CPU für 200 Euro. Auch hätte ich gerne ein Board dazu, dass für schnieke 100 Euro daherkäme. Nur, wir haben die hohen Preise der Boards mitzuverantworten, da die ziemlich teuren Bretter ja gekauft werden wie Zau. Dabei ist die Ausstattung meistens nicht besser als früher. Da ist auch nicht die Fertigung so arg teuer, wie zB 7nm, aber man schraubt die Preise eben hoch, da man es kann. Genauso bei den Grakas und da motzt man, dass AMD nachzieht im Mittelfeld, dabei ist es beschissen Logisch, würde jedes Gewinnorientierte Unternehmen tun. Es gibt keinen vernünftigen Grund dagegen, solange man nicht die Speerspitze anbieten kann. Denn erst dann, kann man die Preise zu teilen mitbestimmen!
 
  • Gefällt mir
Reaktionen: Fighter1993, Stuntmace, NerdmitHerz und 2 andere
Der 9800X3D liegt beim MSFS 2020 in 4k sage und schreibe 40% vor einem 285K (beide OC)
soviel dazu, dass es sich nicht lohnen würde, bei hohen Auflösungen auf dieses Monstrum einer CPU umzusteigen.
Bezüglich Starcraft 2 habe ich ja bereits erwähnt, dass der 285K mit Ach und Krach gerade so ebenfalls in 4K, 60 FPS erreichen kann. Der 9800X3D liegt jedoch unter den selben Einstellungen bei >144 FPS!

Man sieht hier auch sehr gut das DDR5-6000 CL30 schneller ist als 7000 CL32

1731014915503.png

1731016000033.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IBISXI, Dittsche, danyundsahne und 8 andere
Quidproquo77 schrieb:
Du bist auf irgend einer Mission, oder ?
Ich mein, zu Bully Zeiten war der Verbrauch des FX noch ganz bähhh (war er ja auch) und eine gewisse blaue Käuferschicht wurde nicht müde laufend darauf hinzuweisen.
Als die ersten Ryzen begannen wieder ganz gut bei der Musik zu sein und die Intel für relativ wenig Mehrleistung dann ab Gen 9 zu saufen begannen hat man hier mehrfach (wohl von den selben Leuten) gelesen "mir egal was der Core xyz braucht, das ist mein Hobby, das ists mir wert", und jetzt seit man regelmäßig von den X3D abgewatscht wird ist auf einmal "Idle" die neue Sau die durchs Dorf getrieben wird. Klar, man muss sich halt immer was suchen um das eigene Narrativ zu befriedigen.
Aber gut, es steht natürlich jedem frei sich die CPU seines Wunsches in die Daddelkiste zu stecken, auch wenn die dann vllt zwar langsamer ist teilweise mehr kostet und unter Last bessere Kühlung braucht; aber man spart ja vllt. pro Jahr nen 5er an freien Elektronen wegen "Idle".
 
  • Gefällt mir
Reaktionen: Dittsche, Enyo79, Fighter1993 und 14 andere
Hallo zusammen,

@gustlegga
gustlegga schrieb:
Du bist auf irgend einer Mission, oder ?
Jep, ist er. Seine ganzen Beiträge alleine in dem Thread bezeugen das in eindeutiger Weise.
gustlegga schrieb:
und jetzt seit man regelmäßig von den X3D abgewatscht wird ist auf einmal "Idle" die neue Sau die durchs Dorf getrieben wird.
Ach ne, du hast den IDLE-Verbrauch vergessen. Und wenn er ja wenigstens überbordend höher als bei der Konurrenz wäre, aber Nein, er ist gerade einmal 10 Watt höher.

Ein Wert, den man ganz Easy an anderer Stelle ausgleichen, wenn nicht sogar ganz Einsparen kann, wie z. b. mal zielgerichteter bei den Boards, wo sehr viel Einsparpotential mittlerweile gegeben ist.

Und mußt mal Aufpassen, von den wirklich essentiellen Vorteilen, wie vor allem was die Kühlung angeht, wird kein Wort drüber verloren. Gerade bei der Kühlung wurde ein richtiger Fortschritt erzielt, der nicht zu Unterschätzen ist, aber geflissentlich von solchen Leuten, wie dem aktuellen "Kollegen", regelrecht unter den Teppich gekehrt wird. Könnte ja das eigene Weltbild konterkariert werden, oder so.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gustlegga
Luxmanl525 schrieb:
Und wenn er ja wenigstens überbordend höher als bei der Konurrenz wäre, aber Nein, er ist gerade einmal 10 Watt höher.
So eine ähnliche Rechnung hab ich früher schon mal aufgemacht.
Lass es von mir aus 15W mehr sein, dann ist zB. eine Stunde daddeln und ~5 Stunden surfen roundabout eine Nullsummenrechnung, egal ob dir eine AMD oder Intel-CPU du dir ins Case steckst.
Ich kühl unter Last dann halt einfach lieber 70-80W weg statt das doppelte.. Nicht dass mein Thermalright PA120 das nicht auch packen würde, aber dann halt auch mit einer anderen Lautstärke....
Und ja, auch mit einer guten Mainboardwahl lassen sich was optimieren; deswegen hab ich mich seinerzeit nach einigen Tests vom Igor auch für das B550 Tomahawk entschieden statt einem vergleichbaren Asus/Gigabyte.
Für die etwas durstigen X570 hab ich austattungstechnisch keinen Bedarf.
 
  • Gefällt mir
Reaktionen: Luxmanl525
gustlegga schrieb:
^^ quidquam33 einfach auf die Ignore. :3
Wie dem auch sei, Intel macht sich tatsächlich besser im Idle, aber auch bei Niedrig- und Einzelkernlast was Saft angeht, so wünsche ich mir das auch, ist ja auch sinnvoll, jedoch ist nicht selten genau den gleichen Leuten komischerweise egal wenn Core 1499999kfc 250W verdaddelt... 🤔
 
  • Gefällt mir
Reaktionen: Quidproquo77, LamaMitHut, Verak Drezzt und 2 andere
Nekkepenn schrieb:
ab 5800X lohnt sich da kein upgrade.
Wie gehabt: spielt man alles quer Beet lohnt sich ein Upgrade extrem, auch in 4K.

Interessant wie man seine Falschbehauptungen dann noch mit falschen Benchmarks (GPU Benchmarks) untermauern will.

Ich habe aktuell einen 5900X. Laut deiner Aussage lohnt ab 5800X kein CPU Upgrade...

Wieder interessant, denn ich Stecke OFT im CPU Limit.
 
Quidproquo77 schrieb:
Es liegt nicht an AMD die zu wenige Einheiten geliefert haben.
Was wäre denn ausreichend viele? Also nicht in absoluten Zahlen, sondern relativ zur Nachfrage, meine ich. Genauso viele wie die Nachfrage zum Preis x hergibt? Mehr als das, so dass der Preis sinken "muss", aber trotzdem mehr erzielt wird, da höhere Stückzahl? Woher sollte ein Hersteller die mehr oder weniger genau "passende" Anzahl messen können?
 
Pisaro schrieb:
Wie gehabt: spielt man alles quer Beet lohnt sich ein Upgrade extrem, auch in 4K.

Interessant wie man seine Falschbehauptungen dann noch mit falschen Benchmarks (GPU Benchmarks) untermauern will.

Ich habe aktuell einen 5900X. Laut deiner Aussage lohnt ab 5800X kein CPU Upgrade...

Wieder interessant, denn ich Stecke OFT im CPU Limit.
quer Beet lohnt sich ein Upgade extrem, auch in 4K.

Satire, oder wirkt AMDs Marketing, das es unglaublich wichtig ist eine 400+ 500+€ CPU zu kaufen?

Oder wie siehst du die Tabelle?

ArrakisSand schrieb:
Der 9800X3D liegt beim MSFS 2020 in 4k sage und schreibe 40% vor einem 285K (beide OC)
soviel dazu, dass es sich nicht lohnen würde, bei hohen Auflösungen auf dieses Monstrum einer CPU umzusteigen.
Bezüglich Starcraft 2 habe ich ja bereits erwähnt, dass der 285K mit Ach und Krach gerade so ebenfalls in 4K, 60 FPS erreichen kann. Der 9800X3D liegt jedoch unter den selben Einstellungen bei >144 FPS!

Man sieht hier auch sehr gut das DDR5-6000 CL30 schneller ist als 7000 CL32

Anhang anzeigen 1541330
Anhang anzeigen 1541335
Komm hier bitte nicht mit einem Extrem Case. Das ist ein "Simulator".

Der tatsächlich die Leistung braucht
 

Anhänge

  • average-fps-3840-2160.png
    average-fps-3840-2160.png
    112 KB · Aufrufe: 79
  • Screenshot 2024-11-07 234343.png
    Screenshot 2024-11-07 234343.png
    173,4 KB · Aufrufe: 73
  • Gefällt mir
Reaktionen: KempA
Guerreiko schrieb:
oder wirkt AMDs Marketing, das es unglaublich wichtig ist eine 400+ 500+€ CPU zu kaufen?
Ich sehe es doch selbst bei mir! Mein 5900X limitiert meine RTX 4090 (auch hier, je nach Game) so unfassbar stark das die GPU Auslastung unter 50% fällt.

Klar, wer mit "Gurkenkarten" rumgurkt braucht keinen High End Prozessor.

Danke für deinen Screenshot. Aber GPU Tests kenne ich schon. Genau das hast du gerade gepostet.
 
  • Gefällt mir
Reaktionen: McFritte und gustlegga
Hallo zusammen,

@Guerreiko
Guerreiko schrieb:
Satire, oder wirkt AMDs Marketing, das es unglaublich wichtig ist eine 400+ 500+€ CPU zu kaufen?
Ganz offensichtlich Satire ist, was du da einmal mehr von dir gibst! Niemand und nirgends wird impliziert, egal von wem, daß man so eine CPU mit auch nur einem annähernden Grad von Wichtigkeit besitzen muß.

Hingegen wird deutlich heraus gestellt, daß genau diese CPU die beste Wahl für Gamer ist. Und genau das ist der Fall.

Genau wie Gestern Nacht, das kannst du Drehen und Wenden wie du willst. Es geht nur darum daß es die beste Gaming CPU ist! Sonst kein Gradmesser, egal was sonst, obwohl es mehrere Positive zu Erwähnen gibt eigentlich.

Und da du es immer noch nicht begriffen hast, das hier ist eine Gaming Webseite. Hier sind vohrnehmlich eher Gamer beheimatet.

Du hingegen solltest deine Zelte eher in anderen Foren oder Threads Aufschlagen, weil deine Priorisierung ganz eindeutig woanders liegt. Das ist nicht böswillig gemeint. Sondern es ist einfach so.

So long...
 
  • Gefällt mir
Reaktionen: Pisaro
Zurück
Oben