News 3D V-Cache gegen 6 GHz: 7950X3D oder i9-13900K(S), wer ist euer Favorit?

@MrHeisenberg
Na dann schau mal genau hin. Das kann man schon fast als Stillstand bezeichnen. Und im Gegensatz dazu feuern jetzt beide aus allen Rohren. Das ist Konkurrenz, aber war ja sooo toll früher.

1678112488970.png
 
  • Gefällt mir
Reaktionen: Gewuerzwiesel, Kloin, Dittsche und eine weitere Person
@Dai6oro du hast vollkommen recht, aber das war halt nicht meine Aussage.
Nochmal: "Ein gutes Pferd springt nur so hoch wie es muss".
Das heißt, dass wir von Intel immer nur 1-5% mehr Leistung bekamen, weil es für Intel keinen Grund gab, daran was zu ändern.
AMD macht es aber auch nicht anders aktuell. Man liefert nur so viel Leistung, wie man muss, um gleich auf oder vor der Konkurrenz zu sein. Bei den Grakas klappt das aktuell nicht, aber bei den CPUs.

Wir hängen seit Jahren bei 16 Cores. Warum bringt man keine 32?
Weil Intel es nicht kann und man deswegen nicht muss.
 
  • Gefällt mir
Reaktionen: Dome87, BlechBuechse_DE und Zer0Strat
MrHeisenberg schrieb:
Wir hängen seit Jahren bei 16 Cores. Warum bringt man keine 32?
Weil Intel es nicht kann und man deswegen nicht muss.

Hinzu kommt aber auch, dass der Consumer-Markt schon sehr lange nicht mehr als 6-8 Kerne fordert, um den Hauptzweck, das Spielen, zu erfüllen. Das wird auch noch ein paar Jährchen dauern, bis da Bewegung reinkommt. Frühestens mit der nächsten Konsolengeneration. Daher glaube ich nicht, dass Zen5 höher als 16C gehen wird. Intel wird aber auf 16 P und 16 E hochgehen glaube ich.
 
@Chilisidian wir brauchten damals aber auch nicht mehr als 4C zum zocken. Die Spiele profitierten nicht wirklich von mehr Kernen und die 4 vorhandenen haben mehr als genug Frames auf den Bildschirm gezaubert.
 
MrHeisenberg schrieb:
Und von AMD bekommen wir in der x-ten Generation auch wieder "nur" 16C/32T. Der Performancegewinn ist zwar besser, aber auch nicht so überragend wie vor 10-15 Jahren. Wir kriegen nur kleine Häppchen zwischen 10% und 40%.
Ein gutes Pferd springt nur so hoch wie es muss und das gilt nicht nur für Intel, sondern auch für AMD und Nvidia.
Intel kann den Core-Count aktuell nicht wirklich stark steigern im Konsumerbereich, deswegen macht es AMD auch nicht, aber wurde das hier jemals von irgendwem kritisiert? Ich habe es nicht mitbekommen
Das hat nichts mit gutes Pferd zu tun.

Und die 4C-Ära von Intel mit den 16C bei AMD zu vergleichen ist ja nun auch komplett fragwürdig und nicht mal der Rede wert. Intel hätte damals mehr Kerne bieten können (wie schnell das dann plötzlich ging, hat man ja gesehen...), wollte aber nicht. AMD könnte aktuell nur den Core Count erhöhen, wenn es mehr Kerne pro CCD gibt (was immer mal wieder für Zen5 spekuliert wird). Oder wo willst du aktuell mal eben so noch ein drittes Chiplet unterbringen? Da ist der Grund nicht "Intel macht es nicht also AMD auch nicht". Wenn man sieht, wie AMD mit EPYC weiter den Core Count erhöht, dann ist das als Argument auch hinfällig. Wenn AMD kann, dann machen sie es auch.

Ganz davon ab: welche Vorteile hast du mit 20C/24C denn in heutigen Spielen gegenüber 16C? Das war damals bei Intels ständigen 4C/8T nämlich auch schon anders (heute sowieso), da brachten 6C/8C auch in Spielen was.
 
  • Gefällt mir
Reaktionen: Anon-525334, iron_monkey, eXe777 und 2 andere
MrHeisenberg schrieb:
wir brauchten damals aber auch nicht mehr als 4C zum zocken.
Wir brauchten damals™ auch keine 4K mit mindesten 200 FPS.
 
Banned schrieb:
Doch, doch, der 3D-Cache liegt bei Intel bestimmt in der viel genannten Schublade. :D
Plan C wenn die Brechstange im Takt nicht mehr funktioniert haha :D
 
Linmoum schrieb:
Und die 4C-Ära von Intel mit den 16C bei AMD zu vergleichen ist ja nun auch komplett fragwürdig und nicht mal der Rede wert. Intel hätte damals mehr Kerne bieten können (wie schnell das dann plötzlich ging, hat man ja gesehen...), wollte aber nicht. AMD könnte aktuell nur den Core Count erhöhen, wenn es mehr Kerne pro CCD gibt (was immer mal wieder für Zen5 spekuliert wird). Oder wo willst du aktuell mal eben so noch ein drittes Chiplet unterbringen? Da ist der Grund nicht "Intel macht es nicht also AMD auch nicht". Wenn man sieht, wie AMD mit EPYC weiter den Core Count erhöht, dann ist das als Argument auch hinfällig. Wenn AMD kann, dann machen sie es auch.
AMD kann den Core Count erhöhen, wenn sie wollen. Siehe TR und Epyc, dort passiert(e) es regelmäßig.
Deswegen kann ich nicht nachvollziehen, wie du sowas behaupten kannst:
Linmoum schrieb:
Das hat nichts mit gutes Pferd zu tun.
Defacto könnten sie es also, aber sie tun es nicht. Warum nicht?
Weil die User im Mainstream davon nicht wirklich profitieren? Ja, das ist eine mögliche Antwort, aber das war zu Intels 4C Ära nicht anders. Programme profitierten von mehr Kernen, Spiele zu dem Zeitpunkt aber nicht.

Linmoum schrieb:
Ganz davon ab: welche Vorteile hast du mit 20C/24C denn in heutigen Spielen gegenüber 16C? Das war damals bei Intels ständigen 4C/8T nämlich auch schon anders (heute sowieso), da brachten 6C/8C auch in Spielen was.
Nein, die Spiele damals haben nicht wirklich von mehr Kernen profitiert. Intel bot im HEDT Bereich ja 8 Kerne und mehr. In Spielen brachten die aber nicht so viel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dome87 und BlechBuechse_DE
Mein Favorit? Ganz klar Raptor Lake. AMD hat zwar unbestreitbar die Effizienzkrone, bei Raptor Lake ist die hohe Leistung aber in jeder Lebenslage da und nicht Abhängig von der Situation/dem Spiel.
 
  • Gefällt mir
Reaktionen: BlechBuechse_DE, Pater_Erminold, Marcus Hax0rway und eine weitere Person
Zer0Strat schrieb:
Es ist genau das wichtig, wo AMD gerade besser ist. ^^ Was für ein Zufall!
Falsch, es ist wichtig das AMD langfristig besser ist, sonst haben wir wieder das gleiche Geseiere wie damals beim FX.
Alles was hilft Intel am Boden zu halten ist für den Kunden förderlich.
Das heißt, das man die derzeitige Überlegenheit AMD‘s im CPU Sektor auch ruhig mal ausreichend hervorheben kann.
Da brauchts keinen Zero oder Heisenberg so ziemlich als einzige hier, die immer das Haar in der Suppe suchen.
Ihr seit ja hier hoffentlich nicht auf „Intel-Missionar“ unterwegs.
 
  • Gefällt mir
Reaktionen: McFritte, Anon-525334, iron_monkey und 2 andere
@MrHeisenberg ich stimme dir teils zu. Beides sind kapitalistische Großkonzerne die nicht höher springen als sie müssen, daher auch Duopol.

Beim 16 Kerner bin ich nicht deiner Meinung, ich glaube es hat kaum einer das Gefühl dass 16Kerne derzeit zu wenig sind und total lahm und langweilig wären. Dazu müssten 32 Kerne im Desktop package auch gekühlt und entsprechend versorgt werden. Das dauert wohl noch.

Aber im Bezug auf einen R5 bin ich wegen Kernekritik bei dir. Schon beim Ryzen 5000 hätte ich erwartet, dass der R5 8 Kerne bekommt, die Enttäuschung beim 7000er war da und das negative Echo auch in den Kommentaren entsprechend gross.
 
  • Gefällt mir
Reaktionen: msv und MrHeisenberg
isyyy schrieb:
der 7950X3D schaltet den kompletten 2ten Kluster beim Gaming ab. Ist also nur ein 8 Core....
Ach, der Cluster wird abgeschaltet? Holla die Waldfee, es ist immer lustig, wenn Leute Kommentare mit Halbwissen und Nichtwissen schreiben und sie damit bewusst auch lügen. Wenn ich mir dann die Likes der Leute ansehe und wie diese Leute hier immer angeblich sich als Differenziert darstellen, bekommt man echt einen Kicheranfall.

Bein, der 7950X3D ist beim Spielen nicht nur ein 8-Kerner. Sondern auch weiterhin ein 16-Kerner. AMDs Scheduling ist relativ simple - ja - funktioniert dafür allerdings auch zuverlässig und das ist hier der relevante Punkt. Zudem ist es - vollkommen unabhängig ob nun 7950X3D oder 7950 und Co für AMD sinnvoll, wenn sie Spiele nur auf einen CCD verteilen.
isyyy schrieb:
Und wenn man manuell das Spiel aus der XBOX App entfernt sodass alle 16 Kerne benutzt werden und im Spiel ist bricht die Leistung komplett zusammen und im Spielen ist der Chip dann schlechter als ein normaler 7950X.
Ah, wir haben hier also einen PC-Nutzer, der es am Ende besser weiß als die Hardware-Entwickler bei AMD und die Software-Entwickler, der entsprechend alle Mechanismen aushebelt und sich dann wundert, dass die Leistung einbricht und die Schuld beim Hersteller der Hardware sucht. Wow! Das Zer0Strat und einige der anderen bekannten ach so "differenzierten" Forennutzer deinen Beitrag liken, wundert mich an der Stelle nicht. An solchen Likes sieht man sehr gut, wie differenziert diese Benutzer wirklich sind.

Ich fand es immer lustig früher, wenn vom Second- und Thirdlevel-Support Fehlerberichte eingetrudelt sind von Nutzern, die alle Empfehlungen und Co für ihre Hardware nicht befolgt haben und meinten, sie wissen es besser als wir im Dev-Team und sich dann wunderten, dass etwas nicht so lief, wie es sollte und uns dann erklären wollten, wie beschissen unsere Software doch ist. Gratulation dazu.
isyyy schrieb:
aber in allen Multiplayer Online Spielen hat der 13900KS bessere 1% FPS werte.
Ach, in allen Multiplayer Online Spielen hat der 13900KS bessere 1 % FPS-Werte? Na, da können wir doch mal direkt hier nachsehen:
DOTA2 liefert der 7950X3D 23 % mehr 1%-FPS als der 13900KS, schon mal ein Spiel und damit ist deine Aussage schon falsch. Fortnite sind es 1 % - wobei das als Gleichauf gilt. Man sollte vielleicht etwas weniger Emotionen in einen Beitrag fließen lassen, wenn man glaubwürdig sein will.
isyyy schrieb:
Intel löst das Scheduling durch Hardware auf dem Chip, AMD schaut in der XBOX app ob es sich um ein spiel
handelt, und schaltet den 2te Kluster einfach aus.
Richtig, tut es und das ist eine relativ einfache und funktionale Lösung. Wo ist dabei das Problem? Es gibt ein ein Prinzip in der Software- und Hardware-Entwicklung und das nennt sich KISS. Mein ehemaliger Senior-Dev und Projektleiter nutze es immer als: Keep it small and simple. Wenn man eine einfache Lösung hat, die zuverlässig funktioniert, soll diese gewählt werden, statt alles unnötig komplex zu machen.

Den Weg, den AMD hier geht ist einfach und funktioniert. Warum sollte AMD hier die Komplexität der CPUs für einen Hardware-Scheduler erhöhen, der Schaltungen benötigt und zusätzlich Leistung aufnimmt, obwohl Windows, Linux und Co als OS und dort der Software-Scheduler am Ende eh das letzte Wort haben? Intel lösst das Scheduling nämlich nicht in Hardware, das liegt nämlich weiterhin bei Windows. Die Scheduling-Einheit in den Intel CPUs unterstützt den Software-Scheduler und gibt empfehlungen. Das war es.
isyyy schrieb:
Das ist keine Kunst sondern verarsche am Endkunden.
Was ist denn bitte hier die Verarsche am Endkunden, bitte einmal genau aufführen. Weil nur 1 CCD den Cache hat? Weil AMD - was auch vollkommen unabhängig vom 7950X3D für AMD die beste Lösung ist - Prozesse eines Spieles auf ein CCD bündelt?

AMDs Ansatz mit den Chiplets hat eine ganz entscheiden Schwäche bei Spielen und ebenso bei Software, in denen die Threads stark untereinander kommunizieren: Die Latenzen zwischen den CCDs sind für den "Arsch". Das kann man so klar auch schreiben und benennen. Der CCD-Ansatz ist für Software mit hoher interaktivität zwischen den Threads weniger gut geeignet, wie ein monolithischer Ansatz. Eine Schwachstelle, die AMD auch so schnell nicht beseitigen wird und auch nicht beseitigen kann. In solchen Fällen ist das hybride Design von Intel klar im Vorteil.
DavidG schrieb:
Gaming Leistung ist nahezu identisch
Kommt darauf an. Sehe ich mir die verschiedenen Spiele an, dann gibt es Spiele, da liegen beide dicht bei einander, in anderen Spielen schlägt Intel AMD deutlich und umgekehrt.

Im Mittel reicht es für ein kleines Plus für AMD, aber hier sollte man auf die eigene Spieleauswahl schauen, besonders wenn man bestimmte Spiele sehr gerne und viel spielt. Man könnte sonst enttäuscht werden vom 7950X3D
DavidG schrieb:
Multicore Anwendungsleistung ist Intel leicht überlegen
Im Mittel ist der 13900K/KS ca. 5 % vorne, benötigt dafür dann 253 W gegen 162 W. Ja, man ist etwas schneller, benötigt aber mehr Energie. Bei den 5 % muss man schon mit sehr spitzem Bleistift rechnen, damit sich das effektiv lohnt, wenn man hier die Effizienz wenig später bemüht.
DavidG schrieb:
Singlecore Anwendungsleistung ist Intel klar überlegen
Ja, um 10 - 11 % im Mittel überlegen. Nur das die 1T-Leistung im Bereich "Anwendungen" aber quasi heute - abseits von Spielen - kaum von Relevanz ist. Es gibt ein paar Programme, da ist diese noch durchaus wichtig, keine Frage, im großen aber nicht.

Ab er ja, wer maximale 1T-Leistung will, sollte zu einem 13900K oder 13900KS greifen, keine Frage und da führt auch kein Weg dran vorbei. Für alle anderen: Man muss sich die Systeme ansehen.
DavidG schrieb:
Stromkosten sind in den allermeisten Fällen bei Intel bedingt durch den niedrigen Idleverbrauch geringer
Ist es das? Es ist lustig, wie unsere ach so differenzierten Nutzer immer wieder dieses Märchen bemühen und sich immer noch nicht die Mühe machen mal ihre eigenen Aussagen auf Plausibilität prüfen, sondern einfach in den Raum stellen, als wäre es die Wahrheit schlecht hin.

Die Stromkosten hängen bei einem PC nicht nur von der CPU ab, sondern vom Mainboard, vom RAM und vielen mehr und wie dieses eingestellt ist. Selbst die Packagepower zwischen zwei 7950X3D und zwei 13900KS können sich massiv unterscheiden, wenn man falsche BIOS-Einstellungen wählt. Viele Mainboards für Intel oder AMD sind oft auf maximale Leistung ausgelegt, entsprechend hat sich das mit dem geringen Idle-Verbrauch - wobei kein PC wirklich je im Idle ist.

Und das Gleiche gilt auch für leichte Lasten, die von so vielen Faktoren abhängen. Hier kann ein Reviewer sehr gute oder sehr schlechte Werte erzeugen und damit eine CPU schlecht oder gut dastehen lassen und am Ende kommt beim Kunden das böse erwachen.

"Hier" - Computerbase - kommt ein System mit dem 13900KS auf 56 Watt im Leerlauf, der 7950X3D auf 64 Watt, das sind 8 Watt Unterschied. In Spielen stehen 70 W gegen 140 W. Im Schwachlast-Bereich kann man den 7950X3D weiter optimieren, in dem man "primär" Anwendungen auf den CCD mit Cache laufen lässt, dann benötigt der 7950X3D weniger bei browsen und Co als der 13900KS, lässt man Windows die freie Wahl, mehr und gehts auf den CCD für Frequenzen dreht sich das wieder.

Bei einer Stunde Spielen - im Mittel - zieht der 13900KS 70 Wh mehr, im Leerlauf benötigt der 7950X3D 8 W, damit 8 Wh pro Stunde, der PC müsste also 8,75 Stunden am Tag dann im Leerlauf sein, dass beide Systeme am Ende des Tages gleichauf sind. Wir haben hier also einen PC, der am Tag 9,75 Stunden laufen muss und davon nur eine Stunde, in der gespielt wird. Beim Browsen, YouTube und Co kommt es auf die Einstellungen ein. Out-of-the-Box komme ich hier aktuell bei dem 13900K auf ca. 65 - 66 W, für den 7950X3D auf ca. 70 W. Es sind 4 W unterschied, pro Stunde also 4 Wh: 17,5 Stunden. ... Setzte ich die Priorität auf den Cache CCD, benötigt der 7950X3D ca. 62 W, der 13900K bleibt bei 65 W ... also 3 W weniger.

Ob die Stromkosten am Ende geringer sind bei 13900K, hängt massiv vom Nutzungsszenario ab und wie gut man die Systeme einstellt und welche Hardware man wählt.

Und direkt vorweg an die üblichen Verdächtigen, die gleich wieder von "AMDBase" reden und wie undifferenziert wir bei Intel wären und wie wohlwollend bei AMD: Das, was ich hier liefere, sind Zahlen und simple Mathematik. Der Hinweis auf Leerlauf- und normales Browsen ist durchaus angebracht, nur sollte man dann auch mal den Taschenrechner bemühen und die eigene Argumentation mal prüfen, dann merkt man, wie löchrig der Hinweis auf Idle und Co ist.

Der 13900KS gewinnt "beim" Verbrauch im Ganzen gegen den 7950X3D nur, wenn man den PC wirklich quasi 24/7 betreibt und am Tag maximal 1 - 2 Stunden spielt. In jedem anderen Szenario reicht der Vorteil beim Leerlauf und im Teillastbereich nicht aus, um wirklich weniger Energie zu verbrauchen. Das Argument ist also weitgehend hinfällig, wenn man denn wirklich die Nutzung mit einbezieht in die Betrachtung.

Hier würde ich sagen: Wenn euch der Verbrauch in den Szenarien wichtig ist, dann optimiert euer BIOS und wählt entsprechende Komponenten um die CPUs herum, da geht viel mehr Energie drauf.

DavidG schrieb:
Anschaffungskosten sind bei Intel klar niedriger
Beim ersten Blick: Ja, richtig! B650-Boards beginnen ab aktuell ca. 170 €, DDR5-Mainboards bei Intel fangen ab ca. 150 € an. Zwischen 13900KS und 7950X3D liegt - aktuell - bei 150 - 200 €. Der Preisvorteil liegt aktuell also - nur CPU und Mainboard - bei ca. 170 - 220 €.

Am Ende kommt es aber darauf an. Das ganze kann sich dann schnell zu einem Gleichstand entwickeln, wenn man den RAM mit einbezieht. Beim 7950X3D ergibt es aktuell keinen Sinn RAM oberhalb DDR5-6000/6200 zu kaufen, weil die CPU damit nicht umgehen kann. Guter RAM - mit dem der 13900KS "den" Abstand zum 7950X3D im Mittel aufholt - 7200er und mehr - kostet gerne 150 - 200 € mehr bei 32 GB und bei 64 GB auch mal 250 - 500 € mehr. Dazu benötigt dieser RAM mehr Energie und Co, womit wir wieder bei dem Thema oben wären und dem "weniger Stromkosten".

Mit entsprechendem OC-RAM steigt der Verbrauch beim 13900KS im Leerlauf und beim Browsen und Co nämlich genauso an, wie beim 7950X3D und Co. Das ist auch nicht feierlich.

Ehrlich, dieses ganze "der 13900KS ist viel besser und im Leerlauf und im Alltag sparsamer und man spielt ja eh nicht viel" ist einfach lächerlich und vollkommen unnötig. Ob der 13900KS im Alltag sparsamer ist, hängt von vielen Faktoren ab und manche der Faktoren kann man auch beim 7950X3D dann anwenden. Hier kommt es auf viele Faktoren an und egal ob jetzt 13900KS oder 7950X3D, bei beiden würde ich empfehlen erst mal das UEFI aufzurufen und gewisse Einstellungen zu aktiveren, sonst sind die Systeme alles andere als sparsam.

Und da ich jetzt erst mal gegen Intel ausgeteilt habe: Es ist genauso lächerlich, dass hier einige jetzt den 13900K und 13900KS und RaptorLake allgemein wieder schlecht schreiben und so tun, als wären die Leute, die sich einen 13900K oder 13900KS kaufen "Idioten". Es gibt immer noch genug Software und Spiele, in denen Zen 4 auch mit dem 7950X3D nicht wirklich "aufholen" kann und gnadenlos hinteher hinkt. Das ist nicht unbedingt AMDs schuld, aber durchaus valide Gründe sich auch für ein Intel-System zu entscheiden. Genauso - das schreibe ich auf ein AMD-System(!) - kann die Systemstabilität eine Rolle spielen und hier hat Intel die Nase immer noch ein Stück vor AMD. AMD hat mit der 500er-Serie bei den Chipsätzen nachgezogen und es ist vieles besser geworden, vieles geht bei einem Intel-System jedoch "einfacher".

Der 13900K(S) ist eine sehr gute CPU und man macht mit dieser CPU nichts falsch und wer diese kauft, wird seine Gründe dafür haben. Die können "irrational" oder "rational" sein, es steht keinem zu die Leute dafür anzumachen, als dumm oder verblendet und Co hin zustellen.

Zer0Strat schrieb:
Der Punkt ist, dass die CB Community dazu neigt, AMD Produkte zu überschätzen, bzw. besser dastehen zu lassen als es wirklich der Fall ist.
Du solltest dir mal teilweise deine eigenen Beiträge durch lesen und wie schlecht du Zen 4 als auch die 7xx0X3D-Serie hier erst mal gemacht hast. Du warst es, der vor ein paar Monanten noch schrieb, dass RaptorLake alias 13900K und 13900KS beim Spielen vor den 7xx0X3D liegen wird, dass AMD das "nicht" schafft und Co.

Genauso solltest du langsam mal anfangen in deinem eigenen Garten aufzuräumen, bevor du wieder den Finger erhebst und auf die böse Community zeigst. Du erwartest differenzierte Betrachtungen und Beiträge? Dann solltest du langsam mal mit einem guten Beispiel voran gehen und deine eigenen Argumente auf plausiblität und richtigkeit prüfen. Ich erinnere dich nur mal an das angeblich defekte Shader-Prefetch bei RDNA3, wo du am Ende sogar AMD indirekt der Lüge bezichtig hast wegen einer Code stelle, statt dass du dir den Code im ganzen mal ansiehst.

Genauso bist du immer ganz vorne mit dabei wirklich undifferenzierte Beiträge zu liken, solange sie AMD-Produkte schlecht reden und Intel als auch NVIDIA-Produkte überhöht darstellen oder teilweise sogar falsche Aussagen verbreiten.

Wenn es dir wirklich um eine sachliche und differenzierte Community hier gehen würde, dann würdest du nicht jedes mal als Brandstifter in diesen Diskussionen auf schlagen, der Communtiy "vorwerfen" sie hätte eine AMD-Bias, selbst teilweise Halbwahrheiten und Falschmeldungen verbreiten, die du nicht prüfst.

Du bist an diesen ganzen Grabenkriegen, die hier ständig entstehen, beteiligt und wachst diese Kriege auch immer wieder an.
Zer0Strat schrieb:
Ja klar, deswegen werkelt der 7950X3D jetzt auch in meinem Produktivsystem. Manche "Äußerungen" hier sind massiv geistige Tieffliegerei, das ist echt peinlich. Was für eine Zeitverschwendung dieses Forum... 👎
Ich wäre mit solchen Aussagen vorsichtig, du sitzt nämlich in einem Glashaus und über "geistige Tieffliegerei" solltest du dich besser nicht äußern, sonst könnten andere hier mal auf die Idee kommen deine Beiträge und Co sich durch zu lesen und mal dein Niveau als auch deine geistreichen Beiträge abzuklopfen und das Urteil könnte für dich sehr vernichtend ausfallen, denn deine Beiträge sind rheorisch alles andere als wirklich ausgeklügelt und deine argumentative Art ist sehr stark durch die Giftküche der schwarzen Rhetorik geprägt. Deine Argumentationen sind oft sehr einseitig, zwar kann man einzelne Argumenten oft nicht direkt angreifen, weil sie nicht falsch sind, du bist aber ein Meister darin weitere Fakten zu unterschlagen oder andere Sachlagen auszublenden, wenn es in deine Argumentation passt. Ebenso verallgemeinerst du sehr stark und bist dir nicht zu schade darum ungeprüfte Sachverhalte erst mal als Fakten zu verkaufen und ruderst erst zurück, wenn du der Lüge überführt wirst.

Und dass du jedes mal die Community - also eine Gruppe von Menschen - pauschal angreifst und mit entsprechenden Vorwürfen diskreditierst, ist eine beliebte Taktik in der schwarzen Rhetorik, weil man alle anderen erst mal in die deffensive drängt.

Es ist bedauerlich, dass du dich ständig dieser Taktiken bedienst und peinlich ist es, dass du dich hier dann als "differenzierte" Person darstellst und traurig ist es, dass ein paar User darauf auch rein fallen, weil deine "Beiträge" sich mit ihrere Meinung decken. Es wäre so schön, wenn du dich wirklich mal auf eine sachliche und differenzierte Ebene hier bewegen würdest und die Community mit differenzierten Beiträgen und Betrachtungen bereichern würdest.

Du und viele deiner "Fans" hier sind alles andere als differenziert. Differnziert zu sein bedeutet nämlich, dass man am Ende auf keiner Seite ist und man auch gerne die eigene Meinung hinterfragt und sich selbst auch - ganz bewusst - selbst sabotiert in der Argumetnation und am Ende ist das Fazit dann oft nur noch ein: Es kommt darauf an.

Für eine differenzierte Person bist du und ist auch deine kleine Fangruppe hier, zu sehr in den Grabenkriegen gegen die böse Community gefangen und ebenso versucht ihr zu oft dann die Produkte von Intel und NVIDIA zu überhöhen, während ihr die von AMD dann schlecht reden wollt. Währt ihr wirklich differenziert, dann würde am Ende euer Beiträge nicht stehen, wie schlecht AMD doch ist und wie gut Intel oder NVIDIA, sondern ihr wärt wirklich um Ausgleich bemüht und zwar IN EUREN Beiträgen, nicht als Ausgleich zur Community.

Chilisidian schrieb:
Bringt am Ende auch nichts, CB ist und bleibt ein Hort gegen Intel und Nvidia.
Das Problem ist doch, dass jedes mal irgendwer hier meint seine pauschale Meinung auf polemische Art vor zu tragen und die anderen dann sich auf dieses Niveau herab lassen und sich damit die Community jedes mal gegenseitig provoziert. Es ist jedes mal das selbe bei den Themen: Irgendein Schwachkopf lästert über "Intel" oder "AMD" oder "NVIDIA" ab und macht das Produkt dann schlecht und schon gehen alle auf einander los.

Es ist nur lustig, dass immer die Leute über die "böse" Community meckern, die jedes mal meinen die anderen Mitgleider zu belehren oder wie falsch ihre Meinung ist und dann ein riesen Fass auf machen. Noch lustiger ist es, wenn Leute hier auf "differenzierte" Betrachtungen pochen, in ihren Beiträgen aber sehr einseitig sind und dann anderen vorwerfen, sie wären "voreingenommen", wenn sie dann die Beiträge mal abklopfen und die Argumentationen prüfen.

Statt jedes mal über die böse Community zu schimpfen, wäre es vielleicht mal angebracht an der eigenen Art der Argumentation zu arbeiten und nicht in ein stumpfes Schwarz/Weiß zu verfallen, sondern wirklich differenziert an das Thema gehen. Ich kann dir nur sagen: Das ist ziemlich anstrengend und produziert immer eine Wall-of-Text, weil sich solche Sachen eben nicht in zwei drei Sätzen abhandeln lassen.
xexex schrieb:
AMDs "3D Cache", also TSMCs SoIC, ist hingegen eine spezielle Technik von TSMC. Etwas vergleichbares hat Intel mit der Lakefield CPU präsentiert, es dürfte aber bei den hochgezüchteten Desktop CPUs an der Hitzeentwicklung scheitern.
Die Hitzeentwicklung ist ein Grund, warum AMD bei den HPC-APU den Aufbau auch umdreht und CCD und GCD auf den Cache und MC setzt, statt umgedreht.
xexex schrieb:
Intel hatte bereits vor vielen Jahren CPUs mit zusätzlichen Cache. Es dürfte verschiedene Gründe gehabt haben, wieso man diese Idee wieder verworfen hat.
Das war damals der eDRAM für die Mobile-CPUs mit der Iris Pro-Grafik. Der Speicher wurde als L4-Cache dann angesprochen und wurde ähnlich verwendet, wie bei RDNA2 und RDNA3 nun der Infinity Cache als Buffer für den Memory Controller, um diesen zu entlassten und mehr Bandbreite zur Verfügung zu stellen.

Der Effekt war bei Spielen damals mit den beiden Broadwell-Prozessoren im übrigen ähnlich wie heute bei X3D-Prozessoren. Man konnte damals fast 20 % Taktnachteil durch den L4-Cache aufholen. Bei Spielen sieht man dann sehr gut, was die Boardwell-Prozessoren leisten können mit den 128 MiB eDRAM als L4. Der eigentlich IPC-Unterschied in Anwendungen zwischen Haswell und Broadwell waren in Mittel gerade 2 - 3 %.

Syrato schrieb:
Wet hat das behauptet?
Oh, an der Stelle hat er nicht unrecht, das war aber zu den Zeiten der "Gerüchte", als noch nicht alle Fakten auf dem Tisch lagen.

Es gab schon einige, die angenommen haben, dass AMD bei der IPC auch wieder ca. 20 % im Mittel erreichen, so wie bei Zen2 und Zen3. Mit den 20 % wäre AMD bei der IPC ca. 10 % vor AlderLake gelandet - mit Zen3 waren sie ca. 10 % zurück. Es hat sich dann auch schon angedeutet, dass AMD die "5 GHz" schafft.

Bei RaptorLake war zu diesem Zeitpunkt nicht viel bekannt, nur dass der Cache von den 1280KiB auf 2048 KiB wie bei den großen GoldenCoves vergrößert wird, mehr war damals nicht bekannt. SunnyCove brachte damals 18 % IPC mit 512 KiB L2, WillowCove brachte dann den Sprung auf 1280 KiB L2 und brachte bei der IPC quasi keine Verbesserung (im Mittel 1 - 2 %). Daher war die Annahme, dass Intel im besten Fall nur 3 % IPC-Steigerung hinbekommt.

Mit diesen "bekannten" Daten und daruf aufbauende Vermutungen war damals durchaus der Schluss geben, dass AMD am Ende bei der IPC ca. 7 - 10 % vor RaptorLake liegt. Die Aussage damals war - und hier wird dann wieder übertrieben von unseren ach so differenzierten Mitdiskutanten - dann dass Zen 4 bei Spielen schneller wird als AlderLake (ohne den 3d-Cache) und dass man RaptorLake erreicht oder gar leicht schlägt. Man ging damals auch davon aus, dass AMD zwar die 5 GHz knackt, aber eher nur die 5,2 schafft, während Intel bei 5,5 GHz.

AMD hat dann bei der IPC aber nicht die "angenommen" 20 % erreicht, sondern nur um die 7 - 11 %, man war bei Zen 3 zu GoldenCove aber ca. 8 - 14 % bei der IPC zurück. Man hat also bei der IPC den Abstand zu AlderLake nur verringert, nicht überholt. RaptorLake hat dann durch den besseren L2-Prefetching-Algorithmus im Mittel 5 % IPC dazu gewonnen. Zen 4 hat also den Abstand zu AlderLake "nur" überwunden, RaptorLake liegt aber eben in der IPC weiter voraus.

Das war Anfang letzten Jahres so nicht absehbar. Natürlich gab es die Leute, die damals schon sagten, dass Zen 4 "AlderLake" nicht schlagen wird und RaptorLake unschlagbar ist für Zen 4 und diese Personen haben an der Stelle auch recht behalten. Nur sollte man - um es mal wirklich differenziert zu machen - fest halten, dass die selben Personen wenig später auf Grund des Vorsprungs von RaptorLake auf Zen 4 - bis vor wenigen Tagen auch behauptet haben, dass die 7xx0X3D-Prozessoren im Mittel den Abstand zum 13900K und KS nicht aufholen kann und weiterhin langsamer ist als der 13900K. So mancher dieser Personen gehören auch zu denen, die 2017 behauptet haben, dass AMD mit Zen 1 NIEMALS 50 % IPC-Steigerung hin bekommt und das AMD den Abstand zwischen Zen 1 und den damaligen "SkyLake"-Iterationen NIE aufholen kann mit Zen 2 und auch das Zen 3 NIE besser werden kann als Commet Lake. Da waren dann auch Aussagen dabei, die behaupteten, dass Intel mit AlderLake "uneinholbar" vorne liegen wird und RaptorLake quasi "AMD" vernichtet - das sind im übrigen teilweie die gleichen Personen, die hier jetzt den "AMD-Fans" den Vorwurf machen, dass sie AMD "überbewerten". Und mancher dieser "Personen" behaupten auch damals zu RDNA2, dass AMD NIE die 2080 Ti schlagen kann und die Navi21 "langsamer" ist als die 2080 Ti und NVIDIA weit vorne liegen wird mit Ampere.

Diese Leute kapieren auch - leider - nicht, dass es ein Unterschied gibt, ob man pauschal, wie sie es oft machen, behauptet, dass AMD etwas nicht schafft und dann mal richtig liegt - sie taten es oft genug auch nicht - oder ob man AMD mal wegen "Zahlen" falsch einschätzt und daher zu positiv einschätzt.

AMD wird hier von einigen immer gerne "pauschal" schlecht gemacht und Intel und NVIDIA als "uneinholbar" hingstellt und darunter sind einige, die der Community eine AMD-Bias unterstellten. Und dann seh dir mal an, welche Fehleinschätzungen diese Mitglieder in den letzten 5 - 7 Jahren angehäuft haben und wie oft sie richtig lagen. Das sollten diese Mitglieder auch mal selbst machen. Die Trefferquote ist nicht so gut. ;)

Hardware-Entwicklung ist ein komplexes Feld und eine Idee kann sich heute als falsch herausstellen, morgen dafür Zünden und genauso umgekehrt. AMD kann bei Zen 5 überholen und "vorne" liegen, auch wenn Intel den Nachfolger heraus bringt. Genauso kann es sein, dass Intel mit der nöchsten Generation den Abstand sogar aus baut.

Mit NVIDIA ist es genau das gleiche Spiel: NVIDIA kann den Abstand in der nächsten Generation ausbauen, oder den Vorsprung verlieren. Was Tatsache sein wird, können wir erst wissen, wenn die Produkte auf dem Markt sind.
 
  • Gefällt mir
Reaktionen: D-Jam, CMDCake, Sittich01 und 19 andere
@DevPandi naja wenn JEMAND oder ETWAS das behauptet.... solange es nicht AMD, Nvidia oder Intel selber sind, die sagen, wir sind 200000% besser, ist es alles nur hörensagen, wunschdenken, clickbite usw..

Nur weil Zero, Heisenberg oder Andere sagen, AMD ist müll, Intel die Krone der Schöpfung.... heisst das noch lange nicht, dass das stimmt. Aus irgend einem Grund, wollen Einige (egal welche Fanboy Kurve/Fanatiker), das IHRE FIRMA/VEREIN/oder sonst etwas, der/die/das Beste ist.
 
MrHeisenberg schrieb:
AMD kann den Core Count erhöhen, wenn sie wollen. Siehe TR und Epyc, dort passiert(e) es regelmäßig.
Deswegen kann ich nicht nachvollziehen, wie du sowas behaupten kannst:
Defacto könnten sie es also, aber sie tun es nicht. Warum nicht?
Weil die User im Mainstream davon nicht wirklich profitieren? Ja, das ist eine mögliche Antwort, aber das war zu Intels 4C Ära nicht anders. Programme profitierten von mehr Kernen, Spiele zu dem Zeitpunkt aber nicht.
Rome und Milan haben beide max. 64C, erst jetzt mit Genoa gibt es wieder einen Sprung mit bis zu 96C.

Noch mal: Wo willst du mehr Kerne mit 8C CCDs im Mainstream unterbringen? Für ein drittes Chiplet fehlt der Platz. Hätte man natürlich trotzdem machen können, würde aber vor allem die Boardpreise noch mehr explodieren lassen, als ohnehin schon. Ohne Nutzen für den 0815-Normalo, der mit seiner CPU auf der Mainstream-Plattform primär zocken will.

MrHeisenberg schrieb:
Nein, die Spiele damals haben nicht wirklich von mehr Kernen profitiert. Intel bot im HEDT Bereich ja 8 Kerne und mehr. In Spielen brachten die aber nicht so viel
Ich finde einen zweistelligen Performancezuwachs (im Mittel) profitieren genug.
 
DevPandi schrieb:
Du solltest dir mal teilweise deine eigenen Beiträge durch lesen und wie schlecht du Zen 4 als auch die 7xx0X3D-Serie hier erst mal gemacht hast. Du warst es, der vor ein paar Monanten noch schrieb, dass RaptorLake alias 13900K und 13900KS beim Spielen vor den 7xx0X3D liegen wird, dass AMD das "nicht" schafft und Co.
Das ist halt grober Unfug. Ich habe gesagt, dass es knapp wird und die Leute ermahnt, den Ball flach zu halten. Wie oft wurde hier im Forum geschrieben, dass Zen 4 3D Intel in den Boden rammt. ^^ Außerdem hatte ich gemeint, dass Intel mit schnellem Speicher King bleiben wird. Dies ist auch der Fall. Man muss den Speicher aber auch ordentlich tunen und fordernde Spiele/Szenen testen.

Zen 4 ohne V-Cache ist ja auch meh. Was soll man da noch großartig zu sagen? Was Gamingperformance betrifft, ist das ziemlich ernüchternd. Wurde übrigens auch völlig überhyped.

Ja gut und RDNA3 ist ein kompletter Rohrkrepierer. Mir ist schon klar, dass das nicht gerade charmant ist, Dinge so zu formulieren, aber es sind nur Dinge. Es werden keine Personen oder Heiligtümer damit beleidigt. Sollte auf jeden Fall so aufgefasst werden... ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BlechBuechse_DE
Linmoum schrieb:
Noch mal: Wo willst du mehr Kerne mit 8C CCDs im Mainstream unterbringen? Für ein drittes Chiplet fehlt der Platz.
Hätte man mit ZEN4 regeln können, hat man aber nicht.

Linmoum schrieb:
Ich finde einen zweistelligen Performancezuwachs (im Mittel) profitieren genug.
Das mag gegen Ende der Zeit so gewesen sein, aber die meiste Zeit eben nicht, ansonsten kannst du gerne einen Benchmark posten, der meine Aussage widerlegt.

Syrato schrieb:
Nur weil Zero, Heisenberg oder Andere sagen, AMD ist müll, Intel die Krone der Schöpfung...
So wurde das niemals von mir geschrieben, das Gegenteil ist sogar der Fall.
Ich schrieb im X3D Thread, dass es eine sehr gute CPU ist und AMD die Leistungskrone innehat und ansonsten sah ich die CPU halt nicht durch die rote AMD Brille, sondern habe erwähnt, dass sie halt nicht in allen Belangen überlegen ist. Die Effizienz ist das eine, aber wenn der Kaufpreis so hoch ist, dass der gesparte Strom nichts bringt, dann seh ich das auch nur als Scheinargument. Zusätzlich ist man auch nur @Stock Platz 1. Wenn man den Intel + RAM optimiert, dann war es das, aber Kritik darf man nicht äußern, ohne gleich als Fanboy abgestempelt oder angegriffen zu werden.
P/L-Technisch ist das Teil auch nicht der Burner.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BlechBuechse_DE
Nur hat sich bei gleicher Kernzahl bei Intel eben über Generationen fast nichts getan (zwischen I7 2700k und I7 6700k eigentlich kann man den 7700k mit rein nehmen weil da ist auch nicht viel passiert). Vom ersten Zen1 8 Kerner zum Zen 4 8 Kerner also ebenfalls 4 Generationen wie oben liegen Welten, sowohl in Spielen als auch in Anwendungen.
 
  • Gefällt mir
Reaktionen: eXe777
MrHeisenberg schrieb:
Hätte man mit ZEN4 regeln können, hat man aber nicht.
Ich glaube auch dass das ganze viel mit dem Pferd zu tun hat.

Ja, AMD hätte vielleicht ein drittes Chiplet dazu packen können, wenn sie wirklich gewollt hätten, aber aktuell ist ja die Kommunikation über die 2 Chiplets schon nicht gut, mit 3 Chiplets wird das nicht besser^^

Und die Entwicklung von Zen5 läuft ja parallel, ich kann mir vorstellen, dass wir hier dann eventuell auch sowas wie eine L3 Crossbar sehen werden, die die Chiplets verbindet.

Daher hat man sich wohl überlegt was man mit Zen4 machen kann, um weiter in Konkurrenz zu Intel stehen zu können, ohne allzu viele Ressourcen rein stecken zu müssen, damit man sich auf die größeren Umbauten bei Zen5 konzentrieren kann.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
DevPandi schrieb:
der 7950X3D auf 64 Watt
Ein User hat hier schon >100W berichtet. Es bleibt abzuwarten, was die Wahrheit ist, wenn mal ein paar Hintergrunddienste laufen, bzw. alles installiert ist (Afterburner, Steam, Nvidia-Experience)
Wäre schön, wenn mal mehr Leute den Idle-Verbrauch (Steckdose) ihrer 7950X3D Systeme posten.
 
Gilt auch für Intel das kommt dann on top oben drauf. Mit Liebe und Luft läuft kein Prozess.
 
  • Gefällt mir
Reaktionen: eXe777
Zurück
Oben