isyyy schrieb:
der 7950X3D schaltet den kompletten 2ten Kluster beim Gaming ab. Ist also nur ein 8 Core....
Ach, der Cluster wird abgeschaltet? Holla die Waldfee, es ist immer lustig, wenn Leute Kommentare mit Halbwissen und Nichtwissen schreiben und sie damit bewusst auch lügen. Wenn ich mir dann die Likes der Leute ansehe und wie diese Leute hier immer angeblich sich als Differenziert darstellen, bekommt man echt einen Kicheranfall.
Bein, der 7950X3D ist beim Spielen nicht nur ein 8-Kerner. Sondern auch weiterhin ein 16-Kerner. AMDs Scheduling ist relativ simple - ja - funktioniert dafür allerdings auch zuverlässig und das ist hier der relevante Punkt. Zudem ist es - vollkommen unabhängig ob nun 7950X3D oder 7950 und Co für AMD sinnvoll, wenn sie Spiele nur auf einen CCD verteilen.
isyyy schrieb:
Und wenn man manuell das Spiel aus der XBOX App entfernt sodass alle 16 Kerne benutzt werden und im Spiel ist bricht die Leistung komplett zusammen und im Spielen ist der Chip dann schlechter als ein normaler 7950X.
Ah, wir haben hier also einen PC-Nutzer, der es am Ende besser weiß als die Hardware-Entwickler bei AMD und die Software-Entwickler, der entsprechend alle Mechanismen aushebelt und sich dann wundert, dass die Leistung einbricht und die Schuld beim Hersteller der Hardware sucht. Wow! Das Zer0Strat und einige der anderen bekannten ach so "differenzierten" Forennutzer deinen Beitrag liken, wundert mich an der Stelle nicht. An solchen Likes sieht man sehr gut, wie differenziert diese Benutzer wirklich sind.
Ich fand es immer lustig früher, wenn vom Second- und Thirdlevel-Support Fehlerberichte eingetrudelt sind von Nutzern, die alle Empfehlungen und Co für ihre Hardware nicht befolgt haben und meinten, sie wissen es besser als wir im Dev-Team und sich dann wunderten, dass etwas nicht so lief, wie es sollte und uns dann erklären wollten, wie beschissen unsere Software doch ist. Gratulation dazu.
isyyy schrieb:
aber in allen Multiplayer Online Spielen hat der 13900KS bessere 1% FPS werte.
Ach, in allen Multiplayer Online Spielen hat der 13900KS bessere 1 % FPS-Werte? Na, da können wir doch mal direkt hier nachsehen:
DOTA2 liefert der 7950X3D 23 % mehr 1%-FPS als der 13900KS, schon mal ein Spiel und damit ist deine Aussage schon falsch. Fortnite sind es 1 % - wobei das als Gleichauf gilt. Man sollte vielleicht etwas weniger Emotionen in einen Beitrag fließen lassen, wenn man glaubwürdig sein will.
isyyy schrieb:
Intel löst das Scheduling durch Hardware auf dem Chip, AMD schaut in der XBOX app ob es sich um ein spiel
handelt, und schaltet den 2te Kluster einfach aus.
Richtig, tut es und das ist eine relativ einfache und funktionale Lösung. Wo ist dabei das Problem? Es gibt ein ein Prinzip in der Software- und Hardware-Entwicklung und das nennt sich
KISS. Mein ehemaliger Senior-Dev und Projektleiter nutze es immer als: Keep it small and simple. Wenn man eine einfache Lösung hat, die zuverlässig funktioniert, soll diese gewählt werden, statt alles unnötig komplex zu machen.
Den Weg, den AMD hier geht ist einfach und funktioniert. Warum sollte AMD hier die Komplexität der CPUs für einen Hardware-Scheduler erhöhen, der Schaltungen benötigt und zusätzlich Leistung aufnimmt, obwohl Windows, Linux und Co als OS und dort der Software-Scheduler am Ende eh das letzte Wort haben? Intel lösst das Scheduling nämlich nicht in Hardware, das liegt nämlich weiterhin bei Windows. Die Scheduling-Einheit in den Intel CPUs unterstützt den Software-Scheduler und gibt empfehlungen. Das war es.
isyyy schrieb:
Das ist keine Kunst sondern verarsche am Endkunden.
Was ist denn bitte hier die Verarsche am Endkunden, bitte einmal genau aufführen. Weil nur 1 CCD den Cache hat? Weil AMD - was auch vollkommen unabhängig vom 7950X3D für AMD die beste Lösung ist - Prozesse eines Spieles auf ein CCD bündelt?
AMDs Ansatz mit den Chiplets hat eine ganz entscheiden Schwäche bei Spielen und ebenso bei Software, in denen die Threads stark untereinander kommunizieren: Die Latenzen zwischen den CCDs sind für den "Arsch". Das kann man so klar auch schreiben und benennen. Der CCD-Ansatz ist für Software mit hoher interaktivität zwischen den Threads weniger gut geeignet, wie ein monolithischer Ansatz. Eine Schwachstelle, die AMD auch so schnell nicht beseitigen wird und auch nicht beseitigen kann. In solchen Fällen ist das hybride Design von Intel klar im Vorteil.
DavidG schrieb:
Gaming Leistung ist nahezu identisch
Kommt darauf an. Sehe ich mir die verschiedenen Spiele an, dann gibt es Spiele, da liegen beide dicht bei einander, in anderen Spielen schlägt Intel AMD deutlich und umgekehrt.
Im Mittel reicht es für ein kleines Plus für AMD, aber hier sollte man auf die eigene Spieleauswahl schauen, besonders wenn man bestimmte Spiele sehr gerne und viel spielt. Man könnte sonst enttäuscht werden vom 7950X3D
DavidG schrieb:
Multicore Anwendungsleistung ist Intel leicht überlegen
Im Mittel ist der 13900K/KS ca. 5 % vorne, benötigt dafür dann 253 W gegen 162 W. Ja, man ist etwas schneller, benötigt aber mehr Energie. Bei den 5 % muss man schon mit sehr spitzem Bleistift rechnen, damit sich das effektiv lohnt, wenn man hier die Effizienz wenig später bemüht.
DavidG schrieb:
Singlecore Anwendungsleistung ist Intel klar überlegen
Ja, um 10 - 11 % im Mittel überlegen. Nur das die 1T-Leistung im Bereich "Anwendungen" aber quasi heute - abseits von Spielen - kaum von Relevanz ist. Es gibt ein paar Programme, da ist diese noch durchaus wichtig, keine Frage, im großen aber nicht.
Ab er ja, wer maximale 1T-Leistung will, sollte zu einem 13900K oder 13900KS greifen, keine Frage und da führt auch kein Weg dran vorbei. Für alle anderen: Man muss sich die Systeme ansehen.
DavidG schrieb:
Stromkosten sind in den allermeisten Fällen bei Intel bedingt durch den niedrigen Idleverbrauch geringer
Ist es das? Es ist lustig, wie unsere ach so differenzierten Nutzer immer wieder dieses Märchen bemühen und sich immer noch nicht die Mühe machen mal ihre eigenen Aussagen auf Plausibilität prüfen, sondern einfach in den Raum stellen, als wäre es die Wahrheit schlecht hin.
Die Stromkosten hängen bei einem PC nicht nur von der CPU ab, sondern vom Mainboard, vom RAM und vielen mehr und wie dieses eingestellt ist. Selbst die Packagepower zwischen zwei 7950X3D und zwei 13900KS können sich massiv unterscheiden, wenn man falsche BIOS-Einstellungen wählt. Viele Mainboards für Intel oder AMD sind oft auf maximale Leistung ausgelegt, entsprechend hat sich das mit dem geringen Idle-Verbrauch - wobei kein PC wirklich je im Idle ist.
Und das Gleiche gilt auch für leichte Lasten, die von so vielen Faktoren abhängen. Hier kann ein Reviewer sehr gute oder sehr schlechte Werte erzeugen und damit eine CPU schlecht oder gut dastehen lassen und am Ende kommt beim Kunden das böse erwachen.
"Hier" - Computerbase - kommt ein System mit dem 13900KS auf 56 Watt im Leerlauf, der 7950X3D auf 64 Watt, das sind 8 Watt Unterschied. In Spielen stehen 70 W gegen 140 W. Im Schwachlast-Bereich kann man den 7950X3D weiter optimieren, in dem man "primär" Anwendungen auf den CCD mit Cache laufen lässt, dann benötigt der 7950X3D weniger bei browsen und Co als der 13900KS, lässt man Windows die freie Wahl, mehr und gehts auf den CCD für Frequenzen dreht sich das wieder.
Bei einer Stunde Spielen - im Mittel - zieht der 13900KS 70 Wh mehr, im Leerlauf benötigt der 7950X3D 8 W, damit 8 Wh pro Stunde, der PC müsste also 8,75 Stunden am Tag dann im Leerlauf sein, dass beide Systeme am Ende des Tages gleichauf sind. Wir haben hier also einen PC, der am Tag 9,75 Stunden laufen muss und davon nur eine Stunde, in der gespielt wird. Beim Browsen, YouTube und Co kommt es auf die Einstellungen ein. Out-of-the-Box komme ich hier aktuell bei dem 13900K auf ca. 65 - 66 W, für den 7950X3D auf ca. 70 W. Es sind 4 W unterschied, pro Stunde also 4 Wh: 17,5 Stunden. ... Setzte ich die Priorität auf den Cache CCD, benötigt der 7950X3D ca. 62 W, der 13900K bleibt bei 65 W ... also 3 W weniger.
Ob die Stromkosten am Ende geringer sind bei 13900K, hängt massiv vom Nutzungsszenario ab und wie gut man die Systeme einstellt und welche Hardware man wählt.
Und direkt vorweg an die üblichen Verdächtigen, die gleich wieder von "AMDBase" reden und wie undifferenziert wir bei Intel wären und wie wohlwollend bei AMD: Das, was ich hier liefere, sind Zahlen und simple Mathematik. Der Hinweis auf Leerlauf- und normales Browsen ist durchaus angebracht, nur sollte man dann auch mal den Taschenrechner bemühen und die eigene Argumentation mal prüfen, dann merkt man, wie löchrig der Hinweis auf Idle und Co ist.
Der 13900KS gewinnt "beim" Verbrauch im Ganzen gegen den 7950X3D nur, wenn man den PC wirklich quasi 24/7 betreibt und am Tag maximal 1 - 2 Stunden spielt. In jedem anderen Szenario reicht der Vorteil beim Leerlauf und im Teillastbereich nicht aus, um wirklich weniger Energie zu verbrauchen. Das Argument ist also weitgehend hinfällig, wenn man denn wirklich die Nutzung mit einbezieht in die Betrachtung.
Hier würde ich sagen: Wenn euch der Verbrauch in den Szenarien wichtig ist, dann optimiert euer BIOS und wählt entsprechende Komponenten um die CPUs herum, da geht viel mehr Energie drauf.
DavidG schrieb:
Anschaffungskosten sind bei Intel klar niedriger
Beim ersten Blick: Ja, richtig! B650-Boards beginnen ab aktuell ca. 170 €, DDR5-Mainboards bei Intel fangen ab ca. 150 € an. Zwischen 13900KS und 7950X3D liegt - aktuell - bei 150 - 200 €. Der Preisvorteil liegt aktuell also - nur CPU und Mainboard - bei ca. 170 - 220 €.
Am Ende kommt es aber darauf an. Das ganze kann sich dann schnell zu einem Gleichstand entwickeln, wenn man den RAM mit einbezieht. Beim 7950X3D ergibt es aktuell keinen Sinn RAM oberhalb DDR5-6000/6200 zu kaufen, weil die CPU damit nicht umgehen kann. Guter RAM - mit dem der 13900KS "den" Abstand zum 7950X3D im Mittel aufholt - 7200er und mehr - kostet gerne 150 - 200 € mehr bei 32 GB und bei 64 GB auch mal 250 - 500 € mehr. Dazu benötigt dieser RAM mehr Energie und Co, womit wir wieder bei dem Thema oben wären und dem "weniger Stromkosten".
Mit entsprechendem OC-RAM steigt der Verbrauch beim 13900KS im Leerlauf und beim Browsen und Co nämlich genauso an, wie beim 7950X3D und Co. Das ist auch nicht feierlich.
Ehrlich, dieses ganze "der 13900KS ist viel besser und im Leerlauf und im Alltag sparsamer und man spielt ja eh nicht viel" ist einfach lächerlich und vollkommen unnötig. Ob der 13900KS im Alltag sparsamer ist, hängt von vielen Faktoren ab und manche der Faktoren kann man auch beim 7950X3D dann anwenden. Hier kommt es auf viele Faktoren an und egal ob jetzt 13900KS oder 7950X3D, bei beiden würde ich empfehlen erst mal das UEFI aufzurufen und gewisse Einstellungen zu aktiveren, sonst sind die Systeme alles andere als sparsam.
Und da ich jetzt erst mal gegen Intel ausgeteilt habe: Es ist genauso lächerlich, dass hier einige jetzt den 13900K und 13900KS und RaptorLake allgemein wieder schlecht schreiben und so tun, als wären die Leute, die sich einen 13900K oder 13900KS kaufen "Idioten". Es gibt immer noch genug Software und Spiele, in denen Zen 4 auch mit dem 7950X3D nicht wirklich "aufholen" kann und gnadenlos hinteher hinkt. Das ist nicht unbedingt AMDs schuld, aber durchaus valide Gründe sich auch für ein Intel-System zu entscheiden. Genauso - das schreibe ich auf ein AMD-System(!) - kann die Systemstabilität eine Rolle spielen und hier hat Intel die Nase immer noch ein Stück vor AMD. AMD hat mit der 500er-Serie bei den Chipsätzen nachgezogen und es ist vieles besser geworden, vieles geht bei einem Intel-System jedoch "einfacher".
Der 13900K(S) ist eine sehr gute CPU und man macht mit dieser CPU nichts falsch und wer diese kauft, wird seine Gründe dafür haben. Die können "irrational" oder "rational" sein, es steht keinem zu die Leute dafür anzumachen, als dumm oder verblendet und Co hin zustellen.
Zer0Strat schrieb:
Der Punkt ist, dass die CB Community dazu neigt, AMD Produkte zu überschätzen, bzw. besser dastehen zu lassen als es wirklich der Fall ist.
Du solltest dir mal teilweise deine eigenen Beiträge durch lesen und wie schlecht du Zen 4 als auch die 7xx0X3D-Serie hier erst mal gemacht hast. Du warst es, der vor ein paar Monanten noch schrieb, dass RaptorLake alias 13900K und 13900KS beim Spielen vor den 7xx0X3D liegen wird, dass AMD das "nicht" schafft und Co.
Genauso solltest du langsam mal anfangen in deinem eigenen Garten aufzuräumen, bevor du wieder den Finger erhebst und auf die böse Community zeigst. Du erwartest differenzierte Betrachtungen und Beiträge? Dann solltest du langsam mal mit einem guten Beispiel voran gehen und deine eigenen Argumente auf plausiblität und richtigkeit prüfen. Ich erinnere dich nur mal an das angeblich defekte Shader-Prefetch bei RDNA3, wo du am Ende sogar AMD indirekt der Lüge bezichtig hast wegen einer Code stelle, statt dass du dir den Code im ganzen mal ansiehst.
Genauso bist du immer ganz vorne mit dabei wirklich undifferenzierte Beiträge zu liken, solange sie AMD-Produkte schlecht reden und Intel als auch NVIDIA-Produkte überhöht darstellen oder teilweise sogar falsche Aussagen verbreiten.
Wenn es dir wirklich um eine sachliche und differenzierte Community hier gehen würde, dann würdest du nicht jedes mal als Brandstifter in diesen Diskussionen auf schlagen, der Communtiy "vorwerfen" sie hätte eine AMD-Bias, selbst teilweise Halbwahrheiten und Falschmeldungen verbreiten, die du nicht prüfst.
Du bist an diesen ganzen Grabenkriegen, die hier ständig entstehen, beteiligt und wachst diese Kriege auch immer wieder an.
Zer0Strat schrieb:
Ja klar, deswegen werkelt der 7950X3D jetzt auch in meinem Produktivsystem. Manche "Äußerungen" hier sind massiv geistige Tieffliegerei, das ist echt peinlich. Was für eine Zeitverschwendung dieses Forum... 👎
Ich wäre mit solchen Aussagen vorsichtig, du sitzt nämlich in einem Glashaus und über "geistige Tieffliegerei" solltest du dich besser nicht äußern, sonst könnten andere hier mal auf die Idee kommen deine Beiträge und Co sich durch zu lesen und mal dein Niveau als auch deine geistreichen Beiträge abzuklopfen und das Urteil könnte für dich sehr vernichtend ausfallen, denn deine Beiträge sind rheorisch alles andere als wirklich ausgeklügelt und deine argumentative Art ist sehr stark durch die Giftküche der schwarzen Rhetorik geprägt. Deine Argumentationen sind oft sehr einseitig, zwar kann man einzelne Argumenten oft nicht direkt angreifen, weil sie nicht falsch sind, du bist aber ein Meister darin weitere Fakten zu unterschlagen oder andere Sachlagen auszublenden, wenn es in deine Argumentation passt. Ebenso verallgemeinerst du sehr stark und bist dir nicht zu schade darum ungeprüfte Sachverhalte erst mal als Fakten zu verkaufen und ruderst erst zurück, wenn du der Lüge überführt wirst.
Und dass du jedes mal die Community - also eine Gruppe von Menschen - pauschal angreifst und mit entsprechenden Vorwürfen diskreditierst, ist eine beliebte Taktik in der schwarzen Rhetorik, weil man alle anderen erst mal in die deffensive drängt.
Es ist bedauerlich, dass du dich ständig dieser Taktiken bedienst und peinlich ist es, dass du dich hier dann als "differenzierte" Person darstellst und traurig ist es, dass ein paar User darauf auch rein fallen, weil deine "Beiträge" sich mit ihrere Meinung decken. Es wäre so schön, wenn du dich wirklich mal auf eine sachliche und differenzierte Ebene hier bewegen würdest und die Community mit differenzierten Beiträgen und Betrachtungen bereichern würdest.
Du und viele deiner "Fans" hier sind alles andere als differenziert. Differnziert zu sein bedeutet nämlich, dass man am Ende auf keiner Seite ist und man auch gerne die eigene Meinung hinterfragt und sich selbst auch - ganz bewusst - selbst sabotiert in der Argumetnation und am Ende ist das Fazit dann oft nur noch ein: Es kommt darauf an.
Für eine differenzierte Person bist du und ist auch deine kleine Fangruppe hier, zu sehr in den Grabenkriegen gegen die böse Community gefangen und ebenso versucht ihr zu oft dann die Produkte von Intel und NVIDIA zu überhöhen, während ihr die von AMD dann schlecht reden wollt. Währt ihr wirklich differenziert, dann würde am Ende euer Beiträge nicht stehen, wie schlecht AMD doch ist und wie gut Intel oder NVIDIA, sondern ihr wärt wirklich um Ausgleich bemüht und zwar IN EUREN Beiträgen, nicht als Ausgleich zur Community.
Chilisidian schrieb:
Bringt am Ende auch nichts, CB ist und bleibt ein Hort gegen Intel und Nvidia.
Das Problem ist doch, dass jedes mal irgendwer hier meint seine pauschale Meinung auf polemische Art vor zu tragen und die anderen dann sich auf dieses Niveau herab lassen und sich damit die Community jedes mal gegenseitig provoziert. Es ist jedes mal das selbe bei den Themen: Irgendein Schwachkopf lästert über "Intel" oder "AMD" oder "NVIDIA" ab und macht das Produkt dann schlecht und schon gehen alle auf einander los.
Es ist nur lustig, dass immer die Leute über die "böse" Community meckern, die jedes mal meinen die anderen Mitgleider zu belehren oder wie falsch ihre Meinung ist und dann ein riesen Fass auf machen. Noch lustiger ist es, wenn Leute hier auf "differenzierte" Betrachtungen pochen, in ihren Beiträgen aber sehr einseitig sind und dann anderen vorwerfen, sie wären "voreingenommen", wenn sie dann die Beiträge mal abklopfen und die Argumentationen prüfen.
Statt jedes mal über die böse Community zu schimpfen, wäre es vielleicht mal angebracht an der eigenen Art der Argumentation zu arbeiten und nicht in ein stumpfes Schwarz/Weiß zu verfallen, sondern wirklich differenziert an das Thema gehen. Ich kann dir nur sagen: Das ist ziemlich anstrengend und produziert immer eine Wall-of-Text, weil sich solche Sachen eben nicht in zwei drei Sätzen abhandeln lassen.
xexex schrieb:
AMDs "3D Cache", also TSMCs SoIC, ist hingegen eine spezielle Technik von TSMC. Etwas vergleichbares hat Intel mit der Lakefield CPU präsentiert, es dürfte aber bei den hochgezüchteten Desktop CPUs an der Hitzeentwicklung scheitern.
Die Hitzeentwicklung ist ein Grund, warum AMD bei den HPC-APU den Aufbau auch umdreht und CCD und GCD auf den Cache und MC setzt, statt umgedreht.
xexex schrieb:
Intel hatte bereits vor vielen Jahren CPUs mit zusätzlichen Cache. Es dürfte verschiedene Gründe gehabt haben, wieso man diese Idee wieder verworfen hat.
Das war damals der eDRAM für die Mobile-CPUs mit der Iris Pro-Grafik. Der Speicher wurde als L4-Cache dann angesprochen und wurde ähnlich verwendet, wie bei RDNA2 und RDNA3 nun der Infinity Cache als Buffer für den Memory Controller, um diesen zu entlassten und mehr Bandbreite zur Verfügung zu stellen.
Der
Effekt war bei Spielen damals mit den beiden Broadwell-Prozessoren im übrigen ähnlich wie heute bei X3D-Prozessoren. Man konnte damals fast 20 % Taktnachteil durch den L4-Cache aufholen. Bei Spielen sieht man dann sehr gut, was die
Boardwell-Prozessoren leisten können mit den 128 MiB eDRAM als L4. Der eigentlich IPC-Unterschied in Anwendungen zwischen Haswell und Broadwell waren in Mittel gerade 2 - 3 %.
Syrato schrieb:
Oh, an der Stelle hat er nicht unrecht, das war aber zu den Zeiten der "Gerüchte", als noch nicht alle Fakten auf dem Tisch lagen.
Es gab schon einige, die angenommen haben, dass AMD bei der IPC auch wieder ca. 20 % im Mittel erreichen, so wie bei Zen2 und Zen3. Mit den 20 % wäre AMD bei der IPC ca. 10 % vor AlderLake gelandet - mit Zen3 waren sie ca. 10 % zurück. Es hat sich dann auch schon angedeutet, dass AMD die "5 GHz" schafft.
Bei RaptorLake war zu diesem Zeitpunkt nicht viel bekannt, nur dass der Cache von den 1280KiB auf 2048 KiB wie bei den großen GoldenCoves vergrößert wird, mehr war damals nicht bekannt. SunnyCove brachte damals 18 % IPC mit 512 KiB L2, WillowCove brachte dann den Sprung auf 1280 KiB L2 und brachte bei der IPC quasi keine Verbesserung (im Mittel 1 - 2 %). Daher war die Annahme, dass Intel im besten Fall nur 3 % IPC-Steigerung hinbekommt.
Mit diesen "bekannten" Daten und daruf aufbauende Vermutungen war damals durchaus der Schluss geben, dass AMD am Ende bei der IPC ca. 7 - 10 % vor RaptorLake liegt. Die Aussage damals war - und hier wird dann wieder übertrieben von unseren ach so differenzierten Mitdiskutanten - dann dass Zen 4 bei Spielen schneller wird als AlderLake (ohne den 3d-Cache) und dass man RaptorLake erreicht oder gar leicht schlägt. Man ging damals auch davon aus, dass AMD zwar die 5 GHz knackt, aber eher nur die 5,2 schafft, während Intel bei 5,5 GHz.
AMD hat dann bei der IPC aber nicht die "angenommen" 20 % erreicht, sondern nur um die 7 - 11 %, man war bei Zen 3 zu GoldenCove aber ca. 8 - 14 % bei der IPC zurück. Man hat also bei der IPC den Abstand zu AlderLake nur verringert, nicht überholt. RaptorLake hat dann durch den besseren L2-Prefetching-Algorithmus im Mittel 5 % IPC dazu gewonnen. Zen 4 hat also den Abstand zu AlderLake "nur" überwunden, RaptorLake liegt aber eben in der IPC weiter voraus.
Das war Anfang letzten Jahres so nicht absehbar. Natürlich gab es die Leute, die damals schon sagten, dass Zen 4 "AlderLake" nicht schlagen wird und RaptorLake unschlagbar ist für Zen 4 und diese Personen haben an der Stelle auch recht behalten. Nur sollte man - um es mal wirklich differenziert zu machen - fest halten, dass die selben Personen wenig später auf Grund des Vorsprungs von RaptorLake auf Zen 4 - bis vor wenigen Tagen auch behauptet haben, dass die 7xx0X3D-Prozessoren im Mittel den Abstand zum 13900K und KS nicht aufholen kann und weiterhin langsamer ist als der 13900K. So mancher dieser Personen gehören auch zu denen, die 2017 behauptet haben, dass AMD mit Zen 1 NIEMALS 50 % IPC-Steigerung hin bekommt und das AMD den Abstand zwischen Zen 1 und den damaligen "SkyLake"-Iterationen NIE aufholen kann mit Zen 2 und auch das Zen 3 NIE besser werden kann als Commet Lake. Da waren dann auch Aussagen dabei, die behaupteten, dass Intel mit AlderLake "uneinholbar" vorne liegen wird und RaptorLake quasi "AMD" vernichtet - das sind im übrigen teilweie die gleichen Personen, die hier jetzt den "AMD-Fans" den Vorwurf machen, dass sie AMD "überbewerten". Und mancher dieser "Personen" behaupten auch damals zu RDNA2, dass AMD NIE die 2080 Ti schlagen kann und die Navi21 "langsamer" ist als die 2080 Ti und NVIDIA weit vorne liegen wird mit Ampere.
Diese Leute kapieren auch - leider - nicht, dass es ein Unterschied gibt, ob man pauschal, wie sie es oft machen, behauptet, dass AMD etwas nicht schafft und dann mal richtig liegt - sie taten es oft genug auch nicht - oder ob man AMD mal wegen "Zahlen" falsch einschätzt und daher zu positiv einschätzt.
AMD wird hier von einigen immer gerne "pauschal" schlecht gemacht und Intel und NVIDIA als "uneinholbar" hingstellt und darunter sind einige, die der Community eine AMD-Bias unterstellten. Und dann seh dir mal an, welche Fehleinschätzungen diese Mitglieder in den letzten 5 - 7 Jahren angehäuft haben und wie oft sie richtig lagen. Das sollten diese Mitglieder auch mal selbst machen. Die Trefferquote ist nicht so gut.
Hardware-Entwicklung ist ein komplexes Feld und eine Idee kann sich heute als falsch herausstellen, morgen dafür Zünden und genauso umgekehrt. AMD kann bei Zen 5 überholen und "vorne" liegen, auch wenn Intel den Nachfolger heraus bringt. Genauso kann es sein, dass Intel mit der nöchsten Generation den Abstand sogar aus baut.
Mit NVIDIA ist es genau das gleiche Spiel: NVIDIA kann den Abstand in der nächsten Generation ausbauen, oder den Vorsprung verlieren. Was Tatsache sein wird, können wir erst wissen, wenn die Produkte auf dem Markt sind.