Man kann den ganzen P4 und die Netburst-Architektur nur als Flopp bezeichnen, wenn man die Zeit nicht miterlebt bzw. Erinnerungslücken hat.
Ein Flopp war nur die erste Generation "Willamette" in 180nm samt dem ersten Sockel 423 sowie die letzte Generation "Prescott" in 90nm auf dem Sockel 775.
Gegen die mittlere Generation, Northwood in 130nm, hat AMD spätrstens ab dem P4 HT 3,06GHz kein Land gesehen.
Willamette hatte Anlaufschwieriegkeiten: Die ersten Modelle mit 1,4/1,5GHz waren tlw. minimal langsamer als die schnellsten Athlon "Thunderbird" und sogar die schnellsten PIII und dazu dank RAMBUS-Speicher zu teuer(weshalb die PIII "Tualatin" in 130nm und mit bis zu 512kB L2-Cache spät kamen, teuer waren und inkompatibel mit den meisten bestehenden Boards). Dieser Tualatin war die Basis für den später erfolgreichen Pentium M.
Ab 1,7GHz war der P4 jedoch klar schneller. AMD hatte zudem Probleme mit dem Umstieg von 180nm auf 130nm, es war mit dem ersten Stepping "Thorougbred A" nur ein kleiner Taktsprung von Athlon XP 2100+ mit 1733MHz auf 2200+mit 1800MHz möglich.
Der S423 ist ein Flopp, weil es dann nur bis zum (seltenen und teuren) 2GHz Willamette ging.
Mit dem Northwood hat der P4 nach und nach AMD aus der oberen Liga komplett verdrängt. Erstmal gab es sehr regelmäßig Taktupdates, dazu die weitgehende Abkehr von RAMBUS und Hinwendung zu DDR-266/333, ab 3,06GHz kam dann erstmals Multithreading und ein höherer FSB, danach nochmal ein höherer FSB und mit Dualchannel und DDR-400 war der Bedarf an Speicherbandbreite dann endlich gedeckt.
AMD konnte schon gegen den P4 HT 3,06GHz nicht wirklich bestehen, der legändäre Athlon XP 2800+ mit FSB333 und 2250MHz, dem höchsten Takt aller K7-CPUs, war wie damals der PIII 1GHz schlecht verfügbar und teuer, das letzte Update, "Barton" mit auf 512KB verdoppelten L2-Cache und etwas später tlw. FSB400, konnte den Rückstand nur verringern, wurde aber schnell von o.g. P4 HT mit FSB800 geschlagen.
AMD war damals nur noch für OC interessant, weil man z.B. aus quasi jedem 2500+ einen 3200+ durch Anhebung des FSB machen konnte und so günstig ein schnelles System hatte.
Mit Prescott hat Intel es dann aber auf ähnliche Art und Weise wie mit Skylake versemmelt, gerade als AMD mit dem revolutionären Athlon 64 um die Ecke kam: Um endlich die 4GHz zu knacken (was dann nicht geklappt hat), hat man nicht nur auf 90nm geshrinkt, sondern auch die Pipeline verlängert (was AMD z.B. jüngst von RDNA1 zu RDNA2 ähnlich gemacht hat).
Leider mit geringem Erfolg, bei gleichem Takt waren die neuen Modelle langsamer und verbrauchten damals, als Dekstop-CPUs noch keinerlei Energiesparfunktionen kannten, mehr Energie. Die Topmodelle mit 3,8GHz statt 3,4GHz und 2MB statt 512MB L2-Cache waren dann gerinfügig schneller, aber chancenlos gegen die A64 und auch bei den ersten Dualcores war Intel schlechter als AMD.
Für den alten S478 gab es Prescotts nur als taktgleichen Ersatz der alten Northwoods, also völlig wertlos, für die neuen Modelle brauchte man den neuen Sockel 775, erstmals mit PCIe und DDR2 (DDR1 war auch noch möglich), damals ein großer Kostenaufwand.
Was damals bei beiden absolut Mist war und heute gottseidank nicht mehr so ist, man brauchte für jede kleine Änderung an FSB und Speicher neue Chipsätze und folglich neue Mainboards: FSB266 mit DDR-266, FSB266 mit DDR-333, FSB333 mit DDR-333, FSB-333 mit DDR-400 und erst dann FSB400 und DDR-400, ähnlich bei Intel. Zwar gab es bei neuen Steppings und Shrinks auch mal neue CPUs für alte Boards, aber für die neuen Top-CPUs brauchte man fast immer ein neues Board. Besonders schlimm hat es Intel bei S775 am Anfang getrieben: i915P und i925X unterstützten nur die CPU-Generation, die mit ihnen veröffentlicht wurde, also Prescott-1M/2M mit FSB800 als 500er- und 600er-Serie, weder die späteren 65nm-Shrinks mit gleichen Specs noch die ersten 90nm-Dualcores auf Prescott-Basis.
Man muss aber sagen, dass Prescott noch so weit verbessert wurde, dass er eigentlich ganz ok und sogar halbwegs energieeffizient war, erst durch die Einführung von EIST bei den 600er-Modellen (erstmals Energiesparfunktionen im Desktop bei Intel!), dann den 65nm-Shrink "Cedar Mill" und "Presler" und schließlich nochmal durch neue Stepptings von beiden, durch welche die TDP von 86W auf 65W bzw. von 130W auf 95W sank.
Ja, die Netburst-Architektur war ein Irrweg, ausgerichtet auf marketingwirksame GHz-Zahlen, und wahrscheinlich wäre es besser gewesen, die PIII-Architektur so weiterzuentwickeln, wie es dann mit dem Pentium M über den ersten Core hin zum Core 2 geschehen ist. Aber Intel hatte damit von etwa April 2001 bis Ende 2003 die Leistungskrone inne. Es ist fraglich, ob man das mit dem PIII geschafft hätte, als es notwendig war.
Das Intel dann, als die Architektur an ihre Grenzen kam, zu lange brauchte, um eine Alternative zu entwickeln, scheint systembedingt: AMD siechte auch stets eine Weile dahin, bevor man zu Athlon XP, A64, PhenomII und Bulldozer einen Nachfolger entwickeln konnte, der es wieder mit Intel aufnehmen konnte.