News Gefloppte CPUs & GPUs: AMD FX, RX Vega, der Pentium 4 und jetzt auch Intel Arc?

Bulldozer: "Das Konzept an sich war interessant, besonders im Bereich Server, aber Bulldozer krankte an viele andere Dinge, welche ihn von Natur aus kaum konkurrenzfähig machte."

Vega: "Habe ich kaum noch in Erinnerung. Ich habe mal "Ja" angegeben, wenn es so wenig in Erinnerung blieb."

Netburst "Schwer. Das Prinzip auf GHz zu setzten stellte sich letztlich als totaler Fehler heraus und so war er den Konkurrenz im Gesamtpacket unterlegen. Trotzdem wurde er immer stark erweitert und Intel hat bei ihm vieles bei sich selbst eingeführt. 64 Erweiterung, Multicore, Besonders HT. Also Produkt für den Kunden war er sicherlich eher eine Enttäuschung. Als Spielwiese für Intel weniger."

Alchemist "Muss ich leider sagen "ja". Das das Ding nicht einmal Stabil lief enttäuschte mich wirklich am meisten. Ich hätte über einiges Hinwegsehen können, aber das nicht."

Ab wann Konkurrenzfähig "ab Battlemage stabile Treiber. ab Celestial in Spielen keine so große Streuung mehr. Ab frühestens Druid Vergleichbare Effizienz" Ob eingestellt wird. Keine Ahnung. Kann natürlich immer passieren. Da es aber die selbe Architektur wie die iGPU ist, glaube ich es fürs erste weniger. Außer die Treiber sind bei der nächsten Generation noch immer so Instabil.
 
Intel hat doch noch viel mehr zu bieten an Vollfails:

  • i740
  • beharren auf RDRAM für P4 - da trafen sich dann mal zwei absolute "Gewinner"
  • Itanium & IA-64
  • erste In-Order Atoms
  • Larrabee/Phi
  • 3D Xpoint
 
  • Gefällt mir
Reaktionen: bad_sign, Steini1990, Icke-ffm und eine weitere Person
Fighter1993 schrieb:
Ich fand die Vega 56 von Sapphire hat mir mit ihren 8GB HBM 2 Speicher sehr gute Dienste erwiesen auch noch unter 1440p.
Mit auch. Ich hatte eine RX480 und bin von 1080p auf 1440p umgestiegen. Dafür hatte die RX480 zu wenig Power. Hatte dann die 1070 gekauft. Die war gut aber die hätte mit dem Standby total Probleme. Bin dann auf die Vega56 umgestiegen und die war super noch etwas schneller als die 1070 und keine Probleme gehabt. Als Flop würde ich die Vegas nicht bezeichnen. Aber nicht gerade als AMDs Glanzleistung?
 
haudegen84 schrieb:
Von daher auch das eine - meiner Meinung nach - extrem gut gealterte Karte.
Jo, wurde ja später sogar nochmal rebranded.

R9 280(X) Karten.

Hatte damals sogar meine HD 7970 GHz mit nem neuen Bios geflasht.
Einfach nur damit ich die Karte R9 280X nennen durfte xD
 
  • Gefällt mir
Reaktionen: haudegen84
Ich hatte Jahre lang einen FX 8350 mit einem ordentlichen TOP Blow Lüfter.
Die CPU hat immer anstandslos gefunzt. Und mit dem Kühler gab es auch keine Probleme mit Hitze.

Schade das Intel den Neueinstieg mit den GPUs so versaut hat. Ich hätte mir gerne Konkurrenz gewünscht.
So bleiben die Preise weiterhin sehr hoch.
 
  • Gefällt mir
Reaktionen: Paratronic
Die Effizienz FPS/W war für Bulldozer gegen die damaligen Intel nicht so desaströs wie es heute für Alder Lake gegen Ryzen ist. Lustig -- ist aber so. ;)
 
  • Gefällt mir
Reaktionen: drake23
Tornavida schrieb:
Generell von Flopps zu sprechen aus Sicht eines Europas dass in der Sparte Nix gebacken bekommen hat halte ich für problematisch und arrogant.
Das, was du da gerade aussprichst, ist ein bekannter logischer Fehlschluss...
https://yourlogicalfallacyis.com/de/ad-hominem
...nur, dass du ihn auch noch auf JEDEN in einem ganzen KONTINENT beziehst.
Majestro1337 schrieb:
Was ist denn das für ne Logik? Muss ich erfolgreicher Wohnhausbesitzer sein um sagen zu dürfen, dass Wohnung A schlechter ist als Wohnung B?
Muss ich Autobauer sein um festzustellen, dass ein Porsche mehr Leistung hat als ein Opel Kadett?
Ich denke das kann ich auch gut beurteilen, wenn man den Markt nur von der Seitenlinie aus beobachtet.
Und der Beitrag hat sogar noch Upvotes eingeheimst...
 
  • Gefällt mir
Reaktionen: GeneralJules
In meinen Augen ist der Artikel sehr eindimensional geschrieben.
Erster Fehler: nahezu jedes Produkt scheint aus Sicht eines Spielers betrachtet worden zu sein.
Vega war, genau so wie Fiji, eine compute-Maschine. Dadurch war die Leistung FPS/Watt nicht so gut wie bei einer GTX 1080, aber compute lief Bombe. Zudem, nach zwei drei Jahren war die Vega in vielen Spielen gleichauf in Tests. Wer dann noch Hand an legte mit UV, bekam wirklich gute Karten - allerdings, da war das Ergebnis des Tests korrekt, konnte man mit etwas Einsatz noch einiges mehr aus den Karten holen.

Ähnlich sah es bei den P4 aus. Ja, netburst war nicht die Zukunft, schon die P4 konnte man nicht mehr über GHz skalieren. Aber darauf war netburst ausgelegt. Die Wattbrechstangen am Ende waren nicht hilfreich.
Aber: abgesehen von gaming waren die P4 nicht langsamer als Athlon, eher im Gegenteil. Damals hatten wir noch deutlich mehr Wert auf die Zeit beim encodieren, kompilieren oder generell wissenschaftliche Berechnungen gelegt - da lagen unsere Northwood in der Regel vorne. Der Stromverbrauch war jetzt auch nicht Welten schlechter...

Bulldozer war seiner Zeit einfach voraus. Die Software für derart viele threads war im SoHo Sektor einfach nicht vorhanden. So waren die Bulldozer effektiv halbiert bei dennoch vollem Stromverbrauch.
Und bei Spielen hatte man eh das Problem dass "damals" schon vier Kerne eines Q6600 zu selten ausgenutzt worden sind...

Zu Arc muss man sagen: der Chip ist nicht schlecht. Gemessen an den FPS etwas durstig. Aber das ist ein Treiberproblem. Das kann man in den Griff bekommen. Da Intel mit seinen Xe GPUs auch in massig Notebooks vertreten ist, lohnt sich das auch.
Abgesehen davon sind die Chips beim encodieren, dekodieren und GPU Berechnungen nicht schlecht unterwegs. Die werden auch ihren Weg ins HPC finden.
Jetzt fehlt es eben an Spieletreibern...
 
  • Gefällt mir
Reaktionen: pookpook, Paratronic und Kapsler
Ich habe die Vega56 damals für 409€ bekommen und war bis zum Ende zufrieden mit der Karte. Probleme damals waren wie teils noch bis zu Beginn des Jahres die Verfügbarkeit und die Geilheit der Miner auf die Karten.
 
janeeisklar schrieb:
Die Effizienz FPS/W war für Bulldozer gegen die damaligen Intel nicht so desaströs wie es heute für Alder Lake gegen Ryzen ist.
Nur, wenn man durch die falsche Leistungsaufnahme ins Verhältnis setzt, wenn man also Gaming-FPS durch die maximale Leistungsaufnahme teilt. Bei Gaming-FPS durch Gaming-Leistungsaufnahme sieht das anders aus, vgl. zum Beispiel hier:
https://www.igorslab.de/wp-content/uploads/2022/04/720-Efficiency.png
(Schlagabtausch zwischen 5800X und 12700K)
https://www.igorslab.de/amd-ryzen-7...rfektes-und-vor-allem-effizientes-upgrade/10/
Daher gilt...
janeeisklar schrieb:
Lustig -- ist aber so.
...dies nicht.
Übrigens war jedes Consumer-Bulldozer-Modell in jedem Einsatzszenario ineffizient --- das sieht bei AlderLake vollkommen anders aus.

(was aber sicherlich auch am Fertigungsprozess lag)
 
Zuletzt bearbeitet: (Ausdetailliert)
Fighter1993 schrieb:
Ich fand die Vega 56 von Sapphire hat mir mit ihren 8GB HBM 2 Speicher sehr gute Dienste erwiesen auch noch unter 1440p.
Ich hab die immer noch im Rechner und mit UV leistet sie für mich weiterhin gute Dienste in 1440p. Für 239€ definitiv die Karte mit dem besten PL Verhältnis, die ich bisher hatte. Von daher für mich definitiv kein Flop.
Aber so langsam schaue ich mich dann doch nach einer Ablösung um. Mittlerweile bewegen sich die Preise ja in die richtige Richtung.
 
  • Gefällt mir
Reaktionen: Joshua
TenDance schrieb:
Bulldozer war seiner Zeit einfach voraus. Die Software für derart viele threads war im SoHo Sektor einfach nicht vorhanden. So waren die Bulldozer effektiv halbiert bei dennoch vollem Stromverbrauch.
Und bei Spielen hatte man eh das Problem dass "damals" schon vier Kerne eines Q6600 zu selten ausgenutzt worden sind...
Nein. Das Konzept von Bulldozer wird heutzutage aus gutem Grund nicht verwendet. Es war schon damals ziemlich Banane. Hier mal ein viel älteres (und ziemlich ausuferndes) Posting von mir dazu:
(sondern, ob "Die Modultechnologie ist an und für sich eine super Idee" stimmt) Daher fokussierst du dich wohl auch auf die andere Richtung, also der Betrachtung von Viele Kerne -> Viele CMT-Kerne, was genau zum Bulldozer passt.
Sich Bulldozer anzuschauen ist aber gerade ein bisschen ungünstig, denn Bulldozer nutzt ja eine sehr besondere Form des Konzeptes. Die FPU, die sich beide Kerne eines Moduls teilen, wird ja gerade mittels des gleichen Konzeptes wie bei SMT geteilt, was die Unterscheidung der Konzepte nochmals schwieriger macht. Aber egal, ich komme mal endlich zum Klartext.

Nimmt man als Basis einen Kern, einzige Voraussetzung breit. Nicht sehr breit, nicht fett, sondern erst einmal nur breit aufgestellt. Und aus diesem einen Kern will man jetzt etwas schaffen, was zwei Threads bearbeiten kann. (es ist für die Betrachtung egal, ob man von diesen Kernen nun einen, zehn oder 512 hat)

Der SMT-Ansatz wäre klar, ein paar Register klonen, fertig. Der CMT-Ansatz wäre den Kern so zu strukturieren, dass er wie zwei komplette (deshalb ist Bulldozer nicht wirklich CMT, sondern wie vorhin schon genannt ein Zwischending), halb so breite Kerne agieren kann. Direkt wird klar, dass dafür mehr Chipfläche drauf geht, da muss mehr geklont werden und dass das gegenüber der SMT-Variante mehr Energie brauchen wird. Wie du anfangs sagtest ist klar, dass man bei SMT irgendeinen Gewinn zwischen 0 und 100% haben wird. Schauen wir uns die Extremfälle an:
0%= Alle Einheiten werden bereits genutzt (SMT hat keinen Handlungsspielraum) ODER das Programm profitiert nicht von weiteren Threads. (SMT kann keinen Gewinn bringen)
Vergleich CMT: Kein Handlungsspielraum -> Modul zu spalten würde Performaceverlust bringen; Kein Gewinn bei SMT -> Modul zu spalten wäre sinnlos. Bei wirklich wenig Last könnte man einen der Teilkerne powergaten---dann stellt sich aber die Frage, ob man nicht allgemein jeder Einheit Powergating gönnen sollte...
100%=Einheiten können logisch komplett auf zwei gleich rechenintensive Threads geteilt werden
Vergleich CMT: Kein Unterschied. (in der Praxis würde SMT keine 100% erreichen und CMT ein bisschen besser abschneiden, jajaja...)

Zunächst fällt auf, dass das Gesamte ein wenig Verwaltungsaufwand mit sich bringt, das ist aber nur in der Praxis beim Bulldozer tragisch geworden. (wie übrigens auch die Powergatings erschreckend schlecht funktioniert haben). Schwerwiegend hingegen ist, dass einem nun vielleicht in den Sinn kommt, was noch passieren könnte. Nämlich, dass die Threads unterschiedlich rechenintensiv sind. Und dann versagt CMT durch die starre Aufteilung der Kerne.

Angesichts dessen fällt mir auch nicht ein, wieso zumindest 2-faches-CMT jemals wieder zum Zug kommen sollte. Höhere Ausbaustufen wären hingegen schon denkbar. Wenn man einen Giganto-Kern hätte, der zum Beispiel 32-faches-CMT hätte, aber auch unterschiedliche Kombis ermöglicht (also z.B., dass sich dann ein Kern mit 25, einer mit 6 und einer mit einer Einheit bildet, dann könnte sich das wieder lohnen, dann wäre die Unflexibilität weg. Ob man sowas macht und ob man das dann CMT nennt oder wie auch immer, wie dann überhaupt die Core-Kontrolle funktioniert, ob Mega-Cores Sinn ergeben ist eine ganz andere Geschichte.
https://extreme.pcgameshardware.de/...d-auch-x370-motherboards.461274/#post-8578870
Ich versuche es noch einmal knapp zu formulieren:
Die Grundidee von Bulldozer (im INT-Bereich) ist CMT2: Ein Modul kann sich zusammenschalten und einen Thread schneller bearbeiten oder aufteilen und dann zwei Threads normal schnell bearbeiten. So etwas ist nicht erst in der Praxis, sondern bereits in der Theorie zu unflexibel: Wird ein Modul mit einem wichtigen und einem unwichtigen Thread gefüttert, dann steht es sich bereits selbst im Wege. Zusammenschalten oder aufspalten, beides ist schlecht. SMT arbeitet dort einfach viel flexibler. Ein CMT mit höherer Ordnung, also z.B: CMT4, sprich ein Modul, das bis zu vier Threads bearbeiten könnte, würde diese Schwäche ausgleichen können, sofern es sich assymmetrisch teilen lassen würde. (also drei Viertel des Moduls setzen sich an Thread 1 und ein Viertel an Thread 2)
 
Zuletzt bearbeitet: (Ausdetailliert)
Moep89 schrieb:
Naja, ehrlich gesagt würde ich keine 12er CPUs als Alternative erwarten, sondern 13er. Ein 13700K wäre ok, aber ein oller 12700 jetzt noch?
Es geht ja darum, dass die Gewinner endlich ihre Preise bekommen.

Das Gewinnspiel ist ja schon im Januar beendet gewesen. Auf Raptor Lake müssten die Gewinner ja wieder warten.

Jetzt haben sie ja die Wahl: Zeitnah einem 12000er Core oder die A770/A750 irgendwann mal.
 
janeeisklar schrieb:
Bei Igor war PBO an, also Ryzen OC daher unbrauchbar @effizienz.
Und wenn Igor sonst etwas getan hätte, wären am Ende dennoch nicht die massiven Effizienzunterschiede wie zwischen Bulldozer und SandyBridge zum Vorschein gekommen.

Edit: Ich meine das ernst, selbst wenn Igor den 5800X im Eco-Mode getestet hätte, (in einem anderen Modus würde ich ihn nicht betreiben wollen) stände der 12700K nicht schlecht dar.
 
Zuletzt bearbeitet: (Ausdetailliert)
Ich hatte vor dem Ryzen 2700x einen FX8350 und war ehrlich gesagt in allem zufrieden.
Und dies obwohl ich hauptsächlich gezockt habe..
Eine Vega64 hatte ich auch anfangs mit meinem 2700x und war auch mit dieser Karte rundum zufrieden.
Wenn ich im Nachhinein das Preis- Leistungs Verhältnis des FX betrachte war diese Plattform für mich persönlich alles andere als ein Flop.
 
Der P4 wahr ja nicht wirklich eine Enttaeuschung. Das war eher eine technologische Sackgasse, womit Intel ordentlich Geld verdient hatte. Marketing und ihr Marktverhalten haben dabei mitgeholfen, dass es nachhaltig war. Der FX und Vega haetten besser sein koennen, aber als Enttaeuschubg sehe ich jetzt beide nicht wirklich. Die Arc ist aus Spielersicht eine absolute Enttaeuschung. Wer weiß, ob da nicht auf Architekturfehler dabei sind. Bisher schiebt man viele Probleme auf deren Treiber. Ich bezeichne es jetzt schon als Fehlschlag.
 
Die Pentium 4 waren zumindest wirtschaftlich ein großer Erfolg - wenn auch eben mit miesen Vermarktungstricks - und das wo sie sogar deutlich teurer waren als die Athlons. Die P4 waren ja auch nicht schwach, nur die Architektur wurde dann mit zu hohen Takten und HT vollkommen überstrapaziert. Viel floppiger war doch die Itanium Schiene.
Bei der Vega ging mir schon die Kinnlade runter - viel Hype für so ne Sch...e, und ich hatte echt Bedenken dass AMD da auf Dauer komplett den Anschluss verliert. Mit der RX 6xxx aber nach gefühlt ewiger Midrange-Zeit zum Glück wieder hergestellt.
Und der Bulldozer - naja, die FX waren nicht so prall, interessanter waren die APUs. Aber dennoch hat es keines in eines meiner Systeme geschafft - der 2500K war für lange Zeit vollkommen ausreichend.
 
Zurück
Oben