Warum sind FX Prozessoren nicht so gut?

Juri-Bär schrieb:
Ein A12-9800 aus dem Jahre 2016 rechnet bei gleichem Takt wie der FX 8350 aus dem Jahre 2012 auf einem Kern 23% schneller. Aber Ryzen ist schon eine andere Hausnummer.
Das ist so nicht ganz richtig, da die APUs ja keinen Level 3 Cache haben und das schon einiges an Performance kostet. Mit Level 3 Cache würde man sich vermutlich bei ca. 40% mehr IPC befinden.
Das Hauptproblem war halt auch mit die schlechte Fertigung, die hat vieles kaputt gemacht.


Davias schrieb:
Als ich 2015/16 hier im Forum PCs zusammenstellte, hat keine Sau AMD empfohlen. War so das berühmte rote Tuch, von welchem man Abstand nimmt. Intel war sozusagen der Gaming-Gott und AMD der Schrotthersteller für Arme-Leute-PCs.

Liegt aber auch daran, dass sich hier extrem viele intelfanboys tummeln, die dazu noch keine Ahnung haben und immer nur das Gleiche empfehlen....
Vor ein paar Jahren war es auch immer hip ein youtube Video zu posten, wo ein i3 einen FX 8350 ja vollkommen zerstört. War dann halt nur doof, dass in dem Bench halt auch der interne Bench von Rome 2 mit dabei und mein FX 8320 da mal locker 20-25 fps mehr wie der i3 produziert hatte und dann war lustigerweise auch plötzlich Ruhe.

Von daher ja es war keine Rakete, aber wenn man ein paar Kleinigkeiten beachtet hat für das Geld damals wirklich in Ordnung. Vor allem auch der FX 6300 war p/l technisch lange Zeit eine sehr gute Wahl.
 
Kristatos schrieb:
Sie waren schon beim Erscheinen völlig veraltet, die Rechenleistung ist trotz 8-Kernen schlecht (verglichen mit Intel: Singelthread etwa Celeron-Niveau und im Multithread i3-Niveau) und der Stromverbrauch ist exorbitant hoch (Spitzname Bratkasten)

Schwachsinn, MT zersägt der FX jeden i3
 
Mani89HW schrieb:
Ja 40w vs 200w. Und 4threads gegen 8?

Komisch, mein FX8 hat nie 200 Watt gezogen... Habe gerade nochmal den alten Test ausgegraben, der FX8 hatte 53% mehr Multicore Leistung als der damalige i3 und dabei ca. das doppelte an Strom verbraucht.

Es kann also keiner behaupten, im Multicore wären sie gleichwertig gewesen.
Ergänzung ()

Ach ja und in Spielen war der FX8 auch schneller als der i3: https://www.computerbase.de/artikel/prozessoren/amd-fx-8350-vishera-test.1923/seite-6
 
Zuletzt bearbeitet:
NJay schrieb:
Komisch, mein FX8 hat nie 200 Watt gezogen... Habe gerade nochmal den alten Test ausgegraben, der FX8 hatte 53% mehr Multicore Leistung als der damalige i3 und dabei ca. das doppelte an Strom verbraucht.

Es kann also keiner behaupten, im Multicore wären sie gleichwertig gewesen.
Ergänzung ()

Ach ja und in Spielen war der FX8 auch schneller als der i3: https://www.computerbase.de/artikel/prozessoren/amd-fx-8350-vishera-test.1923/seite-6
erst der fx 8350 und nicht der 8150 wie man sieht und ja ein toller vergleich mit einem i3.also der i3 war ja nicht gerade die speerspitze von intel. gab ja i5 i7 i7 extreme usw. der fx war aber das maximum von amd. heutzutage sind sie zum glück wieder sehr dicht beieinander.

https://www.computerbase.de/artikel...test.1923/seite-9#abschnitt_leistungsaufnahme also 89w vs 239w wo aber das ganze system gerechnet wird. also mind. das 3 fache an verbrauch. aber intel verbesserte sogut wie jedes jahr und da kam amd nicht mehr nach
 
Mani89HW schrieb:
erst der fx 8350 und nicht der 8150 wie man sieht und ja ein toller vergleich mit einem i3.also der i3 war ja nicht gerade die speerspitze von intel. gab ja i5 i7 i7 extreme usw. der fx war aber das maximum von amd. heutzutage sind sie zum glück wieder sehr dicht beieinander.

1.) Keiner hat hier gesagt, dass es nicht um den FX8350 geht.
2.) Ja es gab noch i5, i7 und i7 extreme... aber wie viel haben die gekostet? Bis zu 1000€ für einen i7 extreme. Der FX8 war sehr schnell im bereich 160€, das war der bereich der i3. Du vergleichst doch auch keinen Golf mit einer S-Klasse.
 
Mani89HW schrieb:
https://www.computerbase.de/artikel...test.1923/seite-9#abschnitt_leistungsaufnahme also 89w vs 239w wo aber das ganze system gerechnet wird. also mind. das 3 fache an verbrauch.

Sehr einseitig betrachtet!!!
Idle sind es gerade mal 9W Differenz für das gesamt System (siehe Idle-Verbrauch 56W vs. 65W), dafür aber in Multithread-unterstützten Anwendungen mehr als die doppelte Leistung (siehe z.B. Cinebench Mehrkern), wo keine Intel-CPU außer den deutlich teureren i7-Top-Modellen auch nur annähernd mithalten konnte!


Abgesehen davon sollte man bei der Diskussion um den Verbrauch des FX einige weitere Punkte bedenken:

1. Die FX-CPUs hatten ab Werk i.d.R. eine viel zu hoch eingestellte Vcore. Das Undervolting-Potenzial war sehr groß, der reale Idle- und besonders der Maximalverbrauch lagen mit passenden Einstellungen weit unter den Werkseinstellungen!

2. Wenn eine CPU erheblich mehr MT-Leistung hat als z.B. der i3, dann sind Berechnungen viel schneller erledigt, weshalb die CPU wesentlich früher wieder zu den Idle-Werten zurückkehrt, während der i3 noch Vollast arbeitet und somit länger mehr Energie verbraucht. Das gleicht bei div. Berechnungen den Mehrverbrauch wieder aus.


Um es auf den Punkt zu bringen:
Der FX war keine CPU für User, die ihn auf einem Billig-Board mit schwachen Spannungswandlern und mit Boxed-Kühler als Gaming-CPU missbraucht haben, ohne die Vcore runter zu setzen.
Er war aber zu seiner Zeit konkurrenzlos, wenn es darum ging, eine preiswerte CPU mit hoher MT-Leistung auf Mittelklasse-Boards mit Mittelklasse-Kühlern zu realisieren (für Video-Schnitt etc.) und als Spiele primär MT-optimierte Titel wie Battlefield zum Einsatz kamen. ;)
 
  • Gefällt mir
Reaktionen: dome_2395, ghostwalk und NJay
Sound-Fuzzy schrieb:
Um es auf den Punkt zu bringen:
Der FX war keine CPU für User, die ihn auf einem Billig-Board mit schwachen Spannungswandlern und mit Boxed-Kühler als Gaming-CPU missbraucht haben, ohne die Vcore runter zu setzen.
Er war aber zu seiner Zeit konkurrenzlos, wenn es darum ging, eine preiswerte CPU mit hoher MT-Leistung auf Mittelklasse-Boards mit Mittelklasse-Kühlern zu realisieren (für Video-Schnitt etc.) und als Spiele primär MT-optimierte Titel wie Battlefield zum Einsatz kamen. ;)

Das fast es ganz gut zusammen. Und mit diesem Wort zum Sonntag Samstag ist das Thema denke ich geklärt.
 
Es gab da mal son berüchtigtes Form...hüstel...wo man den Leuten in der Kaufberatung meistens hartnäckig einen FX empfohlen/zusammengestellt hat. -Ja, für einen Spiele-PC- Da gabs längst schon Sandy und Ivybridge. Mit den vielen Threads, die doch so zukunftssicher seien wurde dort argumentiert. Und mit Crisis 3 natürlich. Die meisten Beratungsopfer dürften ihr System schon lange entnervt ersetzt haben.
 
Man muss dazu sagen, dass die AMDs heute besser aussehen als zu der Zeit in der sie rausgekommen sind. Die Threads werden deutlich eher genutzt als damals 2012-2015.
Aber ja damals war öfters Mal ein i3 mit der besseren singlecore Leistung in Benchmarks auch Mal vornedran. Wenn man sich die gleichen Prozessoren heute nochmal anschaut sieht das ganz anders aus!
Deswegen finde ich, dass es zumindestens teilweise das Argument von Futureproof durch mehr Threads eingehalten wurde.
AMD kriegt da schon ein wenig zu viel hate für... Vorallem würden sie wegen den Stromverbrauch rechtmäßig bissl verteufelt.
Aber ganz lustig, heutzutage peitscht Intel seine prozzis mit hohen Verbrauch und Temperatur raus.
Bin gespannt wie sehr das Leute heutzutage noch stört?
Ergänzung ()

Aber ja das mit den billow boards.
Hab auch nen Kumpel der hatte ne echte Flamme aufm Mainboard und es wurde alles gegrillt xD
Good Times...
Ergänzung ()

Und das war sogar nur ein 6000er
 
ghostwalk schrieb:
Man muss dazu sagen, dass die AMDs heute besser aussehen als zu der Zeit in der sie rausgekommen sind. Die Threads werden deutlich eher genutzt als damals 2012-2015.
Aber ja damals war öfters Mal ein i3 mit der besseren singlecore Leistung in Benchmarks auch Mal vornedran. Wenn man sich die gleichen Prozessoren heute nochmal anschaut sieht das ganz anders aus!
Deswegen finde ich, dass es zumindestens teilweise das Argument von Futureproof durch mehr Threads eingehalten wurde.
AMD kriegt da schon ein wenig zu viel hate für... Vorallem würden sie wegen den Stromverbrauch rechtmäßig bissl verteufelt.
Aber ganz lustig, heutzutage peitscht Intel seine prozzis mit hohen Verbrauch und Temperatur raus.
Bin gespannt wie sehr das Leute heutzutage noch stört?
Ergänzung ()

Aber ja das mit den billow boards.
Hab auch nen Kumpel der hatte ne echte Flamme aufm Mainboard und es wurde alles gegrillt xD
Good Times...
Ergänzung ()

Und das war sogar nur ein 6000er
welcher hohe verbrauch? mein i7 braucht weniger strom als ein 2700x in games und ist teils schon spürbar schneller mit nem guten monitor
 
Mani89HW schrieb:
welcher hohe verbrauch? mein i7 braucht weniger strom als ein 2700x in games und ist teils schon spürbar schneller mit nem guten monitor
Was hat ein guter Monitor damit zu tun das ein I7 teils spürbar schneller ist? Bitte kläre mich auf...
 
So langsam gehen ihm halt die Argumente aus um AMD allgemein und den FX im speziellen schlecht dastehen zu lassen
 
Das ein 8700K ab und an wirklich "deutlich" schneller ist als ein Ryzen 2700x, gerade wenn CPU Last anliegt, stimmt schon.

Die Aussage mit dem Monitor ist aber richtiger Müll, ich würde das gerne erklärt haben. Ein Monitor hat mit dem Prozessor mal gar nichts zu tun...
 
Vielleicht war AMDs Ansatz damals ja gar nicht soo dumm, wenn man jetzt mal sieht wie viele Probleme in Intels SMT-Implementierung schlummerten ^^.

Aber mal ganz im Ernst: Die Bulldozer waren ein großer Fehler zu der Zeit. Genau wie bei den GPUs hat man bei AMD viel zu früh nur auf parralelisierte Rechenleistung gesetzt. In Multi-Thread Workloads sind die FX auch nicht wirklich schlecht - die meisten Vergleiche beziehen sich aber auf Spiele. Da ist Single-Thread nunmal oft wichtiger (auch heute noch).

Mit Ryzen ist man letztendlich doch eher Intels Entwurf nachgegangen - was offensichtlich auch eine sehr gute Entscheidung war.
 
Das weiß ich selber. Liegt aber auch am höheren Takt des 8700 und der immer noch recht penetranten Optimierung auf Intel-CPUs, aber mit Sicherheit nicht am Monitor.

Und schau dir mal seine bisherigen Beiträge hier im Thread so an.
 
SlaterTh90 schrieb:
Aber mal ganz im Ernst: Die Bulldozer waren ein großer Fehler zu der Zeit. Genau wie bei den GPUs hat man bei AMD viel zu früh nur auf parralelisierte Rechenleistung gesetzt.

Ein evolutionärer Fehler an sich waren sie eigentlich nicht, nur haben eben die Spieleprogrammierer nicht die Chancen der Architektur genutzt, sondern leider primär weiter auf wenige und dafür schnelle Kerne optimiert.
AMD hat sehr früh erkannt, dass man irgendwann nicht mehr beliebig die Leistung pro Kern skalieren kann.
Der einzige Fehler dabei war, dass man zu sehr auf die frühe Mithilfe der Programmierer gebaut hat, welche dann aber so lange ausgeblieben ist, bis die Nutzung mehrerer Kerne unumgänglich wurde... ;)
 
Sound-Fuzzy schrieb:
Ein evolutionärer Fehler an sich waren sie eigentlich nicht, nur haben eben die Spieleprogrammierer nicht die Chancen der Architektur genutzt, sondern leider primär weiter auf wenige und dafür schnelle Kerne optimiert.

Naja es wurde nicht wirklich auf wenige Kerne "optimiert", sondern es wurde nicht auf Multicore optimiert. Ein Programm nur mit einem Thread laufen zu lassen ist einfach, man muss nichts besonderes tun. Ein programm auf Multicore zu optimieren ist hingegend Arbeit und aufwändig. Zusätzlich lässt sich nicht alles gut, bzw. manchmal sogar Dinge gar nicht auf Multicore optimieren.
 
Zurück
Oben