Test AMD Ryzen 2000 im Test: Ryzen 5 2600 in Spielen schneller als Ryzen 7 1800X

MrJules schrieb:
Ich wollte nur darauf hinweisen, dass es eben bei beiden Produkten Punkte gibt, die man, je nach Anwendungszweck, als Schwachpunkt sehen kann. Aber auf den Anwendungszweck kommt es eben an.

Du kannst halt nicht erwarten dass irgendein Fanboy egal welcher Lager einen Negativpunkt seiner CPU mal stehen lassen kann.


Die fehlende IGP ist für Arbeitsrechner auf jeden Fall das Zünglein an der Waage wieso ein Intel eher gekauft wird, das gilt auch für den i7 8700 der nur 270 Euro kostet und quasi gleichschnell wie ein 8700K operiert, da gibts keinen Performanceunterschied.
Nachteil beim i7 8700K ist der fehlende Kühler.

Gibt Vorteile und Nachteile bei jedem System, aber ich denk ned dass die User hier aufn Weg sind das einzusehen.
Die Diskussionen drehen sich im Kreis.

Dark_Knight schrieb:
Also erkläre mir mal, wieso es dir ein so dringendes Bedürfnis ist, darauf extra hinweisen zu müssen, das bei den Intels eine integrierte Grafikkarte dabei ist, und bei den AMDs (Von RR abgesehen) halt nicht?
Es muss ja für dich sehr wichtig sein.

Mit solchen Anfeindungen darf man dann leben.
Was soll daran falsch sein auf die IGPU hinzuweisen? Die kann je nach Einsatzweck sehr nützlich sein.
Kannst du ja wohl kaum abstreiten. Selbst wenn ne GPU mal das zeitliche segnet kann man den Rechner weiter nutzen. Man kann sogar das eine oder andere Game drauf zocken.
 
Zuletzt bearbeitet:
@MrJules

Ich weiß nicht wie man nach Ryzen 1000 und Ryzen 2000 schreiben kann, von Zen2 wird alles abhängen und dann auch noch im gleichen Satz auf Bulldozer zu verweisen, um mal eben zu suggerieren, dass Ryzen 1000 und 2000 nicht wirklich besser/erfolgreicher sind.

Mehr Intel Fanboy geht gar nicht mehr!

AMD hat letztes Jahr Gewinn gemacht und wenn man sich die Verkaufszahlen ansieht, die man einsehen kann, verkauft sich bei CL nur eine einzige CPU gut und das ist der 8700k, alles andere krepst im Vergleich zu Kabylake und Skylake mehr oder weniger vor sich hin.
Da Verkaufen sich die gängigen AMD Ryzen durch die Bank wesentlich besser gerade die Mittelklasse Modelle wie der 1600 und 1600X, auch nach erscheinen des i5 8400 und i5 8600k.
Der i5 8400 liegt sogar wie Blei in den Regalen, genauso der i7 8700 und der i5 8600k nicht wirklich viel besser!

Das einzige was AMD jetzt machen muss ist am Ball bleiben und da sie ZEN2 schon fertig haben und bereits in der Risk Produktion sind, wird da auch nichts mehr schief gehen.
 
Zuletzt bearbeitet:
Dark_Knight schrieb:
Dabei ist AMD eigentlich im CPU Bereich seit Zen erscheinen dies wieder.
Und auch im GPU Bereich ist dies so.

Der GPU Bereich is außer der RX 580 mau.
Du willst doch ned wirklich die Konkurrenzfähigkeit von Zen mit der von Vega vergleichen?

DonL_ schrieb:
@MrJules

Mehr Intel Fanboy geht gar nicht mehr!

Eure Schuldzuweisungen kann doch niemand mehr ertragen.
Bei euch gibts nur Intel Fanboys wenn ihr mit ner Aussage ned einverstanden seit.
Was soll bittschön falsch dran sein. Wird Zen 2 ned gut, tritt auf der Stelle und legt Intel was drauf [15%] und flanscht 2 Kerne an dann kann AMD durchaus wieder zrückfallen.

Das kann schnell passieren. Nach der Corearchitektur wars auch dunkel füa AMD.
Kann natürlich auch Intel passieren wenn AMD nen neuen Athlon auflegt

AMD hat letztes Jahr Gewinn gemacht und wenn man sich die Verkaufszahlen ansieht, die man einsehen kann, verkauft sich bei CL nur eine einzige CPU gut und das ist der 8700k, alles andere krepst im Vergleich zu Kabylake und Skylake mehr oder weniger vor sich hin.

?Woher willst du das wissen?

Das einzige was AMD jetzt machen muss ist am Ball bleiben und da sie ZEN2 schon fertig haben und bereits in der Risk Produktion sind, wird da auch nichts mehr schief gehen.

Und keiner weiß wie schnell ein Zen 2 wird.
Der kann gut oda schlecht werden.
 
Zuletzt bearbeitet:
Sie haben sich an die Miner verkauft wie warme Semmeln, Ertragsmäßig gibt es weder bei Polaris noch bei VEGA etwas zu meckern!
 
Gschwenni schrieb:
Du willst doch ned wirklich die Konkurrenzfähigkeit von Zen mit der von Vega vergleichen?

Du willst doch nicht wirklich behaupten das die direkten Konkurrenzprodukte sich wirklich unterscheiden?

1070 vs. VEGA 56. -> Vega Leistungstechnisch leicht stärker, 1070 effizienter.
1080 vs. VEGA 64 -> Leistungstechnisch ziemlich gleich. 1080 effizienter.

Rein von den UVP sind die AMD Karten sogar nen Tacken billiger. Hier interessiert erstmal nicht was der Markt momentan aus den GPU Preisen macht, da auch die nVidia Karten darunter leiden.

Du suggerierst auch das die Vega Karten nicht mithalten können, stimmt halt grundsätzlich nicht. Leistungstechnisch sind sie ihren Gegenstücken leicht überlegen (56er) oder ebenbürtig. Beim Stromverbrauch wird gerne vergessen das die nVidia Partnerkarten sich in der Regel gerne selbst OC'n und dadurch sowohl die Abwärme als auch der Stromverbrauch steigt.

EVGA gibt für meine 1070 1723 Mhz Boost an, die Karte regelt sich aber selbstständig immer gerne auf 1950 Mhz, allerdings steigt dort auch dementsprechend der Stromverbrauch und der Kühler läuft schneller. Im EVGA Forum wurden sogar einige darauf hingewiesen das sie automatisches Übertakten deaktivieren können, indem in EVGA Precision Boost X der Takt fest eingestellt wird, nachdem jemand im Supportforum festgestellt hat, dass seine Karte deutlich mehr Strom frisst als angegeben.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Du willst doch nicht wirklich behaupten das die direkten Konkurrenzprodukte sich wirklich unterscheiden?

Ich behaupte rein gar nix, wenn dann behauptet Dark_Knight wiedamal Dinge die völlig abseits der Realität liegen.

Dark_Knight schrieb:
Irgendwie kann sich AMD immer erst als Konkurrent auf Augenhöhe erst bei der nächsten CPU etablieren. Und das wird wirklich immer gesagt, wenn eine neue CPU kommt.
Dabei ist AMD eigentlich im CPU Bereich seit Zen erscheinen dies wieder.
Und auch im GPU Bereich ist dies so

AMD is im GPU Bereich ned auf Augenhöhe. Ihr träumt wohl von weiße Weißwürstl.
Zen ist fast ein neuer Athlon, Vega is so ne Art Bulldozer.
Großer Die, monströser Stromverbrauch trotz HBM und ned schneller als ne 1080, ned verfügbar und 1,5 Jahre zu spät.

Vega mit Ryzen auf ne Stufe zu stellen... wie verblendet muss man sein.
Ryzen kann es mit dem 8700K und dem schnellsten HEDT i7 aufnehmen, ne Vega ned mal mit ner 2 Jahre alten Mittelklassekarte und da kommt ganz bald der nächste Nvidia-Schlag.

Vega is abseits von dem Miningquatsch ein Reinfall.


Aldaric87 schrieb:
Du suggerierst auch das die Vega Karten nicht mithalten können, stimmt halt grundsätzlich nicht.

Ich hab nix suggeriert und auch davon gar nix gesagt, also schiebs mir nicht unter!

Leistungstechnisch sind sie ihren Gegenstücken leicht überlegen (56er) oder ebenbürtig.

War bei meiner Aussage alles ned von Interesse.

Beim Stromverbrauch wird gerne vergessen das die nVidia Partnerkarten sich in der Regel gerne selbst OC'n und dadurch sowohl die Abwärme als auch der Stromverbrauch steigt.

Ganz ehrlich, mia alles völlig egal, davon war überhaupt ned die Rede.
Vega kann man ruhig kaufen wenn der Preis stimmt, hab da nie etwas andres gsagt.
 
Zuletzt bearbeitet: (q)
Du bist derjenige der behauptet das Vega nicht Konkurrenzfähig ist. Deine Behauptung ist falsch.


Gschwenni schrieb:
Der GPU Bereich is außer der RX 580 mau.
Du willst doch ned wirklich die Konkurrenzfähigkeit von Zen mit der von Vega vergleichen?

Nichts anderes hat dieser Satz ausgedrückt.
 
Aldaric87 schrieb:
Du bist derjenige der behauptet das Vega nicht Konkurrenzfähig ist. Deine Behauptung ist falsch.

Habe ich nicht, ich habe gesagt dass Vega lange nicht so konkurrenzfähig ist wie Zen.
Das heißt nicht vega ist nicht konkurrenzfähig zu einer GPU aus dem Nvidia Portfolio.
Das ist ein Vergleich zwischen Zen und Vega den Dark_Knight gezogen hat und der ist nunmal falsch.

Nichts anderes hat dieser Satz ausgedrückt.

Drückt der Satz nicht aus.
Lern lesen...
 
Zuletzt bearbeitet:
Vega ist zumindest im High End nicht der Konkurent den alle erhofft haben.
Amd kann nicht glücklich sein ein 484mm2 großen Vega Die mit aufwendigem Interposer mit teurem HBM einem 314mm2 GP104 mit billigem GDDR5 entgegen stellen zu müssen.
Und Kunden freuen sich auch nicht eine Vega mit 300W TDP gegen eine 180W GTX1080 zu stellen.
Vega ist zumindest für den Consumer so gut wiegescheitert und würde sich nur über günstige Preise verkaufen lassen. Im Professionellen Bereich kann das ja durchaus anders aussehen, denn Vega hat viel Rechenleistung.

Zen ist da ein ganz anderes Kaliber. Das Zeigen ja die guten Verkäufe, dass Amd mit Zen sehr viel richtig gemacht hat
 
Zuletzt bearbeitet:
Ich stimme nicht immer mit Gschwenni überein, aber mit Vega hat er größtenteils Recht.....sage ich als Veg64 LC Besitzer ;).

Ryzen hat Nachteile und Vorteile gegenüber Intels CL ...Je nach Anwendungsgebiet oder Vorliebe ist es ein gutes Produkt, dass man Leuten empfehlen kann.

Vega64 kann man nicht ernsthaft einer breiten Spieler-Masse empfehlen...zumindst nicht im Moment.
Vega56 zu einem guten Preis eventuell aber auch da wird es eng.
Die kleinen Vega Chips als integriete Lösungen bei Raven Ridge oder dieser Kollaboration mit Intel sind was anderes, die würde ich empfehlen, weil sie näher an ihrem Sweetspot getaktet sind und nicht genug Leistung haben, dass die DX11 Problematik groß zum tragen kommt.

Ich habe mir eine Vega64 relativ früh gekauft als die Preise noch nicht explodiert waren....trotzdem war sie für die Leistung zu teuer und ich hätte für fast das gleiche Geld eine 1080 TI kaufen können.

Sie läuft weit über ihrem Sweetspot und braucht daher viel zu viel Strom(wenn man nicht undervolted).

Sie hatte immer wieder dumme Treiber Probleme...manche waren im Idle instabil, manche in Spielen, manche wenn man die Fenstergröße verändert hat...wenn man GPU-Z offen hatte.....wenn man Einstellungen verändert hat....FFXV hatte diesen paticle bug, der zwar jetzt ganz ok aber nicht komplett weg ist.

In high level API Spielen rennt Vega viel früher in eine single core Limitierung, was vor allem mit Ryzen CPU schlecht ist, wenn einem der Takt für singlecore Leistung fehlt.

Selbst die LC Version ist für meinen Geschmack viel zu heiß geworden(dafür war sie leise).

Undervolten und Übertakten sind von vielen Ungereimtheiten und Einschränkungen erschwert(wobei man immer noch viel besser dran ist als mit neueren Nvidia Karten....aber es könnte deutlich besser sein)

Es ist oft unfair von Nvidia, wie sie mit Gameworks und anderer Einflussnahme auf Spieleentwickler ihre geheimcode Effekte und DX11 in die Spiele bringen und damit AMD Steine in den Weg legen......aber so ist es halt und Vega leidet oft darunter wie man z.B. an FFXV sieht.

Egal warum und wessen Schuld das ist.....Vega läuft eben über viele Spiele gesehen unzuverlässig gut, wo Nvidia immer gut ist.

-------------------------
Warum habe ich trotzdem eine gekauft obwohl ich die vielen Nachteile kannte?

Ich bastle und entdecke gerne! ;)

Und Vega bietet viel zu entdecken....eine ganze Reihe neuer Ideen und Funktionen, die zwar nicht alle funktionieren oder unterstützt werden aber AMD versucht eben sehr viel auf einmal um irgendwie Anschluss zu halten.

Undervolen und Übertakten musste man erst lernen und entdecken, aber dafür kann man sehr viel rausholen und hat tolle Erfolgserlebnisse.

Sie hat ja auch ordentliche Leistung und ich muss für mein Ego nicht alle Regler nach rechts stellen....solange ich also nicht wegen schlechter DX11 Umsetzung(oder generell schlechter Spieleprogrammierung) begrenzt bin, erreiche ich ein extrem flüssiges Spielgefühl.

Und inzwischen ist der Treiber stabil und es läuft mit undervolting +HBCC OC sparsammer und minimal schneller als Stock.

...aber nur weil mir Vega gibt was ich möchte, würde ich sie trotzdem (wie ich Gschwenni verstanden hatte) als nicht konkurenzfähig einschätzen.
AMD kann froh sein, dass die Miner die Karten wollen, denn bei der riesen GPU+HBM2+teure Stromversorgung, wären sie zu konkurenzfähigen Preisen(für Gamer) höchtwahrscheinlich ein Verlustgeschäft.
 
Zuletzt bearbeitet:
BestinCase schrieb:
Naja AMD hat es jedenfalls geschafft, dass viele sich nicht mehr ganz sicher sind, ob sie einen Intel sprich den 8700k nehmen sollen, obwohl der für Games besser ist. Viele lassen sich davon verunsichern, dass 6/12 in Kürze nicht mehr reichen.
[...] ob x470 oder x370 auch völlig unklar. Warum soll man ein ausgereiftes Produkt einer Beta Lösung vorziehen? Ich denke man kann mit dem 8700k das solidere Produkt und das warten geht weiter auf Zen2. ;)
[...]

Ich für meinen Teil bin 0 verunsichert. Ich bin weit entfernt von klinischen Umgebungen und brauche Threads für meine Schandtaten....es läuft immer mehreres neben dem Spiel. Ob x370 oder x470 ist eher eine Luxusfrage. B350.

Warum soll man ein Produkt, das ewig mit Z370 aka Z270 Chipsatz verkauft wurde als ausgereift bezeichnen? Ob Z370 oder Z390 ist also völlig unklar ( mal deine Logik fortgesetzt)

Dann nimm das, deiner Meinung nach solidere Produkt.
(Keine Ahnung was ein Aktienkurs einer Aktiengesellschaft hiermit zu tun hat? Intel ist nicht mehr die Nummer 1 bei den Halbleiterherstellern. Besser nicht mehr kaufen, wa?)
Ergänzung ()

MrJules schrieb:
1. Kann eine iGPU sehr sinnvoll sein, wenn die GPU mal versagen sollte.
da kann ich auch die alte Graka ausm abwrack PC in den Schrank legen und bei Bedarf wieder raus kehren. Es reichen ja schon uralte, total lansgame GPUs um ein Bild zu bekommen.
Idr hat man auch eine dedizierte GPU verbaut, weil man die Leistung benötigt.
Ergebnis mit IGPU und defekter dedizierter GPU => Bild aber nicht die benötigte Leistung
Ergebnis ohne IGPU und defekter dedizierter GPU => kein Bild und nicht die benötigte Leistung


MrJules schrieb:
3. Gibt es die iGPU eben NUR bei Raven Ridge. Für einen Hochleistungs-Anwendungsrechner also nicht.
Ich bin mir nicht so sicher aber der i7 8700k ist jetzt auch nicht die CPU für "Hochleistungs-Anwendungsrechner" Ich dachte beides sind hier eher Consumer Produkte... und Xeons haben IGPUs...erm ja natürlich..(not)

MrJules schrieb:
6. Geht es (zumindest mir) hier nicht darum, irgendjemandem für irgendwas den schwarzen Peter zuzuschieben. Bei dem einen fehlt dies, bei dem anderen das. Das wird man doch wohl ansprechen dürfen, ohne dass gleich Kommentare kommen nach dem Motto: Braucht man doch eh nicht.
uh andere Meinungen..ganz bös;)
MrJules schrieb:
7. Am tollsten ist immer, wenn alles nur auf's Spielen bezogen wird, als ob man mit nem PC nix anderes machen könnte.
Henkel anschrauben und wegschmeißen.
 
Zuletzt bearbeitet:
Gaugaumera schrieb:
Vega ist zumindest im High End nicht der Konkurent den alle erhofft haben.
Amd kann nicht glücklich sein ein 484mm2 großen Vega Die mit aufwendigem Interposer mit teurem HBM einem 314mm2 GP104 mit billigem GDDR5 entgegen stellen zu müssen.

DingDongggggg

Schau mal, Wir haben fast Mai 2018
Und bis heute Versteht hier fast Keiner dass VEGA und PASCAL nicht High-End sind.
Sie sind es einfach nicht. Sie werden es auch nicht wenn man 1000x Schreibt dass sie High-End sind.
Es wird nicht richtiger! Es wird nur immer Falscher!

Vega und Pascal sind KEINE High-End Chips!!
Sie waren niemals dafür gedacht!
NV hat es so geschickt angestellt, dass Leute nun Glauben Pascal sei der High-End Chip obwohl die Preise vom Mid-Range einfach Hochgeschraubt wurden zu High-End
High-End Preise heisst nicht Automatisch High-End Chip!
Die Preise Suggerieren uns High-End. Die Chips bleiben aber Mid-Range!
Siehe News, Tests, Kommentare aus Jan-Feb-Mrz-Apr 2016 als man über Pascal geschrieben hat!

Meine Vermutung liegt was iGPU betrifft so, Dass AMD erstmal in die Gewinnzone kommen musste. Vega eine extreme Ausbeute hat und dann evtl. auch als "kleinstableger" in Zukunft in die CPU's kommt ebenso wie bei Intel. Es könnte durchaus sein dass Alle Ryzen 3000 Modelle mit einer iGPU kommen. AMD Weiss, dass iGPU's einem manchmal den ***** Retten können UND dass dieser bei den Jetzigen Modellen Fehlt.
 
Zuletzt bearbeitet:
Excel schrieb:
Hier bei THG steht was dazu.
Ryzen scheint bei Spielen erfreulich energieeffizient zu sein, gerade im Gegensatz zum direkten Konkurrenten.

Jein. Der Verbrauch dürfte sich dem 8700k ähneln. Im Test von Golem steht dazu folgendes:
Auch wenn AMD das 12LP- statt des 14LPP-Verfahrens nutzt, die gestiegenen Frequenzen des Ryzen 7 2700X haben ihren Preis: Effizient ist der Chip zumindest unter Volllast nicht.

Dem schließt sich Computerbase an. Spiele brauchen naturgemäß seltener bis nie Volllast im Vergleich zu Blender und der 2700x hat ebenso keine kritischen Temperaturen. Das hat mit Effizienz allerdings nichts zu tun, er braucht 50 Watt mehr.

In diesem Zusammenhang ist es erneut sehr interessant, dass der Torture Loop bei THG nur knapp 105 Watt Verbrauch ausgibt, wo andere Tests 195 angeben (Last auf allen Kernen bei 4+GHz, im Vergleich der 8700k bei 159 Watt was grob den Werten in anderen Tests entspricht). Bei zwei Kernen und 4 Threads mehr sowie höherer TDP schon komisch!?

@-Ps-Y-cO-

Ist grundsätzlich nur eine Frage der Definition von High End.
 
Zuletzt bearbeitet:
Zur leidigen "IGP" diskussion...wenn dann sollte man hier halt auch sinnvoll vergleichen.

Wenn einem die IGP wichtig ist sucht man sich nicht einen 2600X oder so sondern die Passende CPU von AMD, den 2400G z.B.

Dann vergleicht man:

Der i5-8400 mit IGP kostet 160€:
https://www.computerbase.de/preisve...&xf=1133_Core+i5-8000~12114_Coffee+Lake~5_IGP

Der AMD mit IGP (2400G) kostet 130€
https://www.computerbase.de/preisvergleich/?cat=cpuamdam4&xf=1133_Ryzen+5+2000~12100_Ryzen~5_IGP

der 8400 ist dabei aber auch ca 25% schneller (absolut) dafür dreht die IGP des 2400G Kreise (250% Leistung der intel IGP) um die IGP des intel.
https://www.computerbase.de/2018-02...t_die_leistung_der_integrierten_grafik_update

Wenn die IGP also ein Kaufgrund ist und noch zu was anderem gut sein soll als nur ein Office fenster auf den Screen zu zaubern dann (also wenn die IGP als solche wirklich wichtig ist).

Dann ist hier AMD mehr als doppelt so schnell wie Intel. Das bisschen CPU-Leistung das man weniger hat spielt hier nur wenig eine Rolle.
https://www.computerbase.de/2018-02...t_die_leistung_der_integrierten_grafik_update

Generell hab ich zwar aktuell in den Benchmarks eine 25% Mehrleistung des Intel - aber der 2400G hat eigentlich 8T - das kann langfristig also noch durchaus dazu führen dass die 25% aufgefressen werden (oder eben in entsprechend multi-thread fähiges Anwendungsszenario)

Ich glaube nicht dass jemand die top-CPU 8700 mit oder ohne K nimmt um die IGP zu nutzen. Aber gut es mag ein paar Promille, Kundenszenarien geben wo dies Sinn macht und man sich dann die 30€ Aufpreise für eine low-end GPU sparen (kann).

Btw. back to Ryzen 2700X - es kann sein dass ein AGESA Update hier nochmal ein paar Prozentchen-Leistung rausholt:
https://www.phoronix.com/scan.php?page=article&item=ryzen-2700x-bios&num=1
 
Ich finde den Speicher Nachtest sehr gut, wurde der Intel auch mal mit den DUAL Rank Modulen betrieben? Wenn hier einer noch einen guten Test mit dem 2600x @ optimierte sub Timings vs 8700k hat, würde ich mich über einen Link freuen.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Vega mit Ryzen auf ne Stufe zu stellen... wie verblendet muss man sein.
Ryzen kann es mit dem 8700K und dem schnellsten HEDT i7 aufnehmen, ne Vega ned mal mit ner 2 Jahre alten Mittelklassekarte und da kommt ganz bald der nächste Nvidia-Schlag.

Aha. Jetzt ist die 1080ti also schon Mittelklasse und zwei Jahre alt. ;-)
GeForce GTX 1080 Ti March 10, 2017

Und der schnellste i7 interessiert als Vergleich übrigens kein Stück, wenn der schnellste i9 der Maßstab wäre, wenn man schon HEDT Vergleichen will. Threadripper 2nd Gen ist noch nicht erschienen und mit dem i9-7980XE hat Intel dann 2-Kerne mehr als die AMD Threadripper Konkurrenz.
Ergänzung ()

Übrigens, dedizierte GPUs gibt es ab 20€ und ab 30€ die sind dann auch noch schneller als die Intels. ;-)
 
xexex schrieb:
Da ALLE AMD CPUs mit einem Kühler ausgeliefert werden, ist der Markt für so einen Kühler praktisch irrelevant. Wer kauft sich für 35€ einen "original AMD" Kühler, wenn er für 25€ den häufig genannten "Ben Nevis" haben kann oder für wesentlich weniger Geld noch zig andere?

Frag das mal den Typen der auf Ebay meinen Wraith Spire LED für 25€ + Versand gekauft hat. 35€ halte ich allerdings auch für unrealistisch, vor allem wenn man für 8€ mehr einen Noctua NH-D14 Special PWM Edition aus dem offiziellen Noctua Ebayshop, inklusive Versand bekommt.

Mal davon abgesehen sind die Wraith Spire echt brauchbare Kühler, hatt damit sogar moderates OC am laufen. Ich habe ihn lediglich gewechselt, weil ich sehr günstig an o.g. Noctua gekommen bin.
 
Zuletzt bearbeitet:
Ich frage nochmal, weil ich glaube es ging unter :-)

Welches BIOS habt ihr für eure Tests auf dem Asus ROG Crosshair VI (X370) für den 2700X verwendet?
Ich kanns im Artikel nicht finden.
BIOS 0505.
Das steht so auch hier, wenn auch nicht ganz so direkt: https://www.computerbase.de/2018-04/amd-ryzen-2000-test/3/
:D

Noch eine Frage zu den Ergebnissen:
Der Test auf Andatech fand glaube ich als einzigster nur mit Ramspeed nach Herstellervorgabe statt, Intel/2666mhz AMD/2933mhz, oder?

Können dass, abweichenden Ergebnisse zu anderen Tests erklären?
Auch wenn ich mich eigentlich nicht zu Tests von Kollegen äußere: Selbst AMD stuft den Ryzen 7 2700X in Spielen knapp unter dem Core i7-8700K ein. Dann sollte wohl klar sein, dass bei den Anandtech-Benchmarks etwas komisch ist. Und Tests mit Ram-Geschwindigkeit nach Herstellerangaben...hat das nicht jeder gemacht?

Des Weiteren hat Anandtech wohl Precision Bosst Overdrive aktiviert gehabt, im ASUS BIOS unter "Core Perfomances Boost" zu finden. Zuerst dachten sie es sei ein Übertaktungsspielzeug. Als sie festgestellt haben, dass es das o.g. Feature ist, haben sie alle Benches nochmal neu gemacht. Weiterhin war bei Intel HPET (und AMD?) aktiviert, was wohl bei einigen Spielen für perfomanceeinbußen sorgen kann. So habe ich das bis jetzt verstanden.
Precision Boost Overdrive ist derzeit immer deaktiviert. immer. Denn das Feature ist noch gar nicht fertig. Man kann kann es noch gar nicht anschalten. Steht so auch bei uns im Test. Core Perfomances Boost ist etwas anderes.

Precision Boost Overdrive ist das einzige Feature, was speziell für X400er Boards gemacht ist, daher ist es auch nicht möglich, dass auf 300er Boards diese Funktion enthalten ist. Da Precision Boost 2 aber auf jeder 2000er CPU auf jedem Board läuft, kann es das nicht sein.
Nehmt es mir bitte nicht übel. Aber warum schreibe ich überhaupt etwas in dem Test und mache nicht nur Diagramme?:D Precision Boost Overdrive wird, wenn es denn mal fertig ist, auf jedem AM4-Mainboard technisch funktionieren, unabhängig vom Chipsatz. Wenn es vom Mainboardhersteller freigegeben wird.

Ich würde sagen nein, da CB ja ohne PB Overdrive getestet haben und nur 1% Mehrleistung durch Allcore OC auf 4,3Ghz erzielt haben.
Höchstens in Anwendungen könnte hier etwas mehr rauskommen, allerdings wären das auch nicht mehr als 3-4%
Jeder hat ohne Precision Boost Overdrive getestet. Das funktioniert noch gar nicht.

@Computerbase: Könntet ihr angesichts der aktuellen Diskussion um divergierende Testergebnisse bitte noch angeben, wie eure BIOS-Einstellungen zu "Multi-Core Enhancement" auf Intel Boards und "Core Performance Boost" bei AMD waren?
Die Einstellungen stehen so, dass sie den Vorgaben von AMD beziehungsweise Intel entsprechen. Multi-Core Enhancement sowie Core Performance Boost machen zudem zwei ziemlich verschiedene Dinge, auch wenn sie vielleicht ähnlich klingen.

@CB Danke für den Test mit dual ranked vs. single ranked....aber warum werden immer die Subtimings auf Auto gelassen?

Mir ist klar, dass das einstellen dieser aufwendig ist, aber wenn ihr wirklich verlässliche Daten zu dual vs single ranked wollt, müsstet ihr gleiche Chips und Timings verwenden.....ihr habt doch früher 3200 cl15er dual ranked genutzt warum jetzt nicht?
Das müsste auch erstmal laufen. CL15 gibt nur einen Black Screen. Ryzen 2000 mag halt immer noch keine Hynix-Chips. Und die Subtimings manuell zu optimieren, würde Stunden dauern.

Hattet ihr im Ryzen1 Test auch 16GB gegen 8GB gebenched?
Da man ohne Vollbestückung von SR-Speicher nicht dieselbe Kapazität erreichen kann, muss das so gewesen sein. Erinnern kann ich mich aber nicht mehr.

Ist 3200 CL14 genau so schnell in Spielen wie 3466 CL15 oder 3600 CL16 mit dem 2700X?
3600 CL16 läuft ja laut eurer Aussage im Test, aber halt mit 1,4V.
Da wirds halt sehr schnell sehr zeitaufwendig. Das ist vielleicht mal ein Thema, für einen späteren, separaten Artikel.
 
Zurück
Oben