News AMD Ryzen: Magazin veröffentlicht Test-Vorschau mit Prototyp

SKu schrieb:
Ich frage mich, was die Leute hier mit einem 8C/16T für Spiele wollen. Ein kleiner Teil der Spiele, ein sehr kleiner Teil davon, profitiert von mehr als vier Kernen. Aber selbst ein BF1, dass von mehr als vier Kernen profitieren kann, läuft absolut butterweich auf einem 4C/8T.

Ich vermute die meisten hier hoffen auf eine Art zweite Sandy die mit 5 Jahren auf dem Buckel immer noch schneller ist als aktuelle i5 und mit OC auch dem 6700k auf Standardtakt gefährlich nahe kommt, da wären 8 Kerne natürlich durchaus förderlich, falls sich die Entwicklung von BF1 durch die neuen Spiele zieht.
Und vielen, mich eingeschlossen geht es vermutlich einfach gegen den Strich nach eine 5 Jahre alte CPU durch eine mit gleicher Kernzahl zu tauschen, ich will auch mindestens 6 Kerne ;)
 
Zotac2012 schrieb:
Nein! Ich weiß gar nicht, ob AMD Grafikkarten etwas ähnliches nutzen wie CUDA, das man zum Rendern einsetzen kann, ich glaube nicht. Alternativ gibt es ja auch noch Quicksync, was man mit der iGPU nutzen kann. ;)

Nvidia hat sich marketingtechnisch gut mit Ihrer Technologie vermarktet.

Es gibt auch einen OpenGL Renderer, der die Grafikkarte nutzt.
 
SKu

Die interessanteste Version wäre ein fiktiver 6 Core mit 12 Threads sein, falls dieser kommt. Falls nicht, wird es ein 8 Core sein. (bei vielen war es bei AMD der FX 8320 + OC, falls man ein AMD genommen hat)
Der Grund ist einfach, durch die größere Verbreitung, wird es schneller Games geben, welche 6-8 Threads ausreizen können, bzw die kommenden API bestärken das. Einige Spiele können ja sogar bis 12 Threads schon gut belasten. Man muss real bleiben, dass viele nebenbei oft noch weitere Programme laufen haben, manche sogar Aufzeichnungen machen oder sonstige Nebenprogramme laufen haben. Deshalb wäre eigentlich ein 6 Core für etwas mehr Threads sicherlich vorteilhaft.
Auch liest man oft dass ein Dual Core für Office und Co völlig ausreichend ist, wären dann nicht die ständigen Windows 8 Updates im Hintergrund, von dem man selten was in diversen Tests liest.

Natürlich könnte man bei Bedarf dann in 2 Jahren auf Zen+ weitergehen, aber eigentlich will man mit einer CPU einfach lange fahren, außer es ist ein großes Hobbie und man muss das "willHabenGefühl" lindern.

Meiner Ansicht macht es AMD schon richtig, dass man die TDP auf 95 und 65 Watt einstellt und offensichtlich will man den Kunden ähnlich wie bei den GPUs Profile anbieten, wo man schnell und einfach ihre Prozessoren übertakten oder undervolten ect kann. Ich glaube, dass wir sowas bei Tests sehen werden und durchaus was zum Gesamtbild beitragen wird.
AMD weiß, dass ihre große Schwäche Single Thread Performance bei Bulldozer war, deshalb werden sie dementsprechend auch an dem Turbo gearbeitet haben. Es wird sich eben erst zeigen, wie erfolgreich sie dabei waren. (Speziell muss man bedenken, dass beim Turbo seit Bulldozer bis Excavator schon einiges getan hat)
 
Zuletzt bearbeitet:
Ich finde es sieht gar nicht so schlecht aus. Zumindest scheint hier AMD doch kräftig aufgeholt zu haben. Ob sie mit der CPU gleichziehen oder gar an Intel vorbei ziehen bleibt abzuwarten. Wichtiger finde ich aber, dass damit auch wieder eine konkurrenzfähigere Plattform geschaffen wird. Wirklich Neues gab es bei den AMD Mainboards in den letzten Jahren nicht. Und da wird sich demnächst ja auch wieder etwas tun.

Für mich wird es zwar kein Grund zum Aufrüsten geben, da es zu meinem I7 6700k kein wirkliches Update wäre. Zumindest würde die Kosten eine Plattformwechsels in keinem Verhältnis zum Performancegewinn (sofern es einen geben wird) stehen. Aber für viele die ältere Systeme ihr eigen nennen, wird das wohl auch eine sinnvolle Alternative sein können. Und Alternativen zwischen denen man sich entscheiden kann, werden dem Markt richtig gut tun.
 
Arschgaul schrieb:
Ich habe vor einer Woche geschrieben, dass Intel genau wisse, warum sie den Kabylake mit nur so wenig Leistungssprung raushauen. Einfach weil sie genau wissen, dass von AMD in der Region keine Gefahr ausgeht. Ich wurde ausgelacht... :rolleyes:

und noch immer lachen dich die leute aus mit dieser aussage
noch weis wahrscheinlich noch nichtmal amd selbst wie der takt am ende aussehen wird
ipc von kabylake ist nicht besser als die von skylake
 
immortuos schrieb:
Ich vermute die meisten hier hoffen auf eine Art zweite Sandy die mit 5 Jahren auf dem Buckel immer noch schneller ist als aktuelle i5 und mit OC auch dem 6700k auf Standardtakt gefährlich nahe kommt,...
Es hat sich ja auch kaum was getan seit Erscheinen vom Sandy.

Übrigens reicht selbst noch ein (schneller) PhenomII aus 2009 für ein Großteil der aktuellen Spiele (von der Leistung her, nicht vorhandenen Befehlssatz außen vor), wenn man nicht den neuesten "Triple-Kommerz-A Shooter" (oder wonach die A's auch immer gewertet werden) spilen möchte.
Der selbe Zeitraum entspräche von einem Pentium 133 (1995) auf einem Athlon XP 2800+ (2002). Und welche Spiele aus 2002 konnte man mit einem Pentium 133 noch spielen?

Nvidia hat sich marketingtechnisch gut mit Ihrer Technologie vermarktet.
Und CUDA Nvidia-typisch mal wieder proprietärer Mist ist...
Aber gut, da es ohnehin schlechtere Bildqualität bringt, kann man getrost drauf verzichten.
 
Zuletzt bearbeitet:
drSeehas
Ja ein paar 10er Potenzen zu wenig :D
 
Zuletzt bearbeitet:
immortuos schrieb:
Ich vermute die meisten hier hoffen auf eine Art zweite Sandy die mit 5 Jahren auf dem Buckel immer noch schneller ist als aktuelle i5 und mit OC auch dem 6700k auf Standardtakt gefährlich nahe kommt, da wären 8 Kerne natürlich durchaus förderlich, falls sich die Entwicklung von BF1 durch die neuen Spiele zieht.
Und vielen, mich eingeschlossen geht es vermutlich einfach gegen den Strich nach eine 5 Jahre alte CPU durch eine mit gleicher Kernzahl zu tauschen, ich will auch mindestens 6 Kerne ;)

Wenn ich mir recht entsinne, konnte damals schon Bad Company 2 von mehr als vier Kernen profitieren. Sicherlich, eine CPU mit mehr Kernen ist mit Sicherheit der bessere Allrounder, wenn man auch Software hat, die davon profitieren kann. Mir persönlich ist es allerdings egal, ob die CPU vier Kerne, acht oder 20 hat. Hauptsache sie liefert mir die Leistung, die ich benötige. Und da reicht auch ein 4C/8T in Battlefield aus, um ausreichend FPS gewährleisten zu können.

Deshalb hoffe ich, dass Ryzen nicht beim Takt spart. Dann habe ich beim nächsten Upgrade nicht nur Intel als Wahl, sondern auch AMD. Ryzen wird sich für mich mit einem 6700K nicht lohnen. Da werde ich mit Sicherheit Zen+ und Coffee Lake abwarten müssen, bis da ein Umstieg wieder ansatzweise lohnenswert sein wird.

Es sei denn, die Entwickler würden auf einmal immer auf mehr Kerne setzen. Aber bevor da Intel nicht ihre Hexacores für den Mainstreambereich bringen wird, sehe ich das noch nicht für die Mehrzahl der Spiele.
 
Zuletzt bearbeitet:
SKu

Ich glaube der Athlon II ab 100 Euro und nach 1 Jahr sogar unter 100 Euro, war einer der verbreitesten K10 Prozessoren und hat sicherlich neben dem Q6600 (welcher auch billiger geworden ist dadurch) den Marktanteil der 4 Thread Prozessoren zu der damaligen Zeit stark vergrößert, was durch den i3 ( i5, welche aktuell in den meisten Gaming PCs zu finden sind) dann auch noch verstärkt wurde.
Man muss bedenken, dass Zen APUs auch noch das Jahr kommen, welche 4 Cores mit SMT und GPU haben sollen. Somit kommen auch 4 Kerne in den unteren Mainstream-Bereich. Sprich 8 Threads wird immer mehr verfügbar sein, sodass die Entwickler immer mehr ihre Games auf mindestens 4-8 Threads optimieren können.
Klar wird nicht von heute auf morgen passieren. Ich erinnere mich nur damals zu Phenom I Zeiten, wo man unbedingt den Dual Core nehmen sollte, da die meisten Games eh nur auf 1 Thread liefen.

Wenn man aber etwas aus damaliger Zeit gelernt hat, dann, dass man zwar auf Multi-Thread setzten kann, falls man den Prozessor länger haben möchte, die Taktrate (und Verbrauch) dafür aber auch passen müssen.

Das muss Zen dann nun bald beweisen. Je nachdem denk ich, kann man dann zwischen 4-8 Threads entscheiden.
 
Zuletzt bearbeitet:
Vindoriel schrieb:
Und letzendlich x64 ist (solltest mal Deinen verlinkten Wiki-artikel selber lesen). Dass es eine Erweiterung (sonst wärs völlig inkompatibel) ist, wusste ich bereits, als der "Hammer" im großem Munde war.

Das heißt also, es gibt kein x64?

Merkst Du eigentlich, was Du für widersprüchlichen Bullshit schreibst? Insbesonders in Post 153 muss Einiges klargestellt werden.
Alter kannst du dich mal im Ton mäßigen? Ich bin kein Chipentwickler und kann auch nur das weitergeben was in Wikipedia steht. Diese Anfeindungen gehen mir aufn Sack.. Anstatt rumzukeifen. Ja X64 ist eine Erweiterung, du weisst aber dass eben grade im Bereich der SoCs native X64 Design derzeit kommen, also keine X86 basierten Designs.. Und genau DAS sagte ich.. Nämlich dass ARM und X64 SoCs das Thema bald beenden Werden.. MS hat Windows nun auch dafür freigeben und es ist eine Frage der Zeit.
AMD hat übrigends nur die AMD64 Erweiterung "erfunden", denn diese Gabs schon früher in 64Bit Systemen
https://de.wikipedia.org/wiki/64-Bit-Architektur

Zu deiner Diskussionsqualität mit anderen Menschen kann ich dir nur sagen: Mäßige deinen Ton, und stell es richtig oder LASS es!
@Pipip: Tschuldige doch ich weiß was gemeint ist, aber du sagtest es ja schon.. derteit trägt man Altlasten mit. Naja wenn es kein AMD64 gäbe müsste man das wohl oder?
 
pipip schrieb:
SKu

Die interessanteste Version wäre ein fiktiver 6 Core mit 12 Threads sein, falls dieser kommt. Falls nicht, wird es ein 8 Core sein. (bei vielen war es bei AMD der FX 8320 + OC, falls man ein AMD genommen hat)

Aber sind die Bullzoder 8-Kerner mit ihrer Modulbauweise nicht auch näher an 4C/8T als an echten 8-Kernern?

Somit dürften die Zen 4-Kerner vergleichbar mit den alten AMD 8-Kernern sein, nur mit wesentlich besserer IPC
 
SKu schrieb:
Hauptsache sie liefert mir die Leistung, die ich benötige. Und da reicht auch ein 4C/8T in Battlefield aus, um ausreichend FPS gewährleisten zu können. Ryzen wird sich für mich mit einem 6700K nicht lohnen.

Genauso seh ich das auch. Es wird immer für die Masse produziert. Also was Games angeht wird auch in den nächsten Jahren ein 4 Kerner mit 8 Threads ausreichen. Anwendungssoftware ist da eine andere Baustelle. Da dürfen es gerne mehr Kerne/ Threads sein.
Ein Umstieg wird sich für dich nicht lohnen, wenn du schon einen 6700k hast. Warum auch.
Nicht nur deswegen ist wichtig was der 4 Kerner leistet. Der hat auch 8 Threads und damit kann man auch die Spiele/ Anwendungen abdecken die von mehr als 4 Kernen profitieren. Es wäre schon wenn der höher takten würde als die 3,4 GH. Am besten wären 4.0 GH.
Die großen Publisher werden auch keine Spiele rausbringen die min. 8 Threads vorraussetzen. Die produzieren immer für die Masse und richten sich nach den Steam Erhebungen z.B., was die Gamer so für Hardware haben.
Alles andere wäre Selbstmord für die.
 
Zuletzt bearbeitet:
Taxxor

Was ich damit sagen wollte, ist einfach, dass viele den FX 6300 genommen haben, weil es kaum einen Unterschied zu den 4 Modul Prozessor gegeben hat, speziell wenn man ihn OC hat. Oder dass man eher den günstigeren FX 8320 genommen hat, weil man diesen sowieso übertaktet hat.
Den FX 8350 hat man eher genommen, wenn man das Übertakten gelassen hat oder etwas höhere Taktrate erhofft hatte.

Ein direkter Vergleich Zen Bulldozer sollte das nicht sein. Nur wieso ich mir einen 6 Core Zen erhoffe, weil dieser für mich einfach ein guten ausgewogenen Eindruck macht und ich gerne einen Mittelweg suche, der zu meinen Anforderungen passt. Klar hat jeder andere Bedürfnisse.
 
pipip schrieb:
Zotac2012
Ich verstehe nicht wieso du überhaupt CUDA und dann noch Quick Sync ins Spiel holst, außer du willst jetzt wirklich mit der Kritik kommen, die CPU habe kein GPU, was bei den Intel CPUs aber seit Jahren angeprangert wurde, wieso man diesen "Ballast" doch habe, da man ja eh eine Gaming-Grafikkarte im PC hätte. Des weiteren hat AMD auch VCE (gegenstück zu Quick Sync und NVENC) und wenn man es genauer betrachtet, ist CUDA auch nicht älter als ATIs damalige Lösung der ATI Stream Prozessoren mit ihrer "Metal" Schnittstelle, oder wie diese damals hieß.
Leider alles falsch und Nein ich will nicht mit der von Dir unterstellten Kritik kommen. Es ging einzig und allein darum, das der AMD RyZEN was das Rendern betrifft sehr gut Performt, vor allem auch durch das Multithreading [SMT]. Da ich ja nur einen i5 ohne HT habe, ist für mich ein Renderer der CUDA nutzt, so das ich mit der CPU und der Grafikkarte rendern kann, eine enorme Erleichterung und Zeitersparnis. Und da ich gefragt wurde ob CUDA auch mit AMD funktioniert, habe ich dies verneint, aber mitgeteilt, das es ja noch ein Option gibt von ®intel, mit Quicksync. Nur darum ging es, hätte man aber auch verstehen können, wenn man gelesen hätte, was geschrieben wurde.


BigDadda schrieb:
Es gibt auch einen OpenGL Renderer, der die Grafikkarte nutzt.
Und kann man den für beide Grafikkartenhersteller nutzen [AMD u. Nvidia] und lässt sich dieser ohne weiteres in Tools wie MeGUI oder XMedia Recode einbinden und zum Rednern von Videos verwenden, wenn ja würde mich interessieren ob dieser Open GL Renderer kostenfrei ist und wie dieser heißt. Ob das jetzt Nvidia Marketing technisch gut vermarktet mag sein, auf jeden Fall ist das für mich eine feine Sache, da ich ja nur einen i5 4690K 4.Kerner habe ohne HT. Da ich ja auch viel mit Videos arbeite, ist das Rendern mit CPU und Grafikkarte schon eine feine Sache und bringt deutliche Zeitersparnis.;)
 
Der despektierliche Umgang untereinander nimmt hier unentwegt zu, so gut die Berichte/Reportagen in der CB auch sein mögen, so miserabel/negativ hat sich dieses Forum entwickelt!
 
@Zotac2012

Rendern mit Cuda hat aber deutlich schlechtere Qualität als Rendern auf einer CPU. Wenn es du nicht so fein arbeiten willst ist es dir geschenkt, nur hat CPU-Rendern definitiv seine Berechtigung, ist sogar eigentlich das einzig wahre Rendering.
 
Zotac2012

Ich habe mein Kommentar oben ausgebessert und entsprechende Zeilen noch mal raus genommen. Es sollte aber klar sein, dass diese Tests eigentlich eher dem Vergleich dienen und dann nebenbei die Anwender-Sicht. Wozu ein Chip taugt, zeigen ja erst dann diverse Tests. Klar stellt sich immer die Frage in welcher Qualität man ein Bild benötigt und in welcher Zeit, somit ist sicherlich Cuda oder sonstige Technik nicht schlechter, besser ect.

Man versucht hier einfach mit den Tests hier Vergleiche zu einem anderen Prozessor zu ziehen.
 
Zuletzt bearbeitet:
Zurück
Oben