News Dokument bestätigt Taktraten von AMDs Vishera-CPUs

Tomahawk, AMD vertritt eben die Meinung, dass Software mehr parallelisiert werden sollte und auch wird. Darauf baut das Modul und APU Konzept auf. Und das trifft auch eigentlich schon heute großteils zu. Da wo man wirklich performance braucht, und das ist nicht itunes oder der Browser, werden auch mehr als 4 Kerne beansprucht. Für Videorendering ist der 8120 ja auch sehr gutes P/L Verhältnis
 
mehr kerne bei weniger takt sind viel effizenter! Was kann so schwer daran sein in mehr als einem halben Jahrzehnt endlich multithreaded zu entwickeln!?
Na los, werde Programmierer, dann siehst du, wieso einige Dinge sich kaum parallelisieren lassen. Ein einfaches Beispiel: Du hast eine Schleife, die ganz häufig aufgerufen wird (einige Millionen Male) um dann einige einfache Berechnungen durchzuführen, die dann in einer Variable gespeichert werden und dann beim nächsten Schleifendurchlauf gebraucght werden. Wie willst du hier einfach(!) etwas auf zwei Instanzen aufteilen?

Da wo man wirklich performance braucht, und das ist nicht itunes oder der Browser, werden auch mehr als 4 Kerne beansprucht.
Absolut. Dafür gibt es Workstations, Server und Großrechner. Also zielt dir zu Folge der BD gar nicht auf den normalen Consumer, der kaum so viel Perfromance braucht (iTunes, Fotos bearbeiten etc.), sondern auf Anwendungen, dir richtig Perfornamce brauchen? Aber hat AMD da nicht seine Opterons?

Die mit einem Preis von 1000-4000€ auch in der selben Klasse wie der FX spielen, richtig?
Du beantwortest leider nicht meine Frage. Teurere Xeon-CPUs haben eine ganz klare Zielgruppe (Server, Workstation). Wer braucht relativ viel Mutlithread-Performance, aber wenig Singlethread-Performance? Du wirfst Leuten hier vor, dass sie nicht wissen, für wen der BD gemacht ist. Also, sag es mir. Bitte.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Absolut. Dafür gibt es Workstations, Server und Großrechner. Also zielt dir zu Folge der BD gar nicht auf den normalen Consumer, der kaum so viel Perfromance braucht (iTunes, Fotos bearbeiten etc.), sondern auf Anwendungen, dir richtig Perfornamce brauchen? Aber hat AMD da nicht seine Opterons?
Langsamer tippen. ;)

Klar gibt es dort die Opterons und dort auch mit wesentlich mehr Modulen bzw. Threads und niedrigem Takt, daher fällt auch die Leistungsaufnahme besser aus.

Allerdings gibt es eben auch manche Privatanwender die bspw. Rendern aber nicht das Geld für eine Workstation haben. Den FX als Gaming-CPU hinzustellen war natürlich reines Marketing, etwas gegenteiliges habe ich allerdings auch nie behauptet. (Bei BF3 ist er z.B. noch recht brauchbar. Je weniger Threads allerdings ausgelastet werden können, desto grottiger ist auch die Leistung)

EDIT:
Tomahawk schrieb:
Du beantwortest leider nicht meine Frage. Teurere Xeon-CPUs haben eine ganz klare Zielgruppe (Server, Workstation). Wer braucht relativ viel Mutlithread-Performance, aber wenig Singlethread-Performance? Du wirfst Leuten hier vor, dass sie nicht wissen, für wen der BD gemacht ist. Also, sag es mir. Bitte.
Du hast dir deine Frage doch schon lange selbst mit den Xeons beantwortet. Dass du allerdings besserwisserisch wie ein Kind die ganze Zeit quängelst, wird nichts daran ändern.

Opterons mit 8-16 Threads gibts zwischen 250€ und 750€. Wieviel die Xeons kosten haben wir ja oben geklärt.
 
Zuletzt bearbeitet:
Für 08/15 User die das machen was du aufgezählt hast, würde ein Intel mit wesentlich mehr IPC bspw. auch nichts bringen.
Hier: http://www.pcgameshardware.de/aid,8...fuer-AMD-Update-mit-Umfragen/CPU/Test/?page=3

SC II auf AMD ruckelts, Intel packt gerade noch so flüssig, mit OC dann flüssig.(min. FPS) Davon gibt es Zig Spiele. AMDs sind keine Zocker CPUs mehr. Der letzte halbwegs brauchbare war ein P II X6 max. OC vor Sandy. Mit der Aussage hast du bewiesen das du Ahnung hast. (not)

Beste Gaming CPUs: Sandy/Ivy

Bleib du mal bei deinen langweiligen Server Aufgaben und überlasse uns das zocken...
Was kann so schwer daran sein in mehr als einem halben Jahrzehnt endlich multithreaded zu entwickeln!?
Extrem teuer und zeitaufwendig. Oder lass mich mal einen Programmierer zitieren der das treffend zusammen fasst:
https://www.computerbase.de/forum/threads/spieleprogrammierer-softwareentwickler-mit-real.1092482/
Arbeiten an vernünftigen Engines und deren Optimierung sind allerdings wahrscheinlich komplexer als du es dir überhaupt vorstellen kannst und so dermaßen mit Mathematik und theoretischer Informatik verheiratet, dass du, entschuldigt meine Wortwahl, gar nicht so viel essen könntest, wie du gerne brechen würdest.
IPC Leistung wird auf absehbare Zeit immer wichtiger bzw. wichtig bleiben, einzig die neuen Konsolen könnten da eine Milderung bringen. Aber die sind noch weit weg laut Sony/Microsoft.
 
Zuletzt bearbeitet:
Allerdings gibt es eben auch manche Privatanwender die bspw. Rendern aber nicht das Geld für eine Workstation haben
Privantanwender, die viel Rendern und wenig Geld haben. Sehr konstruiert, oder? Faktisch zwar richtig, aber denkst du wirklich, dass AMD eine CPU für eine so kleine Gruppe gebaut hat?
 
Workstations, Großrechner... Und wenn ich hier zuhause für meinen Youtube Channel jeden Tag ein stunde HD Material rendern will oder Hobbymäßig 3D Modeling mache? Selbst bei Freiberuflern in diesem Bereich kommt meist nur Consumer Hardware zum Einsatz. Wenn du so Argumentierst gibt es auch keine Existenzberechtigung für einen i7.

Sobald man mit professionellen oder semi-professionellen Gebraucht kommt, meinen die Leute man soll sich ne Workstation mit Xeon und Quadro kaufen...
 
Kasmopaya schrieb:
Mit der Aussage hast du bewiesen das du Ahnung hast. (not)
Du hast allerdings schon seinen Post gelesen und die Aufgaben die er aufgezählt hat? Oder wolltest du nur etwas herumtrollen?

Zumal bestimmt jeder 08/15 Anwender eine Massenschlacht bei SCII spielt. :freak:

EDIT: Zumal SCII so schlecht multithreaded ist wie kein anderes Spiel. Ich habe auch nie behauptet dass der FX dort alle Intel CPUs rockt.
Tomahawk schrieb:
Privantanwender, die viel Rendern und wenig Geld haben. Sehr konstruiert, oder? Faktisch zwar richtig, aber denkst du wirklich, dass AMD eine CPU für eine so kleine Gruppe gebaut hat?
Die Desktop FX sind durch den günstigen Preis dafür wie geschaffen. Dass das Marketing die FX Reihe als Gaming CPU hinstellt habe ich doch schon gesagt.
 
Zuletzt bearbeitet:
Sobald man mit professionellen oder semi-professionellen Gebraucht kommt, meinen die Leute man soll sich ne Workstation mit Xeon und Quadro kaufen...
Selbstverständlich ist das so. Da werden Systeme gekauft, die vor allem stabil arbeiten müssen und der Support das A und O ist. Eine um 20% schnellere CPU spart dann schnell mal einige 1000 Euro.

Und wenn ich hier zuhause für meinen Youtube Channel jeden Tag ein stunde HD Material rendern will oder Hobbymäßig 3D Modeling mache?
Stimmt, nur macht das quasi niemand. Genau das ist der springende Punkt.

Die Desktop FX sind durch den günstigen Preis dafür wie geschaffen
Faktisch richtig, nur ist diese Gruppe mehr oder weniger nicht existent. Es gibt kaum private Vollzeit-Renderer. Du glaubst aber wirklich, dass AMD für diese sehr kleine Gruppe eine ganz CPU-Reihe entwickelt hat?
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Du glaubst aber wirklich, dass AMD für diese sehr kleine Gruppe eine ganz CPU-Reihe entwickelt hat?
Nein, oder habe ich das jemals geschrieben? Bulldozer ist vorallem für Server und daher für multithreaded Anwendungen.

EDIT:
Tomahawk schrieb:
Stimmt, nur macht das quasi niemand. Genau das ist der springende Punkt.
Und genau dafür gibt es die A und E Serie. Für Internet und vielleicht ein klein wenig Office reicht ein kleiner Bobcat. Wenn Multimedia und auch etwas CPU Leistung gefragt ist, gibt es Llano bzw. bald Trinity.


Allerdings wird mir das hier jetzt zu blöd. Ihr dreht euch sowieso immer nur im Kreis. ;)
 
Zuletzt bearbeitet:
Das macht niemand? Schau dich doch mal auf Youtube um. Hunderte "Let's Play" Kanäle. Die Videos müssen alle gerendert werden. Das wird nicht auf Xeons gemacht.

Ein 20% schnellere CPU kostet auch schnell das dreifache :freak:
Bei einem Begrenzten Budget von z.B. 3000€ ist ein Xeon System nicht gerade Kosteneffizient. Da kauft man sich lieber 2 Systeme. Da ist das Arbeiten angenehmer und Rendern dauert auch nur ein wenig länger, wenn beide Sytseme rendern ist es sogar schneller als bei einem teuren Xeon system.

Tomahawk, wo siehtst du dann bitte den Sinn in einem i7? 8Threads braucht man weder zum Spielen noch für Internet. Warum verkauft Intel die dann überhaupt wenns ja die Xeons gibt und vorallem warum kaufen die Leute solche CPUs?
 
Nein, oder habe ich das jemals geschrieben? Bulldozer ist vorallem für Server und daher für multithreaded Anwendungen
Du hast geschrieben, dass hier alle nicht begreifen, wofür BD gedacht ist. Ich behaupte, dass BD für stinknormale Desktop-PCs gedacht war, wo er wegen der schwachen Singlethread-Performance kein Land sieht. Hier wird behauptet, dass AMD nicht normale Consumer ansprechen wollte, sondern "private Vollzeit-Renderer".

Allerdings wird mir das hier jetzt zu blöd. Ihr dreht euch sowieso immer nur im Kreis
Einigen fällt die Unterscheidung schwer, worin BD gut ist und zum anderen, wofür er gedacht war. Die Argumentation, dass BD eine passable Multithread-Performance hat, also war er auch nur für Multithread-Anwendungen gedacht, ist doch nun wirklich nicht haltbar.

Tomahawk, wo siehtst du dann bitte den Sinn in einem i7? 8Threads braucht man weder zum Spielen noch für Internet. Warum verkauft Intel die dann überhaupt wenns ja die Xeons gibt und vorallem warum kaufen die Leute solche CPUs?
Weil die CPU ideal für ambitonierte Heimanwender ist. Hohe Singlethread-Performance und mittelmäßige Multithread-Performance. 4 Kerne nutzen doch bereits stinknormale Spiele, von 8 Threads profitieren sogar einieg einfache Dinge (z.B. Packprogramme). HT ist aber im Privatbereich sicherlich unnötig, kostet aber auch nur 5% mehr Die-Fläche. Angesehen davon sind i7 i.d.R. höher getaktet als i5er.
 
Zuletzt bearbeitet:
Du hast allerdings schon seinen Post gelesen und die Aufgaben die er aufgezählt hat
für 08/15-User ist, die eben Spielen
umal bestimmt jeder 08/15 Anwender eine Massenschlacht bei SCII spielt.
Ja klar die Kampagne zb. Spielt doch jeder, hab die jetzt 2 mal durch einmal mit Bulli IPC einmal mit Ivy IPC. Hab hier einen direkten Vergleich Core 2 Quad v. Ivy mobile, rate mal welche CPU das Game immer Flüssig hält und mit der TDP/Turbo so umgeht damit immer 1-2 Kerne voll mit dabei sind.

Bulli hat ja sogar leicht weniger IPC als Core 2 Quad 45nm! Und ja mein Quad ist auf Bulli Niveau OC.
EDIT: Zumal SCII so schlecht multithreaded ist wie kein anderes Spiel. Ich habe auch nie behauptet dass der FX dort alle Intel CPUs rockt.
Diablo III(extrem verkauft worden); Half Life 2 Cinematic Mod 11; Dark Souls 92er Titel: http://www.4players.de/4players.php..._Wertung/PC-CDROM/24633/77072/Dark_Souls.html

Da gibt natürlich noch mehr. Such selber mal...

Von wegen nur SC, es werden immer mehr und mehr. IPC wird immer wichtiger. Bulli ist und war noch nie eine Spiele CPU. Und wird es auch nie werden.

PS: Aber ich wiederhole mich schon wieder, du würdest das wissen wenn du den Thread gelesen hättest: https://www.computerbase.de/forum/t...mds-vishera-cpus.1102431/page-2#post-12586857
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Diablo III(extrem verkauft worden); Half Life 2 Cinematic Mod 11; Dark Souls 92%er Titel: http://www.4players.de/4players.php..._Wertung/PC-CDROM/24633/77072/Dark_Souls.html

Da gibt natürlich noch mehr. Such selber mal...

Von wegen nur SC, es werden immer mehr und mehr. IPC wird immer wichtiger.
Diablo 3 ist relativ GPU limitiert, daher bezweifle ich, dass niedrige FPS durch die CPU verursacht werden.

HL² ist aus Athlon 64 und P4 Zeiten. Selbst mit dem CM Mod (ein Grafikmod geht deiner Logik nach also vorallem auf die CPU) ist das Spiel locker spielbar.
Hatte letztes Jahr mal den 10er drauf und da hat erst auf 3840x2160 meine 570 limitiert. Ansonsten lief das Game permanent mit 60 FPS. (Vsync)

Zu Dark Souls zitiere ich mal CB:
"Ein kleiner, aus dieser Konzeption resultierender Vorteil ist, dass „Darksiders II“ selbst auf betagteren Systemen gut laufen sollte. Auf unserem Testsystem kam es selbst in den fordernsten Szenen in einer Auflösung von 1680 x 1080 Pixeln nie zu Einbrüchen bei den Bilderraten – im Gegenteil bewegten sich diese in aller Regel deutlich jenseits der 100 FPS."

Hat das Game nicht sowieso nen 30 FPS Lock?
 
Was man aber weiterhin nicht vergessen sollte: Die FX waren so, wie sie tatsächlich existent wurden, nie von AMD geplant! Sie kamen erstens (viel) zu spät und zweitens mit zu geringem Takt.

Ursprünglich sollte BD bereits im 2. Hj. 2009 und von Anfang an mit > 4 GHZ erscheinen; beide Ziele konnte AMD bekanntlich nicht einhalten, und vermutlich wg. Design-Fehlern stieg die TDP unerwartet stark an, weshalb man den Takt verringern musste, da man nicht über 125 W kommen wollte. Hätte AMD seine ursprünglichen Ziele erreicht, wäre ein mit mind. 4 GHZ taktender FX gegen Intel Lynnfield angetreten und hätte da weitaus besser ausgesehen als dann später der verspätete und TDP-eingebremste FX gegen SB/IB.

2 Jahre Verspätung sind in der Hartware-Welt eben schon eine kleine Ewigkeit und wenn man dann noch die selbst gessteckten Performance-Ziele recht deutlich verfehlt, fällt das Ergebnis entsprechend ernüchternd aus, zumal gegen einen viermal größeren Konkurrenten. Von einer Fehlkonstruktion kann man aber deshalb noch nicht sprechen, warten wir ab, wie weit es die Architektur mit Piledrver und Steamroller noch bringen kann und was dann mit Excavator kommen mag...

LG N.
 
Diablo 3 ist relativ GPU limitiert, daher bezweifle ich, dass niedrige FPS durch die CPU verursacht werden.
Diablo 3 ist nur CPU limitiert, die GPU dreht Däumchen. Genauer gesagt die CPU Physik versaut hier die min. FPS. sobald die Physik arbeitet gehen die FPS in den Keller. Wieder getestet mit einem Core 2 Quad v. Ivy bzw. GTX 580 3GB v. GTX 670. Frag Zwirbelkatz, der war dabei als die Fakten erschlossen wurden.
HL² ist aus Athlon 64 und P4 Zeiten. Selbst mit dem CM Mod (ein Grafikmod geht deiner Logik nach also vorallem auf die CPU) ist das Spiel locker spielbar.
Nope, Fakten lügen nicht. 20FPS v. 40-50 min. FPS wohlgemerkt. (Also genau doppelt so schnell, lustiger weise auch genau das was Cinebench bescheinigt.) Wenn nix los ist schafft der Core 2 Quad natürlich auch 140FPS.(Vsync) Genau wegen dem CPU Limit ist auch vom Mod eine Multithread Option eingebaut worden, mit der Gefahr das das Game crasht. Weil man einfach verzweifelt nach CPU Leistung sucht. Konnte man ja nicht wissen das Sandy/Ivy den Karren aus dem Dreck ziehen.

Noch dazu ist Source Engine ja bekannt für ihr CPU Limit.(ich hasse solche Engines die zu viel CPU Leistung fordern) Also nicht wirklich überraschend meine Benchmarks.
Auf unserem Testsystem
„Darksiders II“ ist was anderes als Dark Souls, und auch wenn, ich erwarte bei der besten Gaming CPU + max. OC auch bei Dark Souls dann keinen einzigen Ruckler. Ja ok das Gaming System hat AMD, dann gibts hald doch Ruckler.

Hat das Game nicht sowieso nen 30 FPS Lock?
Jap, die FPS fallen dann weit unter 30FPS ich bin auf ca. 15 gekommen -> Ruckel, schwammige Steuerung -> sterben garantiert
 
Zuletzt bearbeitet:
Und was sagst du zu den anderen Spielen?

Bei Diablo 3 kann ich nur über mich sprechen.
Ab 2880x1620 limitiert bei mir eben meine 570er. :D

EDIT:
Kasmopaya schrieb:
Nope, Fakten lügen nicht. 20FPS v. 40-50 min. FPS wohlgemerkt.
Mit welcher CPU? Ohne Mods scheinen mir 40-50 min. FPS mit aktuellen CPUs recht wenig.

Kasmopaya schrieb:
Konnte man ja nicht wissen das Sandy/Ivy den Karren aus dem Dreck ziehen.
Das ist mir letztens auch schon im Vergleich zu meinem i5-750 aufgefallen. Bei manchen Spielen/Programmen skalieren Sandy/Ivy besser als es die höhere IPC und der Takt eigentlich zulassen dürfen. Ich denke nicht, dass es an AVX oder dergleichen liegt. Daher wundere ich mich schon woher der Sprung kommt.

Kasmopaya schrieb:
„Darksiders II“ ist was anderes als Dark Souls.
*selffacepalm*
 
Zuletzt bearbeitet:
Zum Thema Diablo 3:
CPU berechnet Bewegungen ("Physik") und die KI. Das wird dann viel, wenn viele Einheiten (also Gegner) berechnet werden müssen. Hier wird garantiert die CPU limitieren. Je nach Szene wird das aber in Benchmarks kaum auffallen. Min-Fps schon sehr viel eher.
 
Mit welcher CPU? Ohne Mods scheinen mir 40-50 min. FPS mit aktuellen CPUs recht wenig.
Was heißt hier ohne Mods, ich rede von Cinematic Mod 11 final und einer Ivy Quad mobile CPU mit lächerlichen 45Watt TDP: https://www.computerbase.de/2012-07/test-apple-macbook-pro-retina-display/
Und die plättet den Bulli! Und was der an Strom zieht wissen wir alle.
Daher wundere ich mich schon woher der Sprung kommt.
IPC; Turbo; min. FPS stabil halten. Glaub mir ein anderes Geheimnis gibt es nicht.

Wenn dann sinnlos trollen, dann wenigstens mit Star Trek Bildchen. ;)
Und was sagst du zu den anderen Spielen?
? Andere Spiele schafft mein extrem alter Core 2 Quad auch flüssig, da braucht man dann auch keine Bulli mehr.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Was heißt hier ohne Mods, ich rede von Cinematic Mod 11 final und einer Ivy Quad mobile CPU mit lächerlichen 45Watt TDP:
Und die plättet den Bulli! Und was der an Strom zieht wissen wir alle.
Achso, ich dachte du vergleichst Vanilla HL² mit CM final. ;)
Quasi davor 40-50FPS und mit CM dann 20FPS. Mein 750 hat jedenfalls für CM 10 gereicht.

Andererseits könnte man auch einen Bulli mit zwei Modulen antreten lassen. :lol:
Lassen wirs einfach. :D
Kasmopaya schrieb:
IPC; Turbo; min. FPS stabil halten. Glaub mir ein anderes Geheimnis gibt es nicht.
Turbo bzw. Takt hat mein 750 auch. Auf 3.6GHz sollte der recht vergleichbar mit einem kleineren Sandy Quad sein.

http://www.pcgameshardware.de/aid,8...K-Core-i5-3570K-Core-i5-3550/CPU/Test/?page=3

Vergleich dort bei Skyrim mal den 2500k mit dem 3570k.
3% mehr Takt und 5% bis maximal 7% mehr IPC sorgen für 12% mehr FPS.

Das selbe Spiel mit dem 760. Daher habe ich mich gewundert.
Kasmopaya schrieb:
Wenn dann sinnlos trollen, dann wenigstens mit Star Trek Bildchen. ;)
Verbraucht zuviel Platz. ;)

EDIT:
Kasmopaya schrieb:
Andere Spiele schafft mein extrem alter Core 2 Quad auch flüssig, da braucht man dann auch keine Bulli mehr.
Aber wenn man seinen alten P4 ersetzen will und BF3 auf vollen 64er Servern spielt? Bei kleinem Budget könnte man da bspw. http://geizhals.at/de/580323 und http://geizhals.at/de/689390 vergleichen. Da AMD Boards meist etwas günstiger bei vergleichbaren Features sind, hat man dort sogar noch einen kleinen Vorteil.
Natürlich kann man nicht abstreiten dass der i3 wahrscheinlich wesentlich weniger Strom frisst und bei oben genannten Spielen wohl die Nase vorne hat.
 
Zuletzt bearbeitet:
Quasi davor 40-50FPS und mit CM dann 20FPS.
Oh je, ist schon spät wa. Core 2 Quad(20FPS); Ivy mobile (40-50FPS) jeweils min. FPS Angaben mit dem CM 11 final. Übrigens mit der vollen Breitseite Auflösung (2880x1800) wird die GTX 650M 1GB dann zum Vram Krüppel da 1,5-2GB Vram benötigt werden. Aber genügend Rohleistung vorhanden wäre. Nur so als kleine Randnotiz. 32xMSAA;8xTSSAA ist natürlich alles auf Anschlag.

Bei kleinem Budget könnte man da bspw
Hätte wäre wenn. Meiner Meinung nach ist Bulli nie als Gaming PC geeignet. Es sei denn er wird mit Server Aufgaben gekreuzt, ja dann. Aber wegen den paar Leuten mache ich keine Ausnahme. :evillol:
 
Zuletzt bearbeitet:
Zurück
Oben