Tomahawk, AMD vertritt eben die Meinung, dass Software mehr parallelisiert werden sollte und auch wird. Darauf baut das Modul und APU Konzept auf. Und das trifft auch eigentlich schon heute großteils zu. Da wo man wirklich performance braucht, und das ist nicht itunes oder der Browser, werden auch mehr als 4 Kerne beansprucht. Für Videorendering ist der 8120 ja auch sehr gutes P/L Verhältnis
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Dokument bestätigt Taktraten von AMDs Vishera-CPUs
- Ersteller MichaG
- Erstellt am
- Zur News: Dokument bestätigt Taktraten von AMDs Vishera-CPUs
Tomahawk
Commander
- Registriert
- Feb. 2002
- Beiträge
- 2.976
Na los, werde Programmierer, dann siehst du, wieso einige Dinge sich kaum parallelisieren lassen. Ein einfaches Beispiel: Du hast eine Schleife, die ganz häufig aufgerufen wird (einige Millionen Male) um dann einige einfache Berechnungen durchzuführen, die dann in einer Variable gespeichert werden und dann beim nächsten Schleifendurchlauf gebraucght werden. Wie willst du hier einfach(!) etwas auf zwei Instanzen aufteilen?mehr kerne bei weniger takt sind viel effizenter! Was kann so schwer daran sein in mehr als einem halben Jahrzehnt endlich multithreaded zu entwickeln!?
Absolut. Dafür gibt es Workstations, Server und Großrechner. Also zielt dir zu Folge der BD gar nicht auf den normalen Consumer, der kaum so viel Perfromance braucht (iTunes, Fotos bearbeiten etc.), sondern auf Anwendungen, dir richtig Perfornamce brauchen? Aber hat AMD da nicht seine Opterons?Da wo man wirklich performance braucht, und das ist nicht itunes oder der Browser, werden auch mehr als 4 Kerne beansprucht.
Du beantwortest leider nicht meine Frage. Teurere Xeon-CPUs haben eine ganz klare Zielgruppe (Server, Workstation). Wer braucht relativ viel Mutlithread-Performance, aber wenig Singlethread-Performance? Du wirfst Leuten hier vor, dass sie nicht wissen, für wen der BD gemacht ist. Also, sag es mir. Bitte.Die mit einem Preis von 1000-4000€ auch in der selben Klasse wie der FX spielen, richtig?
Zuletzt bearbeitet:
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.828
Langsamer tippen.Tomahawk schrieb:Absolut. Dafür gibt es Workstations, Server und Großrechner. Also zielt dir zu Folge der BD gar nicht auf den normalen Consumer, der kaum so viel Perfromance braucht (iTunes, Fotos bearbeiten etc.), sondern auf Anwendungen, dir richtig Perfornamce brauchen? Aber hat AMD da nicht seine Opterons?
Klar gibt es dort die Opterons und dort auch mit wesentlich mehr Modulen bzw. Threads und niedrigem Takt, daher fällt auch die Leistungsaufnahme besser aus.
Allerdings gibt es eben auch manche Privatanwender die bspw. Rendern aber nicht das Geld für eine Workstation haben. Den FX als Gaming-CPU hinzustellen war natürlich reines Marketing, etwas gegenteiliges habe ich allerdings auch nie behauptet. (Bei BF3 ist er z.B. noch recht brauchbar. Je weniger Threads allerdings ausgelastet werden können, desto grottiger ist auch die Leistung)
EDIT:
Du hast dir deine Frage doch schon lange selbst mit den Xeons beantwortet. Dass du allerdings besserwisserisch wie ein Kind die ganze Zeit quängelst, wird nichts daran ändern.Tomahawk schrieb:Du beantwortest leider nicht meine Frage. Teurere Xeon-CPUs haben eine ganz klare Zielgruppe (Server, Workstation). Wer braucht relativ viel Mutlithread-Performance, aber wenig Singlethread-Performance? Du wirfst Leuten hier vor, dass sie nicht wissen, für wen der BD gemacht ist. Also, sag es mir. Bitte.
Opterons mit 8-16 Threads gibts zwischen 250€ und 750€. Wieviel die Xeons kosten haben wir ja oben geklärt.
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Hier: http://www.pcgameshardware.de/aid,8...fuer-AMD-Update-mit-Umfragen/CPU/Test/?page=3Für 08/15 User die das machen was du aufgezählt hast, würde ein Intel mit wesentlich mehr IPC bspw. auch nichts bringen.
SC II auf AMD ruckelts, Intel packt gerade noch so flüssig, mit OC dann flüssig.(min. FPS) Davon gibt es Zig Spiele. AMDs sind keine Zocker CPUs mehr. Der letzte halbwegs brauchbare war ein P II X6 max. OC vor Sandy. Mit der Aussage hast du bewiesen das du Ahnung hast. (not)
Beste Gaming CPUs: Sandy/Ivy
Bleib du mal bei deinen langweiligen Server Aufgaben und überlasse uns das zocken...
Extrem teuer und zeitaufwendig. Oder lass mich mal einen Programmierer zitieren der das treffend zusammen fasst:Was kann so schwer daran sein in mehr als einem halben Jahrzehnt endlich multithreaded zu entwickeln!?
https://www.computerbase.de/forum/threads/spieleprogrammierer-softwareentwickler-mit-real.1092482/
IPC Leistung wird auf absehbare Zeit immer wichtiger bzw. wichtig bleiben, einzig die neuen Konsolen könnten da eine Milderung bringen. Aber die sind noch weit weg laut Sony/Microsoft.Arbeiten an vernünftigen Engines und deren Optimierung sind allerdings wahrscheinlich komplexer als du es dir überhaupt vorstellen kannst und so dermaßen mit Mathematik und theoretischer Informatik verheiratet, dass du, entschuldigt meine Wortwahl, gar nicht so viel essen könntest, wie du gerne brechen würdest.
Zuletzt bearbeitet:
Tomahawk
Commander
- Registriert
- Feb. 2002
- Beiträge
- 2.976
Privantanwender, die viel Rendern und wenig Geld haben. Sehr konstruiert, oder? Faktisch zwar richtig, aber denkst du wirklich, dass AMD eine CPU für eine so kleine Gruppe gebaut hat?Allerdings gibt es eben auch manche Privatanwender die bspw. Rendern aber nicht das Geld für eine Workstation haben
Workstations, Großrechner... Und wenn ich hier zuhause für meinen Youtube Channel jeden Tag ein stunde HD Material rendern will oder Hobbymäßig 3D Modeling mache? Selbst bei Freiberuflern in diesem Bereich kommt meist nur Consumer Hardware zum Einsatz. Wenn du so Argumentierst gibt es auch keine Existenzberechtigung für einen i7.
Sobald man mit professionellen oder semi-professionellen Gebraucht kommt, meinen die Leute man soll sich ne Workstation mit Xeon und Quadro kaufen...
Sobald man mit professionellen oder semi-professionellen Gebraucht kommt, meinen die Leute man soll sich ne Workstation mit Xeon und Quadro kaufen...
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.828
Du hast allerdings schon seinen Post gelesen und die Aufgaben die er aufgezählt hat? Oder wolltest du nur etwas herumtrollen?Kasmopaya schrieb:Mit der Aussage hast du bewiesen das du Ahnung hast. (not)
Zumal bestimmt jeder 08/15 Anwender eine Massenschlacht bei SCII spielt.
EDIT: Zumal SCII so schlecht multithreaded ist wie kein anderes Spiel. Ich habe auch nie behauptet dass der FX dort alle Intel CPUs rockt.
Die Desktop FX sind durch den günstigen Preis dafür wie geschaffen. Dass das Marketing die FX Reihe als Gaming CPU hinstellt habe ich doch schon gesagt.Tomahawk schrieb:Privantanwender, die viel Rendern und wenig Geld haben. Sehr konstruiert, oder? Faktisch zwar richtig, aber denkst du wirklich, dass AMD eine CPU für eine so kleine Gruppe gebaut hat?
Zuletzt bearbeitet:
Tomahawk
Commander
- Registriert
- Feb. 2002
- Beiträge
- 2.976
Selbstverständlich ist das so. Da werden Systeme gekauft, die vor allem stabil arbeiten müssen und der Support das A und O ist. Eine um 20% schnellere CPU spart dann schnell mal einige 1000 Euro.Sobald man mit professionellen oder semi-professionellen Gebraucht kommt, meinen die Leute man soll sich ne Workstation mit Xeon und Quadro kaufen...
Stimmt, nur macht das quasi niemand. Genau das ist der springende Punkt.Und wenn ich hier zuhause für meinen Youtube Channel jeden Tag ein stunde HD Material rendern will oder Hobbymäßig 3D Modeling mache?
Faktisch richtig, nur ist diese Gruppe mehr oder weniger nicht existent. Es gibt kaum private Vollzeit-Renderer. Du glaubst aber wirklich, dass AMD für diese sehr kleine Gruppe eine ganz CPU-Reihe entwickelt hat?Die Desktop FX sind durch den günstigen Preis dafür wie geschaffen
Zuletzt bearbeitet:
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.828
Nein, oder habe ich das jemals geschrieben? Bulldozer ist vorallem für Server und daher für multithreaded Anwendungen.Tomahawk schrieb:Du glaubst aber wirklich, dass AMD für diese sehr kleine Gruppe eine ganz CPU-Reihe entwickelt hat?
EDIT:
Und genau dafür gibt es die A und E Serie. Für Internet und vielleicht ein klein wenig Office reicht ein kleiner Bobcat. Wenn Multimedia und auch etwas CPU Leistung gefragt ist, gibt es Llano bzw. bald Trinity.Tomahawk schrieb:Stimmt, nur macht das quasi niemand. Genau das ist der springende Punkt.
Allerdings wird mir das hier jetzt zu blöd. Ihr dreht euch sowieso immer nur im Kreis.
Zuletzt bearbeitet:
Das macht niemand? Schau dich doch mal auf Youtube um. Hunderte "Let's Play" Kanäle. Die Videos müssen alle gerendert werden. Das wird nicht auf Xeons gemacht.
Ein 20% schnellere CPU kostet auch schnell das dreifache
Bei einem Begrenzten Budget von z.B. 3000€ ist ein Xeon System nicht gerade Kosteneffizient. Da kauft man sich lieber 2 Systeme. Da ist das Arbeiten angenehmer und Rendern dauert auch nur ein wenig länger, wenn beide Sytseme rendern ist es sogar schneller als bei einem teuren Xeon system.
Tomahawk, wo siehtst du dann bitte den Sinn in einem i7? 8Threads braucht man weder zum Spielen noch für Internet. Warum verkauft Intel die dann überhaupt wenns ja die Xeons gibt und vorallem warum kaufen die Leute solche CPUs?
Ein 20% schnellere CPU kostet auch schnell das dreifache
Bei einem Begrenzten Budget von z.B. 3000€ ist ein Xeon System nicht gerade Kosteneffizient. Da kauft man sich lieber 2 Systeme. Da ist das Arbeiten angenehmer und Rendern dauert auch nur ein wenig länger, wenn beide Sytseme rendern ist es sogar schneller als bei einem teuren Xeon system.
Tomahawk, wo siehtst du dann bitte den Sinn in einem i7? 8Threads braucht man weder zum Spielen noch für Internet. Warum verkauft Intel die dann überhaupt wenns ja die Xeons gibt und vorallem warum kaufen die Leute solche CPUs?
Tomahawk
Commander
- Registriert
- Feb. 2002
- Beiträge
- 2.976
Du hast geschrieben, dass hier alle nicht begreifen, wofür BD gedacht ist. Ich behaupte, dass BD für stinknormale Desktop-PCs gedacht war, wo er wegen der schwachen Singlethread-Performance kein Land sieht. Hier wird behauptet, dass AMD nicht normale Consumer ansprechen wollte, sondern "private Vollzeit-Renderer".Nein, oder habe ich das jemals geschrieben? Bulldozer ist vorallem für Server und daher für multithreaded Anwendungen
Einigen fällt die Unterscheidung schwer, worin BD gut ist und zum anderen, wofür er gedacht war. Die Argumentation, dass BD eine passable Multithread-Performance hat, also war er auch nur für Multithread-Anwendungen gedacht, ist doch nun wirklich nicht haltbar.Allerdings wird mir das hier jetzt zu blöd. Ihr dreht euch sowieso immer nur im Kreis
Weil die CPU ideal für ambitonierte Heimanwender ist. Hohe Singlethread-Performance und mittelmäßige Multithread-Performance. 4 Kerne nutzen doch bereits stinknormale Spiele, von 8 Threads profitieren sogar einieg einfache Dinge (z.B. Packprogramme). HT ist aber im Privatbereich sicherlich unnötig, kostet aber auch nur 5% mehr Die-Fläche. Angesehen davon sind i7 i.d.R. höher getaktet als i5er.Tomahawk, wo siehtst du dann bitte den Sinn in einem i7? 8Threads braucht man weder zum Spielen noch für Internet. Warum verkauft Intel die dann überhaupt wenns ja die Xeons gibt und vorallem warum kaufen die Leute solche CPUs?
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Du hast allerdings schon seinen Post gelesen und die Aufgaben die er aufgezählt hat
für 08/15-User ist, die eben Spielen
Ja klar die Kampagne zb. Spielt doch jeder, hab die jetzt 2 mal durch einmal mit Bulli IPC einmal mit Ivy IPC. Hab hier einen direkten Vergleich Core 2 Quad v. Ivy mobile, rate mal welche CPU das Game immer Flüssig hält und mit der TDP/Turbo so umgeht damit immer 1-2 Kerne voll mit dabei sind.umal bestimmt jeder 08/15 Anwender eine Massenschlacht bei SCII spielt.
Bulli hat ja sogar leicht weniger IPC als Core 2 Quad 45nm! Und ja mein Quad ist auf Bulli Niveau OC.
Diablo III(extrem verkauft worden); Half Life 2 Cinematic Mod 11; Dark Souls 92er Titel: http://www.4players.de/4players.php..._Wertung/PC-CDROM/24633/77072/Dark_Souls.htmlEDIT: Zumal SCII so schlecht multithreaded ist wie kein anderes Spiel. Ich habe auch nie behauptet dass der FX dort alle Intel CPUs rockt.
Da gibt natürlich noch mehr. Such selber mal...
Von wegen nur SC, es werden immer mehr und mehr. IPC wird immer wichtiger. Bulli ist und war noch nie eine Spiele CPU. Und wird es auch nie werden.
PS: Aber ich wiederhole mich schon wieder, du würdest das wissen wenn du den Thread gelesen hättest: https://www.computerbase.de/forum/t...mds-vishera-cpus.1102431/page-2#post-12586857
Zuletzt bearbeitet:
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.828
Diablo 3 ist relativ GPU limitiert, daher bezweifle ich, dass niedrige FPS durch die CPU verursacht werden.Kasmopaya schrieb:Diablo III(extrem verkauft worden); Half Life 2 Cinematic Mod 11; Dark Souls 92%er Titel: http://www.4players.de/4players.php..._Wertung/PC-CDROM/24633/77072/Dark_Souls.html
Da gibt natürlich noch mehr. Such selber mal...
Von wegen nur SC, es werden immer mehr und mehr. IPC wird immer wichtiger.
HL² ist aus Athlon 64 und P4 Zeiten. Selbst mit dem CM Mod (ein Grafikmod geht deiner Logik nach also vorallem auf die CPU) ist das Spiel locker spielbar.
Hatte letztes Jahr mal den 10er drauf und da hat erst auf 3840x2160 meine 570 limitiert. Ansonsten lief das Game permanent mit 60 FPS. (Vsync)
Zu Dark Souls zitiere ich mal CB:
"Ein kleiner, aus dieser Konzeption resultierender Vorteil ist, dass „Darksiders II“ selbst auf betagteren Systemen gut laufen sollte. Auf unserem Testsystem kam es selbst in den fordernsten Szenen in einer Auflösung von 1680 x 1080 Pixeln nie zu Einbrüchen bei den Bilderraten – im Gegenteil bewegten sich diese in aller Regel deutlich jenseits der 100 FPS."
Hat das Game nicht sowieso nen 30 FPS Lock?
Was man aber weiterhin nicht vergessen sollte: Die FX waren so, wie sie tatsächlich existent wurden, nie von AMD geplant! Sie kamen erstens (viel) zu spät und zweitens mit zu geringem Takt.
Ursprünglich sollte BD bereits im 2. Hj. 2009 und von Anfang an mit > 4 GHZ erscheinen; beide Ziele konnte AMD bekanntlich nicht einhalten, und vermutlich wg. Design-Fehlern stieg die TDP unerwartet stark an, weshalb man den Takt verringern musste, da man nicht über 125 W kommen wollte. Hätte AMD seine ursprünglichen Ziele erreicht, wäre ein mit mind. 4 GHZ taktender FX gegen Intel Lynnfield angetreten und hätte da weitaus besser ausgesehen als dann später der verspätete und TDP-eingebremste FX gegen SB/IB.
2 Jahre Verspätung sind in der Hartware-Welt eben schon eine kleine Ewigkeit und wenn man dann noch die selbst gessteckten Performance-Ziele recht deutlich verfehlt, fällt das Ergebnis entsprechend ernüchternd aus, zumal gegen einen viermal größeren Konkurrenten. Von einer Fehlkonstruktion kann man aber deshalb noch nicht sprechen, warten wir ab, wie weit es die Architektur mit Piledrver und Steamroller noch bringen kann und was dann mit Excavator kommen mag...
LG N.
Ursprünglich sollte BD bereits im 2. Hj. 2009 und von Anfang an mit > 4 GHZ erscheinen; beide Ziele konnte AMD bekanntlich nicht einhalten, und vermutlich wg. Design-Fehlern stieg die TDP unerwartet stark an, weshalb man den Takt verringern musste, da man nicht über 125 W kommen wollte. Hätte AMD seine ursprünglichen Ziele erreicht, wäre ein mit mind. 4 GHZ taktender FX gegen Intel Lynnfield angetreten und hätte da weitaus besser ausgesehen als dann später der verspätete und TDP-eingebremste FX gegen SB/IB.
2 Jahre Verspätung sind in der Hartware-Welt eben schon eine kleine Ewigkeit und wenn man dann noch die selbst gessteckten Performance-Ziele recht deutlich verfehlt, fällt das Ergebnis entsprechend ernüchternd aus, zumal gegen einen viermal größeren Konkurrenten. Von einer Fehlkonstruktion kann man aber deshalb noch nicht sprechen, warten wir ab, wie weit es die Architektur mit Piledrver und Steamroller noch bringen kann und was dann mit Excavator kommen mag...
LG N.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Diablo 3 ist nur CPU limitiert, die GPU dreht Däumchen. Genauer gesagt die CPU Physik versaut hier die min. FPS. sobald die Physik arbeitet gehen die FPS in den Keller. Wieder getestet mit einem Core 2 Quad v. Ivy bzw. GTX 580 3GB v. GTX 670. Frag Zwirbelkatz, der war dabei als die Fakten erschlossen wurden.Diablo 3 ist relativ GPU limitiert, daher bezweifle ich, dass niedrige FPS durch die CPU verursacht werden.
Nope, Fakten lügen nicht. 20FPS v. 40-50 min. FPS wohlgemerkt. (Also genau doppelt so schnell, lustiger weise auch genau das was Cinebench bescheinigt.) Wenn nix los ist schafft der Core 2 Quad natürlich auch 140FPS.(Vsync) Genau wegen dem CPU Limit ist auch vom Mod eine Multithread Option eingebaut worden, mit der Gefahr das das Game crasht. Weil man einfach verzweifelt nach CPU Leistung sucht. Konnte man ja nicht wissen das Sandy/Ivy den Karren aus dem Dreck ziehen.HL² ist aus Athlon 64 und P4 Zeiten. Selbst mit dem CM Mod (ein Grafikmod geht deiner Logik nach also vorallem auf die CPU) ist das Spiel locker spielbar.
Noch dazu ist Source Engine ja bekannt für ihr CPU Limit.(ich hasse solche Engines die zu viel CPU Leistung fordern) Also nicht wirklich überraschend meine Benchmarks.
„Darksiders II“ ist was anderes als Dark Souls, und auch wenn, ich erwarte bei der besten Gaming CPU + max. OC auch bei Dark Souls dann keinen einzigen Ruckler. Ja ok das Gaming System hat AMD, dann gibts hald doch Ruckler.Auf unserem Testsystem
Jap, die FPS fallen dann weit unter 30FPS ich bin auf ca. 15 gekommen -> Ruckel, schwammige Steuerung -> sterben garantiertHat das Game nicht sowieso nen 30 FPS Lock?
Zuletzt bearbeitet:
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.828
Und was sagst du zu den anderen Spielen?
Bei Diablo 3 kann ich nur über mich sprechen.
Ab 2880x1620 limitiert bei mir eben meine 570er.
EDIT:
Bei Diablo 3 kann ich nur über mich sprechen.
Ab 2880x1620 limitiert bei mir eben meine 570er.
EDIT:
Mit welcher CPU? Ohne Mods scheinen mir 40-50 min. FPS mit aktuellen CPUs recht wenig.Kasmopaya schrieb:Nope, Fakten lügen nicht. 20FPS v. 40-50 min. FPS wohlgemerkt.
Das ist mir letztens auch schon im Vergleich zu meinem i5-750 aufgefallen. Bei manchen Spielen/Programmen skalieren Sandy/Ivy besser als es die höhere IPC und der Takt eigentlich zulassen dürfen. Ich denke nicht, dass es an AVX oder dergleichen liegt. Daher wundere ich mich schon woher der Sprung kommt.Kasmopaya schrieb:Konnte man ja nicht wissen das Sandy/Ivy den Karren aus dem Dreck ziehen.
*selffacepalm*Kasmopaya schrieb:„Darksiders II“ ist was anderes als Dark Souls.
Zuletzt bearbeitet:
Tomahawk
Commander
- Registriert
- Feb. 2002
- Beiträge
- 2.976
Zum Thema Diablo 3:
CPU berechnet Bewegungen ("Physik") und die KI. Das wird dann viel, wenn viele Einheiten (also Gegner) berechnet werden müssen. Hier wird garantiert die CPU limitieren. Je nach Szene wird das aber in Benchmarks kaum auffallen. Min-Fps schon sehr viel eher.
CPU berechnet Bewegungen ("Physik") und die KI. Das wird dann viel, wenn viele Einheiten (also Gegner) berechnet werden müssen. Hier wird garantiert die CPU limitieren. Je nach Szene wird das aber in Benchmarks kaum auffallen. Min-Fps schon sehr viel eher.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Was heißt hier ohne Mods, ich rede von Cinematic Mod 11 final und einer Ivy Quad mobile CPU mit lächerlichen 45Watt TDP: https://www.computerbase.de/2012-07/test-apple-macbook-pro-retina-display/Mit welcher CPU? Ohne Mods scheinen mir 40-50 min. FPS mit aktuellen CPUs recht wenig.
Und die plättet den Bulli! Und was der an Strom zieht wissen wir alle.
IPC; Turbo; min. FPS stabil halten. Glaub mir ein anderes Geheimnis gibt es nicht.Daher wundere ich mich schon woher der Sprung kommt.
Wenn dann sinnlos trollen, dann wenigstens mit Star Trek Bildchen.*selffacepalm*
? Andere Spiele schafft mein extrem alter Core 2 Quad auch flüssig, da braucht man dann auch keine Bulli mehr.Und was sagst du zu den anderen Spielen?
Zuletzt bearbeitet:
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.828
Achso, ich dachte du vergleichst Vanilla HL² mit CM final.Kasmopaya schrieb:Was heißt hier ohne Mods, ich rede von Cinematic Mod 11 final und einer Ivy Quad mobile CPU mit lächerlichen 45Watt TDP:
Und die plättet den Bulli! Und was der an Strom zieht wissen wir alle.
Quasi davor 40-50FPS und mit CM dann 20FPS. Mein 750 hat jedenfalls für CM 10 gereicht.
Andererseits könnte man auch einen Bulli mit zwei Modulen antreten lassen.
Lassen wirs einfach.
Turbo bzw. Takt hat mein 750 auch. Auf 3.6GHz sollte der recht vergleichbar mit einem kleineren Sandy Quad sein.Kasmopaya schrieb:IPC; Turbo; min. FPS stabil halten. Glaub mir ein anderes Geheimnis gibt es nicht.
http://www.pcgameshardware.de/aid,8...K-Core-i5-3570K-Core-i5-3550/CPU/Test/?page=3
Vergleich dort bei Skyrim mal den 2500k mit dem 3570k.
3% mehr Takt und 5% bis maximal 7% mehr IPC sorgen für 12% mehr FPS.
Das selbe Spiel mit dem 760. Daher habe ich mich gewundert.
Verbraucht zuviel Platz.Kasmopaya schrieb:Wenn dann sinnlos trollen, dann wenigstens mit Star Trek Bildchen.
EDIT:
Aber wenn man seinen alten P4 ersetzen will und BF3 auf vollen 64er Servern spielt? Bei kleinem Budget könnte man da bspw. http://geizhals.at/de/580323 und http://geizhals.at/de/689390 vergleichen. Da AMD Boards meist etwas günstiger bei vergleichbaren Features sind, hat man dort sogar noch einen kleinen Vorteil.Kasmopaya schrieb:Andere Spiele schafft mein extrem alter Core 2 Quad auch flüssig, da braucht man dann auch keine Bulli mehr.
Natürlich kann man nicht abstreiten dass der i3 wahrscheinlich wesentlich weniger Strom frisst und bei oben genannten Spielen wohl die Nase vorne hat.
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Oh je, ist schon spät wa. Core 2 Quad(20FPS); Ivy mobile (40-50FPS) jeweils min. FPS Angaben mit dem CM 11 final. Übrigens mit der vollen Breitseite Auflösung (2880x1800) wird die GTX 650M 1GB dann zum Vram Krüppel da 1,5-2GB Vram benötigt werden. Aber genügend Rohleistung vorhanden wäre. Nur so als kleine Randnotiz. 32xMSAA;8xTSSAA ist natürlich alles auf Anschlag.Quasi davor 40-50FPS und mit CM dann 20FPS.
Hätte wäre wenn. Meiner Meinung nach ist Bulli nie als Gaming PC geeignet. Es sei denn er wird mit Server Aufgaben gekreuzt, ja dann. Aber wegen den paar Leuten mache ich keine Ausnahme.Bei kleinem Budget könnte man da bspw
Zuletzt bearbeitet: