News Tape-Out von AMDs „Bulldozer“ erfolgt

Schaffe89 schrieb:
Wenn wir so argumentieren, gibt es keinen Bench der die reine Leistungsfähigkeit einer CPU messen kann.
DIE Leistungsfähigkeit gibt es sowieso nicht. Es gibt unterschiedlichste Disziplinen und jede CPU hat ihre Stärken und Schwächen in der jeweiligen Disziplin. Der Punkt war einfach, dass gerade Spiele IMMER von mehreren Leistungskomponenten abhängen, auch wenn der eine oder andere der Meinung ist, mit dem Eliminieren des "GPU-Limits" wäre dem nicht mehr so. Auch bei Anwendungen gibt es noch andere Komponenten, wie zB den RAM. Nur hat das auf die Ergebnisse letztendlich einen weit geringeren Einfluss als Spiele, wo mit CPU und GPU zwei Leistungskomponenten permanent miteinander kommunizieren.

Schaffe89 schrieb:
Welche Einsicht soll er denn zeigen? Er kann höchstens mehr auf die Thematik eingehen und sich nicht querstellen.
Genau das hätte ich mindestens erwartet. Stattdessen fängt er immer wieder damit an und stellt auch noch provozierende Fragen, zB wie man Spiele ohne GPU testen soll, obwohl man ihm schon mehrere Male vorher gesagt hat, dass es hier nicht um Spiele geht. Ich weiss ja nicht, wie andere das bezeichnen. Für mich ist das aber Spam.

Schaffe89 schrieb:
Dass es überhaupt keine Aussagekraft besitzt, wurde von niemandem bewiesen und du hast es auch nur teilweise erläutert.
Es gibt nicht die absolute Wahrheit bezüglich dieser Thematik (800x600 CPU benches).
Es gibt aber mathematische und wissenschaftliche Wahrheiten. Und wenn ich etwas nicht ohne Zweifel nachweisen kann, was für CPU Leistungsfähigkeit auch für 800x600 gilt, dann ist das ganze wertlos und nichts anderes als nicht nachweisbar.
 
Ich behalte meine Phenom II x4 940 bis 2011 :D

dann wird ein AM3 Mainboard zu gelegt (Wenn es denn auf AM3 Laufen sollte) und ein Bulldozer (wenn P/L stimmt)
 
gruffi schrieb:
Der Punkt war einfach, dass gerade Spiele IMMER von mehreren Leistungskomponenten abhängen.
Der Cinebench auch. Unter x64 schneller, mit nur 128 MB RAM sacklahm und mit schnellerem RAM mehr Punkte. Auch hier spielen andere Faktoren hinein. Eliminiert man bei Spielen die GPU, sind die anderen Faktoren fast ebenso gering einfließend wie beim Cinebench auch.
 
@ Leistung / Takt Diskussion

Was haltet ihr davon, wenn bei zukünftigen CPU Tests folgendes unternommen wird:

- Man deaktiviert im Bios alle Kerne bis auf einen
- Man nimmt 2,5 Ghz als BenchTakt, der Multi wird also darauf hin angepasst
- Falls der Takt nicht genau erreicht wird, so nimmt man den nächst kleineren Multi und passt den Referenztakt auf die 2,5 Ghz an.
- Turbo aus.
- selber Ram Speed + Timings


Nun realitätsnahe Benchmarks:

- Windows Bootzeit (selbe HDD, selbes OS, frische Install -> 5 mal und berechnet den Schnitt (erstes Windows Bootlogo erscheinen bis fertigen Öffnen einer Word Datei im Autostart)
- Windows Installationszeit
- Winrar
- Applikationsladezeiten (wie bei SSD Test)
- Cinebench und paar theroetisches Gedöhns
- Spiele (bei einer CPU sollte nun oft die CPU auch limitieren)

Diese Tests wären für einen CPU Test von weit besserer Aussagekraft als SpieleBenches in 1920x1080...


@ AMD + Kompiler Gedöhns

ähm... was juckt mich als Endbenutzer auf was der ein oder andere seine Architektur optimiert hat bzw welche "Schalter" AMD im Weg liegen. 98% benutzen Windows, AMD wäre schön doof auf Linux zu optimieren oder? Das können sie bei ihren Opteron wegen mir gerne machen.

Mich interessiert was bei mir aufm Bildschirm ankommt. Und das wird net maßgeblich durch Performance / W bestimmt, sondern durch Performance / Takt. Welche Marke hier gewinnt ist mir vollkommen egal.

Lasst es 10 oder wegen mir 20-30% sein die Nehalem vor K10.5 liegt. AMD kann froh sein, mit den P2 und den 45 nm nun endlich gute Taktraten erreichen zu können. Man erinne sich mal an P1. Der der mehr Leistung / Takt bietet, hat immer die bessere Ausgangsposition. Vorallem wenn man die gleichen Taktraten schafft. Wenns klemmt kann Intel auf 4 Ghz gehen...

Was Bulldozer erreichen wird weiß momentan absolut keiner. AMD sollte möglichst noch vor Sandy Bridge Launch harte Zahlen auf den Tisch legen wie schnell ihre CPU ist sonst hindern sie mich nicht daran zum Konkurrenzprodukt zu greifen, und vielen Anderen geht es sicher genauso. Wenn Bulldozer wirklich das AMD Ebenstück darstellen soll, kommt er ein halbes Jahr zu spät, was eine kleine Katastrophe darstellt.

APU / Llano / Bulldozer / Sandy Bridge - noch alles Schall und Rauch was die Performance angeht kann keiner wirklich was sagen... Wer zu erst kommt malt zuerst.
 
Zuletzt bearbeitet:
Naja, ein solcher Test kann nur feststellen welcher CPU Kern schneller ist. Um die Rechengeschwindigkeit zu messen, gibt es ja den SPEC Benchmark.
 
Spec juckt mich auch wenig da nicht unbedingt praxisnah. Und die Pro Kern Leistung ist mit das Einzigste was interessiert. Imho laufen fast alle Programme nur auf einem Kern und wenn ein Kern schnell ist sollten es zwei auch sein. Über die Skalierbarkeit mit Kernen sagt Cinebench etc genug aus.

Natürlich dürfen Multicore Benchmarks wie x264 etc nicht fehlen. Aber bei 95% der Rechner reichen 2 schnelle Kerne heute aus und die Pro Kern Leistung lässt sich schon gut übertragen auf mehrere Kerne.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ähm... was juckt mich als Endbenutzer auf was der ein oder andere seine Architektur optimiert hat bzw welche "Schalter" AMD im Weg liegen.

Wenn man für das Thema sensibilisiert ist, fängt es schon an zu "jucken".^^

Krautmaster schrieb:
Man deaktiviert im Bios alle Kerne bis auf einen
- Man nimmt 2,5 Ghz als BenchTakt, der Multi wird also darauf hin angepasst
- Falls der Takt nicht genau erreicht wird, so nimmt man den nächst kleineren Multi und passt den Referenztakt auf die 2,5 Ghz an.
- Turbo aus.
- selber Ram Speed + Timings

Sicherlich ein interessanter Ansatz um die Achitektur, IPC etc.. zu testen und zu analysieren.
Trotzdem kann ich daraus nicht schließen wie schnell eine CPU wirklich ist, da die Taktung der CPu´s verschiedener Hersteller immer anders ist.

Krautmaster schrieb:
Diese Tests wären für einen CPU Test von weit besserer Aussagekraft als SpieleBenches in 1920x1080...

Das kommt ganz darauf an, was ich für Ansprüche habe und für ein welches Gebiet ich meinen CPU einsetzte.
Spielebenches in realer Auflösung +4xAA sind letztendlich immer am wichtigsten für Gamer, da ich hier meine CPU gut dimensionieren kann.
Wenn du jetzt gesagt hättest, dies hätte mehr Aussagekraft als die 800x600 Benchmarks könnte ich das noch nachvollziehen.
Ansonsten muss man immer klar Spiele und Anwendungen trennen, denn ich kann nicht praktikablse und sehr sinvolle Spieletests in realen Settings gegen einen Anwenudngenstest und Installationstest tauschen, da ich damit gar nicht das erwartete Ergebnis bekomme und wieder nichts vergleichen kann.
Deswegen ist es aktuell eigentlich eine sehr gute Lösung, wie es CB handhabt.

Krautmaster schrieb:
Was Bulldozer erreichen wird weiß momentan absolut keiner. AMD sollte möglichst noch vor Sandy Bridge Launch harte Zahlen auf den Tisch legen wie schnell ihre CPU ist sonst hindern sie mich nicht daran zum Konkurrenzprodukt zu greifen, und vielen Anderen geht es sicher genauso.

Einen Teufel wird AMD tun.^^
Sie werden Benches so lange zurückhalten wie möglich und diese erst zeigen, wenn das Produkt kurz vorm release steht.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Spielebenches in realer Auflösung +4xAA sind letztendlich immer am wichtigsten für Gamer, da ich hier meine CPU gut dimensionieren kann.
Wie verbohrt kann man denn sein? Wenn die Grafikkarte die CPU-Leistung überdeckt, wie willst du wissen, wie die CPU dimensioniert sein muss? Du siehst nur, was nichts ins GPU-Limit rennt. Großes Kino.
 
y33H@ schrieb:
Der Cinebench auch. Unter x64 schneller, mit nur 128 MB RAM sacklahm und mit schnellerem RAM mehr Punkte. Auch hier spielen andere Faktoren hinein.
Du solltest schon zu Ende lesen und nicht einfach wiederholen, was bereits gesagt wurde. ;) Und wie ich bereits sagte, sind die Auswirkungen hier wesentlich geringer, da es lediglich EINE Leistungskomponente gibt, die CPU. Bei Spielen gibt es immer mindestens ZWEI, CPU und GPU. Zusätzliche Komponenten wie RAM können die Ergebnisse darüber hinaus beeinflussen. Das gilt für Anwendungen genauso wie für Spiele.

Krautmaster schrieb:
@ Leistung / Takt Diskussion

Was haltet ihr davon, wenn bei zukünftigen CPU Tests folgendes unternommen wird:

- Man deaktiviert im Bios alle Kerne bis auf einen
- Man nimmt 2,5 Ghz als BenchTakt, der Multi wird also darauf hin angepasst
- Falls der Takt nicht genau erreicht wird, so nimmt man den nächst kleineren Multi und passt den Referenztakt auf die 2,5 Ghz an.
- Turbo aus.
- selber Ram Speed + Timings
So einfach ist das nicht. Es gibt mehrere Metriken für Performance pro Takt (IPC). Im Endeffekt sind zwei am interessantesten, ILP IPC und TLP IPC. ILP (Instruction Level Parallelism) IPC beschreibt, wie viele Instruktionen eines Code-Streams, also eines Threads, innerhalb einer bestimmten Zeit abgearbeitet werden können. Um dies zu messen, müsste man eine Anwendung mit lediglich einem Thread, welcher Last erzeugt, einem einzigen logischen Prozessor zuweisen. Also kein Multi-Core, kein SMT oder ähnliches hardwareseitiges Multithreading. TLP (Thread Level Parallelism) IPC beschreibt, wie viele Instruktionen die gesamte CPU innerhalb einer bestimmten Zeit abarbeiten kann. Hierfür braucht es eine Anwendung, die Last-Threads für jeden einzelnen logischen Prozessor der CPU erzeugen kann. Alles weitere, wie identischer RAM, gleiche Taktfrequenz, kein Turbo, keine Übertaktung des Uncore-Bereiches, etc.pp sollte obligatorisch sein. Und wie Schaffe89 schon sagt, das ist alles ein interessanter Ansatz bezüglich des technischen Aspekts. Wie sich die CPU letztendlich in der Praxis schlägt aufgrund des Taktes, ist nochmal eine andere Geschichte. Die Formel der Hardware-Designer lautet schliesslich nicht IPC * Takt, sondern IPC * Takt * Watt.

Krautmaster schrieb:
Nun realitätsnahe Benchmarks:

- Windows Bootzeit (selbe HDD, selbes OS, frische Install -> 5 mal und berechnet den Schnitt (erstes Windows Bootlogo erscheinen bis fertigen Öffnen einer Word Datei im Autostart)
- Windows Installationszeit
- Winrar
- Applikationsladezeiten (wie bei SSD Test)
- Cinebench und paar theroetisches Gedöhns
- Spiele (bei einer CPU sollte nun oft die CPU auch limitieren)
Ehrlich gesagt halte ich nicht viel davon. Das sind zwar weitestgehend praxisnahe Szenarien. Nur spielt die CPU hier eine untergeordnete Rolle, da viel an der Peripherie hängt. Zudem hat Cinebench einen recht zweifelhaften Ruf (hat sich glücklicherweise mit Version 11.5 etwas gebessert). Spiele, wie schon gesagt, sollte man separat benchen. Der Rest sollten reine Applikationen sein, die sich nach Anforderungsprofil zusammenstellen, zB:

- wissenschaftliche Berechnungen (wPrime)
- Rendering / 3D-Modelling (POV-Ray)
- Verschlüsselung (TrueCrypt)
- Komprimierung (7-Zip)
- Bildverarbeitung (Paint.NET)
- Codec (x264)
- Virtualisierung (specjvm)
...

(Die Anwendungen in Klammern sind lediglich Beispiele und können pro Profil natürlich erweitert bzw durch bessere ersetzt werden.)

Krautmaster schrieb:
ähm... was juckt mich als Endbenutzer auf was der ein oder andere seine Architektur optimiert hat bzw welche "Schalter" AMD im Weg liegen. 98% benutzen Windows, AMD wäre schön doof auf Linux zu optimieren oder? Das können sie bei ihren Opteron wegen mir gerne machen.
>50% der Server nutzen sicherlich kein Windows. Und AMD entwickelt CPUs nicht explizit für Windows. Ihr Grunddesign ist seit dem K8 (Hammer) auf Server ausgerichtet. Das war auch bei Barcelona, Shanghai und Istanbul so. Also bitte nicht alles über einen Kamm scheren. Und nochmal, wenn man sich über Hardware unterhält, dann sollte man auch wissen und verstehen, was Softwareoptimierungen ausmachen. Niemand hat verlangt, dass es dich als Endbenutzer jucken soll. Nur sollte man sich dann auch nicht zu so oberflächlichen und allgemeinen Aussagen hinreissen lassen wie CPU A bla bla CPU B bla bla 20-30% bla bla und ruhig mal die Füsse stillhalten bzw das ganze differenzieren und in den richtigen Kontext setzen. Es sind immer mehrere Faktoren, die zusammenkommen. Und solche Pauschalisierungen anhand eines speziellen Szenarios helfen da nicht weiter.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Wie verbohrt kann man denn sein? Wenn die Grafikkarte die CPU-Leistung überdeckt, wie willst du wissen, wie die CPU dimensioniert sein muss? Du siehst nur, was nichts ins GPU-Limit rennt. Großes Kino.

Du hast wie immer meinen Kommentar nicht zuende gelesen und reißt alles aus dem Zusammenhang.
Und du scheinst nicht einmal in der Lage diesen simplen Zusammenhang verstehen zu wollen.
CB testen nicht mit einer 2600xT, sonder mit einer aktuellen HD5870. (Anscheinend denkst du dass sie mit einer Low End GPU testen,, denn anders kann ich mir deine Reaktion nicht erklären.)
Denn es ging in meiner Argumentation gar nicht darum die maximal mögliche Leistung einer CPU mit einem theoretischen Test herauszufinden es ging um was völlig anderes.

Wenn die Grafikkarte die CPU-Leistung überdeckt, wie willst du wissen, wie die CPU dimensioniert sein muss? Du siehst nur, was nichts ins GPU-Limit rennt. Großes Kino.

Gut, dann erläutere mir bitte ohne Polemik, wie ich einen CPU für ein System dimensioniere, wenn ich in 800x600 benche und ich keine Werte habe, welche der Realität entsprechen.
Wie ich weiter oben schon gefühlt tausend mal darauf hingewiesen habe, dass die 800x600 Benches eine Leistungstendenz vermitteln, welche mit einer stärkeren Grafikkarte später eventuell ausgenutzt werden können. Eventuell, weil noch andere Faktoren mit reinspielen, welche die Leistung beeinflussen, wa bereits tausend mal gesagt wurde. dabei ging es um den Vergleich AMD vs. Intel.
Und wenn nach dieser mühevollen Diskussion ein Diskussionspartner am Ende wieder nur spammt, dann wundert es mich nicht warum Mods das ganze dann löschen und Karten verteilen, weil einfach nichts dabei rumkommt.


Ich bin ja gespannt, wie sich das bei Bulldozer verhält.

Gruffi schrieb:
Um dies zu messen, müsste man eine Anwendung mit lediglich einem Thread, welcher Last erzeugt, einem einzigen logischen Prozessor zuweisen.

So ein Szenario wäre doch perfekt dafür geeignet sich über die Effizienz der Architektur, bzw sich über die IPC zu unterhalten, wäre doch perfekt für die Leistung pro takt und pro thread Gurus.
So ein performancerating wäre zwar sehr aufwendig, aber man würde die Leistung der Architekturen an an sich schön vergleichen können. Bzw.. vergleichen wer (AMD/Intel) die bessere CPU Auslastung hinbekommt. Ist ja schließlich 1 Phenom 2 Kern, alias Phenom 2 925 langsamer als 1 Kern Q9550.
Wenn man alle 4 betrachtet, zieht der Phenom 2 gleich.
Wenn auch hier wahrscheinlich der FSB verantwortlich ist.
Wird das denn mit Bolldozer noch möglich sein?
Man hört ja dass die Aufteilungin einzelne Kerne bei Bulldozer bzw.. "Zambezi" nicht mehr so einfach sein soll.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
So ein Szenario wäre doch perfekt dafür geeignet sich über die Effizienz der Architektur, bzw sich über die IPC zu unterhalten, wäre doch perfekt für die Leistung pro takt und pro thread Gurus.
Sicherlich. Trotzdem sollte man bedenken, dass das dann halt auch nur die halbe Wahrheit bezüglich Effizienz der Architektur ist. Schauen wir doch mal auf Bulldozer. Ein Modul beherbergt letztendlich 2 logische Prozessoren (2 Integer Cluster). Diverse Stufen der Pipeline, wie Frontend (Fetch / Decode / Scheduler) oder FPU Ausführungseinheiten, sind eben auch auf diese zwei logischen Prozessoren hin dimensioniert. Ähnliches gilt für den L2. Der L3 ist dann sogar für alle Module dimensioniert. Also bezüglich Effizienz müssen die Designer immer die gesamte CPU im Auge behalten und den bestmöglichen Kompromiss finden.
 
gruffi schrieb:
- wissenschaftliche Berechnungen (wPrime)
- Rendering / 3D-Modelling (POV-Ray)
- Verschlüsselung (TrueCrypt)
- Komprimierung (7-Zip)
- Bildverarbeitung (Paint.NET)
- Codec (x264)
- Virtualisierung (specjvm)
...

(Die Anwendungen in Klammern sind lediglich Beispiele und können pro Profil natürlich erweitert bzw durch bessere ersetzt werden.)

der Parcour ist soweit in Ordnung, aber auch wenn die von mir genannten Tests von der Umgebung abhängen, so spiegeln sie dann eben auch die Gesamtperformance der Platform wieder, das was beim User ankommt. Natürlich sollte ich die verschiedenen Systeme nicht mit verschiedenen HDDs / Ram testen.

Wenn nun wPrime sagt, dass die Core i7 CPU 40% schneller ist, die Platform in Summe aber unter Windows 40% langsamer reagiert bei selber HDD, RAM, GPU, so interessiert mich das doch auch. Deswegen halte ich von rein theoretischen Benchmarks wenig.

Die Mischung macht es. Gerade den SSD Test finde ich von der Aussagekraft noch recht praxisnah, vom Ansatz her. Der CPU Test sollte eben durch solche Test ergänzt werden.

Natürlich selber Takt, kein Turbo etc.

@Schaffe

Ich habe bewusst gesagt dass man den 1920x1080 Test weglassen kann, bzw ihn aus dem Rating ausschließen sollte, da seine Aussagekraft nunmal gegen 0 geht. Klar, schön anzusehen ist er da jemand, der nur Zockt, sieht, dass 4 Kerne mit Mehr Takt 6 Kernen überlegen sind, oder ein schneller 3 Kern auch locker reicht, dass sich Intel und AMD eigentlich nichts schenken und er lieber Geld in die Graka buttern sollte. Für die CPU Leistung an sich sagt er dennoch praktisch 0 aus. Ich will auch nicht behaupten dass der 800x600 Test das gelbe vom Ei ist, da recht praxisfern, dennoch hat er mehr Aussagekraft.


gruffi schrieb:
>50% der Server nutzen sicherlich kein Windows. Und AMD entwickelt CPUs nicht explizit für Windows. Ihr Grunddesign ist seit dem K8 (Hammer) auf Server ausgerichtet.

>50% kein Windows? Wenn du Server im Sinne von Supercomputer mit tausenden CPU meinst dann sicher... aber wenn ich mir den Mittelstand und die Unternehmen anschaue, so werden auf Linux ca 1-5% abfallen. Zahlen zu diesen Mainstream Servern bekommt man sicher wenig, wird wohl einfach in die Desktopzahlen einfließen.

Die meisten "Server" stehen imho in den Serverräumen in irgendwelchen Unternehmensgebäuden. Und meisten läuft darauf, wie im Desktopbereich auch, Windows.
Bei uns kommt Linux hauptsächlich bei Datenbanken zum Einsatz. Aber trotzdem sind 95% der VMs / Server mit Windows Server betankt, alle Workstations sowieso.

Wir sind sicher nicht das einzige Unternehmen bei dem es so aussieht.

Weltweit wurde im April 2009 im Market-Share-Report von Net Applications erstmals ein Marktanteil von einem Prozent ermittelt.

In Supercomputern kommen zudem meist ganz andere CPU zum Einsatz.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
In Supercomputern kommen ...

schon seit Jahren gewöhnliche x86 CPUs zum Einsatz. Die einzige Ausnahme ist IBM, die auf PowerPC/POWER setzen. Dazu kommen noch Systeme, die zusätzlich GPUs (machen z.B. die Chinesen) oder andere Beschleunigerkarten (macht IBM beim Roadrunner mit Opterons + XCell) einsetzen.

Die Zeit, in der Spupercomputer noch auf spezielle Vektorprozessoren setzten (z.B. Cray bis Mitte der 90er oder der Earth Simulator) ist vorbei.
 
Krautmaster schrieb:
>50% kein Windows? Wenn du Server im Sinne von Supercomputer mit tausenden CPU meinst dann sicher... aber wenn ich mir den Mittelstand und die Unternehmen anschaue, so werden auf Linux ca 1-5% abfallen. Zahlen zu diesen Mainstream Servern bekommt man sicher wenig, wird wohl einfach in die Desktopzahlen einfließen.
Nicht nur Supercomputer, sondern generell Server. Damit meine ich keine Workstations und dergleichen, von dem du hier anscheinend sprichst. Wobei ich mich korrigieren muss, ich meinte natürlich nicht nur Linux, sondern generell Systeme, wo das gleiche für Software und deren Optimierung gilt, zB auch Unix. Ob es jetzt wirklich >50% sind, keine Ahnung. War lediglich geschätzt anhand älterer Statistiken. Es ist aber definitiv deutlich mehr als maximal 2%, was deine Aussage bezüglich "98% benutzen Windows" implizieren würde. Wobei ich denke, selbst der gesamte Markt dürfte maximal 90% Windows sein, wenn überhaupt. 98% ist sicherlich übertrieben.
Wenn man sich zB mal den Marktanteil bei Webservern anschaut (siehe hier) dann sieht man schon, dass Nicht-Windows Systeme alles andere als klein in diesem Bereich sind. Ähnliches sagt auch IDC, die von ~30% für Unix und ~15% für Linux bei Servern sprechen (bezogen auf die Verkäufe), was insgesamt mehr ist als die knapp 42% für Windows.
 
Krautmaster. schrieb:
Ich habe bewusst gesagt dass man den 1920x1080 Test weglassen kann, bzw ihn aus dem Rating ausschließen sollte, da seine Aussagekraft nunmal gegen 0 geht.

Wenn du Leistung der CPU messen willst, sicherlich. Interessante Punkte sind aber auch hier minimum FPS.
Wenn du die CPU für deine Settings vernünftig dimensionieren willst, dann nicht.
 
Wie soll ich anhand eines GPU-Limits meine CPU für meine Settings vernünftig dimensionieren? Erkläre mir das bitte.
 
Wenn ich mir ein System zulege kaufe ich mir eine CPU mit gutem P/L welche für mich in Realer Auflösung genügend FPS in Verbindung mit einer schnellen Grafikkarte bringt.
Man nehme den i5 750 /phenom 2 965BE/955Be, reichen bisher für Gamersettings einwandfrei aus und limitieren nicht die Leistung einer schnellen karte.

Warum dann also einen i7 975XE kaufen, welcher mit nichts bringt, außer in 800x600?
Diese Diskussion wurde übrigens schon tausend mal geführt und muss nicht nochmal angeheizt werden.
Erklärt sich von selbst, wenn man die ganze Diskussion verfolgt.
 
Ich geb's mal wieder auf, ist zum Verzweifeln.
 
Zurück
Oben