News Tape-Out von AMDs „Bulldozer“ erfolgt

@ gruffi

Ich bezog mich auf die Geschwindigkeit, Performance pro Watt und Performance pro mm² ist AMD seit RV670 vorne - klar.


Und nein, pro Takt und Thread sind es (wie bereits erwähnt) unter Windows 20-30% zwischen K10.5 und Nehalem, auch ohne Turbo-Modus. Nehmen wir doch einfach das CB-Spiele-Ranking ohne verzerrendes GPU-Limit, also 800 x 600. Da sehe ich den i5-750, welcher mit TM ja zumeist mit 2,80 GHz läuft, stolze 40% vor dem gleichgetakteten 1055T, der im Übrigen zwei Kerne mehr hat. Das ist ziemlich viel, RE5 und FC2 verschieben hier das Verhältnis stark. Aber auch Titel wie GTA4, Dragon Age, NFS Shift oder WoW sehen einen i5-750 (deutlich) in Front. Da gibt es auch nichts zu diskutieren, alleine die Tatsache, dass der 750er idR mit einem 965 BE gleichauf liegt oder gar vorne, spricht Bände. Der 965 BE hat nämlich 600 MHz mehr. Bei nur maximal 15% mehr Performance pro Takt müsste der i5-750 auf dem Level eines 945 (ohne TM) oder 955 (mit TM) sein. Ist er aber nicht, er ist schneller.



Es sei denn, du findest auf einmal massig Spiele-Werte, in denen sich der 750er unterhalb eines 955 oder gar eines 945 befindet. Ich bin gespannt.
 
Na super, sind wir wieder an der Stelle angelangt, wo dir die Argumente ausgehen und am besten jedes Satzzeichen bewiesen werden muss.
Der Hinweis auf die CPUID war dahingehend gemeint, dass es wirklich simel ist, den verbauten Prozessor zu identifizieren und anderen Code auszugeben.

Nur ein Indiz für meine Behauptung:
Laut FTC soll Intel Compiler auch so programmiert haben, dass Prozessoren der Konkurrenz beim SPEC-CPU-Benchmark den eigenen Produkten unterlegen waren.
http://www.heise.de/newsticker/meldung/Intel-sucht-Einigung-mit-US-Wettbewerbshuetern-1026926.html

Und hier ist eigentlich nur der Intel Compiler Patch von belang, mit dem auch AMD besser optimierten Code ausführen darf.
http://www.heise.de/newsticker/meld...e-eroeffnet-Verfahren-gegen-Intel-887834.html
 
Zuletzt bearbeitet:
Sorry aber dieses Rating zu verwenden für einen angeblichen 40% Vorsprung der sich in sämtlichen Anwendungbenchmarks überhaupt nicht zeigt:
https://www.computerbase.de/2010-04...-und-1090t-be/32/#abschnitt_performancerating
Ist ja mehr als nur ein bisschen vorbei geschossen.

Dieses 800x600 ist alles mögliche nur kein echter Benchmark - auch wenn die GPU-Lobby immer wieder meint das würde das Graka Limit eliminieren.

Das ist ja mal eine Denkweise: da werden 8 Anwendungen gebencht wo eine Grafikkarte keine Rolle spielt und dann wird dieser "Quenchmark" als Referenz benutzt.
"Wenn man nur einen Hammer hat, sieht jedes Problem aus wie ein Nagel" ist hier wohl die treffende Weisheit. Vor allem bei Spielen die kaum mit 4 Kernen umgehen können und die Performance liegen lassen.

CPU Benchmark mit Spielen ernsthaft in eine Performance Diskussion einzubringen - hoffentlich liest das keiner. ;)
 
@ Complication

Dieses 800 x 600 killt das GPU-Limit. Spiele-Benches im oder am GPU-Limit benchen nicht die CPU, sondern die GPU. Was nicht der Sinn eines CPU-Benches ist, logisch.
CPU Benchmark mit Spielen ernsthaft in eine Performance Diskussion einzubringen - hoffentlich liest das keiner.
Wie willst du sonst messen, wie flott eine CPU in einem Spiel ist und welche CPU du brauchst? Der Cinebench sagt dir das nicht :p

Aber wenn das [CPU-Benches im/am GPU-Limit] ernsthaft noch jemand in Frage stellt, bin ich raus. Falls du Anwendungen möchtest: Da sehe ich den i5-750 mit TM 19% vor dem X4 925, welcher auch 2,80 GHz hat. Und in theoretischen Tests sind's plus 26%. Womit meine 20-30% wunderbar getroffen sind (die 40% in Spielen erachte ich wie gesagt bedingt durch RE5 und FC2 als zu hoch, idR sind's weniger).


Vor allem bei Spielen die kaum mit 4 Kernen umgehen können und die Performance liegen lassen.
Anno 1404, ArmA II, CoD MW, CMR Dirt 2, FC2 und RE5 können ALLE was mit vier Kernen anfangen. Wäre dem nicht so, wäre den Core i noch weiter in Front - Turbo ahoi.
 
Zuletzt bearbeitet:
Das ist wie gegen eine Wand reden. Ist die Mühe glaub ich nicht wert.
CPU-Limits sind auflösungsunabhängig. Nuff said.
 
Leidiges Thema, seit Jahren. Und es gibt immer noch Fakten-Ignorierer :(
 
gruffi schrieb:
Kompiliert wird vor dem Ausführen der Anwendung
Nein. Kompiliert wird, wenn der Entwickler eine Executable erzeugen will. Wenn ein User diese ausführt, ist eine ganz andere Geschichte.
Ja, kompiliert wird vor dem dem Ausführen, den bevor du etwas ausführst musst du eine Executable haben. Ich wollte damit bloß sagen, dass das kompilieren mit dem Ausführen nichts zu tun hat, da vorher geschehen und damit der fertige Code durch verschiedene CPUs durchgejagt werden kann. Ich habe also bloß die reinfolge erwähnt, ich habe nicht behauptet,dass man jedes mal vor dem Ausführen kompilieren muss, wir sind uns in dem Punkt also komplett einig.

gruffi schrieb:
Der Code ist fertig und kann durch verschiedene CPUs unverändert gejagt werden.
Ja, solange wir von Maschinencode sprechen und die CPUs die jeweilige Befehlssatzarchitektur unterstützen.
Was bei x86-CPUs über die wir sprechen der Fall ist, also nicht nötig das noch mal durchzukauen.

gruffi schrieb:
Deshalb ist der Code trotzdem auf eine bestimmte Mikroarchitektur zugeschnitten. Und wenn andere Schalter beim Kompilieren verwendet werden, entsteht eben auch anderer Maschinencode..
Deswegen soll AMD ja genau den Code mit den Schaltern, die der Compiler beim Compilieren verwendet, nehmen und ihn durch seine CPUs jagen und schauen, wo man etwas anders machen kann um mehr Power dabei herauszuholen und dazu muss man die CPU nicht 1:1 nachbauen um eine ähnliche Performance herauszuholen.

---

Übrigens, interessant, dass du dich nicht getraut hast, den Tipp für die Wette bezüglich MS-Compiler abzugeben. Offenbar glaubst du selbst nicht wirklich dran, dass da in absehbarer Zeit, was bei rauskommt^^
 
Zuletzt bearbeitet:
y33H@ schrieb:
Nehmen wir doch einfach das CB-Spiele-Ranking ohne verzerrendes GPU-Limit, also 800 x 600.
Ok, da haben wir schon deinen Fehler. So etwas ist schlichtweg nicht aussagekräftig für einen CPU-Vergleich. Man sieht es ja schon daran, dass der X3 720 praktisch so schnell wie der X6 1055T sein soll, trotz nur halber Rechenkapazitäten (sogar etwas weniger aufgrund von fehlendem Turbo). Was im Endeffekt bedeutet, dass 4 Kerne selten oder gar nicht von der Software vollständig genutzt werden. Und das bedeutet auch, dass der i5 750 oftmals mehr als nur eine Stufe hoch schalten und dann mit bis zu 3,2 GHz laufen kann. Um hier wenigstens überhaupt noch etwas Interessantes erkennen zu können, müsste man die Auslastung der CPUs und deren durchschnittliche Taktrate kennen. Ich sehe in der Grafik nichts davon. Auch dass der X6 1055T ohne Turbo sogar einen Tick schneller sein soll als mit Turbo, spricht nicht für die Aussagekraft der Grafik.
So vergleicht man jedenfalls keine CPUs. Das ist schlichtweg Unfug. Und ich hoffe, darüber braucht man auch nicht diskutieren. GPU und PCIe Bus haben zudem entscheidenden Einfluss und verändern die Ergebnisse zusätzlich. Auch wenn du der Meinung bist, ein GPU-Limit wäre nicht vorhanden. Es ist in Wahrheit trotzdem vorhanden, nur nicht das, was du dir darunter vorstellst.
Nimm einfach "normale" Anwendungen, die nur die CPU auslasten, und vergleiche nochmal. Das kann doch auch für dich kein Problem sein. Und wie gesagt, es sind nach wie vor maximal 10-15% pro Thread und Takt.

Complication schrieb:
Dieses 800x600 ist alles mögliche nur kein echter Benchmark - auch wenn die GPU-Lobby immer wieder meint das würde das Graka Limit eliminieren.
Ja, schon seltsam. Die Wahrheit ist nämlich eine ganz andere und wurde schon etliche Male erläutert. Scheinbar stösst das immer noch auf taube Ohren. Die Leute glauben, wenn ich das "GPU-Limit" eliminiere, hat die CPU plötzlich komplette Freiheit, um ihre Leistungsfähigkeit zu entfalten. Das ist aber ein fataler Irrglauben.

y33H@ schrieb:
Wie willst du sonst messen, wie flott eine CPU in einem Spiel ist und welche CPU du brauchst?
Es geht hier nicht um Spiele, falls du das nicht mitbekommen hast. Also lasse diese bitte aus der Diskussion raus und bringe Anwendungen, die nicht auch noch zusätzlich die GPU belasten und womit wir etwas anfangen können. ComputerBase hat wohl nicht umsonst einen Bereich "Anwendungen" für Tests eingeführt. Daran kann man am besten CPU Performance erkennen. Wobei man auch hier die Anwendungen etwas näher unter die Lupe nehmen sollte. Auch da gibt es gute und schlechte Kandidaten für einen Vergleich.


silent-efficiency schrieb:
Deswegen soll AMD ja genau den Code mit den Schaltern, die der Compiler beim Compilieren verwendet, nehmen und ihn durch seine CPUs jagen und schauen, wo man etwas anders machen kann um mehr Power dabei herauszuholen und dazu muss man die CPU nicht 1:1 nachbauen um eine ähnliche Performance herauszuholen.
Und was glaubst du, wäre das Ergebnis von AMDs Analyse? Richtig, sie müssten die Hardware weitestgehend nachbauen. ;) Das darf eigentlich nicht das Ziel sein. Software muss an die Hardware angepasst werden und nicht umgekehrt.

silent-efficiency schrieb:
Übrigens, interessant, dass du dich nicht getraut hast, den Tipp für die Wette bezüglich MS-Compiler abzugeben. Offenbar glaubst du selbst nicht wirklich dran, dass da in absehbarer Zeit, was bei rauskommt
Du hast mich gefragt, ob ich daran glaube, dass der MSC in Zukunft schneller werden würde als der ICC. Das hat doch überhaupt nichts mit dem zu tun, was ich sagte. Ich sprach davon, dass zukünftige MSC Versionen besser für AMD CPUs optimieren könnten als das momentan der Fall ist. Das hat mit dem ICC erstmal nichts zu tun.
 
Zuletzt bearbeitet:
gruffi schrieb:
Und wie gesagt, es sind nach wie vor maximal 10-15% pro Thread und Takt.
Bei Anwendungen und theoretischen Tests sind es wie gezeigt +19% respektive +26% bei gleichem Takt [X4 925 vs. 750 mit TM]. Womit meine 20-30% passen und es nichts dran zu rütteln gibt.
gruffi schrieb:
Auch da gibt es gute und schlechte Kandidaten für einen Vergleich.
Jetzt bitte noch die "böser Intel Compiler"-Keule auspacken und es wird wieder lächerlich.

Ich habe keine Lust, gegen eine ignorante Wand zu reden. Und bevor ich mir erneut wegen Leuten wie dir Stress einhandle, bin ich hiermit raus.
 
y33H@ schrieb:
Bei Anwendungen und theoretischen Tests sind es wie gezeigt +19% respektive +26% bei gleichem Takt [X4 925 vs. 750 mit TM]. Womit meine 20-30% passen und es nichts dran zu rütteln gibt.
Wie sollen denn 19%, inklusive Turbo, was bis zu 14% mehr Takt bedeutet (zB schön bei Lame zu sehen), zu deinen 20-30% passen? :rolleyes: Ich denke, das passt zu meinen 15% unter Windows deutlich besser. Die theoretischen Tests kannst du dir schenken. Sachen wie Sandra oder Vantage hängen noch deutlich mehr an hardwarespezifischer Optimierung als normale Anwendungen.

y33H@ schrieb:
Jetzt bitte noch die "böser Intel Compiler"-Keule auspacken und es wird wieder lächerlich.
Tja, das sind nun mal die Fakten und entsprechend zu berücksichtigen, wenn man Hardware vergleichen will. Wenn du das nicht wahrhaben willst, ist das dein Problem. Lächerlich ist daran natürlich auch nichts.
 
Ein letztes: Compiler und Optimierungen hin oder her. Das was am Ende raus kommt, zählt.

Keiner kauft sich eine CPU, die in der Theorie schnell ist, in der Praxis aber nicht :rolleyes:
 
Natürlich ist die Auflösung 800x600 als CPU Bench sehr zweifelhaft anzusehen.
Gruffi hat es sehr gut erläutert.
Ansonsten muss ich y33H@ recht geben. 19% und 26% sind eben 20 bis 30% da kann niemand was drann rütteln, auch du nicht Gruffi. :D

Es zählt wie schon so oftgesagt was auf dem Papier steht.
Und mir als nutzer nützt das Compiler Gerede nichts, da es deswegen auch nicht schneller läuft aufmeinem AMD Prozessor.
Alleridngs muss beachtet werden, dass der i5 auch bis 3,2 ghz hochtakten kann, was aber nur 1 bis 2 Anwendungen betreffen sollte, da ansonsten alle mit den kernen gut skalieren.
 
Zuletzt bearbeitet:
Das mit dem PCIe Bus könnte man doch prima untersuchen, indem man im CPU-Limit die CPU einfach unter- oder übertaktet, oder sehe ich das falsch? Den PCIe Takt sollte man natürlich gleich lassen.
gruffi, wenn du hier genauere Infos/Vermutungen hast, bitte nur her damit. Aber dass man CPUs nicht bencht, indem man der Grafikkarte Berechnungen aufhalst, sollte klar sein! Denn das wird dein Ergebnis mehr verfälschen als irgendein Bus (imo).

Niedrige Auflösungen sind absolut legitim zum CPU-Benchen in Spielen. Vielleicht kann man nicht ALLE anderen Performancefaktoren eliminieren - aber bei denen, die man ausschalten kann, sollte man dies auch tun, sonst ist der Bench für die Katz. Anders gefragt: Was macht die Auflösung 1920x1080 besser als 800x600, wenn man hier (verstärkt) die Grafikkarte mitbencht? Und wehe dem, der jetzt "Praxisnah" sagt! Dann sollten Grafikkartentests auch mit gängigen CPUs wie z.B. einem C2D oder einem kleinen PhenomII durchgeführt werden und nicht mit brutal übertakteten i7.

Turbo mag im Alltag gut sein, aber beim Benchen hat auch der nix verloren, da man die aktuelle Taktrate nicht kennt und diese je nach Auslastung natürlich auch schwanken kann - für ein vernünftiges Benchergebnis natürlich ein Desaster.
 
Zuletzt bearbeitet:
gruffi schrieb:
Und was glaubst du, wäre das Ergebnis von AMDs Analyse? Richtig, sie müssten die Hardware weitestgehend nachbauen. ;)
Nein, müssten sie nicht. Die CPUs können intern komplett unterschiedlich arbeiten und im Durchschnitt dennoch ungefähr das gleiche Leisten. Es gibt so viele Möglichkeiten bei den tausenden an Transistoren die in CPUs verbaut werden. Der Code der aus dem Compiler kommt, kommt nicht mal weiter als zu den Decodern in einer CPU, wo eh alles in Instruktionen zerlegt wird. Und auch bis zu den dekodern kann alles mögliche passieren, die eine CPU kann das eine schneller die andere das andere, in der Summe kommt gleichstand bei raus. Auch ein Pentium E5500 ist komplett anders als ein Athlon II X2 250, dennoch bringen sie ähnliche Leistung. Wenn AMD ihre CPUs darauf optimiert den Code, der ein Intel-Compiler ausspuckt möglichst schnell abzuarbeiten, heißt das nicht, das sie eine Kopie einer Intel-CPU bauen müssen. Sogar Intel bringt jede zwei Jahre eine neue CPU, die mit den gleichem Code aus den gleichen Compilern mehr Leistung herausholt. Wenn es nach dir geht, müsste es ja nur die Ursprünglich von Intel vorgestellte CPU für den Code, den dieser Compiler mal geliefert hat geben, wo alles toll läuft, alles andere müsste ja schlicht schlechter laufen, weil anders als das ursprüngliche Desing. Das ist einfach Humbug. Die CPUs können unterschiedlich sein, dennoch kann man darauf optimieren, den vorliegenden Code für verschiedene Programme im Durschnitt möglichst schnell abzuarbeiten.

gruffi schrieb:
Software muss an die Hardware angepasst werden und nicht umgekehrt.
In einer Welt wo Intel und AMD jeweils 50 Prozent Martanteil haben und die Compiler von einem unabhängigen Gremium kommen, vielleicht. Die Realität sieht anders aus, und der Realität muss man sich stellen und nicht sich hintern Baum verstecken und mit dem Finger auf andere Zeigen.
 
y33H@ schrieb:
Keiner kauft sich eine CPU, die in der Theorie schnell ist, in der Praxis aber nicht
Ich wüsste nicht, wo zB Linux Theorie sein soll. Du magst das vielleicht nicht glauben, aber ich habe tatsächlich schon Linux Rechner gesehen und an diesen sogar gearbeitet. Und hier hat AMD auch weit weniger Nachteile bezüglich Softwareoptimierung. Man sollte sich einfach mal von dem Gedanken lösen, dass Windows alles ist, auch wenn es sicherlich die verbreitetste Plattform bei Desktops ist.
In diesem Zusammenhang fallen mir zwei Grafiken ein, die mehr als tausend Worte sagen:




Ausserdem frage ich mich, wieso ausgerechnet du mit solchen Sätzen kommst. Auf der einen Seite davon sprechen, dass Theorie unwichtig ist und nur zählt, was praktisch hinten rauskommt. Auf der anderen Seite aber mit 800x600 Tests argumentieren. Da kann etwas nicht stimmen. :rolleyes:

Schaffe89 schrieb:
Ansonsten muss ich y33H@ recht geben. 19% und 26% sind eben 20 bis 30% da kann niemand was drann rütteln, auch du nicht Gruffi.
Die 19% (im Test davor mit i3 waren es übrigens noch 18%) sind mit Turbo. Dass es also bei gleichem Takt weniger ist, sollte auch dir klar sein. Und wie schon gesagt, die theoretischen Tests kannst du dir schenken. Die sagen überhaupt nichts. Ich kenne auch niemanden, der seinen Rechner für theoretische Tests nutzt. Und wie y33H@ selbst sagt, geht es ihm gar nicht um Theorie, sondern um Praxis. Also vergessen wir die 26% am besten ganz schnell.
Ich sehe da immer noch keine 20-30%. Und daran gibt es nichts zu rütteln, auch von dir nicht. 15% ist realistisch, das Doppelte schlichtweg fernab der Realität.

Schaffe89 schrieb:
Es zählt wie schon so oftgesagt was auf dem Papier steht.
Und mir als nutzer nützt das Compiler Gerede nichts, da es deswegen auch nicht schneller läuft aufmeinem AMD Prozessor.
Doch. Nur wissen anscheinend die wenigsten Leute, was sie dafür tun müssen. Und ein bisschen Sensibilisierung für ein Thema hat auch noch niemandem geschadet. Ist zumindest hilfreicher als Ignoranz.

silent-efficiency schrieb:
Die CPUs können intern komplett unterschiedlich arbeiten und im Durchschnitt dennoch ungefähr das gleiche Leisten.
Das wäre dann aber eher Zufall und hätte mit dem Thema der Softwareoptimierungen nichts mehr zu tun. Wenn eine CPU in gleicher Weise von Softwareoptimierungen profitieren soll, dann muss auch die Mikroarchitektur vergleichbar aufgebaut sein. Was nichts anderes bedeutet als Nachbau.

silent-efficiency schrieb:
Der Code der aus dem Compiler kommt, kommt nicht mal weiter als zu den Decodern in einer CPU, wo eh alles in Instruktionen zerlegt wird.
Der Compiler berücksichtigt aber zB die Ausführungseinheiten und die kommen bekanntlich erst danach. Genauso ist durch OoO die ganze Codeabwicklung taktübergreifend. Auch das muss der Compiler berücksichtigen. Es geht weit darüber hinaus, wie du dir das womöglich laienhaft vorstellst. Es betrifft die gesamte Pipeline und damit grundsätzlich den Aufbau der Mikroarchitektur.

silent-efficiency schrieb:
Wenn es nach dir geht, müsste es ja nur die Ursprünglich von Intel vorgestellte CPU für den Code, den dieser Compiler mal geliefert hat geben, wo alles toll läuft, alles andere müsste ja schlicht schlechter laufen, weil anders als das ursprüngliche Desing.
Also irgendwie redest du jetzt nur noch wirres Zeug. Vielleicht liegt es aber auch daran, dass deine Grammatik nachlässt.
Neue CPUs von AMD profitieren von den dortigen Verbesserungen (effizientere Logik, schnellerer Cache, etc) natürlich genauso wie das bei Intel der Fall ist. Das hat mit Optimierungen für die jeweilige Mikroarchitektur erstmal wenig zu tun.

silent-efficiency schrieb:
In einer Welt wo Intel und AMD jeweils 50 Prozent Martanteil haben und die Compiler von einem unabhängigen Gremium kommen, vielleicht.
Das hat mit Marktanteilen gar nichts zu tun. Das muss der Anspruch der Hardware-Designer und Softwareentwickler sein.
 
Zuletzt bearbeitet:
gruffi schrieb:
Auf der anderen Seite aber mit 800x600 Tests argumentieren. Da kann etwas nicht stimmen.
Tja, du hast es nicht kapiert. 800 x 600 misst die CPU. Praktisch. Ein GPU-Limit nicht. That's it.
 
Gruffi schrieb:
Die 19% (im Test davor mit i3 waren es übrigens noch 18%) sind mit Turbo. Das es also bei gleichem Takt weniger ist, sollte auch dir klar sein.

Okay, lass wir die theoretischen Tests raus. Is eh nichtinteressant.
y33H@ hat mit dem phenom 2 925 verglichen, welcher standardmäßig mit 2,8ghz taktet.
Der i5 750 taktet wohl im Schnitt auch etwa mit 2,8 ghz, also dürfte sich die Taktung annähernd die gleiche sein.
Unterschied 19%.
Jedenfalls eher an 15% als an 20 bis 30%, wobei beides annähernd stimmt, also lassen wir das.

gruffi schrieb:
Und ein bisschen Sensibilisierung für ein Thema hat auch noch niemandem geschadet. Ist zumindest hilfreicher als Ignoranz.
Ignoranz ist was ganz anderes als zu sagen, dass mir das am Ende nichts hilft, das hat nichts mit Ignoranz zu tun.
Und sensibilisierung oder nicht, es zählt das was am Schluss raus kommt für den Nutzer.
Heißt ja nicht, dass man von den Compilern nicht bescheidt wissen sollte.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Tja, du hast es nicht kapiert. 800 x 600 misst die CPU. Praktisch.
Es misst nicht nur die CPU und muss noch lange keinen Hinweis für höhere Auflösungen geben. Es spielt auch keiner bei 800x600. Ist also pure Theorie.

Schaffe89 schrieb:
y33H@ hat mit dem phenom 2 925 verglichen, welcher standardmäßig mit 2,8ghz taktet.
Der i5 750 taktet wohl im Schnitt auch etwa mit 2,8 ghz, also dürfte sich die Taktung annähernd die gleiche sein.
Falsch. Der i5 750 taktet mindestens mit 2,8 GHz, bei Last auf allen Kernen, kann aber bis zu 3,2 GHz takten bei Last auf weniger Kernen. Im Schnitt sollte der i5 750 also mit mehr als 2,8 GHz takten.
 
Zuletzt bearbeitet:
Nochmals kleiner Tipp:
Ein CPU-Limit ist unabhängig von der Auflösung. Wenn du eine Szene hast, in der die CPU die fps auf 30 limitiert, ist es völlig egal, ob die Grafikkarte Power für 320x240 oder 2560x1600 hat. Du wirst in dieser Szene NIE über 30 fps rauskommen, egal welche Grafikkarte, egal welche Grafiksettings du benutzt. Das sollte doch nicht so schwer zu verstehen sein. Daher sind "praxisferne" Auflösungen voll ok für CPU-Tests, weil die Auflösung in den Fällen, die in einem CPU-Bench interessant sind, total egal ist!

Stell es dir wie eine Autofabrik vor. Wenn der, der die Sitze einbaut (CPU), zu langsam ist, können die anderen (GPU) noch so schnell arbeiten - die letztendliche Geschwindigkeit, mit der die fertigen Autos aus dem Tor rauskommen, hängt von dem Sitzeeinbauer ab und von nichts anderem sonst.
 
Zurück
Oben