Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Bericht: GPU braucht CPU
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Bericht: GPU braucht CPU
PR3D4TOR
Fleet Admiral
- Registriert
- Juli 2008
- Beiträge
- 12.604
C170DAW schrieb:Also wenn ich bei HWbot einen Hardwarevergleich ziehe dann ist ein QX9770 auf 4,5 Ghz in einigen Bereichen gar nicht so weit von einem Sandy Bridge (wohlgemerkt mit 5 GHZ!) entfernt. In anderen Bereichen unterliegt er aber knapp dem X4 955 BE. Wobei schwer ist einzuschätzen welcher Benchmark für Spiele die CPU Leistung aufzeigen kann um die es hier ja eigentlich nur geht.
-> klick (unter Chart Options jeweils den gewünschten Vergleichsbenchmark anklicken)
Meiner Meinung nach ist ein QX9770 4,5 Ghz mit einem I7 2500 auf Standardtakt zu vergleichen. Kann aber auch völlig falsch liegen.
Die IPC der Sandy Bridge Prozessoren ist schon bedeutend höher als die eines Q9xxx oder Phenom IIs.
Kann man ja mal ausprobieren, wies mit einem QX läuft. Später kann man immer noch auf SB wechseln.
Man muss ja auch bedenken, dass man den i5-2500K sehr leicht übertakten kann. 4Ghz sind bei jedem drinnen (bin ich mir fast sicher). Dann siehts ja auch wieder anders aus.
W
wadenbeisser
Gast
SheldonCooper schrieb:Richtig, allein die min-FPS zählen, alls andere ist egal. Außerdem sollte man in den Diagrammen nicht den schnellsten Prozessor mit 100% angeben, sondern 60 min-FPS als 100%, da das ja der Frequenz der meisten TFTs entspricht.
Ohne Frameratenverlauf des gesammten Spieles sind die min FPS Angabe noch nutzloser als die Durchschnittsangabe, da es ein einmalig aufgetretender Wert sein kann....wodurch und wo auch immer der erreicht wurde.
SheldonCooper
Banned
- Registriert
- Mai 2011
- Beiträge
- 938
wadenbeisser schrieb:Ohne Frameratenverlauf des gesammten Spieles sind die min FPS Angabe noch nutzloser als die Durchschnittsangabe, da es ein einmalig aufgetretender Wert sein kann....wodurch und wo auch immer der erreicht wurde.
Äh, warum? Wenn ich sehe, dass die min fps irgendwann unter 60 fallen, dann weiß ich, dass der Rechner nicht für diese Auflösung und Details geeignet ist oder andersrum wenn ich sehe, dass die 60 min fps nie unterschritten werden, dann weiß ich dass der Rechner ausreicht.
Du musst das ganze digitaler sehen, es gibt nur 1 und 0. Warum sollte ich ein Spiel spielen, welches manchmal nicht die 60 fps erreicht? Das tu ich mir nicht an, dann warte ich lieber auf das nächste Hardwareupgrade. Sind ja nicht so viele Spiele, die so leistungshungrig sind, dass die 60 fps bei Full-HD nicht erreicht werden (außer Crysis 2 mit DX11 und Texturen-Update und Metro 2033 fällt mir gerade nichts ein was ich hab und die 60 min fps nicht erreicht).
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Da der 955BE immernoch preismässig leicht billiger alsnen i3 ist und auch für einen laien mehr oder weniger leicht zu übertakten ist amd in diesen bereich für doch noch leicht vorne.
der preis für den 2500k ist auch nicht so hoch über den 6kernern von amd und lassen sich noch leichter übertakten und erreichen auch nette werte durch die bank.
von daher für mich derzeit der 955 und der 2500k die interessantesten cpus am markt.
Also wie lange mein e6600 mit oc schon hält ist nett (Danke an die Konsolenportierungen)
Und da das nächste game das ich kaufe auch wieder nen mmo ist kann ich ihn noch weiter verwenden .
der preis für den 2500k ist auch nicht so hoch über den 6kernern von amd und lassen sich noch leichter übertakten und erreichen auch nette werte durch die bank.
von daher für mich derzeit der 955 und der 2500k die interessantesten cpus am markt.
Also wie lange mein e6600 mit oc schon hält ist nett (Danke an die Konsolenportierungen)
Und da das nächste game das ich kaufe auch wieder nen mmo ist kann ich ihn noch weiter verwenden .
- Registriert
- Sep. 2007
- Beiträge
- 7.219
Also falls du z.B. auf SWG TOR aus bist, wirst du mit der CPU warscheinlich nicht sooo weit kommen, wenn man sich so die Foren anschaut... Aber gut, war schon in Aion, Rift und Co. (leider) so :-/
Da war sogar mein Q9450@3,8Ghz überfordert (unterschied bei Rift von damals zu jetzt zwischen 15-20FPS)...
Da war sogar mein Q9450@3,8Ghz überfordert (unterschied bei Rift von damals zu jetzt zwischen 15-20FPS)...
DERLanky
Lt. Junior Grade
- Registriert
- Mai 2011
- Beiträge
- 414
Schade das dieser super Test noch vor BF3 kommt. Was man jetzt anhand der Beta vermuten kann ist das BF3 im Vergleich zu bisherigen Games sehr viel mehr von der CPU profitieren kann. Das lastet gerne auch mal alle 4 Kerne zu 100% aus. Soll Leute geben die trotz gtx 570 gar nicht auf Ultra spielen können aufgrund der CPU. Bei mir läuft es trotz GTX 460oc grade noch fast flüssig auf Ultra bei 1680x1050 (i5 2500k).
Zuletzt bearbeitet:
Schimmel-Apfel
Banned
- Registriert
- Sep. 2011
- Beiträge
- 225
ich hab ne 5870 und nen i5 2400 und kann BF3 auf max mit 16xAF und 4x AA auf 1680x1050 zocken
Ich versteh das problem nicht?
Ich versteh das problem nicht?
- Registriert
- Sep. 2007
- Beiträge
- 7.219
Liegt daran, dass jeder "flüssig" anders definiert... der eine bei 30FPS, der andere bei 60FPs..usw..
mace1978
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.174
Ich dachte, ihr sprecht über einen 955er und dem Verbrauch beim Spielen.Zwirbelkatz schrieb:Ein AMD-x4-System zieht unter Volllast rund 70 Watt mehr aus der Dose, als ein Intel i3 System unter Volllast. Bei der Übertaktung steigert sich das dann noch mal erheblich.
118 Watt zu 191 Watt (Erbsenzählerei)
https://www.computerbase.de/artikel...test.1473/seite-8#abschnitt_leistungsaufnahme
Warum du Werte von einem anderen Prozessor und einem anderen Anwendungsgebiet nimmst, ist völlig unklar.
Und warum du die CPU dann noch übertakten möchtest, wo die CPUs eh ausreichen auch.
Später wirfst du dann andere Zahlen in den Raum....einfach mal so Pi mal Daumen.
Im Idle sind die Intel CPU und diese schnellere CPU jedenfalls gleich auf.
Selbst der 965 verbraucht in folgendem Test im idle 9 Watt und unter Vollast 6 Watt weniger.
https://www.computerbase.de/artikel...est.1317/seite-31#abschnitt_leistungsaufnahme (*)
Dass dein Link wohl kaum hinkommen kann, wenn die CPU eine Maximalleistungsaufnahme von 125 Watt hat, und alleine der Unterschied zwischen idle und Volllast 111(114) Watt sein soll. Die in den beiden Tests verwendeten CPUs haben wohl beide eine TDP von 140 Watt.
Dein Vergleich hinkt. Und wenn aus den 73 Watt nur noch ca 40 überbleiben. Und dafür ein Bonus von ca 10 W im Idle dazu kommen, dann stellt sich die Frage, wer am Ende des Tages mehr verbraucht hat. Für deine Behauptung, du würdest Stromsparen, fehlt bisher auf jedenfall jeglicher Beweis.
*P.S. Wobei die Test offensichtlich eh schlecht zu vergleichen sind, da die Tests einfach komplett andere Werte liefern.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.324
Dein leistungsaufnahme Test bei CB kannste ignorieren...
Selbst mit nem i7 2600K @ 4,6 ghz und ner HD 6850 komme ich nicht über 55W idle (50W@ default) raus...
Die Frage ist wie wichtig das ist, wenn man nur 5% der Zeit am PC Zockt (wie ich, maximal) dann ist es nicht unerheblich...
Den i3 würde ich jetzt bei einem ZockerSystem nicht unbedingt dem PII 955 vorziehen, aber bei 140€ würde ich wohl den Quad i5 ganz klar einem AMD vorziehen, wobei 150€ CPU Preis für ein Zockersystem absolut im Rahmen ist.
Selbst mit nem i7 2600K @ 4,6 ghz und ner HD 6850 komme ich nicht über 55W idle (50W@ default) raus...
Die Frage ist wie wichtig das ist, wenn man nur 5% der Zeit am PC Zockt (wie ich, maximal) dann ist es nicht unerheblich...
Den i3 würde ich jetzt bei einem ZockerSystem nicht unbedingt dem PII 955 vorziehen, aber bei 140€ würde ich wohl den Quad i5 ganz klar einem AMD vorziehen, wobei 150€ CPU Preis für ein Zockersystem absolut im Rahmen ist.
Zuletzt bearbeitet:
- Registriert
- Juni 2006
- Beiträge
- 44.444
Ahja, das ist natürlich maßgeblich ob wir über einen 955 oder 965 reden. Das ändert die komplette Diskussionsgrundlage fundamental. Der 965er und der i3 2100 kosten genau gleich viel. Daher bietet sich der Vergleich an. Fertig.mace1978 schrieb:Ich dachte, ihr sprecht über einen 955er und dem Verbrauch beim Spielen.
Meine Güte; ... zum dritten Mal: Es war NICHT mein Argument, den x4 zu Übertakten. Hier wird einem das Wort im Mund rumgedreht während man dabei ist. Du bist schon der Zweite.Und warum du die CPU dann noch übertakten möchtest, wo die CPUs eh ausreichen auch.
Die eine Hälfte beschwert sich bei CB, dass nicht übertaktet worden sei. Die andere Hälfte sagt, dass es ja doch nichts brächte. Also irgendwie wirds suspekt.
Es sind Beispielzahlen. Wenn du das nicht verstehst, heißt das nicht, dass es nicht so ähnlich (!) eintreffen könnte. Es zeigt lediglich, dass man jeden Prozessor undervolten kann. Das hab ich mir wohl bloß ausgedacht.Später wirfst du dann andere Zahlen in den Raum....einfach mal so Pi mal Daumen.
Beschwer dich bei ComputerBase, dass sie falsch messen, wenn du den Werten nicht glaubst. Ob jetzt x4 955 oder x4 965, ob 6 Watt oder weniger, das ist sowas von absolut unerheblich. Mir fehlen wirklich die Worte bei so viel Unsachlichkeit.Dass dein Link wohl kaum hinkommen kann, wenn die CPU eine Maximalleistungsaufnahme von 125 Watt hat, und alleine der Unterschied zwischen idle und Volllast 111(114) Watt sein soll.
Zuletzt bearbeitet:
mace1978
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.174
@ZK
Die Rede war die ganze Zeit vom 955. Aber auch den 965er gibt es in der 125W Variante....auch der ist vermutlich ein Stück sparsamer als der 975 aus deinem Test.
Ich halte deine sogenannten Beispielzahlen für schlecht geschätzt. Und die Tests von CB liefern ungenügend da wechselnde Ergebnisse wie Krautmaster schreibt, die häufig auch zu hoch ausfallen.
Ich habe die CB-Tests hier des öfteren schon wegen unterschiedlicher Dinge kritisiert. Aber dafür gibt es hier keinen Grund. Du stellst eine Behauptung auf, ich zeige dir nur auf, dass deine Behauptung bisher ohne Nachweis ist. Was hat CB damit zu tun?
Ist oben schon erwähnt. Mit dem Satz rufst du logischerweise solche Reaktion hervor. Vielleicht mal bei dir selber nach der Fehlerquelle suchen.Bei der Übertaktung steigert sich das dann noch mal erheblich.
Die Rede war die ganze Zeit vom 955. Aber auch den 965er gibt es in der 125W Variante....auch der ist vermutlich ein Stück sparsamer als der 975 aus deinem Test.
Ich halte deine sogenannten Beispielzahlen für schlecht geschätzt. Und die Tests von CB liefern ungenügend da wechselnde Ergebnisse wie Krautmaster schreibt, die häufig auch zu hoch ausfallen.
Ich habe die CB-Tests hier des öfteren schon wegen unterschiedlicher Dinge kritisiert. Aber dafür gibt es hier keinen Grund. Du stellst eine Behauptung auf, ich zeige dir nur auf, dass deine Behauptung bisher ohne Nachweis ist. Was hat CB damit zu tun?
- Registriert
- Juni 2006
- Beiträge
- 44.444
@mace
Ok, ein anderer Versuch.
>
Ich sehe den Vorteil des i3 in folgenden Punkten:
Ok, ein anderer Versuch.
- Manche hier sagen, dass eines der Kaufargument für den x4 wäre, dass man ihn übertakten könne.
- Übertakten führt zu einem (meist exorbitant) erhöhten Stromverbrauch; jedenfalls dann, wenn man von Extremwerten wie 4GHz ausgeht.
- Die ohnehin schon nicht vorteilhafte Situation des Mehrverbrauchs bei AMD wird nicht unbedingt verbessert, wenn man an der Taktschraube dreht.
- Einige Tests von CB zeigen jedoch, dass sich selbst ein so hoch getakteter Prozessor wie der x4 975 "nur" auf Augenhöhe mit dem i3 2100 befindet. In Spielen!
Zu den Beispielzahlen:
- Es wurde gesagt, dass man den x4 mühelos Undervolten und somit lammfromm und sparsam bekommen kann. Das stimmt auch so.
- Den i3 kann man jedoch ebenfalls untervolten.
- Meine Beispielzahlen waren womöglich zu hoch oder zu niedrig.
- Was ich sagen wollte ist, dass man beide Prozessoren von einem Level bei 100% Verbrauch auf ein Level von 80-90% des Ursprungsverbrauch drosseln kann.
Darüber hinaus: - Die Volllastwerte, insbesondere die von CB meinetwegen, mögen untypisch sein.
- Wenn sie untypisch hoch sind, sind sie es aber für beide Prozessoren. Denn beide Prozessoren verbrauchen in durchschnittlichen Situationen in Spielen weniger als das dort angegebene Maximum, das vermutlich auf synthetischen Tests beruht.
- Grafikkarte und Restkomponenten beeinflußen diese Verbrauchswerte. Das tun sie aber bei beiden Prozessoren.
>
Ich sehe den Vorteil des i3 in folgenden Punkten:
- Stromverbrauch
- Abwärme
- Minimalframes
- Einsetzbarkeit bei mini-ITX
W
wadenbeisser
Gast
SheldonCooper schrieb:Äh, warum? Wenn ich sehe, dass die min fps irgendwann unter 60 fallen, dann weiß ich, dass der Rechner nicht für diese Auflösung und Details geeignet ist oder andersrum wenn ich sehe, dass die 60 min fps nie unterschritten werden, dann weiß ich dass der Rechner ausreicht.
Du musst das ganze digitaler sehen, es gibt nur 1 und 0. Warum sollte ich ein Spiel spielen, welches manchmal nicht die 60 fps erreicht? Das tu ich mir nicht an, dann warte ich lieber auf das nächste Hardwareupgrade. Sind ja nicht so viele Spiele, die so leistungshungrig sind, dass die 60 fps bei Full-HD nicht erreicht werden (außer Crysis 2 mit DX11 und Texturen-Update und Metro 2033 fällt mir gerade nichts ein was ich hab und die 60 min fps nicht erreicht).
Weil es Blödsinn ist den Rechner auf ein einmaliges Ereignis auszulegen.
Davon mal abgesehen kann wohl stark bezweifelt werden das es bei unter 60fps auch nur ansatzweise ruckelt.
An Kunden wie dir verdienen sich die Hardwarehersteller und der Stromversorger allerdings eine goldene Nase.....jedem das seine.
Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
Für jede Auflösung kannst du ne Schwelle erstellen, wann die CPU-Limitierung sich auswirkt. Aber wo diese Schwelle nun für bei diesen Grafikkarten verwendeten Moniten/Auflösungen ist, das kannst du durch diesen Test nur erraten und deshalb finde ich ihn schlecht gemacht. Denn zum Raten brauch ich keinen Test.
Ich verstehe nicht wirklich, was du da meinst, besonders das Festlegen eines CPU-Limits auf eine bestimmte Schwelle bei jeder Auflösung.
Meinen bescheidenen Kenntnissen nach habe ich grundsätzlich so lange ein CPU-Limit, bis die GPU aufgrund von eingestelltem Detailgrad und der Auflösung zu limitieren beginnt. Ich kann also daran festmachen, wann das GPU-Limit eintritt. Inwiefern das etwas mit dem CPU-Limit zu tun haben soll, entzieht sich meinem Verständnis.
Außerdem würde ich gerne wissen, wie du es dir vorstellst, diese ominösen "Schwellenpunkte" festzustellen. Jeder, der auch nur ein bissl Ahnung hat, weiß, dass ein GPU-Limit (wenn auch nur in recht geringem Ausmaß) und noch viel mehr ein CPU-Limit sehr volatile Angelegenheiten sind, die ganz und gar von den Anforderungen einer bestimmten Spieleszene abhängen. Das heißt, dass du im Extremfall auch bei 1920x1200 oder gar 2560x1600 ein kurzfristiges CPU-Limit haben kannst, wenn z.B. in BFBC2 irgendwo Unmengen an Gaslagertanks explodieren. In fast jedem Spiel gibt es je nach Szene verschiedenen Contend mit unterschiedlichen Rechenleistungsanforderungen.
Wenn man deinen Gedanken zu Ende denkt, liefe er darauf hinaus, dass du wissen willst, bei welchen Stellen einer Testszene (oder überhaupt im ganzen Spiel?) ein GPU-Limit vorliegt und wo ein CPU-Limit.
Wozu das bitte? Das wär ein horrender Aufwand, der zudem durch Kleinigkeiten zunichte gemacht werden würde und für den normalen Nutzer aber auch rein gar keine Aussage hätte, da viele noch nichteinmal das Wort GPU/CPU-Limit kennen, geschweige denn verstehen.
EDIT:
Im Übrigen fände ich es durchaus gut, dass diejenigen, die hier so selbstgefällig die Arbeit von vielen Stunden nebenbei als "schlecht" oder was weiß ich was abkanzeln, wenigstens soviel Anstand besitzen, das auf eine weniger unfreundliche Art zum Ausdruck bringen könnten. Gegen sachliche Kritik hat niemand etwas, diese ist vielmehr gerne gesehen, aber es ist wohl wirklich nicht zuviel verlangt, einander ein Grundmaß an Respekt im Umgange entgegenzubringen. Nur weil man mit irgendetwas nicht zufrieden ist, rechtfertigt das nicht, völlig auf soziale Grundregeln zu vergessen.
Zuletzt bearbeitet:
mace1978
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.174
@Zk
Dann Versuche ich auch noch mal.
Ich habe mich nicht dazu geäussert, das man die AMD auch übertakten müsste, das halte ich für unsinnig.
Und meines Erachtens haben sich viele darüber beschwert, dass da ein vierter Intel hingeschustert wird, der da nur bedingt hingehört, und damit der Eindruck einer Dominanz stärker visualisiert wird.
Damit würde ich gerne das Thema Overclocking/Undervolting abschliessen.
Du Argumentierst, dass intel da >70 Watt vorne liegt.
Berücksichtigst aber nicht, dass die Test-AMD-CPU höher getaktet und mit einer höheren TDP versehen ist, als der 955, den Andere als sehr gute Lösung präsentiert haben.
Damit hat der Intel nun mal garnichts zu tun, und die CPUs gleichen sich einfach nur an.
Vermutlich würde dann bei dem Testszenario immer noch ein Unterschied von 40/50 Watt existieren.
Du sagst, es leiden beide unter diesem Szenario. Das ist grundsätzlich richtig.
Aber wenn wenn intel im Test einen Verbrauch von 70W hat, und AMD von 110W und wir einfach mal von 80% ausgehen, dann bleiben bei Intel 56W und bei AMD 88Watt.
Schon liegt der Unterschied nur noch bei 32 statt 40 Watt.
Allerdings ist das ganze ja keine lineare Sache, denn der AMD Prozessor braucht (laut CB-Test) im Idle maximal genau so viel wie der Intel. Wie der andere Test gezeigt hat, ist es aber garnicht unwahrscheinlich, dass der AMD im Idle sogar weniger verbraucht.
Deshalb wild rumgeraten behaupte ich mal im typischen Spielszenario ist der Unterschied 20W.
Im Idle gewinnt der AMD 10W. Jeder der seinen PC also mindestens doppelt so viel idlen lässt, als er spielt, und das ist eine Menge, fährt mit dem AMD besser.
Klar kann ich das nicht beweisen. Du das Gegenteil aber auch nicht.
Aber meine Zahlen sind mindestens so plausibel wie deine.
Letzendlich kommt es darauf hier doch garnicht an. Denn selbst, wenn der Intel bei den meisten Usern einen leichten Verbrauchsbonus hat, spätestens bei deiner Behauptung, man würde damit Geld sparen, wird das ganze Lächerlich.
Dann Versuche ich auch noch mal.
Ich habe mich nicht dazu geäussert, das man die AMD auch übertakten müsste, das halte ich für unsinnig.
Und meines Erachtens haben sich viele darüber beschwert, dass da ein vierter Intel hingeschustert wird, der da nur bedingt hingehört, und damit der Eindruck einer Dominanz stärker visualisiert wird.
Damit würde ich gerne das Thema Overclocking/Undervolting abschliessen.
Du Argumentierst, dass intel da >70 Watt vorne liegt.
Berücksichtigst aber nicht, dass die Test-AMD-CPU höher getaktet und mit einer höheren TDP versehen ist, als der 955, den Andere als sehr gute Lösung präsentiert haben.
Damit hat der Intel nun mal garnichts zu tun, und die CPUs gleichen sich einfach nur an.
Vermutlich würde dann bei dem Testszenario immer noch ein Unterschied von 40/50 Watt existieren.
Du sagst, es leiden beide unter diesem Szenario. Das ist grundsätzlich richtig.
Aber wenn wenn intel im Test einen Verbrauch von 70W hat, und AMD von 110W und wir einfach mal von 80% ausgehen, dann bleiben bei Intel 56W und bei AMD 88Watt.
Schon liegt der Unterschied nur noch bei 32 statt 40 Watt.
Allerdings ist das ganze ja keine lineare Sache, denn der AMD Prozessor braucht (laut CB-Test) im Idle maximal genau so viel wie der Intel. Wie der andere Test gezeigt hat, ist es aber garnicht unwahrscheinlich, dass der AMD im Idle sogar weniger verbraucht.
Deshalb wild rumgeraten behaupte ich mal im typischen Spielszenario ist der Unterschied 20W.
Im Idle gewinnt der AMD 10W. Jeder der seinen PC also mindestens doppelt so viel idlen lässt, als er spielt, und das ist eine Menge, fährt mit dem AMD besser.
Klar kann ich das nicht beweisen. Du das Gegenteil aber auch nicht.
Aber meine Zahlen sind mindestens so plausibel wie deine.
Letzendlich kommt es darauf hier doch garnicht an. Denn selbst, wenn der Intel bei den meisten Usern einen leichten Verbrauchsbonus hat, spätestens bei deiner Behauptung, man würde damit Geld sparen, wird das ganze Lächerlich.
Zuletzt bearbeitet:
Held213
Fleet Admiral
- Registriert
- Jan. 2010
- Beiträge
- 11.073
@alle, die sich beschweren dass man die AMD CPUs nicht übertaktet hat:
Habt ihr schonmal daran gedacht, dass es evtl. nur darum geht zu verdeutlichen, wie die Skalierung bei den schnelleren GPUs ausfällt (viel Grafikleistung)?
Da der 2600K nun mal die schnellste CPU im Feld ist, wurde nur dieser hochgeschraubt. So kann man zeigen, dass noch eine Leistungssteigerung des Gesamtsystems möglich ist, wenn genug/zuviel Grafikleistung vorhanden ist. Mit einer GTX 590 bringt es selbst der 1100T nur auf ~80%. Eine Übertaktung würde sicher was bringen, aber wahrscheinlich erreicht man nicht die Regionen der SB CPUs. Mit der Übertaktung des 2600K sieht man doch, dass bei den Oberklasse-GPUs und bei den im Test gegebenen Bedingungen ein CPU-Limit vorliegt. Da macht es eben am meisten Sinn, sich die ohnehin schnellste CPU vorzunehmen.
Weitere Erkenntnis: auch wenn ein GPU-Limit vorliegt bringt die Übertaktung der CPU nur einen verhältnismäßig kleinen Leistungsschub. CPU: +33% Takt --> GTX 590: +6% und 6990: +9% Leistung.
Habt ihr schonmal daran gedacht, dass es evtl. nur darum geht zu verdeutlichen, wie die Skalierung bei den schnelleren GPUs ausfällt (viel Grafikleistung)?
Da der 2600K nun mal die schnellste CPU im Feld ist, wurde nur dieser hochgeschraubt. So kann man zeigen, dass noch eine Leistungssteigerung des Gesamtsystems möglich ist, wenn genug/zuviel Grafikleistung vorhanden ist. Mit einer GTX 590 bringt es selbst der 1100T nur auf ~80%. Eine Übertaktung würde sicher was bringen, aber wahrscheinlich erreicht man nicht die Regionen der SB CPUs. Mit der Übertaktung des 2600K sieht man doch, dass bei den Oberklasse-GPUs und bei den im Test gegebenen Bedingungen ein CPU-Limit vorliegt. Da macht es eben am meisten Sinn, sich die ohnehin schnellste CPU vorzunehmen.
Weitere Erkenntnis: auch wenn ein GPU-Limit vorliegt bringt die Übertaktung der CPU nur einen verhältnismäßig kleinen Leistungsschub. CPU: +33% Takt --> GTX 590: +6% und 6990: +9% Leistung.
T
tonictrinker
Gast
Wer eine moderne Grafikkarte besitzt und auf höchsten Details spielen möchte, sollte bei AMD mindestens zu einem hochgetakteten Vier-Kern-Prozessor und bei Intel zu einem flotten Zwei-Kern-Produkt der Sandy-Bridge-Generation greifen.
Der Grund, weshalb man AUCH zu einem AMD greifen könnte, wird einem hier eigentlich nicht geliefert. Bis auf einen einzelnen Testpart ist AMD hinten dran.
Es hätte heißen müssen: "Wer eine moderne Grafikkarte besitzt und auf höchsten Details spielen möchte, sollte bei Intel zu einem flotten Zwei-Kern-Produkt der Sandy-Bridge-Generation greifen." Punkt.
Aber wahrscheinlich möchte man der empfindlichen Community nicht auf die Füße treten.
W
wadenbeisser
Gast
weil...?
Den Core i3-2120 gibt es derzeit ab ca. 110-115€, der im Test ca. gleich schnelle Phenom II X4 965 ist ab 97€ zu haben.
Den Core i3-2120 gibt es derzeit ab ca. 110-115€, der im Test ca. gleich schnelle Phenom II X4 965 ist ab 97€ zu haben.
Ähnliche Themen
- Antworten
- 283
- Aufrufe
- 34.813
Leserartikel
Baal auf der Suche nach den Energiefressern im PC
- Antworten
- 99
- Aufrufe
- 21.020
- Antworten
- 16
- Aufrufe
- 4.830
- Antworten
- 3
- Aufrufe
- 1.448