Bericht Bericht: GPU braucht CPU

Und da meines Wissens nach der Begriff IPC von der Taktfrequenz abhängt....

Instructions per Cycle. Wie viele "cycles" das dann sind, ist hier nicht relevant.

Habe ich des Nächtens wohl nicht so klar herausgearbeitet: IPC ist nicht abhängig vom Takt, daher ist es auch irrelevant, ob da ein Turbo herumwurschtelt oder nicht. Der ist nur dann ein Problem, wenn man den Unterschied in der IPC-Leistung zweier Architekturen erbenchen will.

Das ist allerdings auch meisterbar, da man bei den K10.5 CPUs schlicht einen Quad ohne Turbo hernimmt und bei SB diesen Schlicht abschaltet bzw. ein Modell ohne Turbo nimmt.
 
Zitat aus Wikipedia
...

Dieser Wert dient als Maßstab für die Effizienz einer Architektur, weil das Produkt aus IPC und Taktfrequenz die Anzahl der pro Sekunde ausgeführten Befehle (Instruktionen pro Sekunde) ergibt.

...


Also ich sehe die Relevanz des Taktes nur bei der Ermittlung der Instruktionen pro Sekunde, nicht aber bei der IPC-Leistung. :confused_alt:
 
Die Instruktionen die pro Takt durchgehen.
Der Turbo an sich beeinflusst zwar durch die Taktsteigerung nicht die IPC als solches, allerdings muss dann beim aktiven Turbo auch die aktuelle Taktfrequenz wärend der Messung ermittelt werden.

Aus dem Bauch heraus würde ich zusätzlich sagen das man insbesondere bei der Leistung von Multicore Prozessoren zusätzlich noch zwischen der Hard- und der Software unterschieden werden muss.

Software: Was bringen die Prozessoren bei der besagten Software
Hardware: Wie gut ist der Prozessor bei der Software ausgelastet bzw. wieviele Kerne kann die Software überhaupt nutzen?


Vielleicht würde sich ja eine genauere Untersuchung bei der nächsten Messreihe anbieten. ;)
 
Wen interessiert den die IPC?

Wichtig ist was hinten rauskommt. Und selbst das ist ja offensichtlich nicht trivial entscheidbar, warum wollt ihr das dann noch verkomplizieren?

Erschreckend, wie einige hier Zukunftssicherheit verstehen....wegen einem per se ungenauen da vereinfachten Testszenario und einem Unterschied von 10% in Settings, die den Unterschied noch stärker betonen.

Mir ist das langsam zu mühsam, dann kauft doch eure doppelt und dreifach so teure CPU, wenn ihr euch damit gut fühlt.

Um den so intel-freundlichen TH-Test zu zitieren, den ein Intel Jünger hier gebracht hat
In der Vergangenheit haben wir statt Metro 2033 noch Crysis genutzt. Dabei zeigte sich ein deutlicher Unterschied zwischen Core-i3-CPUs mit zwei Kernen plus Hyper-Threading und echten Drei- und Vierkern-Modellen wie dem Athlon II.
Und das ist ein Vergleich mit Athlons nichtmal mit Phenoms.

Stellt einfach eure Thesen von den überlegenen IPC und dem geringen Stromverbrauch auf und was euch noch so in den Sinn kommt. Diese Firma belügt euch seit über einem Jahrzehnt, und ist da offensichtlich sehr geübt drin. Wenn ihr das mögt, euer Bier.
 
Stellt einfach eure Thesen von den überlegenen IPC und dem geringen Stromverbrauch auf und was euch noch so in den Sinn kommt.

Dass die SB-CPUs momentan eine weit bessere Pro-Takt-Leistung aufweisen als die K10.5 Prozessoren von AMD und diesen auch in Sachen Energiebedarf per Leistungseinheit überlegen sind, ist keine aufgestellte These sondern zigfach mit belastbaren Beweisen eruiert worden.

Du vermengst hier deine persönliche Abneigung gegen eine Firma (aus welchen Gründen auch immer) mit der Realität. Die sieht so aus, dass die S1155 CPUs nun einmal in den besagten Belangen den AMD Prozessoren überlegen sind. Wie Intel diesen Vorsprung erreichen konnte usw. usf. ist ein anderes Kapitel, ändert jedoch nichts am momentanen Ist-Zustand.
 
Also die Tatsache, dass der Enegiebedarf eines i3 geringer ist, als der eines Phenom II 955, wurde wo nachgewiesen?
In den Tests, die ich hier auf CB gesehen habe, habe ich da einen differenzierten Eindruck, Diskussionen dazu kannst du in diesem Thread gerne weiter Vorne verfolgen. Und wenn du die Anzahl der Leistungseinheiten auch noch berücksichtigst, dann weiss ich nicht, wie die CPU mit 2 Kernen eine mit 4 Kernen schlagen soll, wo diese doch absolut schon kaum mehr oder gar weniger verbraucht.

Und die Leistung des Intels mit 4,5 GHZ ist z.B. bei einer 570er im Vergleich des 3,4GHz PII um 9% höher.
Also ein Drittel mehr Takt bringt 9% mehr Leistung. Irgendwie scheint auch diese These zu bröckeln....

Natürlich wirst du nun sagen, das ist die böse GPU, denn die bremst ja den schnellen Intel aus.
Ich sage dir darauf, ja und?
Ich kaufe meine CPUs nicht um irgendwelche Fließkommabenchmarks oder so zu betreiben, sie soll die Leistung bringen, die ich brauche. Und der grösste Bedarf an CPU-Leistung ist bei einem grossen Teil der Privathaushalte das spielen. Und mit Verlaub, in den meisten Rechenknechten in privaten Haushalten idelt die CPU noch mehr, da die Grafikkarte noch schwächer ist.

Und das wird sich auch nicht ändern, solange Intel es gelingt weiter ihre Propaganda zu verbreiten, dass man einen Intel-Highend Modell braucht, um gut spielen zu können. Und ich sehe diesen Test, obwohl im Fazit durchaus differenziert drauf eingegangen wurde als einen weiteren Teil von Intels erfolgreicher kundenschädlicher Strategie.

Ich habe nichts per se gegen Intel, ich handel nur in meinem Interesse, denn mich verarschen zu lassen ist nicht in meinem Interesse.
Du kannst dir ja mal die Frage stellen, intel ist so riesig der Vorsprung in der Fertigungstechnik ist gravierend, wie kann es sein, dass sie AMD nicht mal eben wegforschen und wirklich klar vor AMD liegen. Das liegt nicht daran, dass bei AMD alles Prima läuft. Das liegt möglicherweise daran, dass Intel nur das nötigste tut um ein wenig die Führung in diesem Rennen zu liegen, um ihre Prozessoren als Highend zu verkaufen.
Eine schnellere Entwicklung würde nur mehr Geld kosten, mehr CPUs wird man damit zumindest nicht Kostendeckend los. Nachhaltigkeitsgedanken, Kundenwohl spielen bei Intel offensichtlich keine Rolle.
Maximaler Gewinn mit allen erdenkbaren Mitteln ist Intels Methode schon immer gewesen.
 
Zuletzt bearbeitet:
O.o

Was willst du mir jetzt eigentlich sagen? Nona gibt es im GPU-Limit kaum Unterschiede zwischen CPUs und zwar aus dem einfachen Grund, dass diese ihre Leistungsstärke aufgrund der begrenzenden GPU nicht herzeigen können. Da kann ich zur Not auch hergehen, ein Spiel mit 16x SGSSAA betreiben und so ein Ergebnis provozieren, wo ein 2600K kaum schneller ist als ein DualCore Athlon II. Ein eindeutiger Beweis, dass die Sandy Bridge Architektur nicht einmal einen armseligen A II versägen kann? Oder doch nur ein Ergebnis bar jeder Aussagekraft bzgl. der wirklichen CPU Leistung? Ich sage zweiteres.



Wenn du dir einen LowResolution-Benchmark ansiehst (der dir ja jenes Bild zeigt, das in ein paar Jahren mit potenteren Grafikkarten auch in höheren Auflösungen sichtbar sein wird), dann kannst du erkennen, dass die SB Architektur der K10.5 in Punkto Leistung pro Takt haushoch überlegen ist. Das sieht man jetzt schon und in ein paar Jahren wird man es noch deutliches sehen können.

(Je nach Anwendungsfall zwischen 30% bis 50% bei gleichem Takt [ich vergleiche hier den 2500K mit dem 970BE, obwohl letzterer mit 200MHz mehr taktet]. Quelle: https://www.computerbase.de/artikel...est.1404/seite-46#abschnitt_performancerating )

Sogar in den High-Resolution (die ja allenortens wegen ihrer angeblichen Realitätsnähe so angepriesen werden) Benches ist der 2500K mit gleich vielen Kernen und 200MHz weniger an Takt um durchschnittliche 38% schneller.

Offensichtlich muss beim SB-Prozessor eine weitaushöhere Leistung pro Takt (= IPC) vorhanden sein, dass er es schafft, mit weniger Takt den 970BE hinter sich zu lassen. Das ist keine Propaganda oder sonstiger Unfug sondern die Realität. Insofern bröckelt bei mir rein gar nichts. In Sachen reiner CPU-Leistungsfähigkeit ist SB momentan das Optimum. Mit den zukünftigen GPUs wird man noch mehr merken, dass K10.5 SB nicht mehr wirklich etwas entgegensetzen kann.

Anmerken möchte ich des Weiteren, dass "gut Spielen" ein sehr unscharfer und relativer Begriff ist. Wenn man nur Gothic II spielen will und keine großen Ansprüche hat, kann man auch mit einem Celeron 320 noch gut spielen. Wenn man sich selber als Enthusiast sieht und um jeden Preis in einem Strategiespiel-Endgame (CiV 5, Anno usw.) die maximal irgendwie möglichen Frameraten haben will, dann wird man um einen 2600K nicht herumkommen. Daher denke ich, dass man hier keine pauschale Aussage treffen kann.

Also die Tatsache, dass der Enegiebedarf eines i3 geringer ist, als der eines Phenom II 955, wurde wo nachgewiesen?

https://www.computerbase.de/artikel...test.1481/seite-8#abschnitt_leistungsaufnahme

Ich habe mich auf die Verbrauchsdaten bei Last bezogen, daher auch der Verweis auf die Leistungseinheit (war zugegebenermaßen nicht sonderlich eindeutig).


Was diese leidige Diskussion anbelangt, wieso welche Firma wie agiert, so kann ich nur sagen: wenn ich eine CPU brauche, halte ich Ausschau nach einer, die meine Ansprüche zu erfüllen vermag und einem bestimmten Preis nicht übersteigt. Die wird dann gekauft, egal, ob von AMD oder von Intel gefertigt. Ob die CPU besser sein könnte, wenn sich die Produktionsfirma noch mehr angestrengt hätte oder nicht ist mir herzlich gleichgültig. Wenn sie mir nicht gefällt, kaufe ich eben nicht und warte, bis eine erscheint, die mir mehr zusagt.


Das liegt möglicherweise daran, dass Intel nur das nötigste tut um ein wenig die Führung in diesem Rennen zu liegen, um ihre Prozessoren als Highend zu verkaufen.
...
Maximaler Gewinn mit allen erdenkbaren Mitteln ist Intels Methode schon immer gewesen.


Weil es mir gerade auffällt: wirfst du Intel etwas vor, das jede Firma in einer solchen Position ebenfalls machen würde (nämlich wirtschaftlich zum Wohle der Aktionäre handeln).

Eine schnellere Entwicklung würde nur mehr Geld kosten, mehr CPUs wird man damit zumindest nicht Kostendeckend los. Nachhaltigkeitsgedanken, Kundenwohl spielen bei Intel offensichtlich keine Rolle.

Problem 1: noch bessere Intel CPUs = noch mehr Marktdominanz = Aufmerksamkeit der amerikanischen Kartellbehörde = will keine amerikanische Firma

Problem 2: Satz 1 schildert nachhaltiges Verhalten zum Wohle der Firma, Satz 2 negiert Nachhaltigkeit im allgemeinen = was denn nun? Kann es sein, dass du von Technik-Firmen erwartest, dass sie großtmöglich das finanzielle Wohlbefinden ihrer Kunden im Sinn haben? Wenn ja, halte ich das für eine weltfremde Ansicht, solche ein Ziel verfolgt weder Intel noch AMD oder sonst eine Firma in diesem Business.
 
Zuletzt bearbeitet:
@mace1978:
Also die Tatsache, dass der Enegiebedarf eines i3 geringer ist, als der eines Phenom II 955, wurde wo nachgewiesen?
In jedem Test? Hier auf CB, oder: http://ht4u.net/reviews/2011/intel_sandy_bridge_core_i3_2120/index5.php

Und die Leistung des Intels mit 4,5 GHZ ist z.B. bei einer 570er im Vergleich des 3,4GHz PII um 9% höher. Also ein Drittel mehr Takt bringt 9% mehr Leistung. Irgendwie scheint auch diese These zu bröckeln....
Bei welchen Anwendungen? In welcher Auflösung? Wie schon vom Fettsack erwähnt, wenn du den Auflösungs- und AA-Regler bis zum Anschlag drehst, trifft dieser Fall natürlich ein. Deshalb werden CPU-Tests ja auch in geringer Auflösung gefahren und da sieht man die Unterschiede. Hier zeichnet sich das schön ab: http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index53.php

Aber mal fernab jeder Benchmarks: Intel ist AMD eine CPU-Generation voraus. Wäre ja schon schade, wenn die SBs nicht schneller wären ;)

Das liegt möglicherweise daran, dass Intel nur das nötigste tut um ein wenig die Führung in diesem Rennen zu liegen, um ihre Prozessoren als Highend zu verkaufen.
Eine schnellere Entwicklung würde nur mehr Geld kosten, mehr CPUs wird man damit zumindest nicht Kostendeckend los. Nachhaltigkeitsgedanken, Kundenwohl spielen bei Intel offensichtlich keine Rolle.
Maximaler Gewinn mit allen erdenkbaren Mitteln ist Intels Methode schon immer gewesen.
Deine Argumentation gegen Intel ist total bei den Haaren herbei gezogen und es klingt so, als würde es nur die betreffen. Mach die Augen auf! Jedes gewinnorientierte Unternehmen (und mal abgesehen von karitativen Unternehmungen trifft das wohl auf alle zu) wird so handeln und den Kunden ihre Entwicklungen häppchenweise servieren. Angenommen die Technik befindet sich auf Entwicklungsstufe 2, möglich wäre schon Stufe 7. Warum aber nicht erst noch Stufe 3-6 schrittweise verkaufen und abkassieren?
 
Zuletzt bearbeitet:
Ich finde es in der Tat traurig, dass hier und in jedem anderen Forum immer davon ausgegangen wird, dass man lediglich zum Spielen eine CPU benötigt.
Dies ist nunmal unwahr und es ist ehrlich gesagt einfach maximal ärgerlich!

Ich selbst kaufe relativ aktuelle Hardware (mein Geldbeutel soll hier nicht die Thematik sein bevor mal wieder sowas auftritt...hatte ich bereits woanders und muss nicht sein!).

Ich arbeite seit X Jahren im Informatikbereich und nutze meinen PC daheim gerne mal für Tests mit virtuellen Umgebungen, aber auch tätige ich Designs mit Photoshop. Zudem bearbeite ich Videos (z.B. von Bandauftritten einiger Freunde), da ist der Unterschied zwischen mittelmässiger und besserer CPU.

Auch gibt es Leute die crunchen (sorry falls das falsch geschrieben sein sollte, ich nutze das nicht), auch hier macht es Sinn.

Also nochmals bitte:
Die Welt dreht sich nicht nur um Spiele und PCs sind ebenfalls nicht nur um Spielen da.

@Mace1987
Falls es dich interessiert...Ich habe 2 PCs, 2 Notebooks, 1 Server daheim..Und gerademal 1 PC davon wird zum Spielen überhaupt eingesetzt!
 
Fetter Fettsack schrieb:
Wenn du dir einen LowResolution-Benchmark ansiehst (der dir ja jenes Bild zeigt, das in ein paar Jahren mit potenteren Grafikkarten auch in höheren Auflösungen sichtbar sein wird),
Solche Aussagen sind einfach nicht wahr, aber gut ich wie schon erwähnt, ich werde euren Unsinn nicht beenden können. :eek:

@Held213
Interessant, zu den CB Tests habe ich mich geäussert, und diese können die These nicht bestätigen.
In deinem Test existiert kein i3.
Dafür verbraucht der 970, gleich viel wie der 955 und weniger als der 965 im Lastmodus. Im Idle ist er der sparsamste.
Ausser das man ne Menge Werte hat, stellt man fest, kann man garnichts sagen.
Ein Vergleich zweier unterschiedlicher Systeme und dann auch noch im Idle ist per se völliger Unsinn. Da braucht das eine Motherboard gerne mal 10W mehr, als das andere, und auf einmal sind alle Werte unbrauchbar.
Von Schwankungen zwischen den gleichen CPUs hast du vermutlich auch noch nichts gehört.
Und wie super das 820 Watt Netzteil seine Leistung bei z.t. deutlich unter 10% Auslastung nutzen kann, ist auch mehr Glücksspiel als alles Andere.

Und das es genug andere Unternehmen gibt, die sich Kundenfeindlich verhalten, ist mir durchaus bewusst. Das ändert aber nichts daran, dass ich das nicht gutheisse, und solange Kunden das mit sich machen lassen, wird sich daran auch nichts ändern. Aber die Einstellung, die du vertrittst, zeigt wohl klar, wo das Problem liegt. Die Kunden sind einfach wie du.
Allerdings ist Intel noch ein besonderer Fall, da sie sich unrechtmässig Verhalten haben um ihr Monopol weiter auszubauen/aufrecht zu erhalten. Wenige Unternehmen mussten bisher soviel Schadenersatz an die Konkurrenz für ihr Verhalten zahlen. Intel ist das definitiv die Speerspitze.


@nospherato
Also wenn ich mir die Empfehlungsgesuche hier und in anderen Foren anschaue, gibt es da eigentlich nur 2 Fälle surfen und office oder gaming. Du bist eine Randgruppe. Akzeptiere das doch bitte, anstatt mich blöd anzumachen.
 
Zuletzt bearbeitet:
Und was ist daran nicht wahr?

Hier nochmals die Erklärung:

Wenn ich eine geringe Auflösung bei einem Bench fahre, dann sinkt die GPU-Last. Wenn die sinkt, verlagert sich der Punkt, ab dem ein GPU-Limit eintritt nach "oben" und die Wahrscheinlichkeit steigt, dass man vorher in ein CPU-Limit kommt. Genau das will man ja bei einem CPU-Test. Damit kann man nämlich die CPU-Leistung testen.

Wenn ich nun etwa einen 965BE mit einer 4850 paare, muss ich natürlich die Auflösung um einiges weiter herunterdrehen als wenn ich eine 6970 nehme. Warum? Weil die 6970 um einiges mehr an Rechenleistung hat als die 4850 und ich ja nicht in ein GPU-Limit laufen will.

Und du darfst diesmal eine Behauptung, dass dies Unsinn sei, gerne mit Argumenten untermauern.
 
eigentlich.. Je stärker die Grafikkarte, desto WENIGER muss man die Einstellungen nach unten drehen, um ins CPU Limit zu kommen.

Beispiel:
- i5 2400 + ne GTX 580.
--> Selbst bei mittlerer Auflösung langweilit sich ne GTX 580 schon deutlich, weil sie einfach "zuviel" power hat.

Selbe CPU mit einer 5450 Office karte: DIe karte läuft selbst auf 1280x1024 auflösung noch auf Vollgas, weil selbst diese relativ geringe Last die sehr schwache 5450 ans Limit bringt.
 
FF du brauchst mir diese absurde These nicht weiter zu erklären.
Ich habe euren(du bist da ja nicht alleine) Gedankengang durchaus verstanden.

Zum einen sucht ihr eine Aussagemöglichkeit im Test, die garnicht getestet wurde/werden sollte.
Es sollte mit aktuellen Systemen, aktuelle Spiele getestet werden unter realitätsnahen Settings.
Das wurde nicht gemacht.
Wie ich aber weiter oben geschrieben habe, ist es mir nicht so wichtig, dass nur auf 1680 getestet wurde.
Das mag durchaus sinnvoll sein, aber es ist nur Sinnvoll, wenn man die unterschiedlichen Systeme und Testreihen vergleicht. Ansonsten muss man sich den Vorwurf gefallen lassen, dass man nicht unter realitätsnahen Bedingungen testet.

Schön wäre ein Fazit gewesen, für 500€ [600.-......1500€] kauft man das und das, denn man erreicht damit folgenden Performancemeter. Für so einen Test wäre die gleichbleibende Auflösung Sinnvoll.


Die Tatsache, dass das eure "Zukunftsfähigkeit" Unsinn ist, ist auch einfach zu erklären.
Heutige Spiele reagieren so. Was ist, wenn die zuküntigen Spiele aber einen echten Vierkern brauchen, dann reicht der i3 nicht mehr. Siehe THG-Zitat über Testresultate mit Crysis2 wo der i3 deutlich einbricht.

Und selbst wenn dieses nicht so wäre, z.B. beim Vergleich mit den höherwertigen Intels.
Dann stellt sich a) die Frage wer behauptet, dass der Bedarf an an GPU-Power langsamer wächst als die GPUs an sich. Wenn die nächste Generation an Grafikhardware kommt, kommt auch die nächste Generation an Spielen. Es gibt keine sichere Bedingung, dass in nächster Zeit Spiele mehr CPU-Power brauchen.
Und ohne den sicheren Bedarf an mehr CPU-Power ist das Argument der Zukunftssicherheit nur rethorischer Bullshit.


Der ein Jahr alte Test von CB (Zwei 3-Kern-CPUs) sieht in den Spielen bei 560BE=100%;Grafikkarte 5870
Den x4 965 bei +31%
den 1090 bei +28%
Die intels sind damals logischerweise noch nicht getestet worden.

Heut zu tage ist bei der etwa gleichstarken 6850 auf einmal nur noch ein Unterschied von 5-6% messbar.
Bei der 6970 sind es 17%/18%.

Wie man sieht, je älter die 560 wird, desto Zukunftsfähiger wird sie.
Zukunftsfähigkeit des Prozessors ist also Nachweislich ziemlicher Unsinn.


Aber einen Punkt sollten wir nicht vergessen, der Test / das Fazit sagt deutlich die Grafikkarte ist der Gewinner. Nichts desto trotz, wird hier behauptet, und das kann ich bei der Präsentation des Testes auch gut nachvollziehen, intel wäre der Gewinner. Das ist aber einfach völlig absurd.
 
Zuletzt bearbeitet:
Genausowenig ist es eine sichere Bedingung, dass zukünftige Spiele nicht mehr an Leistung brauchen. Vielmehr war es bislang so, dass der Bedarf an Mehrleistung (sowohl bei GPUs als auch bei CPUs) stetig angestiegen ist. Ich sehe momentan gar keinen Grund, jetzt auf einmal von etwas anderem auszugehen. Insofern ist das Argument der Zukunftstauglichkeit eben kein rethorischer "Bullshit".


Was deine Prozentrechnungen betrifft: wenn ich die richtig verstehe, meinst du, dass bei den selben CPUs die Werte in Kombination mit gleichstarken GPUs gesunken sind? Dass liegt mWn daran, dass sich die Wert bei jeder neuen Tabelle verschieben, wie genau, muss ich erst nachschauen, hab momentan keine Zeit.

Wie man sieht, je älter die 560 wird, desto Zukunftsfähiger wird sie.
Zukunftsfähigkeit des Prozessors ist also Nachweislich ziemlicher Unsinn.

Das ist ein polemischer Vergleich. Ich rede von Zukunftsfähigkeit im Vergleich zu momentan ebenfalls verfügbaren CPUs. Wenn ich anstatt eines P II 560 XII einen i3 2100 erwerbe, ist letzterer leistungsfähiger, ergo kann man ihn länger verwenden = erhöhte Zukunftsfähigkeit im Vergleich zum P II 560. Daher meine Aussage bzgl. Zukunftsfähigkeit.
 
Fetter Fettsack schrieb:
1.Genausowenig ist es eine sichere Bedingung, dass zukünftige Spiele nicht mehr an Leistung brauchen. Vielmehr war es bislang so, dass der Bedarf an Mehrleistung (sowohl bei GPUs als auch bei CPUs) stetig angestiegen ist. Ich sehe momentan gar keinen Grund, jetzt auf einmal von etwas anderem auszugehen. Insofern ist das Argument der Zukunftstauglichkeit eben kein rethorischer "Bullshit".

2.... Dass liegt mWn daran, dass sich die Wert bei jeder neuen Tabelle verschieben, wie genau, muss ich erst nachschauen, hab momentan keine Zeit.

3.Das ist ein polemischer Vergleich. ....
1. Ich widerspreche nicht der Aussage, dass die benötigte CPU-Leistung irgendwann steigt. Aber nun eine 250€ CPU zu kaufen, die dann in 10 Jahren mal gebraucht wird, ist einfach wirtschaftlicher Unsinn. Wenn du da nun eine für 90 kaufst, und in 10 Jahren eine für 90 bleibt noch genug Geld für ein neues Motherboard, welches dann nicht auf Krücken wie einen Isa-Port und usb 1.0 begrenzt ist.
Neben dem ist das Argument, ich könnte die Zukunft nicht beweseisen doch sehr törricht. Ich habe es für das letzte Jahr später nachgewiesen. Das ist das beste, was man tun kann.
Und selbst wenn dies nicht ausreicht. Wo ich durchaus zustimmen würde, ist es doch absurd "unmengen" an Geld(Faktor 3x und mehr) für eine CPU auszugeben, in der Wagen Hoffnung, man könnte die Leistung evt. in einigen Jahren mal brauchen.

2.Was soll sich da verschieben, ich habe CPU mit CPU verglichen. In relativen Zahlen.
Einzig die Karten sind moderner und der Testparcours. Wir sind also einen Schritt in die Zukunft gegangen.*

3. Das ist kein polemischer Vergleich. Der Vergleich der beiden Tests zeigt auf, dass heutzutage das CPU-Limit noch unwichtiger geworden ist als vor einem Jahr. GPU rulez.

*Und eigentlich war ich noch sehr nett, ich habe die Prozentwerte der 1680 Messung genommen. Ihr behauptet aber die 800er wäre die Zukunft.
Da war es noch 35% und 49%.
Die Tatsache, dass der x6 damals überall schwächer war als der x4 bei diesem Test aber auf einmal vorne liegt, ist wohl auch als klarer Hinweis darauf zu verstehen, dass die Tests nicht dazu geeignet sind in die Zukunft zu schauen.
 
Zuletzt bearbeitet:
Neben dem ist das Argument, ich könnte die Zukunft nicht beweseisen doch sehr törricht. Ich habe es für das letzte Jahr später nachgewiesen. Das ist das beste, was man tun kann.
Und selbst wenn dies nicht ausreicht. Wo ich durchaus zustimmen würde, ist es doch absurd "unmengen" an Geld(Faktor 3x und mehr) für eine CPU auszugeben, in der Wagen Hoffnung, man könnte die Leistung evt. in einigen Jahren mal brauchen.
Der ein Jahr alte Test von CB (Zwei 3-Kern-CPUs) sieht in den Spielen bei 560BE=100%;Grafikkarte 5870
Den x4 965 bei +31%
den 1090 bei +28%
Die intels sind damals logischerweise noch nicht getestet worden.
Meine Vermutung war falsch, es liegt an etwas anderem.

Ich sehe hier (https://www.computerbase.de/artikel...est.1344/seite-29#abschnitt_performancerating) den 965 mit 38% beim 1680-Gesamtrating vorne, den 1090 mit 49%. Das passt soweit.

Beim "CPU braucht GPU"-Test sind bei der HD6850 deswegen keine Unterschiede, weil man sich dort mit allen CPUs außer dem P II 560 im GPU-Limit zu bewegen scheint (die Ergebnisse erwecken diesen Eindruck). Der P II limitiert kurz davor selber. Deswegen sind hier die Unterschiede so klein. Außerdem wurden im GPU/CPU-Test völlig andere Spiele gebencht als im reinen CPU-Test, wo auch noch Anwendungen miteinfließen.

Du hast daher eben nicht nachgewiesen, dass in der Vergangenheit eine Stagnation in Sachen CPU-Anforderungen stattgefunden hat, du hast schlichtweg nur den Test falsch interpretiert.

Ich habe darüberhinaus nie gesagt, dass der P II 560 zukunftssicher sei. Ich will nur klarmachen, dass wenn man am besten für zukunftige Anwendungen/Spiele gerüstet sein will, eine möglichst leistungsstarke CPU kaufen sollte, soweit das Budget das eben hergibt.


Des Weiteren ist besagte "Hoffnung" nicht wage, du kannst sogar heute schon die Leistung dieser CPUs zu einem großen Teil ausschöpfen (Frostbite-Engine z.B.). Es wird nicht einmal zwei Jahre dauern und du wirst mit einem 2500K merken, dass die ersten Spiele in der Lage sein werden ihn bei Stock-Taktung teilweise voll auszulasten. Wenn diese Entwicklung solche CPUs an die Leistungsgrenzen bringt, dann wird man bei leistungsschwächeren CPUs natürlich merken, dass sie immer öfter wirklich völlig am Limit laufen.

Du kannst mir nicht erzählen, dass man mit einer 90€ CPU (egal ob SB oder K10.5) für die nächsten 4 Jahre (ich nehme an, die 10 Jahre-Angabe war eine Übertreibung) ohne Probleme für die jeweils aktuellen Spiele bei einem mittleren Spielfluss-Anspruch ausreichend gerüstet ist.




*Und eigentlich war ich noch sehr nett, ich habe die Prozentwerte der 1680 Messung genommen. Ihr behauptet aber die 800er wäre die Zukunft.
Da war es noch 35% und 49%.
Die Tatsache, dass der x6 damals überall schwächer war als der x4 bei diesem Test aber auf einmal vorne liegt, ist wohl auch als klarer Hinweis darauf zu verstehen, dass die Tests nicht dazu geeignet sind in die Zukunft zu schauen.
Meinst du das ernst? Der Quad hat mehr Takt und der X6 konnte seine Kerne in den getesteten Programmen nicht ausspielen. Das ist doch mehr als offensichtlich.

Der "Blick in die Zukunft" zeigt schlichtweg, welches Potenzial die CPU ohne GPU-Limit hat und das zeigt er zuverlässig.
 
Zuletzt bearbeitet:
Fetter Fettsack schrieb:
1. Beim "CPU braucht GPU"-Test sind bei der HD6850 deswegen keine Unterschiede, weil man sich dort mit allen CPUs außer dem P II 560 im GPU-Limit zu bewegen scheint (die Ergebnisse erwecken diesen Eindruck). Der P II limitiert kurz davor selber. Deswegen sind hier die Unterschiede so klein.

2. Außerdem wurden im GPU/CPU-Test völlig andere Spiele gebencht als im reinen CPU-Test, wo auch noch Anwendungen miteinfließen.

3. Du hast daher eben nicht nachgewiesen, dass in der Vergangenheit eine Stagnation in Sachen CPU-Anforderungen stattgefunden hat, du hast schlichtweg nur den Test falsch interpretiert.

4.Des Weiteren ist besagte "Hoffnung" nicht wage, du kannst sogar heute schon die Leistung dieser CPUs zu einem großen Teil ausschöpfen (Frostbite-Engine z.B.). Es wird nicht einmal zwei Jahre dauern und du wirst mit einem 2500K merken, dass die ersten Spiele in der Lage sein werden ihn bei Stock-Taktung teilweise voll auszulasten. Wenn diese Entwicklung solche CPUs an die Leistungsgrenzen bringt, dann wird man bei leistungsschwächeren CPUs natürlich merken, dass sie immer öfter wirklich völlig am Limit laufen.

5. Du kannst mir nicht erzählen, dass man mit einer 90€ CPU (egal ob SB oder K10.5) für die nächsten 4 Jahre (ich nehme an, die 10 Jahre-Angabe war eine Übertreibung) ohne Probleme für die jeweils aktuellen Spiele bei einem mittleren Spielfluss-Anspruch ausreichend gerüstet ist.

6. Meinst du das ernst? Der Quad hat mehr Takt und der X6 konnte seine Kerne in den getesteten Programmen nicht ausspielen. Das ist doch mehr als offensichtlich.

Der "Blick in die Zukunft" zeigt schlichtweg, welches Potenzial die CPU ohne GPU-Limit hat und das zeigt er zuverlässig.
1. Wo ist dein Punkt? Es geht darum wieviel Frames rauskommen.

2.Richtig, die Spiele sind andere. Der Parcours wurde dem aktuellen Stand angepasst.

3.:freak: Ähh würdest du das jetzt noch begründen und nicht einfach aus dem blauen heraus behaupten? Was soll ich wie falsch gedeutet haben?
Ich habe einen alten Test genommen und einen neuen und festgestellt, bei dem neuen Bedarf es weniger CPU-Power um eine gleich schnelle oder sogar eine gleichwertige moderne Grafikkarte zu befeuern. Das sind die Fakten aus diesen Tests. Wenn du behauptest, ich hätte da was falsches hereininterprefiert, zeig mir den Fehler, oder zeig mir wenigstens eine Plausible Begründung warum ich irre. Sowohl die Tatsache, dass die Spiele gewechselt wurden als auch die Tatsache dass die GPUs ans Limit kommen widersprechen nicht meiner Überlegung, sie sind der Grund warum meine Beobachtung so existiert.

4. Dann sollten wir alle warnen nun einen i3 zu kaufen, wenn der i5 in Zwei jahren schon auf den Schrottplatz gehört.....ich bin mir sicher, vor 2,3,4 Jahren hat das selbe irgendwer über die Top-CPUs gesagt, und er könnte heute feststellen, nein es ist falsch.
Der 955 ist immerhin 2,5 Jahre alt, und reicht wie man sieht immer noch ganz gut.

https://www.computerbase.de/artikel...eite-24#abschnitt_realitaetsferne_spieletests
Das so genannte Potential der CPUs in der Zukunft....
Der q9550/q9450 der heut zu tage nichtmal einen PII 935 schlägt. https://www.computerbase.de/artikel...528/seite-11#abschnitt_spiele_hohe_aufloesung
Über den E8600 brauche ich wohl nichts zu sagen...schon super genau diese Zukunftsperspektive.
Wie ich sehe, die ersten werden die letzten sein. :duck: Zumindest muss dieser sich schon ein halbes Jahr später einem PII 925 geschlagen geben. :evillol:
https://www.computerbase.de/artikel...est.1143/seite-24#abschnitt_performancerating
Für intel scheint es also zu stimmen, Lebensdauer 6 Monate an guten Tagen.

5. Die Zahl ist aus der Luft gegriffen, vielleicht ist sie etwas hoch, aber das Spielt auch keine Rolle, ob es nun 6 oder 8 oder 10 Jahre sind. :cool_alt:


6. Hmm kommt mir irgendwie aus der Diskussion um i3 und x4 x6 bekannt vor. :evillol:
Euer Blick in die Zukunft funktioniert jedenfalls nicht so trivial, wie er von vielen hier angewand wird. Ich behaupte sogar er funktioniert nie.
 
Zuletzt bearbeitet:
@Mace
Ich habe dich nie "blöd" angemacht. Es geht hier um die Grundproblematik...
Und Randgruppe ist gut... Ich kenne alleine 500+ Leute die ihren PC nicht nur für Spiele+Office nutzen.
Mal von den 3000+ Mitarbeitern in der Firma, bei der ich arbeite, abgesehen. Und das wäre nur 1 Beispiel dazu;)
Es geht mir einfach darum, dass hier auf Grund von einigen Anfragen direkt verallgemeinert wird.

Aber wenn du auf ein Beispiel bei Spielen bestehst:

Rift (In der Stadt mit vielen Figuren und innerhalb von BGs!)
Q9450@4Ghz (eigener Test mit PC): 22-35FPS~
AMD Phenom II X4 955 @ 3,8 GHZ (Riftforum entnommen): 22-35FPS~
SB2500K@Stock (eigener PC, damals ohne Übertaktung getestet): 42-50FPS(+)

Diese Werte, lassen sich im übrigen im Rift Forum nachvollziehen! (Forum: Bugreports & technische Diskussion..sichtbar erst nach Login)

Kurze Info: Es ist bei Rift fast unerheblich, ab einer Mittelklassegrafikkarte, welche Auflösung oder Detailstufe man eingestellt hat. (Deswegen ist auch die restliche Ausstattung egal, wurde im Forum von ettlichen Leuten, auch mir selbst, getestet)

Nun würde mich doch interessieren, wie du mir diesen, doch enormen, Unterschied erklären willst. Da die FPS bei der Intel (Q9XXX Serie) und AMD (Phenom II) fast identisch ausfallen, kann hier nicht von pro AMD oder pro Intel gesprochen werden. Da der SB beide allerdings eiskalt hinter sich lässt, ist hier der Nutzen und die Mehrleistung der CPU gut zu sehen.
Denn bei unter 30FPS spreche ich zumindest nicht von einem flüssigem Spielgefühl...Ab 40FPS sieht es (zumindest bei Rollenspielen) schon mehr danach aus!
 
Fetter Fettsack schrieb:
Dass die SB-CPUs momentan eine weit bessere Pro-Takt-Leistung aufweisen als die K10.5 Prozessoren von AMD und diesen auch in Sachen Energiebedarf per Leistungseinheit überlegen sind, ist keine aufgestellte These sondern zigfach mit belastbaren Beweisen eruiert worden.
Bitte zwischen der Leistung pro Kern und der Leistung pro Prozessor unterscheiden.
 
Zurück
Oben