News Tape-Out von AMDs „Bulldozer“ erfolgt

Und? Dann taktet er halt mit 2,89ghz was verändert das? Dann sinds halt nicht 19 sondern 18%.
Was im Grunde niemanden interessiert, da die Diskussion eh müßig ist.

Die 800x600 Auflösungstests ziehen auch unter AMD Prozessoren die Abstände auseinander, siehe Phenom 2 720BE zu Phenom 2 925.
So wie sie auch die Abstände unter intel Prozessoren auseinanderziehen.
Was allerdings hier sehr auffällig ist, dass Intel prozessoren im Vergleich zu AMD Prozzis überdurchschnittlich deutlich an Leistung gewinnen, wenn niedrigere Auflösungen gefahren werden.
Hier wird man sich wohl nie einig werden, ob Intel Prozessoren hier bevorteilt werden oder nicht.

Es wurde allerdings auch prophezeit, dass mit einführung einer HD5870 hier bei CB (vorher 9800gtx) AMD Prozessoren in praxinahen Auflösungen zurückfallen werden.
Was aber nicht eingetreten ist, eventuell auch ein Indiz dafür, dass 800x600 nicht sehr viel taugt.
 
Zuletzt bearbeitet:
Praxisferne Auflösungen sind übrigens immer noch Unfug für CPU-Tests, Stichwort Auslastung. Das habe ich glaube ich schon mal erwähnt. Es gibt noch mehr Punkte, die das Verhalten der CPU auch bezüglich Auflösung beeinflussen. Das würde den Rahmen hier aber sprengen. Es ist eh schon genug off-topic. Dass die Auflösung keinen Einfluss auf die CPU hat, ist jedenfalls grundsätzlich falsch. Wer sich mal ein bisschen mit I/O von modernen Computersystemen auseinandersetzt, wird das schnell merken.


Schaffe89 schrieb:
Und? Dann taktet er halt mit 2,89ghz was verändert das?
Was das verändert?

2,89 / 2,8 = ~1,032
1,19 / 1,032 = ~1,153

Womit wir wieder bei 15% wären. Du siehst also, selbst solche kleinen Unterschiede können einiges ausmachen.
 
Es mag ja sicher ein paar andere Faktoren geben, aber wie stark sollen diese sich denn auswirken?

Man kann natürlich sagen "falsch", ohne sich zu erklären. Ist nur nicht sehr glaubwürdig ;)
 
Ohne Erklärungen ist es mit der Glaubwürdigkeit natürlich nicht weit her. Das ist schon richtig. Nur ist das nicht anders, wenn man behauptet, Auflösungen hätten keine Auswirkungen auf die CPU und liefert genauso wenig Erklärungen. ;) Wie ich schon sagte, das ist nicht der richtige Ort, um das Thema zu vertiefen. Ich habe dir zudem einen Anhaltspunkt gegeben. In das Thema kannst du dich auch ohne weitere Erklärungen einlesen. Genügend Lektüre solltest du im Netz finden.
 
Zuletzt bearbeitet:
Die 800x600 Auflösungstests ziehen auch unter AMD Prozessoren die Abstände auseinander, siehe Phenom 2 720BE zu Phenom 2 925.

Genau deshalb sollte man diese Game-Grafik nicht überbewerten.

PhenomII X3 2,8 GHz -> 98%
PhenomII X6 2,8 Ghz -> 100%
PhenomII X4 2,8 GHz -> 109%

Was will uns der Autor damit sagen?
Mehr als 4 Kerne bremsen das System? Der Turbo geht nach hinten los?

Ich würde der Testmethode damit eine Genauigkeit von +/- 10% bescheinigen, da löst sich Diskussion um 15% oder 20% doch gleich in Staub auf.

Interessant dagegen die Grafik der Performance in real exisitierenden Anwendungen.
Da ordnen sich die CPUs ziemlich genau nach Taktrate ein, egal ob Intel oder AMD.
Core2Quad = AMD 4 Kern
Core i7 Quad+HT = AMD 6 Kern

Ich mag da nicht einmal 15% erkennen.

PS: Ist schon erstaunlich, über was'n Blödsinn man hier Sonntag Abend diskutieren kann.:D
 
@Sunnyvale
Bei den 15% ging es um Performance pro Takt und Thread zwischen K10.5 und Nehalem Architektur. Wenn man die CPUs im Gesamten vergleicht, also alle vorhandenen Kerne bzw logischen Prozessoren, dann sieht es in etwa so aus, wie du schon sagst.
 
gruffi schrieb:
Ohne Erklärungen ist es mit der Glaubwürdigkeit natürlich nicht weit her. Das ist schon richtig. Nur ist das nicht anders, wenn man behauptet, Auflösungen hätten keine Auswirkungen auf die CPU und liefert genauso wenig Erklärungen.

Den Oberlehrer ignoriere ich mal geflissentlich. Beweise gibts trotzdem (obwohl man es eigentlich keine braucht, da dieser Sachverhalt zu offensichtlich ist):

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8168479&postcount=450
thx@dargo

CPU-Limit, da GPU-Takt keinen Einfluss auf die fps hat. CPU-Limit auflösungsunabhängig (69fps bei 640x480 und bei 1280x960). Denke, das widerlegt deine Behauptung sehr schön. Mehr werde ich nicht schreiben, ist verschwendete Zeit.
 
lol.. noch einer der meint dass jede Software die nicht durch die GPU limitiert ist als Benchmark taugt. Was nützt es wenn die GPU nicht limitiert und der Programmcode für eben diese GPU geschrieben ist zu 80%?

Irgendwie mal die GPU-Brille runternehmen und überlegen warum eine CPU im Benchmark überhaupt irgendwas auf den Bildschirm bringen soll. Dieses GPU-Limit ist nur interessant wenn man Spieletester ist und einfach nicht auf die Idee kommt dass es andere Software gibt die eine CPU besser Testen kann und somit tatsächlich vergleichbar macht. Was soll dennn eine Datenbank oder irgendeine andere Anwendungen mit den Berechnungen anfangen die ein Spiel nutzt?

Spiel taugen grundsätzlich nicht dafür einen CPU-Benchmark durchzuführen mit oder Ohne Limit spielt hier keine Rolle - jeder der hier dies nicht kapiert hat von CPUs genau NULL Ahnung. Keine Test-Redaktion die auch nur ein bisschen Ahnung hat und ansonsten keine Spiele Testet, würde auf die Idee kommen so etwas tatsächlich ernsthaft als Richtwert zu propagieren! Damit kann man den Laden zu machen und sich einen Zettel auf die Stirn kleben "keine Ahnung was ich hier eigentlich mache".

Muss man wirklich darauf hinweisen dass ein Spiel anders programmiert ist?
 
Complication schrieb:
Was soll dennn eine Datenbank oder irgendeine andere Anwendungen mit den Berechnungen anfangen die ein Spiel nutzt?
Auch für die Datenbank muss die CPU Multiplizieren, Wurzel ziehen, Addieren..... Mathematisch gesehen sind das immer die Berechnungen, die eine CPU durchführt.

Complication schrieb:
Spiel taugen grundsätzlich nicht dafür einen CPU-Benchmark durchzuführen mit oder Ohne Limit spielt hier keine Rolle - jeder der hier dies nicht kapiert hat von CPUs genau NULL Ahnung.

Hauptsache du bist der Oberchaker und kannst deinen Standpunkt nicht vernünftig erklären. Stattdessen flamst du, dass wenn jemand einen Bruchteil der Problematik nicht kapiert sofort NULL Ahnung von der Materie hat. Das nenne ich eine zielgerichtete Diskussion, die alle Diskussionsbeteiligten befriedigen wird.

/Sarkasmus und Ironie aus.

gruffi schrieb:
Neue CPUs von AMD profitieren von den dortigen Verbesserungen (effizientere Logik, schnellerer Cache, etc) natürlich genauso wie das bei Intel der Fall ist.

Vielleicht erklärst du mir, wie man eine effizientere Logik machen kann ohne die Mikroarchitektur für die der Compiler optimiert ist zu verändern. Oder meinst du Intel macht nichts anderes als seit Jahren NUR den Cache schneller zu machen?

Mal ein Beispiel: Core 2 Duo in 45nm vs. Core 2 Duo in 65nm. Effizienzsteigerung durch Verbesserung des Memory Order Buffers in Bezug auf Handling von nicht ausgerichteten (Aligned) Adressen. Der alte Compilercode wird nun schneller abgearbeitet, weil an der CPU intern etwas verändert wurde. Die CPU ist nicht identisch zur vorherigen und kann alten Code schneller berechnen.
Wie gesagt, nur ein Beispiel. Könnte dir genau so auch vom Radix16 erzählen, der beim Penryn eingeführt wurde und von dem der alte Compiler nichts wuste und der Code läuft dennoch schneller mit dem Radix16...

Oder ich könnte dir einfach vom Core 2 Duo erzählen, der den alten Code, der für Netbrust geschrieben wurde, schneller abgearbeitet hat. Ja, Intel hat eine komplett andere Architektur, eine komplett andere CPU gebaut, die den alten Code schneller abarbeitet. Warum muss also AMD jetzt Intel nachbauen um ähnliche Performancezuwächse beim abarbeiten dieses Codes zu gewinnen? Intel hat doch auch nicht den Netbrust nachgebaut um den Code schneller abzuarbeiten. Wie gesagt, die CPUs können komplett unterschiedlich sein und dennoch kann man die CPU fürs Abarbeiten der Codes von verschiedenen Programmen so optimieren, dass es im Durschnitt schneller läuft.

gruffi schrieb:
Software muss an die Hardware angepasst werden und nicht umgekehrt.
silent-efficiency schrieb:
In einer Welt wo Intel und AMD jeweils 50 Prozent Martanteil haben und die Compiler von einem unabhängigen Gremium kommen, vielleicht. Die Realität sieht anders aus, und der Realität muss man sich stellen und nicht sich hintern Baum verstecken und mit dem Finger auf andere Zeigen.
gruffi schrieb:
Das hat mit Marktanteilen gar nichts zu tun. Das muss der Anspruch der Hardware-Designer und Softwareentwickler sein.
Natürlich hat das was mit Marktanteilen zu tun, den man muss ein Produkt verkaufen das mit der Realität in verbindung steht. Was idealerweise der Anspruch der Software-Designer sein "muss" hat mit der Realität wenig zu tun. Die Softwaredesigner wollen auch nur Software verkaufen, die auf den meisten Rechnern schneller läuft und die meisten Rechner sind die von Intel und der meist genutze Compiler ist der von Intel. Der Anspruch der Menschheit ist Weltfrieden, dennoch hat Deutschland genau so wie Amerika und der Rest von Europa bewaffnete Soldaten und dennoch werden Kriege geführt. Was soll also ständig diese Idealisierung der Welt, wenn man von der Realität spricht?!
 
Zuletzt bearbeitet:
Meine Güte - was hat den flamen damit zu tun wenn hier welche meinen dass ein ausschalten des GPU Limits in Spielen automatisch ein Spiel befähigt CPU-Benchmarks zu machen?

Das eliminieren des GPU Limits kann nur zeigen welche CPU am besten mit diesem speziellen Spiel zurecht kommt. Hier werden keinerlei Fähigkeiten der CPU getestet durch einen Spieletester. Der Spieletester muss ja auch nur zeigen welche CPU für den Interessenten dieses Spiels am besten geeignet ist. Daraus zu schließen welche Fähigkeiten eine CPU im Allgemeinen hat sollte doch offensichtlich für jeden nachvollziehbar unsinnig sein.

Und jetzt schau nochmal herum wo wir hier schreiben: keine GPU, keine Spiele in diesem Thread. Nichts davon hat eine Relevanz beim Vergleich zwischen 2 CPUs und deren Leistungsfähigkeit oder Architektur.

Ein Benchmark der die Frames pro Sekunde misst mit einem Spiel in 800x600 Auflösung um zu zeigen welche CPU-Architektur überlegen pro Takt ist, ist schon so weit Offtopic dass ich nicht mehr weiss welche Masseinheit ich verwenden soll.
Was kommt als nächstes?
Strommesssungen mit ICQ anstatt Prime?
SSD-Tests über VPN anstatt SATA?
 
Complication schrieb:
was hat den flamen damit zu tun wenn hier welche meinen dass ein ausschalten des GPU Limits in Spielen automatisch ein Spiel befähigt CPU-Benchmarks zu machen?
Was hier welche meinen hat in der Tat nichts mit Flamen zu tun. Mit Flamen hat aber das zu tun, was du im nachfolgen Zitat lesen kannst.

silent-efficiency schrieb:
Stattdessen flamst du, dass wenn jemand einen Bruchteil der Problematik nicht kapiert sofort NULL Ahnung von der Materie hat.

---

Complication schrieb:
Was kommt als nächstes?
Strommesssungen mit ICQ anstatt Prime?
SSD-Tests über VPN anstatt SATA?
Jetzt versuchst du wieder deine Diskussionpartner mit unfairen und blödsinnigen Vergleichen ins Lächerliche zu ziehen.

Nennst du das eine faire Diskussion auf die die anderen Diskussionspartner Lust haben?
 
Mag ja sein, dass die 800x600 Benchmarks umstritten sind.
Allerdings werden hier sehr wohl Fähgkeiten der CPU getestet, welche eine bestimmte Aussagekraft haben.
Irgendwann werden diese Cpu´s auch in Gamereinstellungen sich auch so verhalten, auch wenn manche meinen, dass dies nicht so ist. (Mich evtl.mit eingeschlossen)

Complication schrieb:
Meine Güte - was hat den flamen damit zu tun wenn hier welche meinen dass ein ausschalten des GPU Limits in Spielen automatisch ein Spiel befähigt CPU-Benchmarks zu machen?

Bei soviel Polemik hab ich auch keine Lust mehr irgendetwas zu diskutieren.
Denn ich kann wohl schlecht eine CPU für Spiele bewerten, wenn ich Anwendungen teste.
L3 Cache und so.
Wenn es schwierig ist, ist alles wieder gleich off Topic und wenn man dann ins Detail geht interessieren die SPielebenches nicht.

Wie silent über mirschon angesprochen hat, ist das keine faire Diskussion, was du doch imemr so anprangerst?:rolleyes:

Complication schrieb:
Spiel taugen grundsätzlich nicht dafür einen CPU-Benchmark durchzuführen mit oder Ohne Limit spielt hier keine Rolle - jeder der hier dies nicht kapiert hat von CPUs genau NULL Ahnung.

Keine Ahnung was du meinst, ich möchte allerdings schon gerne wissen wie sich die Architektur meiner CPU in Spielen schlägt.
Warum das nichts taugen soll, ist mir schleierhaft. Kommt nur drauf an was einem wichtiger ist.
Deswegen gibts ja auch Leute die nen Phenom 2 x6 kaufen, weil diese auf Anwendungen fixiert sind.
Jedem das seine.
 
Zuletzt bearbeitet:
Complication schrieb:
Spiel taugen grundsätzlich nicht dafür einen CPU-Benchmark durchzuführen

Gut, dann nehmen wir das Performancerating bei Anwendungen.
Da liegt der aktuelle X6 1090T auf dem Niveau eines i7-870 (trotz höherem Takt und 6 echten gg. 4 echte + 4 virtuelle Kerne).

Wenn Sandy noch bessere IPC bieten soll als Nehalem, dann muß Bulldozer schon deutlich mehr leisten als die bisherige K10.5 Architektur, um da mithalten zu können.
 
Natürlich taugen Spiele, sofern man korrekt an die Sache ran geht :rolleyes: Schöne Zusammenfassung:

puntarenas schrieb:
Nochmal sortiert:

  • Man kann sehr wohl das Lesitungspotential von Prozessoren in Games ermitteln. Man benötigt dafür einen geeigneten Benchmarkansatz. Man sucht idealerweise eine sehr fordernde Szene, die weitgehend CPU-limitiert ist und bencht gegebenenfalls in 800x600 bei maximalen Details.
  • Dadurch erhält man einen Wert, der salopp als CPU-Limit bezeichnet wird, pedantisch müsste man jedes Mal "weitestgehendes CPU-Limit" sagen, das spart man sich.
  • Dieser in 800x600 ermittelte Wert ist keineswegs praxisfern und vollständig auf andere Auflösungen übertragbar (gleiches Field of View vorausgesetzt). Wenn dieser Wert je nach Anspruch deutlich über 60FPS oder 100FPS liegt, dann hat man ein Spiel gefunden, das den entsprechenden Prozessor nicht wirklich fordert.
  • Die gezielte Auswahl von Worst-Case-Szenen zur Ausmessung CPU-limitierter Szenen mag in einigen Verschwörungstheoretikern Ablehnung hervorrufen und zu dem Trugschluss führen, dass im Spielealltag kaum relevant sein kann, was man fürs Benchmarken aufwändig suchen muss. Realitätsverweigerung ist legitim und über ein "mir persönlich gut genug" kann man nicht streiten.
  • Die Häufigket böse CPU-limitierter Szenen ist zwar weder für ein bestimmtes Spiel, geschweige denn über einen zum "Performancerating" verquirlten Spielemix präzise quantifizierbar, nichtsdestotrotz sind sie heute schon ganz real, es wird morgen nicht weniger solcher Spielszenen geben und kommende Grafikkarten verschieben das GPU-Limit mit Sicherheit weiter in Richtung CPU.
  • Wie häufig das über den Daumen 30% höhere Leistungsvermögen eines Core i5 760 gegenüber einem Phenom II X6 1055T schlussendlich den Unterschied zwischen Spielgenuß und Ruckelfrust ausmacht, kann niemand sagen. Es ist natürlich nachvollziehbar, wenn jemand solche Prozessoren für sich in der selben Leistungklasse einordnet. Das ändert aber nichts am unterschiedlichen Leistungsvermögen, es ist nur eine persönliche "mir doch egal" Feststellung.
  • Wer zu dem Ergebnis kommt, dass unter Performanceerwartungen aus Gamer-Sicht ein Core i5 760 im Vergleich zum Phenom II X6 1055T die bessere CPU ist, der sagt nichts anderes als eben dieses Faktum, das sich auch prima in aussagekräftigen Messwerten wiederspiegelt. Da es sich ausmessen lässt, ist die Aussage, beide seien unter diesem Aspekt gleichwertig, als sachliche Aussage nicht haltbar.
  • Dass ein Core i5 760 bessere Spieleperformance verspricht bedeutet nicht, dass AMD-Prozessoren überhaupt nicht fürs Spielen geeignet wären.
  • Es stimmt wirklich, die meisten Reviews im Netz sind Müll.
 
@ y33H@ Punkt 2 Ein spiel was den CPU sehr stark fordert und demnach weitgehends CPU limitiert ist und zudem nur 60 bis 100 frames rauslässt.
das ist ein CPU Bench.
Kein 800x600 Test mit teilweise (übertrieben gesagt) 2542154FPS, wie bei CB.
Auf sowas kann man dann schon eher darauf eingehen, da man nicht weiß inwiefern andere Faktoren mit reinspielen, wenn man 5654154654fps erhält.
 
Bei einem CPU-Limit hast du keine 2542154 FPS (da die CPU ja die Fps begrenzt).

Vll mal über 100, aber bei einer fordernden Szene kommt das bei aktuellen Titeln nicht vor.
 
Schaffe89 schrieb:
Mag ja sein, dass die 800x600 Benchmarks umstritten sind.
Allerdings werden hier sehr wohl Fähgkeiten der CPU getestet, welche eine bestimmte Aussagekraft haben.
Genau das habe ich ja geschrieben:
Complication schrieb:
Das eliminieren des GPU Limits kann nur zeigen welche CPU am besten mit diesem speziellen Spiel zurecht kommt. Hier werden keinerlei Fähigkeiten der CPU getestet durch einen Spieletester. Der Spieletester muss ja auch nur zeigen welche CPU für den Interessenten dieses Spiels am besten geeignet ist. Daraus zu schließen welche Fähigkeiten eine CPU im Allgemeinen hat sollte doch offensichtlich für jeden nachvollziehbar unsinnig sein.

Nur das ist was völlig anders als die Diskussion wo der Benchmark als "Beweis" angeführt wurde:

y33H@ schrieb:
Und nein, pro Takt und Thread sind es (wie bereits erwähnt) unter Windows 20-30% zwischen K10.5 und Nehalem, auch ohne Turbo-Modus. Nehmen wir doch einfach das CB-Spiele-Ranking ohne verzerrendes GPU-Limit, also 800 x 600.
Und genau DAS zeigt der Benchmark eben nicht! - und das habe ich geschrieben. Da verzerrt alleine das verwenden eines Spieles die Werte so dass diese Aussage nicht zu machen ist.
 
boxleitnerb schrieb:
Den Oberlehrer ignoriere ich mal geflissentlich. Beweise gibts trotzdem (obwohl man es eigentlich keine braucht, da dieser Sachverhalt zu offensichtlich ist):

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8168479&postcount=450
thx@dargo

CPU-Limit, da GPU-Takt keinen Einfluss auf die fps hat. CPU-Limit auflösungsunabhängig (69fps bei 640x480 und bei 1280x960). Denke, das widerlegt deine Behauptung sehr schön. Mehr werde ich nicht schreiben, ist verschwendete Zeit.
Wie ich dir schon per PN sagte, damit kannst du überhaupt nichts beweisen. Es gibt unzählige von Setups und Anwendungsfällen. Was soll uns das hier sagen? Gar nichts. Wenn man der Meinung ist, die CPU würde limitieren, dann kann man das auch nur mit der Auslastung der CPU nachweisen und nicht mit irgendwelchen FPS Werten. 3dcenter ist wohl auch kaum der geeignete Ort, um sich "Beweise" zu holen. Nichts gegen die dort aktiven User, aber ich würde jetzt nicht unbedingt Objektivität erwarten. Da scheint es doch viele festgefahrene Meinungen und Irrglauben zu geben.

Wie ich schon sagte, lies dich in das Thema I/O von modernen Systemen ein. Da findest du viele Antworten auf deine Fragen. Als Zusatzaufgabe kann ich dir noch empfehlen, dich in eine moderne Grafik-API wie Direct3D einzulesen und wenn möglich eine kleine Demo zu schreiben, um zu verstehen, was intern vor sich geht. Wenn dir das alles zu viel Arbeit ist, dann höre aber bitte wenigstens mit solchem oberflächlichem Rumgestochere auf.

silent-efficiency schrieb:
Vielleicht erklärst du mir, wie man eine effizientere Logik machen kann ohne die Mikroarchitektur für die der Compiler optimiert ist zu verändern. Oder meinst du Intel macht nichts anderes als seit Jahren NUR den Cache schneller zu machen?

Mal ein Beispiel: Core 2 Duo in 45nm vs. Core 2 Duo in 65nm. Effizienzsteigerung durch Verbesserung des Memory Order Buffers in Bezug auf Handling von nicht ausgerichteten (Aligned) Adressen. Der alte Compilercode wird nun schneller abgearbeitet, weil an der CPU intern etwas verändert wurde. Die CPU ist nicht identisch zur vorherigen und kann alten Code schneller berechnen.
Wie gesagt, nur ein Beispiel. Könnte dir genau so auch vom Radix16 erzählen, der beim Penryn eingeführt wurde und von dem der alte Compiler nichts wuste und der Code läuft dennoch schneller mit dem Radix16...
Da du dir die Frage schon selbst beantwortet hast, warum fragst du dann erst? Es wäre auch nicht notwendig gewesen, nochmal zu wiederholen, was ich bereits sagte.

silent-efficiency schrieb:
Oder ich könnte dir einfach vom Core 2 Duo erzählen, der den alten Code, der für Netbrust geschrieben wurde, schneller abgearbeitet hat.
Ist zwar eine ganz andere Baustelle und hat mit dem Thema nichts zu tun, aber dass Netburst nicht gerade die schnellste Architektur war, sollte bekannt sein.

silent-efficiency schrieb:
Ja, Intel hat eine komplett andere Architektur, eine komplett andere CPU gebaut, die den alten Code schneller abarbeitet. Warum muss also AMD jetzt Intel nachbauen um ähnliche Performancezuwächse beim abarbeiten dieses Codes zu gewinnen?
Habe ich das nicht schon mehrere Male gesagt? Du redest hier von Mikrooptimierungen, die für das Thema irrelevant sind, da wie schon gesagt, sowohl AMD als auch Intel davon profitieren, trotz gleichem Code. Es geht um den grundsätzlichen Aufbau der Architektur bzw Pipeline, also Cache, Fetch/Prefetch, Decoder, Scheduler, Load-/Store-Ports, Ausführungseinheiten, etc.pp. All das berücksichtigen gute Compiler und können dementsprechend optimalen Code für die jeweilige Mikroarchitektur erzeugen. Will AMD also in gleicher Weise davon profitieren, müssten sie Intels Architektur nachbauen. Nicht im Detail, davon hat keiner gesprochen, aber bezüglich des grundsätzlichen Aufbaus schon.

silent-efficiency schrieb:
Natürlich hat das was mit Marktanteilen zu tun, den man muss ein Produkt verkaufen das mit der Realität in verbindung steht. Was idealerweise der Anspruch der Software-Designer sein "muss" hat mit der Realität wenig zu tun.
Mit Softwareentwickler meinte ich die Leute, die Build Tools für die jeweilige Hardware schreiben. Die haben mit Marktanteilen nichts zu tun. Wenn sie sich aufgrund der Verbreitung bestimmter Hardware nur auf bestimmten Support konzentrieren, ist das schön und gut. Hat nur mit meiner Aussage nichts zu tun.

silent-efficiency schrieb:
und der meist genutze Compiler ist der von Intel
Das halte ich für ein Gerücht. Aber du kannst diese Behauptung sicherlich mit einer Statistik nachweisen. Ich denke viel eher, unter Windows ist der MSC mit Abstand meist genutzte Compiler. Und bei Unix basierten Systemen dürfte das GCC sein.

Dadurch erhält man einen Wert, der salopp als CPU-Limit bezeichnet wird, pedantisch müsste man jedes Mal "weitestgehendes CPU-Limit" sagen, das spart man sich.
Pedantisch müsste man sagen, "eingebildetes CPU-Limit" ohne faktische Grundlage. Aber das spart man sich wohl, um sich nicht die eigene Unwissenheit einzugestehen. Aber gut, wer tatsächlich behauptet, ein i5 760 hätte ein höheres Leistungsvermögen als ein X6 1055T, dem fehlt es schlichtweg an Realitätssinn und ist nicht ernst zu nehmen. Aber das kommt halt davon, wenn man dem Irrglauben unterliegt, man könnte mit Spielen die Leistungsfähigkeit von CPUs nachweisen. :rolleyes:
Mit Spielen lässt sich kein CPU-Limit messen. Das ist ein Fakt. Ende der Geschichte. Und jetzt lasst bitte diesen Unsinn aus dem Thread raus. Der hat hier nun wirklich nichts zu suchen. Wer diese Diskussion anhand "normaler" Anwendungen fortsetzen möchte, darf das natürlich gerne tun.
 
gruffi schrieb:
Mit Spielen lässt sich kein CPU-Limit messen. Das ist ein Fakt.
Warum lässt sich dann mit Spiele eine Taktsteigerung von X Prozent in X mehr Fps messen? Weil man ein CPU-Limit hat, so wie im Cinebench auch. Fakt.
 
y33H@ schrieb:
Warum lässt sich dann mit Spiele eine Taktsteigerung von X Prozent in X mehr Fps messen? Weil man ein CPU-Limit hat, so wie im Cinebench auch. Fakt.
Und dieses CPU-Limit kommt deiner Meinung nach aus der Hardware Architektur und nicht aus der Programmierung der Software - keiner sagt dass die CPU da nicht limitiert.
Nur ist das keinerlei Grundlage wenn man sich über Architektur und "Pro Clock und Thread" Geschwindigkeit unterhält. Dafür gibt es doch wirklich genug taugliche Benchmark Software - wieso sollte man nun diesen komischen "Bench" mit Spielen als Referenz vergewaltigen?

Würde das Ergebnis sich auch nur in der Nähe der anderen 8 Anwendungsbenchmarks bewegen meinetwegen. Doch es zeigt was völlig anderes als echte CPU-Benchmarks und hat damit deiner Meinung nach bewiesen dass diese alle Unsinn sind und nur 800x600 als einzigstes echte CPU Leistung zeigt? Das kann doch nicht wirklich jemand ernsthaft behaupten wollen hier.
 
Zurück
Oben