boxleitnerb schrieb:
Den Oberlehrer ignoriere ich mal geflissentlich. Beweise gibts trotzdem (obwohl man es eigentlich keine braucht, da dieser Sachverhalt zu offensichtlich ist):
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8168479&postcount=450
thx@dargo
CPU-Limit, da GPU-Takt keinen Einfluss auf die fps hat. CPU-Limit auflösungsunabhängig (69fps bei 640x480 und bei 1280x960). Denke, das widerlegt deine Behauptung sehr schön. Mehr werde ich nicht schreiben, ist verschwendete Zeit.
Wie ich dir schon per PN sagte, damit kannst du überhaupt nichts beweisen. Es gibt unzählige von Setups und Anwendungsfällen. Was soll uns das hier sagen? Gar nichts. Wenn man der Meinung ist, die CPU würde limitieren, dann kann man das auch nur mit der Auslastung der CPU nachweisen und nicht mit irgendwelchen FPS Werten. 3dcenter ist wohl auch kaum der geeignete Ort, um sich "Beweise" zu holen. Nichts gegen die dort aktiven User, aber ich würde jetzt nicht unbedingt Objektivität erwarten. Da scheint es doch viele festgefahrene Meinungen und Irrglauben zu geben.
Wie ich schon sagte, lies dich in das Thema I/O von modernen Systemen ein. Da findest du viele Antworten auf deine Fragen. Als Zusatzaufgabe kann ich dir noch empfehlen, dich in eine moderne Grafik-API wie Direct3D einzulesen und wenn möglich eine kleine Demo zu schreiben, um zu verstehen, was intern vor sich geht. Wenn dir das alles zu viel Arbeit ist, dann höre aber bitte wenigstens mit solchem oberflächlichem Rumgestochere auf.
silent-efficiency schrieb:
Vielleicht erklärst du mir, wie man eine effizientere Logik machen kann ohne die Mikroarchitektur für die der Compiler optimiert ist zu verändern. Oder meinst du Intel macht nichts anderes als seit Jahren NUR den Cache schneller zu machen?
Mal ein Beispiel: Core 2 Duo in 45nm vs. Core 2 Duo in 65nm. Effizienzsteigerung durch Verbesserung des Memory Order Buffers in Bezug auf Handling von nicht ausgerichteten (Aligned) Adressen. Der alte Compilercode wird nun schneller abgearbeitet, weil an der CPU intern etwas verändert wurde. Die CPU ist nicht identisch zur vorherigen und kann alten Code schneller berechnen.
Wie gesagt, nur ein Beispiel. Könnte dir genau so auch vom Radix16 erzählen, der beim Penryn eingeführt wurde und von dem der alte Compiler nichts wuste und der Code läuft dennoch schneller mit dem Radix16...
Da du dir die Frage schon selbst beantwortet hast, warum fragst du dann erst? Es wäre auch nicht notwendig gewesen, nochmal zu wiederholen, was ich bereits sagte.
silent-efficiency schrieb:
Oder ich könnte dir einfach vom Core 2 Duo erzählen, der den alten Code, der für Netbrust geschrieben wurde, schneller abgearbeitet hat.
Ist zwar eine ganz andere Baustelle und hat mit dem Thema nichts zu tun, aber dass Netburst nicht gerade die schnellste Architektur war, sollte bekannt sein.
silent-efficiency schrieb:
Ja, Intel hat eine komplett andere Architektur, eine komplett andere CPU gebaut, die den alten Code schneller abarbeitet. Warum muss also AMD jetzt Intel nachbauen um ähnliche Performancezuwächse beim abarbeiten dieses Codes zu gewinnen?
Habe ich das nicht schon mehrere Male gesagt? Du redest hier von Mikrooptimierungen, die für das Thema irrelevant sind, da wie schon gesagt, sowohl AMD als auch Intel davon profitieren, trotz gleichem Code. Es geht um den grundsätzlichen Aufbau der Architektur bzw Pipeline, also Cache, Fetch/Prefetch, Decoder, Scheduler, Load-/Store-Ports, Ausführungseinheiten, etc.pp. All das berücksichtigen gute Compiler und können dementsprechend optimalen Code für die jeweilige Mikroarchitektur erzeugen. Will AMD also in gleicher Weise davon profitieren, müssten sie Intels Architektur nachbauen. Nicht im Detail, davon hat keiner gesprochen, aber bezüglich des grundsätzlichen Aufbaus schon.
silent-efficiency schrieb:
Natürlich hat das was mit Marktanteilen zu tun, den man muss ein Produkt verkaufen das mit der Realität in verbindung steht. Was idealerweise der Anspruch der Software-Designer sein "muss" hat mit der Realität wenig zu tun.
Mit Softwareentwickler meinte ich die Leute, die Build Tools für die jeweilige Hardware schreiben. Die haben mit Marktanteilen nichts zu tun. Wenn sie sich aufgrund der Verbreitung bestimmter Hardware nur auf bestimmten Support konzentrieren, ist das schön und gut. Hat nur mit meiner Aussage nichts zu tun.
silent-efficiency schrieb:
und der meist genutze Compiler ist der von Intel
Das halte ich für ein Gerücht. Aber du kannst diese Behauptung sicherlich mit einer Statistik nachweisen. Ich denke viel eher, unter Windows ist der MSC mit Abstand meist genutzte Compiler. Und bei Unix basierten Systemen dürfte das GCC sein.
Dadurch erhält man einen Wert, der salopp als CPU-Limit bezeichnet wird, pedantisch müsste man jedes Mal "weitestgehendes CPU-Limit" sagen, das spart man sich.
Pedantisch müsste man sagen, "eingebildetes CPU-Limit" ohne faktische Grundlage. Aber das spart man sich wohl, um sich nicht die eigene Unwissenheit einzugestehen. Aber gut, wer tatsächlich behauptet, ein i5 760 hätte ein höheres Leistungsvermögen als ein X6 1055T, dem fehlt es schlichtweg an Realitätssinn und ist nicht ernst zu nehmen. Aber das kommt halt davon, wenn man dem Irrglauben unterliegt, man könnte mit Spielen die Leistungsfähigkeit von CPUs nachweisen.
Mit Spielen lässt sich kein CPU-Limit messen. Das ist ein Fakt. Ende der Geschichte. Und jetzt lasst bitte diesen Unsinn aus dem Thread raus. Der hat hier nun wirklich nichts zu suchen. Wer diese Diskussion anhand "normaler" Anwendungen fortsetzen möchte, darf das natürlich gerne tun.