Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
SuperPi ist auch bei Intel extrem schneller. Habe einen Core2 Duo mit 1,66 Ghz, der braucht etwa 33 Sek im SuperPi. Ein Freund hat einen AMD Turion X2 mit 2 Ghz und seiner braucht über 50 Sek. Insgesamt sind die Prozessoren aber etwa gleichstark. -> Super Pi ist nicht zu gebrauchen zum Benchen.
Naja, 3D Mark ist nun seeehr stark vom restlichen System abhängig, am meisten natürlich von der Graka. Mit 3DMark CPUs zu benchen find ich Blödsinn, besser für sowas sind Progs wie Cinebench. Besonderer Vorteil: Der ist nicht synthetisch.
Das kann man zB sehr einfach sagen, wenn man schon nicht genug Ahnung hat um zu wissen, dass 30k im 3DMark 06 mit den angeblichen 2 R600s auf 830/900 schlicht unmöglich sind, unabhängig welche Alien-Technologie die CPU einsetzt.
Das ist totaler Blödsinn. Die Leistung steigt wie bei ALLEN anderen CPUs linear mit der Frequenz. Wie kann man denn bitte nur einen solchen Unfug schreiben?
@ 56 : Wobei hier eher die Frage nach der Software gestellt werden muss. Das Skalieren in % ist wohl eher von der Software abhängig als vom eigentlichen Prozessor...
Die Software ist aber auf beiden Seiten gleich. Insofern ist der Unterschied einzig und allein in der Hardware begründet.
opoderoso schrieb:
naja schau dir doch mal die Radeon 2900 XT an, jeder hat vorher behauptet, dass sie den G80 gnadenlos hintersich lassen würde. Und als sie dann da war konnte sie oft nicht mal mit einer GTS mithalten.
Soweit ich mich an die Benches erinnern kann, liegt die XT vor der GTS. Zudem, schau dir mal FireGL an. Der R600 hat einfach mehr Potenzial als G80, auch wenn das im Desktop Bereich unter DX9 momentan kaum zum tragen kommt. Das ist aber nicht das einzige Einsatzgebiet dieser Generation. Lass dir das von einem nVidia Besitzer sagen.
Ausserdem hat es nichts mit dem Thema zu tun, da es eine ATI Entwicklung ist.
D@rkangel schrieb:
aber bin ein Intelfanboy und bin mit meinen 15s bei superPi ganz happy.(E6600 @ 3,2ghz) und naja bei dieser Entwicklungszeit 40s , da tue ich mich einfach kranklachen XD
Wie ich schon sagte, Super Pi ist total veraltet und heutzutage vollkommen nutzlos. wPrime oder Cinebench ist da schon deutlich aussagekräftiger, weil eben Gebrauch von SIMD und Multicore gemacht wird.
ja die reine cpu leistung schon aber ganz bestimmt nicht die ergebnisse diverser umfangreicherer benchmark programme.
diese passen nämlich nichtmehr in den cpu-cache rein (cinebench) und nutzen daher auch den ram - welcher leider nicht schneller wird wenn die cpu höher getaktet wird.
vonwegen skalieren: keine cpu skaliert linear mit der taktrate. das geht nicht, solange nicht auch der bus mit dem takt skaliert. wenn sich bei intel 4 kerne um fsb-bandbreite kloppen müssen werden die kerne des barcelona im vergleich einfach besser mit daten versorgt.
mit steigendem takt wird der fsb immer mehr zum flaschenhals, obwohl intel sich ja alle mühe gibt mit dem prefetchen, irgendwann läuft der cache nunmal leer.
ich prognostiziere mal bessere ergebnisse zugunsten amd je schneller die cpus getaktet werden. das sollte ja hoffentlich bald der fall sein, 2ghz sind lange nicht genug.
denke mir mal, dass amd zwar nicht direkt viel marktanteile im server-bereich zurückgewinnen kann, aber man sollte doch durchaus gutes geld mit upgrades verdienen können.
@ Gruffi : Ja, bei diesem einen Benchmark. Es kann durchaus auch andere geben, bei denen der jeweils andere prozessor begünstigt wird. Es ist nämlich durchaus möglich software zu schreiben, die jeden Kern Auslastet und somit perfekt skaliert (z.b. einfach jeden etwas anderes machen lassen ohne daten auszutauschen). Von daher wäre ich einfach vorsichtig, die "Skalierbarkeit" von Systemen mit mehrern Kernen einfach so auf die Hardware-architektur zu schieben nur weil ein Benchmark eine bessere Auslastung anzeigt... Zur Zeit gibt es nur ganz wenige Anwendungen die anständig gut skalieren...
natürlich skaliert die cpu linear mit dem takt - das zeigen benchmark programme die nur in der cpu laufen und nicht auf den externen ram angewiesen sind (also in den cache passen).
dass die ergebnisse von cindebench und so nicht mit dem cpu-takt skalieren ist auch klar, da cinebench nicht in den cache passt.
Nur ist es egal, wie die Skalierung unter theoretischen, optimalen Bedingungen aussieht.
Fakt ist, dass unter Arbeitsbedingungen Bedingungen keine CPU linear mit dem Takt skaliert und das ist es ja, auf was es ankommt.
Durchaus möglich, da kann das Pendel aber nach beiden Seiten ausschlagen. Ich halte es jedenfalls für naiv zu behaupten, dass die bessere Skalierung einzig und allein auf die Software zurückzuführen ist. Auch K8 Multisockelsysteme haben bereits gezeigt, dass sie einfach besser als die von Intel skalieren. Ich habe hier zwar keine genauen Zahlen, aber wenn der K10 bei 8 verwendeten CPUs einfach mal eine der Konkurrenz praktisch wirkungslos machen kann, sind das mehr als nur Peanuts.
Ich habe gestern erst in der C64 gelesen, daß 99% aller Komplettsystem-Käufer ihre CPU übertakten. Auch Wissenschaftler in Forschungseinrichtungen, usw. sollen diese Möglichkeit entdeckt haben. Ganze Serverfarmen werden nun kostengünstig übertaktet und in Labors ein paar Rundungsfehler gerne in Kauf genommen, weil ist ja billig ... .
Intel ist auch begeistert, denn statt ihrer deutlich teureren Server- und Workstation CPUs werden nur noch E6400 verkauft. So ändert sich die Welt, Takt für jederman und nicht nur für ein paar blaßhäutige, pizzaverschlingende Jugendliche.
flipp
P.S. Und die Behauptung, daß ein Monopol NIE gut ist, ist ja nun mal richtig für die Kehrseite.
naja nie ganz aber fast also sicher 99% oder so ... man sollte nämlich unterscheiden welche arbeitsbedingungen du meinst.
um zu sehen ob und wie die leistung skaliert muss man diese messen - also mit einem benchmark oder sonstigem programm...
und genau das sieht man, dass der 3d-mark oder cinebench bei doppeltem takt nicht die doppelte punktzahl angeben, während aber superPI genau dies tut.
woran liegt das ?
beim 3d-mark liegt das daran dass die grafikkarte mit ins ergebnis einfließt und deren takt unverändert gelassen wude - aber natürlich nicht nur wegen der grafikkarte sondern das resultat st auch abhängig vom unverändert gebliebenem ram-takt, fsb-takt und den darausfolgernd gleichgebliebenen bandbreiten.
beim cinebench betrachten wir mal nur die cpu score. hier ist schonmal die gleichgebliebene grafikkarte aussen vor. aber weiterhin bremsen ram und fsb (ok letzterer bei amd nicht).
bei superPI bremst anscheinend nix ... komisch gell ?
das liegt daran, dass die zu daten beim 3d-mark und cinebench (und vielen weiteren) nicht und den cpu-cache passen (der ist zu klein oder die daten zu groß/viele), und so müssen die daten teilweise in den ram ausgelagert werden und bei bedarf abgerufen werden.
kleine programme können nur in der cpu laufen und wenn diese was berechnen rechnen sie um den gleichen faktor schneller um den die cpu übertaktet wird.
aber der ganze computer skaliert nicht in dem verhältnis wie die cpu übertaktet wird.
Tja war eine schöne Zeit mit AMD, aber da kann man wohl nichts machen, jetzt sind sie weg vom Fenster.
Ich finde ja, keine Firma sollte mehr als 10% Marktanteil haben!
Da kann man nur hoffen, dass das US-Kartellamt mit seinen Antitrust Gesetzen Intel bald zerlegt aber die arbeiten halt auch nur in der Theorie! :/
Bei dem mageren Singlecore Ergebnis glaube ich auch nicht an die Echtheit bzw. ein Finalrelease , im K10 wurde soviel geändert und Leitungen verbreitert das der unmöglich auf K8 Niveau liegen kann , kürzlich wurde gesagt 40-85% schneller als ein K8.