News Erster „Direct Compute“-Benchmark aufgetaucht

och schade hätte den test gerne gemacht aber mobile treiber von nvidia ist erst bei 186.xx
 
Hmmm sieht ja niederschmetternd für ne GTX 285 aus.....
 
Also mein System (Asus P45 + Q6600@3200Mhz + 8GB Geil DDR2 1066Mhz + Zotac GTX260 Amp2 + Windows7 Ultimate x64) macht bei diesem Bench 16194 GPUScore und 6244 CPUScore.
Das sagt jawohl erstmal alles. :evillol:
 
Also ein völlig sinnfreies Benchmarktool..

Im übrigen bieten die ATi GPUs eine WEITAUS höhere GPGPU Rohleistung als die NV Konkurrenz, deshalb sind die Ergebnisse eher Blödsinn von dem Tool (siehe einige Lustige Ergebnisse hier)
 
Mhh der lastet die GPU grade mal zu 50% aus :freak:

38lh9fcrmboj.jpg



So muss das aussehen :-P

4d81jlxkrqlp.png
 
Zuletzt bearbeitet:
GPU: 18.256
CPU: 3.844

f946c88591756616c9e595b6b.jpg


System siehe Signatur
 
Krautmaster schrieb:
ich geh davon aus, dass der G200 im Gegensatz zum RV870 einfach schon viel mehr auf Computing ausgelegt ist und deswegen die Nase vorn hat.
Ich denke das gerade beim GPGPU AMD Grafiikarten deutlich schlechter als die Nvidia Grafikkarten abschneiden werden, da Seitens NV schon viel länger eine Optimierung dahingehend stattfindet.

Selten so einen Schwachsinn gelesen. Beweis durch Behauptung?
 
"Darüber hinaus ist Windows 7 wohl eine Zwangsvoraussetzung, da das Tool unter Windows Vista trotz des DirectX-11-Updates möglicherweise Schwierigkeiten bereitet."
 
Hallo,

nur weil ein Chip, der von der theoretischen Leistung her schneller sein müsste, dies nicht ist, muss der Benchmark nicht fehlerhaft sein.
ATI scheint es aktuell immer noch nicht zu schaffen, ihre 5D-Shader in GPGPU-Anwendungen vernünftig auszulasten.
Es ist ja nicht nur dieser Bench, in dem die ATI ihren theoretischen Werten hinterherhinkt.
Bei Folding@Home ist es leider nicht anders.
Wo der Grund letztendlich liegt, ist mir als Kunde egal. Theoretische Leistung, die ich nicht nutzen kann, bringt mir nichts.
In Sachen Software hat ATI noch einiges auf Nvidia aufzuholen. Ansonsten verpufft die Leistungsfähigkeit der Hardware im nirgendwo.
Dieser Benchmark wird so einigen hoffentlich endlich mal die Augen öffnen.

HD5870@Standardtakt, Core i7-920@4 GHz (SMT aus):

Ich bin in der Hinsicht echt enttäuscht. Da kauf ich mir die vermeintlich deutlich schnellere Karte und hinke dann praktisch meiner alten Lösung mehr als deutlich hinterher.

ciao Tom

P.S. zum Glück kann man die Karte noch zum Zocken gebrauchen;)
 
Zuletzt bearbeitet:
@knuF

Mit Alt+Druck kann man übrigens einen Sceen von aktiven Fenster machen und wir sind dann nicht gezwungen Deinen ganzen leeren Desktop zu beobachten.

 
Zuletzt bearbeitet:
Kann es sein das die Graka bei mir im 2D Modus gemessen wurde?

Wenn ich hisn´s GTX 280 er sehe.. Aber ist doch vielleicht nen Überflusstool.
 
@KillingJoke
brauchst ja nur GPU-Z mitlaufen lassen und schon siehst Du ob die Karte korrekt hoch taktet (das Häkchen bei "Continue refreshing..." nicht vergessen).
 
Marius schrieb:
Was ist daran wundersames wenn eine GTX260 einen 5870 schlägt?
Die G200 sind dezitierte GPGPU Prozessoren, die halt AUCH Spiele darstellen können, während ATI NUR Spiele darstellen kann und sonst nix reißt und darum im GPGPU so gut wie gar nicht zur Anwendung kommt.

Sieh Profibereich von Nvidia: Quadroplex(Grafik/GPGPU), Tesla (Supercomputer)

Nvidia setzt jetzt alles daran im GPGPU Bereich Oberwasser zu behalten, gegen Intels Larabee, der auch eine dezitierte GPGPU Karte ist.
Seit ihr nVidia Fanboys alle zu faul um mal nachzudenken?! Das ist ja unfassbar! Es ist doch schon seit jeher so, dass ATI von der reinen Rechenleistung IMMER die Nase vorn gehabt hätte - ich kann mich sogar noch auf eine News erinnern (sorry, keine Quelle, wenn sie irgendwer findet, immer her damit...) wo ATI sich wehement über das "The way it's meant to be play"-Programm von nVidia aufgeregt: Kritisiert wurde unter anderem, dass die Spielepartner sich endlich mehr auf Rechenleistung der GPU statt auf speicherintensive Spiele setzen sollten (denn in dem Bereich hatte Ati bis zum GDDR5 Speicher definitiv das Nachsehen).
--> deshalb ist es auch so schade, aber aus nVidia's Sicht verständlich, dass CUDA nur exklusiv auf ihren Grafikkarten ermöglicht wird.

Interessant wird es wirklich was nVidia mit dem Fermi auf die Beine stellt, obwohl ich mir ziemlich sicher bin, dass meine nächste Grafikkarte eine Ati 5870 oder 5890 werden wird. ;)
(Spekulation: Ein Grund wird mit Sicherheit die Abwärme des Fermi darstellen...)
 
Ok nehm alles zurück ... lag am Treiber (195.39)

Hab jetzt mal den 191.07 WHQL probiert und siehe da...

sojouqiavy98.jpg
 
@ KillingJoke

Richtige Einstellungen?
Mein Test mit einer GTX285 bringt M18358
die CPU Q9650 nur M5879
ohne Übertaktung!
 
Zuletzt bearbeitet:
Und da behaupte mal eienr das PRogramm sei gut obwohl es völlig verschiedene Ergebnisse TREIBERABHÄNGIG verursacht ^^
 
Was bei den Leistungdiskussionen der nVidia und ATI Karten nicht zu vernachlässigen ist, das es ein Benckmark für DirectCompute/OpenCL ist.

Nach den eigenen Angaben berechnet das Tool zahlreiche FFT-Aufgaben (Fast Fourier Transform) und schiebt Daten auf dem Speicher hin und her, wozu durch Direct Compute sowohl die CPU als auch die GPU genutzt werden können.

Was bringt der Benchmark, wenn man nicht mal testen kann, ob sich der Benchmark mit einem realistischen Leistungswert gleichsetzen lässt, weil kein Programm exisitiert.

Auf eine wirkliche Anwendung, die Direct Compute oder OpenCL nutzt, muss man aber weiterhin noch etwas warten.

Bis sich da was getan hat und sich das auch auf heimischen Rechnern etabliert hat, hat nVidia und ATI das als neuen Konkurrenzkampf erkannt, wovon vielleicht sogar in ein paar Jahren Privatkunden davon profitieren können. Der kommerzielle Bereich ist ein anderes Zugpferd. Das dort nVidia schon lange (s. Quadro) etabliert hat, ist keine neue Erkenntnis. Mit der 5800 Serie wollte ATI bestimmt nicht auch dort groß einsteigen. Dafür ist noch Zeit, bei der Vergänglichkeit von Grafikkarten.
 
Zurück
Oben