Programme, die mit der GPU rechnen

  • Ersteller Ersteller Straßdörfler
  • Erstellt am Erstellt am
Wo bleiben die Programm, die ATIs Stream unterstützen?
 
Cyberlink Powerdirector 8 unterstützt beides, CUDA und ATI STREAM. -Habe es kurz mit meiner HD 4770 ausprobiert, bin sehr zufrieden.
 
Wie berechnet man Gigaflops wusste das mal habe es aber vergessen -_-

Wollte mal die HD5870 berechnen mit 1,404Ghz wie viel Gigaflops das sind.
 
Hallo
Erste echte werte der GTX 480 sind drauße.
Bei GPUGrid laufen schon so 3-6 stück und nun hat man ein Bezugspunkt. Eine Berechnung die auf einem Kern einer GTX 295 ( non OC) so ca 4,5h dauert macht eine GTX480 in 2,5h also ergibt sich daraus von der Gesammtrechenleistung wieder eine GTX 295 +-. Dieses Rechenleistung ist nahe zu die gleiche wie 10 Intel I7 980+-. Das rückt den verbrauch der GTX 480 in ein ganz anderes Licht. Ich selber bin von den Möglichkeiten der 480 überzeugt, rechne schon lange bei GPUGrid mit und war fast von Anfang an mit dabei. Die Cuda Technologie ist zwar nicht für alle Berechnugen untzbar aber durch die 480er enorm gesteigert worden. Bei ATIs der 4er und 5er serie fehlt es an der unterstüzung seitens ATI und auch die Archetektur ist nicht optimal obwohl die Leistung der ATIs teilweise besser ist als bei NV (Doppelgenauigkeit). Um ein direkten vergleich haben zu können zwischen NV und ATI müste sich Open CL durchsetzen aber das steckt noch in den Kinderschuhen. www.gpugrid.net wer seine Karte mal richtig testen möchte und zwar mit Dauerleistung aber ACHTUNG hir werden ganz schnell Kühlungsprobleme aufgezeigt wenn ihr welche habt ist halt nicht nur son bissel rumgedaddel sondern ECHTE Berechnungen.
 
Zuletzt bearbeitet:
Es gibt da ein Programm namens igrargpu. Damit kannst du das Passwort eines rar. Archives über die GPU berechnen lassen. Sehr interessant.


EDIT:

ViennaDC hat ja sowas ähnliches geschrieben. Ich kann "mein" Programm aber trotzdem empfehlen, da man in der cmd alles selber hinzuschreiben kann und es sich nach seinen Vorlieben ändern lässt.
 
PowerDVD 10 nutzt CUDA für Bildverbesserungen (TrueTheaterHD)
 
Hab den thread hier grad gesehen udn schreib mal rein, was ich bis jetzt getestet hab:
ighashgpu kann man benutzen, um die aus datenbanken ausgelesen hashcodes durch ausprobieren (bruteforce) in passwörter zu "verwandeln" ;)
meine HD5770 ist dabei auf 960Mhz ne ecke schneller als eine GTX480.

ViennaDC und Phnxz meinen dasselbe. (wirklich exakt das selbe! ^^)

was noch ein hammerprogramm ist:
pyrit damit knackt man per bruteforce oder wörterbuch wlan-netzwerkpasswörter. (WPA/WPA2 is egal - geht beides gleichschnell)
mittlerweile gibt es pyrit calpp v3 - dank "cyclic rotation" bzw. "bitalign" ist eine radeon 5770 schneller als ZWEI GTX295 (4 GPUs - wirklich!)

was ich noch geil fand, war die aussage hier:
Kasmopaya schrieb:
Auf jeden Fall auf GT300 warten. Euch wirds die Füße wegziehen von der neuen Watt/Performance und GPGPU Leistung. Garantiert!

xD
 
Zuletzt bearbeitet:
@FloW3184

Sehr hilfreiche Programme, ehrlich, hab sie auch.

Allerdings weiß ich nicht ob man das hier so öffentlich schreiben sollte ^^
 
ich wüsste nicht, was an diesen programmen verboten ist!?!
 
SunnyRocker schrieb:
Die Programme vllt. nicht, die Anwendung sicherlich ^^

Nur weil einige mit einem Auto z.B. nach einem Bankraub flüchten, darf man trotzdem über Autos reden ;)
 
Nun, diese Programme kann man größtenteils dazu benutzen böse Dinge zu tun, bei Autos ist Bankraub (wahrscheinlich) die Minderheit der Benutzung. ^^
 
hab vorhin noch ein nettes programm gefunden: oclhashcat
quasi das gleiche wie ighashgpu, allerdings (laut der homepage - habs selbst noch nicht probiert) sogar geringfügig schneller.

edit: gibt n update zu ighashgpu
http://golubev.com/files/ighashgpu_v0.80.16.1.zip
da gehört dieser text zu: Quelle
At last! Both cores of ATI 5970 works correctly with Catalyst 10.7. Again. It takes just 4 months for ATI to fix it, simply awesome. And I won’t be surprised if 5970 won’t work with 10.8. Again :) .

Anyway, kinda inspired by these news I’ve decided to make some tests with my 5970. And (as I’ve got e-mail about contest I’ve mentioned earlier with ~”can it be used for multiple NTLM hashes processing” question) tests were related to ighashgpu. I’ve found my old multi-hash kernel for NTLM. And don’t like it. I’ve take a look at current multi-hash kernel for MD5 and figured out that I haven’t changed it since… well… very long time. So, I’ve decided to change multi-MD5 kernel in the same way as single MD5 works (bitalign, better thread id to password conversion, etc). Then I’ve removed unneeded memory usage (cut it by 4, no changes for 4XXX GPUs and significant speed-up for 5XXX ones), then I’ve redone MD4 kernels, then I’ve added multihashing for MD4/Unicode == NTLM. Then I’ve fixed some bugs…

Well, all in all, day is over and new version of ighashgpu is ready. You can download it here. However, many major changed was made and I have no time at all to run any huge tests, so make sure you’ll test it on known hashes. Have fun!

…And I’m back to AOFPR v5 interface issues…

damit sollte ighashgpu wieder die schnellere software zum hashcracken sein.
 
Zuletzt bearbeitet:
Auf jeden Fall auf GT300 warten. Euch wirds die Füße wegziehen von der neuen Watt/Performance und GPGPU Leistung. Garantiert!
Ja stimmt war ne geile Aussage, aber nicht so falsch wie du denkst. Ok GT300 gibts nicht es ist der GF100. Und die Füße hats euch ja wohl weggezogen bei der Performance per Watt bei Games(im negativen Sinne:D) und bei GPGPU ist Fermi ein großer Erfolg und auch sehr effizient.

Hier zb. https://www.computerbase.de/2010-05/top-500-der-supercomputer-china-holt-auf/
einer mit Fermi GPUs http://www.nvidia.de/object/product_tesla_C2050_C2070_de.html
mit bis zu 6GB Vram(ECC) das Setup hat eine extrem hohe Peak Leistung die jeden anderen CPU Server bei weitem übertrifft.


Bei GPUGrid laufen schon so 3-6 stück und nun hat man ein Bezugspunkt. Eine Berechnung die auf einem Kern einer GTX 295 ( non OC) so ca 4,5h dauert macht eine GTX480 in 2,5h also ergibt sich daraus von der Gesammtrechenleistung wieder eine GTX 295 +-. Dieses Rechenleistung ist nahe zu die gleiche wie 10 Intel I7 980+-.
 
aber so richtig praktische Programme lassen echt auf sich warten, gute Converter wie z.B. Super 2010 oder so sollten mal auf GPU-Power setzen... oder beim rendern Cinema 4D oder Aftereffects, die paar Funktionen die ein wenig besser mit GPU laufen sind ein wenig wenig.
 
Liegt vorallem an Intel und AMD. Intel hat Larrabee komplett versaut, also gibts von der Seite schonmal keinen Unterstützung. Und AMD konzentriert sich seit je her auf ihre CPUs, Fusion ist einfach wichtiger gewinnträchtiger als GPGPU mit den ATIs. Zumindest sieht das AMD so, die bei Fusion nun ein wenig Geld in die Hand nehmen und die Programmierer unterstützten damit sie auf ihre Programme mit der APU optimieren. Genauso wie es NV mit CUDA macht.

Apple geht jetzt glaub ich Richtung OpenCL und versucht von NV only weg zu kommen.(zumindest geht das Gerücht um)
 
Zurück
Oben