News Kaspersky Lab bekämpft Viren mit Grafikkarte

[funcoder] schrieb:
Was noch fehlt ist ein einheitlicher Standard zur Grafikkarten Berechnung. So dass es keine Rolle spielt ob eine ATI oder eine nVidia Grafikkarte eingebaut ist.

Den gibt es. Seit geraumer Zeit ist die OpenCL Spezifikation verfügbar und AMD/ATI und Nvidia haben Implementierungen für ihre GPUs. Als Alternative gibt es hier auch noch DirectCompute ( DX11, DX10.1 und DX10 ) von Microsoft.
 
@genghis99

lol. einfach nur lol

http://www.nvidia.de/object/cuda_home_de.html#

Bei F@H kann man beobachten, dass die GPGPU-Fähigkeiten der nVidia Graka's überlegen sind. Und das sicher auch dank CUDA.

Kapersky nutzt die graka um Viren zu erkennen. Intern. Sollen sie auf langsamere Hardware und "schlechtere" Schnittstellen zugreiffen? Hat das für sie einen Sinn?

Ausserdem hat ja niemand behauptet dass das für die Endkunden gedacht ist.

Und für den GPGPU-Markt: Der wird sehr schnell wachsen. Jetzt sieht man es schon.
Du siehst ja schon an den ganzen CUDA-Programmen, dass das ganze am wachsen ist.

P.S.: Ich hoffe nicht, dass 99 dein Jahrgang ist..........
 
Na Toll.

Virenscan startet, meine GTX 260 geht unter Vollast, der Lüfter beginnt zu röhren, 200 Watt bringen den Stromzähler zum rotieren.

Eher keine gute Idee.
 
Das muss ich mal loswerden: Ich wette das demnächst von Nvidia zu höhren ist, dass sie mittlerweile auch ziemlich viel Geld in die Antiviren Forschung stecken...
 
Zuletzt bearbeitet:
Gab es auch schon früher solche Denkansätze? GPUs waren doch schon immer ziemlich leistungsstark.
 
@serious sam:

Das stimmt. Aber damit man die Grafikkarten so benutzen kann, muss zuerst eine geeignete Sprache zum ansprechen gefunden werden. Und die ist erst mit CUDA usw. vor ca. 2 Jahren aufgekommen.
Wenn ich mich nicht irre^^
 
LuXon schrieb:
@genghis99
P.S.: Ich hoffe nicht, dass 99 dein Jahrgang ist..........

Nö, mein Jahrgang ist 1965, und ich habe schon viele Hochbejubelte Technologien im Dunst des Vergessens verschwinden sehen.

Daher bin ich der Ansicht, das GPU Computing nicht Massenmarktfähig ist oder sein wird - 3/4 der Menschheit können sich nämlich nicht mal eine Grafikkarte kaufen und 95% aller PC sind einfache Bürocomputer.

Verzeihung - Cuda/OpenCL & Co. werden sich nicht durchsetzen, gehen an der Realität vorbei.

- genau wie Amiga PCs, Sinclair SX, Beos, Glide, die Pentium Pro, Rambus Speicher, Matrox Parhelia, Larrabee - und andere populäre Fails ...
 
@genghis99

Die Fails die du aufgezählt hast, waren entweder zu teuer, oder es gab einen zu kleinen Markt oder.....

Daher bin ich der Ansicht, das GPU Computing nicht Massenmarktfähig ist oder sein wird - 3/4 der Menschheit können sich nämlich nicht mal eine Grafikkarte kaufen und 95% aller PC sind einfache Bürocomputer.

3/4 der menschheit können sich keinen Computer kaufen meinst du.
Und eine Grafikkarte ist in jedem PC. Sonst funktioniert ja gar nichts.
Alle vor 2 Jahre neuen Computer mit AIT/nVidia-GPU können GPU-Computing. Warum sollte man auf gratis Leistung verzichten? Sei es beim Video/Audio Encodieren/Weiterverarbeiten, überall gibt es dank GPU's Leistungssprünge. Und die gibt es im Professionelle Markt auch.

Wieder zurück zu den Fails. Die Produkte musste man kaufen und waren teuer. Die Grafikkarten muss man nicht mehr kaufen, denn jeder hat sicher schon eine. Alles was fehlt sind die Programme. Aber das ist halt nur eine Frage der Zeit.

Für den Professionellen Einsatz sind sie auch zu gebrauchen. Man schaue doch nur mal F@H an oder den neuen Super-Computer der Chinesen mit hunderten von GPU's drinnen.

Ich bin daher der Ansicht, dass CUDA usw. nicht in der Versenkung verschwinden.
Die Voraussetzungen sind vorhanden, dass sich CUDA usw. etablieren.
 
gefährlich wirds, wenn die viren mittels cuda usw. auf der Graka laufen und so eine enorme rechenleistung zur verfügung haben
 
@ Sühesse: also wenn die grafikkarte 360 mal schneller ist und dabei 3,6 mal mehr strom in der gleichen zeit zieht, dann braucht die cpu schlappe einhundert mal mehr strom für den gleichen arbeitsvorgang ;)
warum sollte das also eine schlechte idee sein?^^

ich denke, falls auf dauer auch ein client für uns heimanwender kommen sollte, wird der stromverbrauch wohl eher kein problem darstellen...
 
Welche Programme gibt es denn für GPUs?

Ich hab mal was von Havok-Hardware-Berechnung gehört, aber kam nie mehr was richtig davon. Gibt es das noch?
 
@LuXon :

Dann mal logisch dran. Nach Schätzungen gibt es weltweit 500 Mio. PC. Davon stehen 350 Mio in den Industrieländern, zu denen auch Russland und China zählen. Dann bleiben etwa 200 Mio. PC, die in den - sagen wir "Konsumstaaten" der westlichen Welt stehen. Davon sind 170 Mio. Büro und Arbeitscomputer. So gibt es dann etwa 30 Mio Computer, die privat genutzt werden. Da ist dann alles dabei - Vom der 4 Xeon Maschine des Server-Fetischisten, bis zum Athlon 1600 meiner Schwester.
Von den 30 Mio sind dann ungefähr 2 - 3 Mio Rechner sogenannte "Enthusiast" "Performance" oder "Gamer" Systeme - wohlbemerkt auf die Panamerkanische Union und die EU verteilt. Vielleicht 1 Mio davon wurden dieses Jahr gekauft oder mit Grafikkarte Aktualisiert. Das ist das Marktsegment von NVidia und ATI.

2009 wurden 4,5 Millionen Note und Netbooks verkauft, Tendenz zunehmend. Der Umsatz von Desktop PC ist Rückläufig. (Bitkom, GfK)

Ich mag jetzt nicht über Marktanteile streiten - aber die Tendenz geht allgemein eben nicht in die Richtung High-End Grafikkarte.

F@H ist prinzipiell eine einfache Anwendung, die immer ähnlich einfache Berechnungen parallel ausführt. Dadurch profitiert es von der hohen Zahl der GPU Einheiten. Bei anderen CUDA Anwendungen - z.B. Coffee als Multimediaprogramm sieht das anders aus - mit einer Geforce 9800 GTX hat es keine Performancevorteile schon gegen eine Dualcore CPU.

Und wie in der NEWS zu entnehmen war, ist eine Anwendung im Privatbereich von Kaspersky gar nicht angedacht - es ging da wohl eher darum mit Hochleistungs-Tesla-Maschinen Datenstreams (z.B. das Internet) in Echzeit scannen zu können. Wäre auch eine Prima Spionagetechnologie, weil man endlich Datenströme breitbandig nach bestimmten Inhalten durchsuchen könnte.
 
Zuletzt bearbeitet:
Sühesse schrieb:
Na Toll.

..., 200 Watt bringen den Stromzähler zum rotieren.

Eher keine gute Idee.

Na toll schonmal darüber nachgedacht,das eine max 200 Watt verbratende Gpu dafür 200 bis 300 mal schneller fertig mit der Arbeit ist als ein 130Watt verbratender Core I7.

Wem interessieren da noch 200 Watt Verbrauch,selbst wenn sie 1000Watt schlucken würde wäre sie noch effizienter durch den Zeitgewinn:freak::freak:

Erst nachdenken dann schreiben;)
 
Zuletzt bearbeitet:
scully1234 schrieb:
Na toll schonmal darüber nachgedacht,das eine max 200 Watt verbratende Gpu dafür 200 bis 300 mal schneller fertig mit der Arbeit ist als ein 130Watt verbratender Core I7.

Also da hab ich doch mal nefrage:Ein CPU istdoch vielschneller als eine GRAKA, wieso sagen denn die meisten hier dassdie GRAKA 200mal schneller fertig sein wird als ne CPU??
Denn zumBsp nen X4 mit 3GHz ist doch viel schneller als ne Graka mit ihren 900mhz!:freak:

das schnall ich einfach nicht
 
Ein Intel i7 960 hat 4 Kerne bei 3200 Mhz.
Eine ATi HD5870 1600 Kerne bei 850 Mhz.

Na, merkste was? :D

Das Takt in Mhz = Leistung ist schon seit der Einführung
des Athlon XP vor 8 Jahren vorbei. ;)
 
Klingt ja alles schön und gut.
Schneller heißt für mich nicht auch gründlicher oder einfach gesagt besser
 
naja 1600 stream prozessoren sind halt wegen programmierung noch nicht so universel wie ein cpu.
die grafikkarte zur hilfe nehmen bei virenscans ist ja schön und gut, allerdings wäre es um einiges besser gleich die ursache zu bekämpfen, sodass die viren gar nicht erst auf den pc kommen.
und wie ne durchschnittliche festplatte mit ca. 60-90mb/s eine grafikkarte ausreichend versorgen soll ist mir auch ein rätsel
 
Zurück
Oben