News Kaspersky Lab bekämpft Viren mit Grafikkarte

Hmmm. Wenn Kasperski damit nicht auf eine allgemeine Schnittstelle (DX11) setzt, sondern nur eine CUDA Einzellösung bringt - ist es eine Totgeburt. Was ist mit dem Permanenten Scanner ? Der läuft dann während dem Spielen auf der Grafikkarte. Vielleicht mit einem Multigpu Tesla Monster - aber auf einer G9x oder G200 während "Crysis" - undenkbar. Und die Benutzer haben nunmal nur ihre alten Grafikkarten, Fermi gibt's noch nicht.

Das GPU Computing normale CPU in absehbarer Zeit ersetzt - bleibt ein Wunschtraum von NVidia (ATI nimmt eine Sonderstellung ein, da man gezwungen ist, mit NV gleichauf zu bleiben). Intel und AMD, die Hersteller von Spielkonsolen - praktisch alle Anderen halten mit Multicore CPU Technologie dagegen.

Nein. Die Technologischen Weichen sind für mindestens 5 Jahre gestellt.
 
360 mal schneller ist ordentlich, zum Vergleich, Thomograpie hat "nur" 40 fache Beschleunigung: https://www.computerbase.de/2009-12/13-gpus-in-einem-desktop-supercomputer/

Also keine Überraschung sobald sie das einmal ausprobiert(GPGPU entdeckt) haben, das dann sofort die ganze Server-flotte so schnell wie möglich auf GPGPU umgestellt wird. Allein von der Energieeinsparung dürfte das Tesla System bald wieder drin sein...

Finds aber interessant das CUDA immer noch vor Compute Shader verwendet wird. Liegt wahrscheinlich daran das ATI kein Gegenstück zum Tesla hat. Wirklich schade wie man so einen lukrativen Markt einfach so dem Konkurrenten überlässt.

@genghis99

Dir ist schon aufgefallen das Intel mit Milliardenbeträgen versucht eine eigene GPU zu bauen. Schon mal was von Larrabee gehört? Das Fusion bzw. GPGPU die Zukunft ist, bezweifelt nichtmal Intel, sonst würds das Larrabee Projekt gar nicht geben...
 
Zuletzt bearbeitet:
@ Kasmopaya:
Klar ist GPU immoment die Zukunft aber ich denk nicht man sollte sich so fest darauf spezialisieren.
Intel hat mal einen absolut anderen Grund den Larabee ins Leben zu rufen als du ihn eben nanntest. Die Technologie sowohl auch die Architektur sind meilenweit entfernt von den Grafikchipsätzen die wir kennen.
Nvidia hyped das mal sehr stark und man weiss den Jungs kann man nicht immer trauen. Dazu kommt, dass Intel Larabee auf Eis gelegt hat und es nicht mehr auf den Markt kommt und nur als reines Forschungsprojekt dient.
 
LOL ... Kasperski kann, bzw. muss mit dem arbeiten, was der benutzer/betreiber in betrieb hat. Das sind in der KEINE Tesla Systeme als Server (der Verwendungszweck ist ein Anderer) Server haben IBM, Xeon oder Opteron Systeme - und es sind G9x oder G200 Karten bei den Privatnutzern. All diese Systeme sind gar nicht in der Lage, massiv CUDA Anwendungen auszuführen - die Rechenleistung reicht niemals, um dann noch die Hauptaufgaben als Grafiksystem wahrzunehmen. Und ein Server hat bestimmt keinen Geforce Grafikchip eingebaut.
NVidia's CUDA Implementierung in den Spieler Geforce Chips war nur dafür gedacht ein bischen Physikberechnug auszuführen -
Einzig die Tesla Syteme im Bereich "Workstation" waren auserkoren in den "Supercomputing" Bereich vorzustossen. Letzlich kann man die Erfolge aber als mässig bezeichen.

NVidia ist eine kleine Firma - im Verhältnis zu den Anderen. Ein bischen Bescheidenheit bei den grosspurigen Ankündigungen NVidias in den letzen Jahren, hätte gut ausgesehen.
Das man sich aufspielt, als sei man der tonangebende Technologieentwickler und Visionär - wirkt in Anbetracht der konkreten Lieferengpässe und Verzögerungen im Endkundenmarkt ein wenig Lächerlich.

Darüber täuschen auch ein paar Cartoons auf Kosten Intels nicht hinweg. NVidia bleibt für mich "Die Maus, die brüllte" (Dummerweise erschreckte sich der Elefant und trat drauf).
 
@Jordanland

Weis ja nicht wo du deine Infos her hast aber...

Intels Larrabee bzw. Larrabee II ist für GPGPU gebaut worden.(sollen aber auch Spiele berechnen, also als Nebenaufgabe) Und genau darum gehts ja bei dem Server-Virenscanner hier. Und auf Eis gelegt ist mal gar nix bei Intel, Larrabee I war ein Flop und ist tot, aber Larrabee II muss es jetzt richten für Intel. Die sagen ja selber das sie damit so schnell wie möglichen mitmischen wollen. Da wo die hin wollen reichen CPUs nicht mehr aus...

NVidia's CUDA Implementierung in den Spieler Geforce Chips war nur dafür gedacht ein bischen Physikberechnug auszuführen -
Bist du dir da sicher?:lol:
http://www.nvidia.com/object/cuda_home.html
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Alles was Cuda beherrscht kann auch all diese Programme ausführen, Quadro und Tesla haben damit nix zu tun. Das sind nur die komplett fertigen Server für Firmen, Bastler bauen sich die Dinger für weniger Geld einfach selber und haben das aller gleiche Featureset.
 
Zuletzt bearbeitet:
Im Grunde ist es egal mit was die Viren bekämpfen, Kaspersky Software bleibt weiterhin Müll.
 
Ich bin ja für CUDA / Stream im Video-Bereich. Wegen mir auch viren etc...

Aber an alle die hier schreien das bald nurnoch die GPU gebraucht wird...

Sagt mir doch nurmal ZEHN Anwendungen die mit CUDA/Stream laufen und als ersthafte Alternative zu reinen CPU Programmen laufen. Also ein Encoder der es mit dem Mediacoder aufnehmen kann und GPU supportet wird.

All die tausend Programme auf der NVidia CUDA Seite... Nennt mri 10 davon die ihr benutzt.

Es gibt nach 2-3 Jahren CUDA immer noch keine ersthaften Tools mit GPU SUpport die besser sind als die CPU Programme. Badaboom... Reinfall. Mediashow Espresso: Totaler Reinfall...

50% der Programme die angeblich per GPU Videoencoding beschleundigen sind Fakes... GPU Auslastung 0% aber das Video wird schneller berechnet (weil halt die Quali sinkt)


Also bevor ihr hier träumt sagt mir bitte welceh Programme ihr nutzt die von der GPU beschleunigt werden... Sagt mir nur 2-3... 10 ist zuviel
 
Alle die denken, dass die CPU überflüssig wird...die Leben in einer Traumwelt. Das wird auch in Zukunft nicht so sein.

@Zeboo:
Sehr qualifizierter Beitrag! :rolleyes:
 
Ich fang mal an:

1. Bei mir ist der Hintergrund ein bewegtes Bild, wird per GPU beschleunigt, 0% CPU Auslastung, anders wie bei dem Vista Ultimate Feature das die CPU zumüllt.(übrigens kein erhöhter Stromverbrauch im Idle, GPU macht sowas mit links)

2. Firefox-GPU beschleunigt

3. Folding@home

Mich wundert das gar nicht das es noch so wenige Programme gibt, solange Intel nicht ihren Larrabee fertig haben und sich AMD auf ihre Opterons konzentriert. Aber Fusion ist schon unterwegs, GPGPU steht noch ganz am Anfang, aber das extreme Potenzial ist wohl kaum zu übersehen.

Win 7 und Leopard von Apple zeigen schon wohin die Reise geht, die GPU ist da schon ordentlich eingebunden, warum glaubst du regt sich Apple über die neuen Intel CPUs mit integrierter GPU auf. Die können einfach zu wenig, Apple braucht mittlerweile eine gute GPU für ihr Betriebssystem.

CPU wandert in die GPU -> zb. Fusion II+III bei AMD. Fusion I ist ja nur eine onbard GPU in die CPU, wie bei den neuen Intel
 
Zuletzt bearbeitet:
LOL - Ernsthaft : Welche Programme ausser F@H und 5 PhysX Spielen ???

Larrabee - Intel hat Larrabee zurückgezogen. Reinfall ? Weil die Grafikleistung nicht gut war ? Weil die Grafikleistung für GPU Computing ausschlag gebend ist ? Weil sie zu dumm sind ?

Oder einfach weil's dafür heut und mittelfristig keinen Markt gibt, der die Investiton lohnt. Daher hat man Larrabee und damit GPU Computing ins Forschungslabor zurück geschickt.

Bei Firefox-GPU-beschleunigung handelt es sich aber um Directx unterstüzung - das hat mit GPU Computing CUDA oder Stream NIX zu tun.
 
Was auch gern vergessen wird, indem die GPU immer mehr Aufgaben bekommt, steigt das Risiko, dass Malware direkt von der GPU aus aktiv ist. Heutige Virenscanner überwachen keinen GPU Speicher. Das Botnetz der Zukunft besteht aus Superrechnern mit jeweils mehreren TFlops Rechenlesitung, die in ihrer Gesamtheit jeden Superechner ganz locker an die Wand spielen. Der einzelne User bekommt davon nicht viel mit. Das ist aber auch ein Thema, mit dem sich heute schon beschäftigt wird. Das wird spätestens mit Fermi ein Thema 2010 sein. Schutzsoftware wird somit wichtiger denn je. Man muss sich aber die Frage stellen, wer davon am meisten profitiert und wer es initiiert.
 
Kasmopaya schrieb:
CPU wandert in die GPU -> zb. Fusion II+III bei AMD. Fusion I ist ja nur eine onbard GPU in die CPU, wie bei den neuen Intel

Kasmo, das kann man hindrehen wie man will. AMD sagte die GPU wandert in die CPU...
Meiner Meinung nach ist es beides nicht, sondern die sog. "APU"...
 
Warum muss man euch eigentlich alles vorkauen, wie wärs mal mit selber schaun? https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/
Ein Kumpel benutzt GPU-beschleunigtes HD-Audio Verarbeitung.

Der andere konvertiert massig Videos. Für den Fakt das nur NV sich engagiert, ist das schon ordentlich, besser gehts hald ohne Intel und AMD nicht. NV ist hald Vorreiter, das kann man ihnen einfach nicht vorwerfen.

GPU-Beschleunigung für Firefox: https://www.computerbase.de/2009-11/mozilla-firefox-erhaelt-gpu-beschleunigung/
Durch welche Schnittstelle sowas passiert ist nicht so wichtig, Hauptsache schneller, stromsparender, effizienter und das kann der neue Firefox.
Kasmo, das kann man hindrehen wie man will. AMD sagte die GPU wandert in die CPU...
Meiner Meinung nach ist es beides nicht, sondern die sog. "APU"...
Es ist definitiv eine APU also eine Mischung, aber da die GPU ja die Drecksarbeit macht bzw. Hauptlast trägt, kann man schon sagen das die CPU nur noch Spezialaufgaben erhält und deshalb ein Teil der GPU wird. Mein Wort währe ja CGPU gewesen, aber APU geht genauso...

Naja ist ja schön dass es theoretisch so viel schneller wäre - bringt nur nichts solange die Festplatte oder der Zugriff auf die Datenbank die limitierenden Faktoren sind.
Sehr witzig, eine schnelle SSD ist natürlich Pflicht...
 
Zuletzt bearbeitet:
wenn Grafikkarten eine immense Rechenleistung bieten, wieso lässt zB AMD ihre ATI Grafikkarte nicht mit dem Prozessor verschmälzen?
 
Nun fehlt eine Umsetzung auf OpenCL oder DirectCompute, dann ist das Ding super.
 
@toxik:
Das tun sie doch? Das Projekt läuft schon seit dem Kauf von ATI im Jahre 2006/07. AMD Fusion.
 
Zurück
Oben