News Nvidia stellt „CUDA 5“ offiziell vor

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.967
Wer Programme nicht auf dem Hauptprozessor sondern der Grafikkarte berechnen lassen möchte, sprich auf der GPU anstatt der CPU, kann zu den frei verfügbaren Schnittstellen „Direct Compute“ oder „OpenCL“ greifen, die sowohl von AMD als auch von Nvidia-Grafikkarten berechnet werden können.

Zur News: Nvidia stellt „CUDA 5“ offiziell vor
 
Ach, wie gerne ich einen MacPro (2013? :D ) mit einer GK110 GPU hätte. Rendern wäre nie mehr dasselbe.
 
Welche Grafikkarten werden von CUDA 5 unterstützt?
Eine Spezialversion von eclipse mit CUDA-Unterstützung für die 5xx Serie wäre natürlich der Hit!!!
 
Ich hätte gern mal einen direkten Vergleich zwischen Cuda- unterstützter und Verarbeitung ohne Cuda mit Adobe Premiere hier auf CB. Fein wären auch Vergleiche zu Photoshop - mit openCL auf verschiedenen Systemen (mit dedizierter Graka und iGPU, Zwei-, Vier- und Mehrkernen und HT). Die Meinungen dazu gehen soweit auseinander, das ein Test hier Klarheit bringen könnte und super interessant wäre.
 
Ich frage mich wann die ersten Grakas kommen die Spiele komplett ohne CPU und RAM berechnen können. Also nur ihren eigenen RAM und GPU benutzen. Hat NVidia nicht sowas vor? Also zur GPU noch eine kleine CPU mit auf das PCB zu bauen?
 
Nutzz photshop premier automatisch cuda wenn man eine gf hat' oder muss man das noch aktivieren?
 
cuda5 klingt sehr gut

allerdings zweifel ich mal stark daran, dass eine gpu-beschleunigte version von eclipse "die Geschwindigkeit und damit die Produktivität massiv verbessern soll"
dann sind tabellen und codezeilen also extrem schnell!

damit wird also "alles schneller" und die arbeit ist in der halben zeit getan?
ach so! ich bin gespannt was passieren wird wenn einer mal twitter gpu-beschleunigt!
oder calc.exe! ;-)
 
Gibts da irgendeinen Nutzen für den "normalen" User ?

Ich meine, CUDA gibts ja nicht erst seit gestern. Hatte in den letzten Jahren einige Grafikkarten von Nvidia im Einsatz die CUDA beherrschen aber wirklich was davon erlebt hab ich nie.

Solange sich das nur um Nischenprodukte wie irgendwelche CAD-Plugins oder Rendering-Software handelt die nur für Spezialanwender gedacht ist, isses imho hier auf CB keine News wert.
 
@Hardwarekäufer

Klar gibt es diese. Wenn man seine Urlaubsvideos konvertiert gibt es diverse Programme welche das dann mit Cuda machen was dann auch deutlich flotter geht. Wie schon oben erwähnt gibt es auch diverse Bildbearbeitungsprogramme welche diese Schnittstelle nutzen. Natürlichen kommen auch noch einige PC-Spiele dazu, welche mit CUDA schon paar Sachen anstellen (siehe Borderlands 2 zum Beispiel)
 
Ich meine, CUDA gibts ja nicht erst seit gestern. Hatte in den letzten Jahren einige Grafikkarten von Nvidia im Einsatz die CUDA beherrschen aber wirklich was davon erlebt hab ich nie.

Wird meist nur in Bild und Video Programmen verwendet , du machst damit scheinbar nix.
 
Arme Programmierer, somit wird das "compiling" nicht mehr als Ausrede für alles gelten wenn es nurmehr Sekunden dauert ;)

3591_700b.jpg
 
Wozu soll Cuda gut sein,zu Bild oder Video bearbeitung ?? oder hatte auch PC spiele sein nutzen
 
Zuletzt bearbeitet:
trane87 schrieb:
@Hardwarekäufer

Klar gibt es diese. Wenn man seine Urlaubsvideos konvertiert gibt es diverse Programme welche das dann mit Cuda machen was dann auch deutlich flotter geht.


Leider ist die Qualität bei "normalen" Bitraten dann unter aller Sau, was die Vorteile von H264 ad absurdum führt.
 
@Reuter

Ich weiss nicht genau was du meinst, denn ich hab damit keine Probleme gehabt was Videoqualität angeht! :D Ich hab von 720p für mobile Endgeräte konvertiert, damit die Dateigröße kleiner ist und das war vollkommen okay und ausreichend. Evtl sieht man einen deutlichen unterschied wenn man einen gedrehten Film konvertiert....
 
Zuletzt bearbeitet:
Warum geht NVnoch immer dieseseigenen Weg ala Cuda(ist in meinen Augen ne Sackgasse). Warum nicht voll auf OpenCL setzen, kommt früher oder später sowieso, sprich CUDA ist nicht wirklich zukunftsfest.
 
@Reuter:

Was hat die Qualität eines Videos mit dem verarbeitenden Prozessor (CPU oder GPU) zu tun?
Wenn ich mit einer Spiegelreflex aufnheme, habe ich ne Bitrate von 40 Mbit pro Video.
Wenn ich diese jetzt konvertieren möchte, z.B. auf 10 Mbit, dann spielt es doch keine Rolle, ob die Arbeit von der CPU oder der GPU verrichtet wird oder irre ich mich? :confused_alt:

Und was hat der H264-Codec damit zu tun? Er komprimiert nur, wie die meisten anderen Codecs auch, die Bitrate.
Was ist bei dir eine "normale" Bitrate? Eine digitale Kompaktkamera mit 2000 kbit?
Gut, da würde das Konvertieren bzw. Komprimieren wirklich keinen Sinn ergeben.
 
Zuletzt bearbeitet:
@Kamikaze_Raid

Naja eben nicht! Denn der Kunde wird mit CUDA gelockt und nicht mit OpenCL...! Auf den Spielen steht nun mal CUDA drauf genau so wie auf Videobearbeitungsprogrammen und damit wird deutlich auf Nvidia eingegangen. Im Fachhandel sagt dir auch jeder nimm Nvidia wenn du Bildbearbeitung oder sonstiges machst, da gibt es CUDA.
 
@Hot Dog
Das Problem bei der Videoqualität per Cuda-Encodierung ist die von Nvidia bereitgestellte Implementierung. Die erzeugt nur videos die mit dem h264 main-Profile encodiert sind und nicht mit dem qualitativ viel besseren High-Profile.

Das hat Nvidia gemacht um das GPU encoding noch viel schneller erscheinen zu lassen, als es eigentlich ist. Und das geht zu Lasten der Qualität.

Wenn du Vergleichsbilder willst, dann würde ich dir empfehlen, den Test für Sandy-Bridge von Anandtech zu lesen. Die haben dabei auch CUDA mit Intels Quicksync vergleichen und wenn man sich das die Bilder von CUDA anschaut.... nja Youtube-HD mehr oder weniger :(.
 
@ HotDog

Derzeit ist noch nicht egal, ob per CPU oder per GPU umkodiert wird. Näheres dazu hier. Fazit: "GPU acceleration of H.264 transcoding isn’t on a par with encoding carried out by CPUs"

/elwu
 
Zurück
Oben