News Carmel macht Videos mittels CUDA schöner

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.912
Wer kennt das nicht: Ein selber aufgenommenes Video sieht auf dem PC ohne jegliche Komprimierung einwandfrei aus und macht eine Menge Spaß. Sobald man das Video aber stark komprimieren muss, um diese zum Beispiel ins Internet zu stellen, gehen viele Details verloren.

Zur News: Carmel macht Videos mittels CUDA schöner
 
Das klingt ja mal sehr interessant. Da lohnt es sich echt, Nvidia-GPUs zu kaufen.
Da hat ATI einiges verschlafen.
 
Also ich muss sagen das Ergebnis ist hervoragend ... das diese Leistungssteigerung bei den Berechnungen nur mit NVidia Karten möglich ist find ich schade ... trotz allem, hervorragendes Ergebnis
 
also falls das Ergebnis auf deren Seite wirklich so stimmt sieht es sehr gut aus!

Sicherlich sehr interessant für YouTube & Co!
 
nun das ist doch interessant, aber ob das soo gut funktioniert wie in den video gezeiteigt, und vorallem s.z.s. im live modus, da warte ich wohl erstmal ab.
weiß jemand vielelicht ob man, wenn man nen mainboard mit 2PCIE. 2.0 hat, einmal ATI als grafikkarte nutzen kann und dann einfach ne billig 8800 in das andere slot schtecken kann um CUDA zu bekommen? oder geht es rein technisch nicht wegen den treibern, aber eigentlich sollte sich da doch was umschreiben können, das wäre mal prima ne 88 als physik berechner^^
 
Wenn wirklich immer mehr Programme anfangen CUDA zu nutzen wird das sicherlich bald sehr interesannt. Aber ich glaub, das wenn man jetzt eine Grafikkarte deswegen kauft ist es nicht sehr sinvoll. Lieber warten bis Software das auch "großflächig" unterstüzt.
 
xronic schrieb:
Wenn wirklich immer mehr Programme anfangen CUDA zu nutzen wird das sicherlich bald sehr interesannt.
CUDA ist doch schon tot, bevor es überhaupt gelebt hat. Dafür wird Apple mit OpenCL und Microsoft mit DirectX schon sorgen. Um mal den wichtigsten Punkt aufzugreifen
With no end in sight to the constant escalation of competing graphics technologies from AMD and Nvidia--and with Intel now acting as a wildcard--all bets are off at this point. So developing platform-neutral GPGPU technology only makes sense. And that seems to be where Apple's focus is with OpenCL.
Und das werden Entwickler wie MotionDSP früher oder später genauso sehen. Spätestens dann, wenn Konkurrenzprodukte mehr potenzielle Käufer ansprechen, weil eben auch mehr Hardware supported wird. Und wieso sollte man doppelt oder dreifach entwickeln?
 
Hmmmm naja bei den Beispielvideos scheint mir mehr Kontrast und Farbsättigung angehoben zu sein als alles andere. Das kann aber jeder Grafikkartentreiber...
 
nach wie vor kann man den erweiterten infinitiv mit zu (hieß doch so?) weiterhin getrennt schreiben. </klugscheißmodus>
 
Warum das nur so lange gedauert hat bis man auch die GPU Power abgreift... Egal jetzt gehts voran. Noch sind Programme welche die GPU verwenden was Neues. In ein paar Jahren wird es standard sein. Ich freu mich schon :)
 
vllt sollte man noch anmerken, dass es ati frei steht ebenfalls cuda zu nutzen. möglicherweise kann bereits die nächste ati generation cuda.
ich sehe nur zwei mögliche szenarien: ati springt auf den cuda-zug auf oder ati nutzt die möglichkeit nicht, und es wird bei wenigen programmen bleiben, die cuda nutzen. nvidia allein wird cuda imho jedenfalls nicht zu einem verbreiteten standart machen können.
interessant finde ich die nutzung der gpu-leistung abseits von spielen aber allemal :)
ich hoffe das cuda in einem offenen gemeinschaftsprojekt von nv und ati aufgehn wird...
für uns user wäre diese "gratismehrleistung" jedenfalls nur von vorteil^^
 
Dieses "Gemeinschaftsprojekt" gibt es doch schon, eben OpenCL. Und genau darauf wird sich AMD konzentrieren, neben DirectX. Selbst wenn AMD die Hardwareschnittstelle für CUDA zeitweise bereitstellen sollte, Priorität wird das keine haben.
Man kann auch davon ausgehen, dass OpenCL Industriestandard wird. DirectX dürfte dann besonders für Spielentwickler interessant sein.
 
CUDA benötigt doch nur eine DX10 Karte und muss dann weiter nur noch von den Grafiktreibern unterstützt werden. Mehr nicht. Nur hat sich ATI gegen CUDA ausgesprochen was ich als riesen Fehler halte, grade weil das neue Photoshop CUDA nutzt. Und sehr.... sehr viele Professionelle Grafiker nutzen Photoshop.
Für mich ist das ein sehr starkes Argument für nVidia, so das ich derzeit am überelgen bin ob ich mir nächste Woche nicht doch eine 260 GTX zulege anstatt der geplanten 4850, da Photoshop auf meinen Rechner sein Plätzchen finden wird und es dann von meiner Freundin ausgiebig verwendet wird.
Nur der Aufpreis zu der Karte schreckt mich noch ab.
 
ich würd die gtx260er nehmen XD und so viel teurer ist die auch nicht!

endlich kommts, den wenn man videos bearbeitet und dann rendern muss wie ich, bringt dir der schnellste quadcore nicht viel mehr XD man muss trotzdem stunden lang rendern lassen XD mit der GPU unterstützung wird das sicherlich einige schneller XD


greez
 
du weißt aber schon dass jeglicher codec, welcher die gpu nutzt, eine mieserable bildqualität aufweist?
 
Mal sehen, die Entwickler bestehender Komprimierungsverfahren waren also über die letzten 15 Jahre zu blöd, bei geringer Bandbreite ordentliche Ergebnisse zu liefern. Da kriege ich doch gleich mal meine Zweifel, aber zum Glück wird schnell noch Cuda in die Suppe gerührt, sowas lenkt ab.

Wo am Ende de- und entkomprimiert wird ist doch völlig Latte. Natürlich kann man am Ende mit mehr Rechenpower auch stärker komprimieren, aber der Grenzertrag sinkt je weiter man das Spiel treibt und die Grenzen der Mathematik sowie der verlustbehafteten Datenkompression kann Carmel sicherlich auch nicht sprengen.

-> Ball flach halten! :freaky:
 
@ Eon-Deon
Photoshop News schrieb:
Alle diese GPU-Features, die mit der Auslieferungsfunktion von der Creative Suite 4 enthalten sind, werden mittels der OpenGL-API realisiert und sind somit auf jeder Shader-Model-3.0-Grafikkarte darstellbar.
Die zusätzlichen Funktionen, die mittels CUDA realisiert werden, würde ich erstmals abwarten!

Ich persönliche glaube nicht, dass sich CUDA durchsetzen wird. Alleine schon, weil MS, Intel, Apple (danke gruffi ;)) und AMD da nicht mitmachen (und welcher Softwarehersteller stellt sich gegen den größten Teil des Marktes und setzt auf eine Minderheit?).
Die ganzen News über irgendwelche CUDA-Implementierungen sind in meinen Augen nur einzelne Strohfeuer!
In Zukunft wird die Grafikkarte eine immer wichtigere Rolle spielen, jedoch nicht im Zusammenhang mit CUDA.
AMD sieht das ja genauso.
 
Zuletzt bearbeitet: (Apple ergänzt ;))
@Seppuku
Apple nicht vergessen. ;) Deren OpenCL Entwicklung ist immer noch das "heisseste Eisen". Das folgt praktisch OpenGL, OpenAL, etc. Und dass diese plattformübergreifenden Standards die treibenden Kräfte sind, gerade bei professionellen Anwendungen, sieht man ja auch schön bei Photoshop.

@Eon-Deon
Du hast das wohl etwas falsch verstanden. Photoshop wird vorerst durch OpenGL beschleunigt werden. CUDA soll für spezifische, von nVidia bereitgestellte, Plugins herhalten. Aber nur deswegen lohnt sich eine GTX260 gegenüber einer 4850 eigentlich noch nicht. Zumindest wenn man auf Basis von Preis/Leistung entscheidet.
 
Sorry, aber hier will man mir doch nicht ernsthaft verkaufen, dass dieser frisch entwickelte Beta-GPU-Codec höhere Qualität bei gleicher Kompression bietet, als ein aktueller Video Codec.
Gegen ein Flash Video sieht sogar MPG2 noch einigermaßen gut aus, aber der Sinn von Flash ist ja die extrem geringe CPU Last und plattformübergreifende Kompatibilität. Damit kann dieser GPU Codec ja wohl nicht konkurrieren.

Ich glaube ja gerne, dass die GPU recht schnell im Codieren ist, aber wer wirklich hohe Qualität bei geringer Dateigröße will, der kommt um DivX, XVid und Co. einfach nicht herum. Die Art des verarbeitenden Prozessors hat absolut nichts mit der Bildqualität zu tun. Mein Pentium MMX bringt im Vergleich zu meinem Q6600 auch keine Qualitätssteigerungen, wenn ich den selben Codec verwende.

edit:
Den Titel finde ich auch relativ untreffend, bzw. populistisch. Videos kann man nicht schöner (wenn man schöner als qualitativ hochwertiger sieht) machen, wo sollen den die zusätzlichen Informationen herkommen?
Hier wird einfach nur ein mittelmäßiger Codec mit einem noch schlechteren verglichen. Was nützt mir 1/5 der Bearbeitungszeit, wenn nachher nichts hochwertiges dabei rauskommt?
 
Zuletzt bearbeitet:
Zurück
Oben