News Carmel macht Videos mittels CUDA schöner

Klamann es ist doch erklärt wie es funktioniert:
Das Programm nimmt die Pixel die durch Kompression verloren gehen aus anderen Bildern, indem die analysiert werden. Ich finde das klingt für mich ganz logisch, wieso sollte es auch nicht funktionieren?!
 
die beispielvideos drehen sich ja ausschließlich um videos in handyqualität. dafür muss ich wirklich keine zeit verschwenden. wenn es aber bei pal und hd cams was bringt wirds interessant. zwischenframes rendern tun premiere, vegas und konsoerten übrigens auch. die frage ist nur ob carmel das besser macht.
 
ati/amd wird mit sicherheit nicht auf den CUDA zug aufspringen. damit würden sie nvidia ja einen gefallen tun. so kann es passieren das die ganze CUDA entwicklung und somit auch viel geld für die katz war
 
gruffi schrieb:
CUDA ist doch schon tot, bevor es überhaupt gelebt hat. Dafür wird Apple mit OpenCL und Microsoft mit DirectX schon sorgen. Um mal den wichtigsten Punkt aufzugreifen

Du weist schon wieviele Universitäten und Lehrstühle mit CUDA forschen um mathematische Algorithmen zu beschleunigen? Schau mal an wieviele Universitäten CUDA Kurse anbieten:

http://www.nvidia.com/object/cuda_university_courses.html

Und da ist nicht mal meine Uni dabei. Und es werden so viele Papers gepublished. Arbeite selber auch jeden Tag 5-6 Std. an meinen CUDA Algorithmen. Und die Roadmap die NVIDIA auf seiner NVISION vorgestellt hat lässt das ganze noch rosig aussehen für die Zukunft. Und sobald double Precision Performance noch weiter gesteigert wird werden da noch ne Menge mehr Leute auf den Zug springen die sich bisher noch zurückgehalten haben.
 
Gades schrieb:
ati/amd wird mit sicherheit nicht auf den CUDA zug aufspringen. damit würden sie nvidia ja einen gefallen tun. so kann es passieren das die ganze CUDA entwicklung und somit auch viel geld für die katz war

Warum? AMD hat schon immer SSE lizenzen gekauft/getraded um ihre Prozessoren attraktiver zu machen.
 
claW. schrieb:
nach wie vor kann man den erweiterten infinitiv mit zu (hieß doch so?) weiterhin getrennt schreiben. </klugscheißmodus>
<zurückklugscheiß>
Da "aufwerten" bereits ohne Deppenleerzeichen auskommt, muss das "aufzuwerten" ebenfalls tun. Die von dir angedachte Schreibweise gilt nur für erweiterte Infinitve, die zwei Verben enthalten, z. B.: Er dachte, dies bereits geschrieben zu haben.
Hier ist das nicht der Fall, deshalb muss dieser erweiterte Infinitiv zusammengeschrieben werden.
</zurückklugscheiß>
 
Der aktuelle, beste und platformübergreifende Videocodec um Videos zu komprimieren heisst
MPEG 4 (oder H.264) .

Dieser Codec skaliert perfekt von Webvideos bis Ultra HD mit 4 K Auflösung.

Gerade stellen in den USA die TVStationen auch bei SD Programmen auf MPEG 4 um, HDTV wird weltweit nahezu ausschliesslich schon in MPEG 4 gesendet

Moderne QuadCPUs mit SSSE 4 können MPEG 4 in Echtzeit und schneller und dazu in höchster Qualität enkodieren.

CUDA kann möglicherweise einige Berechnungen von der CPU auf die GPU verlagern , aber genau das : H.264 - support beim Decodieren hat NVidia 4 Jahre lang versprochen ... ohne dass auch nur das geringste passiert ist.

Seit letztem Jahr und durch Druck von ATI klappts jetzt. Vll klappts beim Encodieren auch in 4 Jahren ,

trauen tu ich diesen Schaumschlägern in beiden Lagern nicht die Bohne.

Bildverbesserer von schlecht encodierten Heimvideos gibts zuhauf. Gerade hab ich einen auf dem Tisch : "Bitvice" für den Mac. Auch ohne CUDA läuft das auf einem QuadMac mit 2 fach Echtzeit.
Brauch ich kein CUDa dazu .

ATIs Echtzeitenkoder (oft übersehen) mit gefaktem GPUsupport kann das alles übrigens schon lange und in affenartiger Geschwindigkeit ...die Qualität ist affenartig schlecht

schlussenedlich:

Zum Thema "CUDA" gibts einen fachkundigen Anandartikel ....


Grüsse

s
 
Zuletzt bearbeitet:
Ich weiss echt nicht was hier manche haben...
CUDA ist schon jetzt extrem ausgereift, aber ein Schritt in die richtige Richtung.
Ein Hello-World (Eigentlich auf CUDA nicht möglich, ich weiss...) wird nie schneller, als auf ner CPU laufen, aber hochparallelisierte Spezialapplikationen(z.B. in der Gentechnik) Videokonverter oder auch Bildbearbeitungsprogramme, profitieren deutlich von der brachialen Rechenleistung.

Ich bin mal gespannt, was daraus noch wird, aber untergehen wirds so schnell nicht.
 
gruffi schrieb:
CUDA ist doch schon tot, bevor es überhaupt gelebt hat. Dafür wird Apple mit OpenCL und Microsoft mit DirectX schon sorgen. Um mal den wichtigsten Punkt aufzugreifen

DirectX wird nur in Spielen als API-Schnittstelle verwendet und kommt im professionellen Einsatz nicht in Frage!
Apple wiederum hat im Workstation/PC-Segment (~5% Marktanteil) nicht genug Marktmacht, um eigenhändig eine API ohne die Unterstützung der Grafikkartenhersteller durchzusetzen.

Ferner wird CUDA bereits in vielen anderen professionellen Anwendungen eingesetzt, über die Computerbase.de nicht schreibt, da sie nicht den Mainstream-Sektor betreffen.
Nur weil auf dieser Webseite keine News darüber zu lesen ist oder es dich nicht betrifft, ist eine Entwicklung nicht gleichbedeutend mit nicht existent.
 
Aral schrieb:
Warum? AMD hat schon immer SSE lizenzen gekauft/getraded um ihre Prozessoren attraktiver zu machen.
Im Gegenzug zu AMD64, welches Intel lizenziert hat. Ist also ein eher schlechter Vergleich.

franzi3 schrieb:
DirectX wird nur in Spielen als API-Schnittstelle verwendet und kommt im professionellen Einsatz nicht in Frage!
Und genau für den professionellen Bereich gibt OpenCL.

Aral schrieb:
Du weist schon wieviele Universitäten und Lehrstühle mit CUDA forschen um mathematische Algorithmen zu beschleunigen? Schau mal an wieviele Universitäten CUDA Kurse anbieten:

http://www.nvidia.com/object/cuda_university_courses.html
Wenn das alles ist, dann ist CUDA ja genauso unbedeutend wie ich vermutete. Und warum das nicht relevant ist? Siehe folgendes...

franzi3 schrieb:
Apple wiederum hat im Workstation/PC-Segment (~5% Marktanteil) nicht genug Marktmacht, um eigenhändig eine API ohne die Unterstützung der Grafikkartenhersteller durchzusetzen.
Die brauchen sie auch nicht. Apple ist doch nur der Entwickler. Die Marktmacht haben sie durch die Khronos Group, welche, wie bereits OpenGL, auch OpenCL standardisiert. CUDA ist proprietäre Technik und dagegen nichts weiter als eine Randnotiz. Die nicht vorhandene Marktmacht, etwas durchzusetzen, hat nVidia.
Windows 95 kam seinerzeit zB mit einer "netten" Grafikschnittstelle namens WinG. Gab auch einige Anwendungen dafür. Kennt heutzutage kein Schwein mehr, da alles DirectX'ed wurde. Ich bin kein Hellseher, wenn aber nichts gravierendes mehr passiert, zB dass Microsoft für die eigenen Betriebssysteme ausschliesslich auf CUDA setzt, würde ich CUDA ein ähnliches Schicksal voraussagen.
nVidia hat softwareseitig einfach keine Basis zu bieten, so wie das mit Microsofts Betriebssystemen oder Googles Diensten ist. Entweder finden sie einen grossen Partner, den es momentan nicht gibt und den ich nicht sehe, auch nicht AMD. Oder CUDA wird auch in Zukunft ein Schattendasein fristen, wie das momentan noch bei allen GPGPU Schnittstellen ist.

@Aral
Btw, da du anscheinend mit CUDA entwickelst, liefern nVidia ALUs/FPUs eigentlich IEEE konforme Ergebnisse? Nur interessehalber.
 
So viel ich weis ist das doch alles schon auf Cuda ausgerichtet, auch die Erweiterung in DX11 soll mehr oder weniger Cuda sein...

Genau deswegen hat ATI wohl sein zeug auch alles Eingestellt...

Und wie so sollte NVIDIA das nicht durchbringen können? Die letzten Statistiken die ich gesehen habe (Anfang 2008) sind doch ganz eindeutig mit über 80% Marktanteil bei Grafikkarte die NVIDIA gegenüber die 15% von ATI hat...

Es wurden bereits über 100Mio. Cuda fähige GPUs verkauft, also nochmal wer will da noch mit halten?
 
Zuletzt bearbeitet:
gruffi schrieb:
Und genau für den professionellen Bereich gibt OpenCL.

Stimmt und deswegen setzen alle bisherigen Anwendungen in diesem Sektor auf CUDA statt auf OpenCL. Und es werden sich sicher wieder alle hinsetzen und von vorne programmieren. Schon klar.

Wo ist CUDA proprietär? Du meinst, weil es von Nvidia entwickelt wurde? Es ist eine Standard C Bibliothek, die lediglich erweitert wurde. Ist für jeden Entwickler einsehbar. Ist nichts, was ein C erfahrener Programmierer nicht versteht. Unter proprietärer Technik verstehe ich, dass außer der Firma, der es gehört oder es erfunden hat, niemand drauf Zugriff hat und auch nicht die Einsicht in die Technik und Funktionsweise hat. Trifft hier alles nicht zu.

DirectX können wir wie gesagt getrost außen vor lassen. Es hat bis auf den Spielsektor keine Bedeutung und somit ist auch Microsoft völlig ohne Belang.
Und in der Khronos Group sitzen zufälligerweise auch die beiden größten Hersteller diskreter Grafiklösungen.

Aus marktwirtschaftlicher Sicht sollten wir eines nicht vergessen. Warum trifft Firma XY die Entscheidung, mit ihrer Software CUDA zu unterstützen? Weil sie darauf hoffen, dass Mainstream User sich ihre Software zulegen? Sicher nicht.
Diese Firmen sind Teil der Grafik- und Medienindustrie und versuchen, wo es nur geht, Vorteile zu erwirtschaften. Wenn industrieweit der Konsens herrschen würde, dass CUDA ein Schlag ins Wasser ist, würde keiner Ressourcen der Firma für eine Unterstützung verschleudern.
 
Zuletzt bearbeitet:
@Gruffi: Ja floating point Genauigkeit wird IEEE konform unterstuetzt mit ein paar Kleinen abweichungen. Hauptsächlicher unterschied is dass keine Denormalisierten floats unterstützt werden.

Die Universitäten die dort aufgelistet sind, sind nur die die NVIDIA weis. Die eigentl. Anzahl is natürlich viel höher. Z.b. ist meine Uni nicht mit drauf und die bieten auch Kurse für CUDA an.

Ich hoff auch dass bald OpenCL standardisiert und implementiert wird. Kann mir nur recht sein. Wird ja dann mehr Bibliotheken geben. Und wenn dass dann auf AMD und NVIDIA Karten läuft solls mir nur recht sein. So keine Zeit muss jetzt noch weiter machen mit meim CUDA code.
 
franzi3 schrieb:
Warum trifft Firma XY die Entscheidung, mit ihrer Software CUDA zu unterstützen? Weil sie darauf hoffen, dass Mainstream User sich ihre Software zulegen?
Und welche wirklich große Softwarefirma setzt bis jetzt wirklich auf CUDA?
Eine Firma, die nicht nur "ein paar" Klienten hat, sondern eine größere Masse als Ziel hat, wird den Teufel tun und ihr Produkt nur für einen Bruchteil der Nutzer zugänglich machen!
Wie soll denn die Werbung für das Produkt aussehen? Wir haben ein tolles Feature, das von der Grafikkarte beschleunigt wird, leider funktioniert es bei den meisten Leuten nicht...

Dural schrieb:
Und wie so sollte NVIDIA das nicht durchbringen können? Die letzten Statistiken die ich gesehen habe (Anfang 2008) sind doch ganz eindeutig mit über 80% Marktanteil bei Grafikkarte die NVIDIA gegenüber die 15% von ATI hat...

Es wurden bereits über 100Mio. Cuda fähige GPUs verkauft, also nochmal wer will da noch mit halten?
Da hat sich wohl einiges in den paar Monaten geändert bezüglich des Marktanteils...
https://www.computerbase.de/2008-05/ueberblick-marktanteile-grafikkarten-q1-2008/
 
Zuletzt bearbeitet:
Dural schrieb:
So viel ich weis ist das doch alles schon auf Cuda ausgerichtet, auch die Erweiterung in DX11 soll mehr oder weniger Cuda sein...
Quelle? Davon habe ich noch nie etwas gehört.

Dural schrieb:
Genau deswegen hat ATI wohl sein zeug auch alles Eingestellt...
ATI hat CTM mehr oder weniger aufgegeben, weil sie auf OpenCL und DirectX setzen, nicht wegen CUDA. Wobei sie afaik bisheriges wie CTM oder Brook weiter supporten wollen, nur halt nicht mehr priorisiert.

Dural schrieb:
Und wie so sollte NVIDIA das nicht durchbringen können? Die letzten Statistiken die ich gesehen habe (Anfang 2008) sind doch ganz eindeutig mit über 80% Marktanteil bei Grafikkarte die NVIDIA gegenüber die 15% von ATI hat...
Weil sich Hardware in diesem Fall an Software Schnittstellen Spezifikationen ausrichtet, nicht umgekehrt. Einfach mal Sachen wie OpenGL oder DirectX mitverfolgen. ;)
Btw, du solltest deine Statistiken nochmal überprüfen.

franzi3 schrieb:
Stimmt und deswegen setzen alle bisherigen Anwendungen in diesem Sektor auf CUDA statt auf OpenCL.
Wer setzt denn in diesem Bereich auf CUDA exklusiv, was relevant wäre? Ich kenne niemanden.

franzi3 schrieb:
Wo ist CUDA proprietär? Du meinst, weil es von Nvidia entwickelt wurde? Es ist eine Standard C Bibliothek
Nein. Der Standard wird immer noch von der ISO spezifiziert. Aktuell ist übrigens ISO/IEC 9899:1999. Damals gab es CUDA noch überhaupt nicht.

franzi3 schrieb:
Ist für jeden Entwickler einsehbar. Ist nichts, was ein C erfahrener Programmierer nicht versteht.
Was keinen professionellen Entwickler langfristig interessiert, solange keine offene Standardisierung erfolgt.

franzi3 schrieb:
Unter proprietärer Technik verstehe ich, dass außer der Firma, der es gehört oder es erfunden hat, niemand drauf Zugriff hat und auch nicht die Einsicht in die Technik und Funktionsweise hat.
Dann solltest du vielleicht nochmal im Lexikon nachschauen, was proprietär bedeutet. Wir reden schliesslich nicht von Closed Source oder ähnlichem.

franzi3 schrieb:
DirectX können wir wie gesagt getrost außen vor lassen. Es hat bis auf den Spielsektor keine Bedeutung und somit ist auch Microsoft völlig ohne Belang.
Für den professionellen Bereich, ja. Da hat DirectX generell kaum Bedeutung. Aber man sollte halt immer den gesamten Markt betrachten. Und der Consumer Bereich ist ein grosser Teil davon. Deshalb kann DirectX GPGPU bedeutend sein. Lässt sich momentan noch nicht abschätzen.

franzi3 schrieb:
Und in der Khronos Group sitzen zufälligerweise auch die beiden größten Hersteller diskreter Grafiklösungen.
Zwei Gründe mehr gegen CUDA und für OpenCL.

franzi3 schrieb:
Aus marktwirtschaftlicher Sicht sollten wir eines nicht vergessen. Warum trifft Firma XY die Entscheidung, mit ihrer Software CUDA zu unterstützen? Weil sie darauf hoffen, dass Mainstream User sich ihre Software zulegen? Sicher nicht.
Richtig. Schliesslich will Firma XY überhaupt kein Geld verdienen und arbeitet aus purer Wohltätigkeit. Da macht es Sinn, eine Softwareschnittstelle zu nutzen, die proprietär ist, also langfristig kaum Sicherheit garantiert, und weniger Hardware unterstützt. :rolleyes:
 
Zuletzt bearbeitet:
Noch sind OpenCL und DX11 noch gar nicht draußen, CUDA schon und da wird auch schon entwickelt. Bis die neuen APIs draußen sind, wird noch einige Zeit vergehen und dann noch mal einige Zeit bis jemand überhaupt was entwickelt hat. Bis dahin gibts bestimmt dann schon ein paar CUDA-Applikationen. Keine Ahnung wie viel, aber es wird sie geben.

Auch Intel ist mit seiner Grafikkarte auf Larabee basierend überhaupt noch nicht am Markt vertreten. Ich denke, dass CUDA hier durchaus gute Chancen hat.
 
gruffi schrieb:
Wer setzt denn in diesem Bereich auf CUDA exklusiv, was relevant wäre? Ich kenne niemanden.
Weil dir die entsprechenden Firmen/Branchen unbekannt sind, besitzt es also keine Relevanz? Hmm, interessante Einstellung!

http://www.evolvedmachines.com/ (Simulation neuronaler Netzwerke)
http://www.hanweckassoc.com/ (Risikomanagement mit MonteCarlo Simulation)
http://www.scicomp.com/parallel_computing/GPU_OpenMP (Berechnung von Preismodellen im Derivate-Geschäft)
http://www.acceleware.com/ (Software zur Entdeckung von Öl- und Gasvorkommen)

http://www.eetimes.com/news/latest/showArticle.jhtml?articleID=207403647&pgno=3 (Artikel, der genauer auf heutige Anwendungen von CUDA eingeht, als Ergänzung zu obigen Links)

http://www.ncar.ucar.edu/ (Institut für Wettersimulation und Vorhersagemodelle)
http://insidehpc.com/2008/07/28/ncar-plus-cuda-equal-faster-weather-simulation-community-benefits/

Solltest du mehr Links zu Branchen benötigen, die CUDA einsetzen, kann ich gerne dienlich sein.





gruffi schrieb:
Was keinen professionellen Entwickler langfristig interessiert, solange keine offene Standardisierung erfolgt.
Aha, daher haben also alle bisherigen Entwickler ihre Arbeit umsonst gemacht, obwohl die Anwendungen, wie oben bestätigt bereits eingesetzt werden. Verquere Welt.

gruffi schrieb:
Dann solltest du vielleicht nochmal im Lexikon nachschauen, was proprietär bedeutet. Wir reden schliesslich nicht von Closed Source oder ähnlichem.
Ich glaube unser Missverständnis rührt eher daher, dass deine Darstellung vermittelt, CUDA sei Closed Source. Vermutlich habe ich da aber eher zwischen den Zeilen gelesen.
Jedoch ist DirectX meines Wissens ebenso proprietär wie CUDA. Dann sollte es dich im Falle Microsofts ebenso stören, wie bei Nvidia.

gruffi schrieb:
Für den professionellen Bereich, ja. Da hat DirectX generell kaum Bedeutung. Aber man sollte halt immer den gesamten Markt betrachten. Und der Consumer Bereich ist ein grosser Teil davon. Deshalb kann DirectX GPGPU bedeutend sein. Lässt sich momentan noch nicht abschätzen.

Wenn du es so sehen magst, sprechen für CUDA ca. 100 Mio. CUDA-fähige GPUs, die sich in installierten Systemen befinden, wobei ich eben CUDA eher im professionellen Segment ansiedeln würde.


gruffi schrieb:
Richtig. Schliesslich will Firma XY überhaupt kein Geld verdienen und arbeitet aus purer Wohltätigkeit. Da macht es Sinn, eine Softwareschnittstelle zu nutzen, die proprietär ist, also langfristig kaum Sicherheit garantiert, und weniger Hardware unterstützt. :rolleyes:

Ich sagte, dass eine Firma, die Profi-Anwendungen entwickelt sich Gedanken darüber macht, ob eine Unterstützung von CUDA sinnig ist.
Warum sollte besagte Firma, die keine Software für den Mainstream-Markt anbietet, sich nun in eben jenem engagieren (dein Smiley vermittelt, dass daran Interesse bestünde, auch wenn sich ihnen dort gar kein Markt bietet)? Verdienen also nur Firmen, die im Massenmarkt tätig sind Geld? Ist mir ganz neu.

Verstehe mich nicht falsch, ich halte die Entwicklung von OpenCL nicht für fehl am Platz, nur gibt es OpenCL noch nicht als Standard und CUDA wird bereits in einer ganzen Reihe von Branchen eingesetzt, ganz gleich, ob einem CUDA als Entwicklungsumgebung gefällt oder nicht.
 
Zuletzt bearbeitet:
@ franzi3

Es streitet ja keiner ab, dass CUDA in entsprechenden Bereichen verwendet wird und es sich auch dort etabliert (zumindest so lange die nichts besseres geboten wird).
Jedoch geht es hier nicht primär um irgendwelchen Spezialgebiete, sondern um den deutlich größeren "normalen" Markt. Und welcher große Softwarehersteller hat denn aktuell wirklich sinnvolle CUDA-Applikationen im Angebot oder wird diese bald auf den Markt bringen? Warum sollte dieser viele Resourcen in die Entwicklung von entsprechenden Applikationen stecken, wenn ich dann nur einen relativ kleinen Markt ansprechen kann?
Warum basiert die Grafikkarten-Bescheunigung bei Photoshop auf OpenGL und nicht auf CUDA?

Was hast du denn immer mit deinen 100Mio GPUs? Was sind diese im Vergleich zum Rest der sich im Umlauf befindlichen GPUs?
Kannst dir auch mal diesen Link anschauen: https://www.computerbase.de/2008-08/amd-zielt-auf-50-prozent-marktanteil-bei-grafikkarten/
Nvidia hat nicht diese Marktdominanz, die du ihnen zusagst...

Einerseits argumentierst du mit CUDA für professionelle/wissenschaftliche Anwendungen, dem ich auch zustimme, dann kommt aber immer wieder das Argument der 100 Mio GPUs, die ja auf eine Verbreitung und Etablierung auf dem Mainstream-Markt schließen. Und das glaube ich persönlich nicht! Argumente, wurden ja schon viele genannt.
 
Zuletzt bearbeitet:
Ich sage Nvidia überhaupt keine Marktdominanz nach. Ich empfinde es nur als überzogen zu sagen, das Ganze Thema wäre tot, nur weil es für den Massenmarkt eher weniger von Bedeutung ist.

Das Argument der vielen GPUs habe ich nur angebracht, weil von anderer Seite das Thema Mainstream-Markt in die Runde geworfen wurde, um die Akzeptanz/Bedeutung von CUDA im Profi-Bereich herunterzuspielen, da es ja nichts bedeutet, wenn man keine Verbreitung im Massenmarkt vorzuweisen hat. Ich erachte es aber als kurzsichtig, wenn die Sinnhaftigkeit einer Entwicklung immer nur an der Akzeptanz des Massenmarkt festgemacht wird. Es wird immer Bereiche geben, die völlig unhabhängig neben dem Mainstream-Sektor existieren werden und ihre Daseinsberechtigung haben.
Daher habe ich auch nicht pro CUDA im Mainstream-Sektor argumentiert, denn ehrlich gesagt gehe ich dort von DirectX aus, dass es nach wie vor der Standard bleiben wird.
 
Zuletzt bearbeitet:
Zurück
Oben