News Der ATi Video Converter kommt bald zurück

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.913
Erinnert sich noch jemand an den ATi Video Converter? Dieser wurde zu den Zeiten der Radeon-X-1000-Serie ins Leben gerufen und ermöglichte es mit Hilfe der GPU Videos von einem in ein anderes Format zu transcodieren. Und das gelang deutlich schneller als auf einer damals üblichen CPU.

Zur News: Der ATi Video Converter kommt bald zurück
 
Hört sich interesssant an.

Frage:

Kann es sein, dass der Grafikchip des 790GX letztlich flotter werkelt als mein Phenom @ 2,9GHz?
 
Guten morgen alle zusammen und natürlich das CB Team,

das hört sich sehr gut an, dann kann man vieleicht auf eine dicke CPU beim transkodieren verzichten.

Meines erachtens nach, ein Schritt in die richtige Richtung.
 
Guten Morgen an alle, das hört sich sogar sehr gut an, wofür braucht dann noch der Consumer eine dicke CPU.
Für nichts würde ich sagen ausser vllt. fürs Rendern aber ich denke das relativiert sich wenn in dem Bereich auch die GK einzug halten.
Und fürs Zocken reicht dann auch ne gute DualCPU.
Na dann freu ich mich mal auf denn Verspäteten AMD Nikolaus am 12 Dezember und hoffe es funktioniert auch so wie hier angepriesen.

lURKS
 
Zuletzt bearbeitet:
Das ist mal eine sehr schöne Nachricht. Hoffe der wird richtig gut. Schneller ist immer besser!
 
sehr schön.
kennt jemand das alte tool und kann was zur funktionalität sagen?
ist das tool auf die angebenen codecs beschränkt oder offen für alles?
 
Kommaher schrieb:
Kann es sein, dass der Grafikchip des 790GX letztlich flotter werkelt als mein Phenom @ 2,9GHz?
@Kommaher: Ach ja?! Was willst du uns nur damit sagen? :freak:
 
Kommaher schrieb:
Hört sich interesssant an.

Frage:

Kann es sein, dass der Grafikchip des 790GX letztlich flotter werkelt als mein Phenom @ 2,9GHz?

Gut möglich. Das liegt aber am Phenom *duckundweg* ;)

Aber mal ehrlich: Dadurch, dass Grafikchips so hoch spezialisiert sind, halte ich es durchaus für möglich, dass auch der IGP des 790GX sehr gute Dienste leistet und eine CPU aussticht.

Allerdings gibt es natürlich auch zu bedenken, dass über die Qualität und die Flexibilität des Encoders noch nichts ausgesagt werden kann. Und was bringt einem ein schneller Encoder, wenn er Müll produziert? Dann doch lieber einen langsameren und besseren, bei dem man am Ende einige GB einsparen kann. Interessant wäre auch ein Qualitätsvergleich der NVidia- und ATI-Lösung, natürlich im Vergleich zu guten CPU-basierten Encodern.
 
Also qualitativ besser als der Badaboom bei Nvidia dürfte es schon werden (is ja auch nicht schwer...)
 
ich hatte den video encoder damals auf meiner x1900 mal getestet, zu mehr als "wow, es funktioniert" hat der nicht getaugt. bildqualität war ziemlich schwach.

wenn der neue encoder nicht einen weg gefunden hat vfw/dshow codecs zu nutzen, was ich doch arg bezweifle, erwarte ich von der neuauflage nicht viel mehr als einen geschwindigkeitswert in irgendeinem nichtssagendem vergleichsdiagramm. lasse mich jedoch liebend gerne eines besseren belehren.
 
Hoffentlich taugt der Video Converter dann auch was. Wäre schön, wenn es vorgefertigte Profile geben würde oder man seine eigenen erstellen könnte.
Dann könnte ich den Video Converter in Zukunft zum Umwandeln von Videos für meinen iPod touch nutzen.

Mal sehen, was die Zeit so bringen wird.
 
Ich gehe auch davon aus, dass die Qualität sehr schwach wird, weil ATi nämlich nur daran interessiert ist, ihn möglich schnell zu machen, damit man viele bunte Folien erzeugen kann, in denen der ATi-Encoder besser(nach ATis Meinung =schneller) ist als der NVidia-Encoder.

Ich gehe also davon aus, dass der ATi Video Converter dazu da ist Werbung für die Radeon-Karten zu machen. Vielleicht kommt ja aber irgendwann dann noch ein guter Encoder, der auf Stream und CUDA aufsetzt.
 
Heißt aber nicht, dass es diesmal auch so sein wird, immerhin ist die HD4xxxx-Reihe wesentlich schneller als damalige karten, die ja noch auf der DX9-Architektur basierten und weitaus weniger leistungsfähig waren, was GPGPU-Sachen angeht!
 
Hm, ist ja interessant, aber ich dachte eine Grafikkarte mit 800 ALU sollte noch wesentlich schneller dabei sein als eine mit 240 ALUs. Ist das Konzept bei den ALUs zwischen Nvidia und ATi so unterschiedlich?
 
Zuletzt bearbeitet:
@ayin: Jup!

Bei ATI sind ja auch 160 (5D) Shader, bei NVIDIA "echte" 240 Shader.

Bei ATI kommts immer sehr drauf an, wie gut die 5-Spur Autobahnen (wovon es quasi 160 gibt) gefüllt sind, wenn die Software nur eine Spur verwendet, ist die Architektur gleich viel langsamer als bei NVIDIA (weil ja nur 160 Shader gegen 240 antreten). Im Normalfall kann man die nie alle auslasten. Deswegen ist eine Stromverbrauchsmessung/Hitzetest mit Furmark bei ATI fürn A**** IMO

Bei NVIDIA kommts nur drauf an, die 1-Spurigen Straßen (wovon es aber 240 gibt) möglichst schnell zu machen, weswegen das übertakten der Shader so verdammt viel bringt. Und die vielen 1-spurigen Straßen lassen sich von der Software viel besser auslasten.

Bei manchen Spielen sieht man das Potential der ATI-Software, wo ne 4870 die GTX280 locker abzieht. Aber durch die hohe Verbreitung von NVIDIA (auch durch "The way its meant to be payed") wird eben kaum auf ATI optimiert. Bei der Software hier scheint sich das Potential wieder zu zeigen.

@Topic: Bevor einige wegen der Qualität rumkacken, sollte man doch mal erste Tests abwarten, oder? Auf jeden Fall ists so oder so gut, Konkurrenz belebt das Geschäft. Zur Not muss NVIDIA eben schneller sein, bei besserer Qualität. Das ist wenigstens mal ne Herausforderung.
 
KAOZNAKE schrieb:
Zur Not muss NVIDIA eben schneller sein, bei besserer Qualität. Das ist wenigstens mal ne Herausforderung.

zuerst würde ich von dem nicht zu kleinen preis von 30$ ablassen.
anschließend kann man das eigene prog dann noch etwas verbessern.
unterstüzung für divx wäre mal ein fortschritt. ;)
 
Zuletzt bearbeitet:
Zurück
Oben