Test Test: ATi Video Converter Benchmarks

Also ich hab spaßeshalber ein Video konvertiert. Über die Bildqualität kann ich nichts sagen, da sie vorher schon schlecht war.
Allerdings wird die GPU wirklich verwendet, wenn auch nur sehr leicht. (Ich hatte ein Auslastung von 4% in GPU-Z. ) s.U.
Auch stimmt es wirklich, die HD 3000 Karten werden unterstützt.
edit: Die auslastung ist aber wahrscheinlich von was anderem gekommen -> stimmt nicht NULL % GPU Last.
 
Zuletzt bearbeitet:
*AMD lob* Gute Arbeit Junge!
Und mein kommentar kommt sogar ohne ein "aber" aus ;)

Es ist echt im Interesse aller unser, dass eine GPU die Aufgaben einer CPU übernehmen, und Meilen weit besser sein kann!

Wenn man das noch auf viele Bereiche verbreitet, ist es wohl bald unnötig sich eine überteuerte CPU zu kaufen!
Vielleicht besteht die Zukunft nicht mehr aus 8 und 16 Cores, sondern GPU´s! Wäre doch eine feine Sache eine GPU für 200€ die Leistung eines 900€ CPU´s bringt! Pardon, die Leistung weitz über diese CPU bringt!

Echt eine der geilsten Vortschritt seit dem DualCore, wenn ihr mich fragt :)

Ich freu mich!
(sogar Photoshop CS4 nutzt die GPU! Das ist einfach porno...)
 
sieht iwi genauso aus wie der für die 1000er getestet hab ichs noch nicht wenn die qualität aber immer noch so bescheiden ist dann braucht es das ding nicht.
 
jemand hat hier mal gta angesprochen, da kommt mir alles hoch, warum kann diese berechnungen nicht die gpu übernehmen?!

wozu soll ich jetzt nochmal 300,- investieren und mir einen quad holen, wenn ich genau weiß das die arbeit auch meine grafikkarte viel besser bewältigen kann ..

großes lob an amd und ati, weiter so !!
 
Heisst es, dass die 4550 nicht unterstützt wird ?
Schliesslich steht ja im Test 3000er Reihe, was sich für mich wie die gesamte Reihe anhört... (will damit sagen warum alle 3000er und nicht alle 4000er unterstütz werden)
 
Wenn ich sehe wie ewig schon ein QX braucht, um die Berechnungen anzustellen, die eine HD4850 unter 1,5min schafft... Da geht mir die schlechtere Qualität so ziemlich am A**** vorbei, wenn ich an meinen E6600 denke ;)
 
Also ich finde es von diesem Tool nicht unbedingt gut das die CPU mehr belastet wird.
Man könnte nebenbei was anderes machen/arbeiten, was CPU Power erfordert.

Aber egal, habe eh kein ATI ^^
 
Lord Quas schrieb:
jemand hat hier mal gta angesprochen, da kommt mir alles hoch, warum kann diese berechnungen nicht die gpu übernehmen?!

wozu soll ich jetzt nochmal 300,- investieren und mir einen quad holen, wenn ich genau weiß das die arbeit auch meine grafikkarte viel besser bewältigen kann ..

großes lob an amd und ati, weiter so !!

überleg doch mal!

obwohl sich die GPUs in den letzten Jahren immer mehr den CPUs genähert haben (seit DirectX 8) sind sie immernoch sehr stark eingeschränkt mit den Berechnungen, die sie durch führen können!

Eine CPU ist universal, sie kann nahezu alles berechnen, die GPU ist eingschränkt, dafür buttert sie in ihrem Spezialgebiet alles andere weg!
 
@Sepheta
CPU wird mehr belastet?
https://www.computerbase.de/forum/attachments/avivo-png.120095/
Sein Quad core langweilt sich, es werden nur 2 Kerne angesprochen!
Die CPU ist nur da um der GPU die Daten zuzuschaufeln(am besten mit Hypertransport oder QPI), quasi ein CPU Slave für die GPU...:D
Würd mich aber auch mal interessieren welche CPU Belastung CB gemessen hat beim Badaboom und beim ATI Converter wenn die GPUs rechnen.

@Lord Nemesis
Larabee X86 und AMD Fusion sind im Prinzip GPUs die alles können was eine heutige CPU auch kann. Spätestens hier wird die CPU zur Nebensache. Vielleicht bootet die CPU noch das Betriebssystem und ist für kleine Sachen wie Textverarbeitung zuständig, aber sobald Power gefragt ist sind die GPUs bzw. CGPUs(Eigenkreation) am Drücker. Wobei der Larabee x86 ja auch zum Booten des Betriebssystems verwendet werden kann, eben für alles. NV wird dem Larabee x86 natürlich ordentlich Paroli bieten...

MfG Kasmo
 
Zuletzt bearbeitet:
Lord Nemesis schrieb:
überleg doch mal!

obwohl sich die GPUs in den letzten Jahren immer mehr den CPUs genähert haben (seit DirectX 8) sind sie immernoch sehr stark eingeschränkt mit den Berechnungen, die sie durch führen können!

Eine CPU ist universal, sie kann nahezu alles berechnen, die GPU ist eingschränkt, dafür buttert sie in ihrem Spezialgebiet alles andere weg!

das glaube ich nicht, da hab ich schon zuviel gegenteiliges gehört .. ich sag nur das tesla-system von nvidia!
 
Mich würde mal interessieren wie hoch die GPU denn nun belastet wird weil 4% wäre zu wenig , da passiert ja garnix.
 
Sepheta schrieb:
Also ich finde es von diesem Tool nicht unbedingt gut das die CPU mehr belastet wird.
Man könnte nebenbei was anderes machen/arbeiten, was CPU Power erfordert.
GPUs sind im Gegensatz zu CPUs nicht darauf ausgelegt alles zu können.
Sie sind spezialisierter. Manche Dinge können sie gar nicht, oder viel schlechter. Bei anderen sind sie schneller als eine CPU.
Vereinfacht kann man sagen das GPUs dort gut sind wo Fließbandarbeit mit Zahlen durchgeführt wird. Sie sind schlecht wenn es um Sprünge und Bedingungen geht.
CPUs sind darauf ausgelegt das sie eben vor allem auch mit Bedingungen und Sprüngen zurecht kommen. Eben: wenn dies, dann das, sonst jenes usw. Hinzu kommen mittlerweile auch Stringoperationen.

Bei diesen Treibern geht es also darum eine gute Arbeitsteilung zu bekommen. Der Treiber muss die Arbeit aufteilen und das der GPU geben wo sie schneller ist und das der CPU wo sie besser ist bzw das nur sie kann. Neben der Arbeit die dann an die CPU fällt muss eben das Programm selber laufen und diese Aufteilung der Arbeit bzw dann die Zusammenführung gemacht werden.

Es wird also immer einiges an CPU Last bleiben.
 
@Canada was hast du den für eine 4800?
Deine Temperaturen sind ja übelst heiss und das im "IDLE" Modus.
Hier sind mal meine Werte meiner 4850
Ansonsten sehe ich der Entwicklung mit einem breiten grinsen entgegen, denn meine GPU wartet nur darauf etwas mehr Arbeit als nur Grafikberechnung zu erhalten :)
 

Anhänge

  • test.JPG
    test.JPG
    45,1 KB · Aufrufe: 623
Zuletzt bearbeitet:
Kasmopaya schrieb:
Ja die Performance ist sogar brachial viel schneller bei den ATI Karten im 2D Takt. Aber was hilft das wenn die Videos für den Papierkorb sind? Aufgrund der verbuggten Bildqualität kann man die gar nicht untereinander vergleichen, sondern höchstens ATI v. ATI und NV v. NV. v. Intel
Naja, ich würde das auch eher als eine Techdemo sehen?

Ich meine ATI (wie auch Nvidia) will ja das Softwarehersteller die Möglichkeiten nutzen.
Da wäre es doch kontraproduktiv wenn sie einen kostenlosen Konverter bereitstellen der den kommerziellen Programmen Konkurrenz macht?
Abgesehen davon haben sie wohl auch nicht die Ressourcen um mal eben aus dem Stand die selbe Qualität zu erreichen?

Würde das also so einordnen:
Schaut her es geht. Für den Otto Normalverbraucher haben wir auch ein kostenloses Tool dabei. Wenn ihr professionelle Qualität wollt müsst ihr warten bis die kommerziellen Anbieter unsere Schnittstelle in ihren Programmen nutzen.
Aber es ist ja auch nicht unsere Aufgabe, noch haben wir die Möglichkeiten ihnen auf ihrem Spezialgebiet Konkurrenz zu machen.
 
Saber Rider schrieb:
@Canada was hast du den für eine 4800?
Deine Temperaturen sind ja übelst heiss und das im "IDLE" Modus.
Hier sind mal meine Werte meiner 4850
Ansonsten sehe ich der Entwicklung mit einem breiten grinsen entgegen, denn meine GPU wartet nur darauf etwas mehr Arbeit als nur Grafikberechnung zu erhalten :)
Wie du eine 4850er, habe auch etwas den Lüfter runter gedreht, deiner dreht ja mit 51, meine nur mit 30% im Idle.
 
Kunibert_KA schrieb:
Naja, ich würde das auch eher als eine Techdemo sehen?

Ich meine ATI (wie auch Nvidia) will ja das Softwarehersteller die Möglichkeiten nutzen.
Da wäre es doch kontraproduktiv wenn sie einen kostenlosen Konverter bereitstellen der den kommerziellen Programmen Konkurrenz macht?
Abgesehen davon haben sie wohl auch nicht die Ressourcen um mal eben aus dem Stand die selbe Qualität zu erreichen?

Na so ein Bullshit. ATi verwendet vorhandene Codecs, das die Bildqualität schlechter ist, liegt an den Einstellungen am Codec. ATi entwickelt den Codec nicht selbst, also brauchen sie auch keine Ressourcen um ie Qualität zu steigern.

Aber weil sie mit einer schlechteren Qualität zufrieden sind, brauchen sie natürlich auch weniger Zeit zum encodieren. Der Vergleich mit NVidia ist alo hinfällig, interessant wirds erst wenn beide entweder die Konfiguration des Codecs zulassen oder zumindest Videos in gleicher Qualität produzieren.

Im schlimmsten Fall fangen NVidia und ATi jetzt aber einen Wettlauf in Sachen schlechter Bildqualität an um dann behaupten zu können, schneller zu sein...
 
derDiskordianer schrieb:
Na so ein Bullshit. ATi verwendet vorhandene Codecs, das die Bildqualität schlechter ist, liegt an den Einstellungen am Codec. ATi entwickelt den Codec nicht selbst, also brauchen sie auch keine Ressourcen um ie Qualität zu steigern.
Bin zwar kein Experte auf dem Gebiet, aber Codecs sind deiner Meinung nach also nicht auf einen (CPU) Befehlssatz abgestimmt?
Bist du der Meinung das ein Codec das SSE2 oder SSE4 nutzt auf einer GPU so einfach läuft?
Ich meine AMD hat das Intel SSE4 nicht in den CPUs (Lizenzen) aber hat es in den GPUs, so das der Codec dort einfach so läuft?
Das gilt auch allgemein für alle CPU Befehle.
Worauf ich hinaus will:
Die auf CPUs und bestimmte Befehlssätze optimierten Codecs werden nicht direkt auf den GPUs laufen können. Also wird da emuliert werden müssen, oder sonstwie eine Umsetzung stattfinden müssen. Und das kann klar zu lasten der Qualität gehen.

Aber wie auch immer. Ich bin der Meinung das es hier eben nicht darum geht ein kostenloses Tool herauszubringen das in Qualität und Einstellmöglichkeiten den professionellen Produkten Konkurrenz macht.
Es ist eine Techdemo.
Für anderes sind andere zuständig.
Wie divx zb eine (experimentelle) SSE4 Unterstützung hat, wird es dort über kurz oder lang dann auch eine (experimentelle) Unterstützung von GPUs geben (Nvidia wie ATI).
Dann wird man auch mehr Qualität und Einstellmöglichkeiten haben.
 
Hab gerade einen Probedurchlauf gemacht aber die GPU wollte nicht mehr als 25% rumarbeiten wobei die CPU voll ausgelastet war. Aber 3:20 min sind schon beeindruckend um 1 GB in 500MB zu konvertieren.

@Kunibert_KA: Ab Phenom ist SSE4 in der CPU integriert.
 
Zuletzt bearbeitet:
Kunibert_KA schrieb:
Bin zwar kein Experte auf dem Gebiet, aber Codecs sind deiner Meinung nach also nicht auf einen (CPU) Befehlssatz abgestimmt?
Bist du der Meinung das ein Codec das SSE2 oder SSE4 nutzt auf einer GPU so einfach läuft?
Ich meine AMD hat das Intel SSE4 nicht in den CPUs (Lizenzen) aber hat es in den GPUs, so das der Codec dort einfach so läuft?
Das gilt auch allgemein für alle CPU Befehle.
Worauf ich hinaus will:
Die auf CPUs und bestimmte Befehlssätze optimierten Codecs werden nicht direkt auf den GPUs laufen können. Also wird da emuliert werden müssen, oder sonstwie eine Umsetzung stattfinden müssen.
richtig.
Und das kann klar zu lasten der Qualität gehen.

falsch. SSE lässt es nur schneller laufen. Grafikenkarten haben kein SSE. Man muss also ein wenig programieren/emulieren whatever. Die Qualität ist davon unbeeinflusst, nur die Geschwindigkeit.

Aber wie auch immer. Ich bin der Meinung das es hier eben nicht darum geht ein kostenloses Tool herauszubringen das in Qualität und Einstellmöglichkeiten den professionellen Produkten Konkurrenz macht.
Es ist eine Techdemo.

Ja, aber schön wäre es, wenn die Techdemos von NVidia und ATi vergleichbar wären..
 
Zuletzt bearbeitet:
Bullet Tooth schrieb:
Hab gerade einen Probedurchlauf gemacht aber die GPU wollte nicht mehr als 25% rumarbeiten wobei die CPU voll ausgelastet war. Aber 3:20 min sind schon beeindruckend um 1 GB in 500MB zu konvertieren.

@Kunibert_KA: Ab Phenom ist SSE4 in der CPU integriert.
Hast du mal einen Link wo du den Treiber geladen hast?
 
Zurück
Oben