Test Test: ATi Video Converter Benchmarks

Kasmopaya schrieb:
@Sepheta
Die CPU ist nur da um der GPU die Daten zuzuschaufeln(am besten mit Hypertransport oder QPI), quasi ein CPU Slave für die GPU...:D
Würd mich aber auch mal interessieren welche CPU Belastung CB gemessen hat beim Badaboom und beim ATI Converter wenn die GPUs rechnen.

Ja genau das würde mich (als sogenannter Amateur) auch mal interessieren. (Mir wars nur zu unangenehm zu fragen) :(

@CB: Wie waren denn jetzt genau die Test-Setups? Bei allen ATI/nV Platformen gleich, oder wie darf man das verstehen?
Vielen lieben Dank für eine Antwort! :)
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
derDiskordianer schrieb:
richtig.

falsch. SSE lässt es nur schneller laufen. Grafikenkarten haben kein SSE. Man muss also ein wenig programieren/emulieren whatever. Die Qualität ist davon unbeeinflusst, nur die Geschwindigkeit.

Ja, aber schön wäre es, wenn die Techdemos von NVidia und ATi vergleichbar wären..
Das Grafikarten kein SSE und auch nicht den 'normalen' x86 Befehlssatz haben sagte ich ja auch.
Die Frage ist dann wie genau emulierst du? Grafikkarten haben meines Wissens zumindest bei ATI nicht die Genauigkeit der CPUs. Jedenfalls nicht direkt.
Ich denke schon das es da eben eine Frage ist wie die Genauigkeit, Rundungen, Näherungen etc. da emuliert werden.
Ich stimme dir zu das es schön sein würde wenn die Anwendungen vergleichbar sein würden. Aber das ist ja meist nicht gewollt ;-). Lieber die eigenen Vorzüge herausstellen.
Für ATI dürfte es also einfacher sein jetzt auf die Geschwindigkeit hinzuweisen und BQ nicht zu erwähnen, während NVIDIA auf die BQ hinweisen wird.
Das ist dann wieder etwas für die Fanboys.
"Die kleinen Unterschiede in der Qualität sieht man als Normalnutzer in der Realität gar nicht. Was zählt ist die Geschwindigkeit!"
VS
"Was bringt einen Geschwindigkeit, wenn die BQ beschiessen ist. Die BQ kann sich ja kein normaler Mensch antun!"
 
gibts nen zeitpunkt zu dem der converter auch die HD3000'der Karten unterstützt? Wäre für die Leute mit HTPC und onboard Grafikchip sicherlich interessant, ich habe zB das GA-MA78GM-S2H Mainboard mit ner HD3200 in der Northbridge...
 
Solange echte Viedotools das nicht nutzen können, braucht man weiterhin einen OC-Quadcore. :rolleyes:

Aber in ein, zwei, drei Jahren sollte die Schnittstelle auch in Mainstream-Proggies, wie Magix oder Pinnacle zur Verfügung stehen.
 
naja bei mieser bildquali kann man sich doch sparen
 
Gibt es eigentlich auch einen ähnlich umfangreichen Bericht zu BadaBOOM? Würde mich in dem Fall mehr interessieren, was das Programm drauf hat und inwieweit die Einstellungen anpassbar sind. Meine letzten Infos waren, dass das ein ziemliches Noob-Programm ist, wo man aus fertigen Presets nur wählen kann.

Ich hab letztens mal einen Itunes-Videotranskoder getestet und mir ein paar Serien für's iPhone umgewandelt. Das war auch Xvid nach MP4 und ging auch sehr rasch (PAL, 45 min in ca. 5 min). Ich denke nicht, dass das über die GPU lief. Man muss ja bedenken, dass Transcoding nicht gleich Encoding ist. Denn das dauert bei 1080p in x264 bei einem 2h-Film gute 3,5h auf meinem E8400 mit 2-pass und High Quality.

Ach, und die Bitrate erhöhen ist keine Alternative für den ATI-Converter, denn es geht darum, wie die Bildqualität bei gleicher Bitrate ist. Eigentlich müsste die ähnlich/gleich sein, seie denn, ATI mauschelt da an den Einstellungen. Dann muss man die ändern. Aber nicht die Bitrate. Kann man da noch die Einstellungen ändern?
 
viel wichtiger ist es doch wie es bei gleicher Quali aussieht und wer mehr Quali rausholen kann. Geschwindigkeit juckt mich da wenig wenns danach müllig aussieht.
 
Lord Nemesis schrieb:
obwohl sich die GPUs in den letzten Jahren immer mehr den CPUs genähert haben (seit DirectX 8) sind sie immernoch sehr stark eingeschränkt mit den Berechnungen, die sie durch führen können!
Aber auch die CPUs nähern sich den GPUs an.

Kunibert_KA schrieb:
Es wird also immer einiges an CPU Last bleiben.
Ja, aber was will man mit einer fetten Quadcore CPU, da kommt immer "Video und Fotobearbeitung" und solche Sachen, eben ideale Einsatzgebiete für Grafikkarten.

Fakt ist, dass heute ein 3 Jahre alter CPU noch sehr ausreichend sein kann, wenn ich aber an das Jahr 2000 denke oder gar 1995, da war die CPU Generation von Jahr zu Jahr merklich schneller, das haben wir doch schon geraume Zeit nicht mehr. Wenn man sich heute einen schnellen Rechner zusammenstellen will, ist man bestens beraten, als erstes bei der CPU zu sparen. Bei Automotoren war es doch das gleiche, irgendwann waren wir bei 100 PS angekommen, und das reicht für 90% der Bevölkerung, bei CPUs sehe ich das ähnlich, das Thema ist weitgehend gegessen, bzw. uninteressant in der näheren Zukunft, und es entwickelt sich auf dem Sektor ja auch eher langsam. Innovationen wie ULV CPUs, Netbooks und GPU Computing ist viel wichtiger.

Die Herausforderung liegt heute bei den Programmierern, denn Grafikkarten zu nutzen ist schon relativ schwierig. Jeder der schonmal mit Threads in Java herumgespielt hat weiß, dass man da aufpassen muss, weil es sonst ständig zu Bugs und Fehlern kommt (Deadlocks, etc.). Komplexere Softwarestücke zu portieren ist garnicht so einfach, und wenn man es nicht parallelisieren kann, läuft es auch nicht schneller als auf einer CPU.
 
Zuletzt bearbeitet:
Könntet ihr vielleicht hier mal Bilder posten wo man gut sehen kann wie groß die Unterschiede in der Bildqualität sind ?
Danke schonmal im vorraus.
 
Die GPU rechnet genauso genau wie eine CPU mit float (also 32 bit Fliesskomma). Die ATI haben dabei ein Art SSE (5-fach superskalare Shadereinheiten). Wenn man mit doppelter Genauigkeit rechnen will, verlieren dann die Grafikkarten so viel Leistung, dass sie nur noch 20% so schnell sind. (Ausnahme GT200, 50% Verlust da 64bit ALU).
 
Da der AVS genauso kostenpflichtig wie TMPGEnc XPress oder Reference von MainConcept, hätte man auch eines dieser Tools nehmen können, um sie auf dem QX9770 laufen zu lassen.

Oder gilt der AVS als schnellster? Auf den Preis kommt es bei so einem Test ja nicht auf, da es darum ging nur den schnellsten Speed aus allen Lösungen rauszuholen. Oder worum ging es?
 
Ich entschuldige mich schon mal im voraus dafür, dass ich nicht alle Seiten (Test+Kommentare) gelesen habe. Aber ich habe doch eine Frage: Wieso gibt es nur Screens vom Basic-Modus des Tools!? Und habt ihr auch nur damit gebencht?
 
Alles klar. Hab ein bisschen schnell drübergeguckt. Mich würde aber mal interessieren wo man dem im "erweiterten" CCC aufmachen kann bzw. können wird.
 
Immer wieder witzig wie manche schon das Ende der CPU einläuten und damit zumindest in diesem Bereich das Fehlen von Basiswissen hervorkehren.

Auch wenn sich GPUs für solche encoder-transcoder aufgaben und einige weitere Einsatzgebiete sehr gut eignen, und die schnellsten CPUs auf die Plätze verweisen, kann eine GPU, wie wir sie heute kennen niemals eine schnelle CPU ersetzen (in heutigen Arbeitsumgebungen).
DIe Grafikkarte kann einige wenige Aufgaben mit hoher Geschwindigkeit ausführen eine CPU dagegen (im X86 design) Aufgaben aus unzähligen Gebieten in akzeptabler Geschwindigkeit.
(Single - vs. Multipurpose)

Das Problem, dass bei Grafikkarten auftritt ist, dass nur äußerst wenige Aufgabenstellung außerhalb von Bild- oder Videoberechnungen für extremes Multithreading geeignet sind. Das gleiche Problem hat man auch bei heutigen Supercomputern, da gewisse Einzelberechnungen nicht mehr durch Erhöhung der Kernzahl, sondern nur noch durch Taktsteigerung beschleunigt werden können.
Viele Algorithmen haben sicher noch Optimierungspotenzial hin zu vielen Threads, aber irgendwann ist man dann bei der kleinstmöglichen Einheit angekommen.
weil es angesprochen wurde: Fusion wird ohnehin nur ein "normaler" Prozessor mir integrierter Grafikeinheit (ist einfach im selben Chip integriert (selbe Konzept wie bei den ganzen "System on a Chip" Lösungen) und Larrabee wird sicher einiges an Optimierungsarbeit in Richtung DirectX benötigen.
Im Endeffekt ist die Grafikkarte weiterhin eine Beschleunigerkarte für einige wenige Aufgaben, und müsste sie die CPU ersetzen, wären unzählige weitere Implementationen nötig die die Geschwindigkeit in ihren Kernaufgaben bremsen würden...
Trotzdem ist es natürlich absolut positiv zu beurteilen, dass die Grafikkarten für alle Anwendungen für die sie bauartbedingt geeignet sind, auch verwendet werden.
 
Zurück
Oben