News VIA kündigt Dual-GPU-Karte Chrome 5400E x2 an

silent-efficiency schrieb:
@Blutschlumpf
Per Cuda oder bei AMD per Stream oder OpenCL wird encodiert, nicht decodiert.
Kurze Erklärung zum Unterschied: Encodiert wird beim Erstellen eines Videos mit einem bestimmten Codec, muss nicht in Echtzeit erfolgen. Decodiert wird beim Abspielen und muss daher in Echtzeit erfolgen.

Nope, CoreAVC dekodiert per CUDA.
 
Gut, dann ist das eine der Ausnahmen. Wie gesagt, die übliche Software nutzt den Video- und Bitstreamrozessor, der in die GPU integriert ist. Das ist nämlich deutlich effizienter (und erfordert auch keine besonderen Programmieraufwand), weil diese Einheiten dafür optimiert worden sind und einen Bruchteil dessen verbrauchen, was die GPU verbraucht, wenn deren Streamprozessoren per CUDa ausgelastet werden.
 
Die Frage warum 8 Streams mit einer "normalen" Graka nicht möglich sind wurde nicht geklärt oder?
Soviel ich weiß, werden mehr als 1 Stream nicht zugelassen.
Immerhin ein Nischenprodukt, vielleicht schaffens sies ja mal wieder Chipset oder kleinere Grafikkarten zu produzieren.
Ein 3 Graka Hersteller wäre was feines für die Preise.^^
 
silent-efficiency schrieb:
Doch mit dem "UVD 2.0", der ja aus zwei UVDs besteht und Bild in Bild ist ja nichts anderes als das decodieren von zwei Streams gleichzeitig...

Ja aber Bild in Bild ist ja nicht 1080p in 1080p. Aber gut wie gesagt ob das geht weiss ich nicht. Gut möglich.

Dass CoreAVC Cuda zum Abspielen nutzt ist mir auch neu. Das Ganze muss ja in Echtzeit passieren und wenn die Grakka mal nen Aussetzer hat? Weiss nicht...das mit nem UVD zu machen ist schon nicht verkehrt. Dafür gibts den ja.

CoreAVC trau ich nicht so ganz. DXVA is schon supa =)
 
Vielleicht interessiert sich auf dieser Ausstellung ja jemand dafür. :fresse:

Vermutlich doch eher etwas wie Matrox.
 
Ex0r schrieb:
Ja aber Bild in Bild ist ja nicht 1080p in 1080p.
Eigentlich schon, evtl. ist es durch das notwendige Resizen sogar noch aufwendiger als den Fullscreen bei nativer Auflösung abzuspielen.
Auch wenn du nur ein kleines Fenster hast ist der Stream der dafür dekodiert werden muss ja nicht anders.
DXVA is schon supa =)
Kann man drüber streiten, ich sehe es eher als eine künstliche Limitierung des Codecs der eine höhere Effizienz verhindert damit man auf Geräten abspielen kann die eine grenzwertig geringe Performance liefern.
 
Schön zu sehen, dass es auch eine Welt abseits der Spielehardware existiert und auch dort Hersteller Geld verdienen können, hoffentlich bleibt das auch so.
 
@Blutschlumpf: Wieso siehst du das als Limitierung? DXVA erlaubt doch gerade erst richtig hohe Bitraten ohne Ruckeln. Von Limitierung kann keine Rede sein.
 
Blutschlumpf schrieb:
8 Streams gleichzeitig ?

Ähm nein, sind bloß 4 die auf 8 Monitore ausgegeben werden können

Sie unterstützt bis zu vier unabhängige Videostreams in den Formaten H.264, VC-1 oder WMV-HD mit Full-HD-Auflösung und kann diese auf bis zu acht Bildschirme ausgeben.



Ex0r schrieb:
Digitale Kinos benutzen meist den: http://www.christiedigital.com/AMEN/Products/christieCP2000SB.htm ...
Das Bild ist wesentlich schärfer und die Farben wirken weitaus kräftiger.

Naja, ich hab keine Ahnung was da jeweils genau verwendet wurde und den direkten Vergleich hatte ich wohl auch nie. Allerdings würde ich doch vermuten, dass gerade bei Avatar in 3D solche speziellen DLP-Projektoren zum Einsatz kommen. Kräftig waren die Farben da schon und scharf wars wohl auch in langsamen Szenen. Nur eben bei schnellen Sachen zieht das Bild irgendwie Schlieren nach.

*BTT*
Mhh... Für Bild-in-Bild-Anwendungen wär die Karte wohl in der Tat ne feine Sache. Da kommt die Hardware wohl schnell an ihre Grenzen wenn ein HD-Kanal groß dargestellt wird und en zwoter, vieleicht auch dritter nochmal klein um sehen zu können was da läuft. :)
Wobei mir da auch in den Sinn kommt, dass man auch höherwertiges Material wie 1080p in vier Streams zerlegen und diese mit der Karte dann auf ner riesigen Bildschirmwand darstellen lassen könnte. :D
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
Blutschlumpf schrieb:
Wenns schnell genug ist um damit zu encoden, dann kannst du damit auch ganz locker decoden, macht CoreAVC auch (steht zumindest auf der Seite):
http://corecodec.com/products/coreavc/guide

Hameno schrieb:
Nope, CoreAVC dekodiert per CUDA.

silent-efficiency schrieb:
Gut, dann ist das eine der Ausnahmen. Wie gesagt, die übliche Software nutzt den Video- und Bitstreamrozessor, der in die GPU integriert ist. Das ist nämlich deutlich effizienter (und erfordert auch keine besonderen Programmieraufwand), weil diese Einheiten dafür optimiert worden sind und einen Bruchteil dessen verbrauchen, was die GPU verbraucht, wenn deren Streamprozessoren per CUDa ausgelastet werden.


Ex0r schrieb:
Ja aber Bild in Bild ist ja nicht 1080p in 1080p. Aber gut wie gesagt ob das geht weiss ich nicht. Gut möglich.

Dass CoreAVC Cuda zum Abspielen nutzt ist mir auch neu. Das Ganze muss ja in Echtzeit passieren und wenn die Grakka mal nen Aussetzer hat? Weiss nicht...das mit nem UVD zu machen ist schon nicht verkehrt. Dafür gibts den ja.

CoreAVC trau ich nicht so ganz. DXVA is schon supa =)

wer sagt denn, das man mit cuda nur die streamprozessoren der graka nutzen kann? CUDA video decoding funktioniert z.b. nur ab VP2... also es geht ueber die video und bitstreamprozessoren.
 
Blutschlumpf schrieb:
Ja richtig, hohe Bitraten, das ist ja der Knackpunkt, ohne DXVA ist die gleiche Bildqualität bei geringerer Datenrate möglich. ;)
Wenn ich wenig Rechenaufwand haben möchte ist h264 der falsche Codec, dann nimmt man besser xvid.

anfang;
hä was? Ohne DXVA muss jede CPU wesentlich mehr Schwitzen als mit. Fazit: Mit DXVA sind wesentlich höhere Bitstreams ruckelfrei genießbar :)

Sicher ist h264 rechnenaufwendig. Allerdings nicht wenns via DXVA beschleunigt wird. Womit wir wieder beim Anfang meines Posts wären:

GOTO anfang;
 
Blutschlumpf schrieb:
Mit mit/ohne DXVA meine ich nicht das Vorhandensein der Hardware sondern das Encoden mit endsprechenden Limitierungen damit DXVA funktioniert.

Was meinst du mit Bitstream ?
Wenn du ein Video auf Level 4.1 mit 4 Ref.-Frames encodest (also so dass DXVA funktioniert) brauchst du für ein Video von Qualität xy mehr Bandbreit als wenn du es ohne Restriktion mit 16 Ref.-Frames encodest.
Hohe Bandbreite ist nicht gleichbedeutend mit hohem Rechenaufwand (unkomprimierte Einzelbilder erzeugen auch ne hohe Bitrate ;)).

Bitstream = Videostream = Videobitrate (den Ton vernachlässigen wir ja).

Du hast dich ja jetzt auf Encodes eingeschossen. Mein Post war jedoch allgemein gehalten.
Denn generell gilt: Umso höher die Bitrate umso besser das Bild. Sowohl bei h.264 als auch bei VC-1. Beispiel VC-1: Ohne Hardware Beschleunigung würde mein Rechner bei 10mbits in 1080p abkacken. mit DXVA gibts da keine Grenze.

von h.264 Encoding hab ich jetzt nicht soo den Plan aber ist die Qualität von einem Encode mit 16 Ref. Frames so viel besser als eins mit 4? Kann ich iwie nicht so recht glauben.
Zumal stellt sich hier die Frage ob es sinnvoll ist auf zugunsten der Frames auf DXVA zu verzichten? Ich denke eher nicht. Damit schießt man alle Leute mit kleinem sparsamen HTPC in den Wind.
 
Unterlasst doch bitte den off-topic Kram. Weil einer anfängt von VIA-Chipsätzen (und in keinem Fall einen Bezug zur News herstellt) von früher anfängt entsteht wieder ein Intel vs. AMD Streiterei. :rolleyes: Da der Großteil der Antworten die man so leidlich als passend zum Thema werten kann hier zitiert wurde, hält sich der Verlust in Grenzen.

https://www.computerbase.de/forum/threads/704407/
 
Allso in den Kinos Kommen Nvidia SDI(SDI Anschlüsse) Karten zum Einsatz!!!! 1. wegen CUDA und 2. weil sie 3D Stereo schon von haus aus Unterstützen.

http://www.nvidia.de/page/qfx_4000sdi.html
http://www3.pny.com/images/PackProdShots/ProfessionalGraphics/FX5800wSDI-LRG.jpg
DATEN:http://www.golem.de/0904/66637.html

So sieht das dann in den Kinos aus (INKL. INTEL QUAD RECHNER integriert):
http://www.christiedigital.com/NR/r...-B296-71C07D28F727/0/cineIPM2K_frontTopMR.jpg
Unten sind 2x Wechselschächte SATA PLATTEN!
 
Zuletzt bearbeitet:
Zurück
Oben