News Lucids Hydra-Chip erstmals getestet

Unyu, lies doch nochmal.
Also, AFR doesn't scale well when the GPUs aren't evenly matched. Lucid may employ AFR in certain cases, but its best load-distribution methods are clearly finer-grained than AFR and involve per-polygon or per-object divisions of labor.
AFR wird nur eine untergeordnete Rolle spielen, das Hauptaugenmerk liegt darauf, daß beide Grafikkarten gleichzeitig am gleichen Bild werkeln, und das heißt bye bye Mikroruckler.
 
Neo_Xsendra schrieb:
naja wie wäre es zb mit "ich will eine 5870 kaufen aber trotzdem physiX verwenden" ... in dem fall wäre ein mischbetrieb zb eine lösung. ansonsten evt auch die möglichkeite die "alte karte" als 2. karte weiterzuverwenden unabhängig vom hersteller.


Man kann ohnehin eine Nvidia karte zusätzlich für Physx verbauen, wozu dann den Hydra? ;)
 
@Aimr

Kommt drauf an, an welcher Stelle der Hydra-Treiber/Chip in die Lastverteilung eingreift. Wenn Sie das (wie ich hoffe) komplett technologieunabhängig hinbekomment haben, geht alles: DX9-11, DirectCompute, OpenGL, OpenCL, Corssfire und SLI...

Was mich aber interessieren würde: Kann man sich dann auf z.B. ein Mainboard mit 4 PCIExprex Steckplätzen mit Lucid Chip (wenns das geben sollte) dann auch vier Dual-Grafikkarten schnallen? DAS wäre ein Leistungsshub zur Zeit... 4 mal 5970 und ein Kompressorgekühlter Core I9 auf 6 Ghz. Damit kann man BOINC/Distributed Computing mal richtig nach vorne katapultieren. Higher End würde das wohl heißen oder Gaga-Konfiguration :-)

Greetz,
GHad
 
@cyrezz

zitat:

Warum bekommen das NV und ATI nicht so hin? Setzten 6 ATI und nVidia!


weil ATI und nVidia geld verdienen wollen und immer neue karten verkaufen möchten,
also wenn CF/SLI dann immer mit zwei gleichen aktuellen karten,
die haben da keinen bock drauf das du einfach so ne alte karte dazu hängst:)
 
GHad schrieb:
@Aimr

Kommt drauf an, an welcher Stelle der Hydra-Treiber/Chip in die Lastverteilung eingreift. Wenn Sie das (wie ich hoffe) komplett technologieunabhängig hinbekomment haben, geht alles: DX9-11, DirectCompute, OpenGL, OpenCL, Corssfire und SLI...

Was mich aber interessieren würde: Kann man sich dann auf z.B. ein Mainboard mit 4 PCIExprex Steckplätzen mit Lucid Chip (wenns das geben sollte) dann auch vier Dual-Grafikkarten schnallen? DAS wäre ein Leistungsshub zur Zeit... 4 mal 5970 und ein Kompressorgekühlter Core I9 auf 6 Ghz. Damit kann man BOINC/Distributed Computing mal richtig nach vorne katapultieren. Higher End würde das wohl heißen oder Gaga-Konfiguration :-)

Greetz,
GHad



Damit würdest du dich vor allem in die Privat-Insolvenz stoßen sobald die Jahresendabrechnung vom Energiebetreiber in den Briefkasten flattert ^^
 
Beater schrieb:
Das Ding ist eigentliche ne kleine Revolution im Mainboard Markt. Mal schauen obs auch die Aufmerksamkeit kriegt, die es verdient hat :)

hoffe ich mal sehr! ;)

finde es auch echt klasse! könnte man so ein Chip auch nachträglich als PCI(e) Karte verbauen xD?...:rolleyes: wäre richtig genial!

wenn es gut ankommen soll, darf es aber nicht zu extrem viel kosten, weil man sich ja dann gleich ne bessere GPU kaufen könnte, je nach Aufpreis.
 
WiseGuy
Das kaum AFR genutzt wird, wird jedenfalls behauptet, sicher sein kann man sich nicht.
Außerdem bleibt die Frage was unter "certain cases" gemeint ist.

In beiden Tests wurden nur 2GiB RAM genommen, es wurde kein Crysis getestet.
Warum nur?

http://www.legitreviews.com/article/1093/5/
Nach AMDs Mann liest sich das schon gleich ganz anders.
Wem traue ich eher, einem Unternehmen das bei AFR gelandet ist, weil die längsten und problemlosesten Balken erzeugt hat, oder einem Newcomer mit Tests, in denen man nicht sicher sein kann ob nicht noch irgendwo geschummelt wurde?
Etwas mehr Skepsis kann nicht schaden, im Schlimmsten Fall sind die Befürchtungen umsonst gewesen. Eine frühzeitige Hype dagegen ist fatal.
 
Unyu schrieb:
µRuckler wurden selbstverständlich nicht beseitigt. Ist eben eine typische AFR Lösung, mit dem einzigen Ziel möglichst toll zu skalieren.

Die µRuckler und Inputlag Versprecher stammen wohl eh von einem Marketing Fuzi, um die Presse erstmal heiß zu machen.

Bravo, alle Welt ist begeistert. Tolle Skalierung, lange Diagramme. Was will man mehr.
In den Foren wird man MSI und Lucid von nun an anhimmeln.

ähm... bitte nochmal genauer und dieses mal mit einer Botschaft.
Wenn 2 Karten zusammen ein Frame rechnen dürften diese Frames flüssiger bereitstehen als wenn sie abwechselnd rechnen. Oder?

Ich kann mir höchstens vorstellen dass der Input Lag größer wird...
 
Zuletzt bearbeitet:
Schinzie schrieb:
als stand alone lösung in form einer pci karte oder ähnlcih wäre son teil der renner.

Das wird nicht möglich sein.
Der Lucid Hydra ist von der grundlegenden Funktionsweise wie ein PCIe-Switch zu verstehen. Die von der CPU oder der Northbrigde zur Verfügung gestellten PCIe-Kanäle (z.B. 16 beim P55, 32 beim 790FX) werden an den Hydra angebunden. Dieser ist dann an die Steckplätze auf dem Board gekoppelt und steuert die Grafikkarten an bzw. teilt die Daten zur Berechnung auf.
Eine Addon-PCI-Karte hat nicht genügend Bandbreite. Zwischen PCI und PCIe liegen Welten.
Eine zusätzliche PCIe-Karte würde auch nicht genügend Bandbreite liefern.
Außerdem müßten bei der zusätzlichen Karte die Grafikkarten mit der Zusatzkarte, auf der sich der Hydra befinden würde, verbunden werden.
Sonst wurde das doppelte Datenvolumen auf den von der CPU oder Northbridge bereitgestellten PCIe-Kanälen transportiert werden (einmal hin zur Zusatzkarte und einmal verteilt auf die Grafikkarten). Ganz davon abgesehen, daß auch eine ausreichende Anzahl an PCIe-x8/16-Steckplätze zur Verfügung gestellt werden müßten.
Eine sinnvolle Integration dieses Chips ist nur auf einem Mainboard möglich.

lucid-hydra-lt24102-1.jpg
 
Ich frag mich immer noch, wie die Daten der 2 Karten zusammengefasst werden und wie da so Sachen wie Antialiasing reinspielen... Hab ich dann gemischte AA-Qualität je nach dem ob das Objekt auf der ATI oder der NVidia berechnet wurde?
 
@Ghad:
Wie soll denn das gehen mit DX11? wie kann Hydra einer DX10 Karte DX11 rüberbringen? das musst du mir mal erklären XD
 
Wobei aber der getestete Aufbau eine PCIe Karte ist! Ob ich die PCIe-Lanes der CPU direkt auf dem Board abgreife oder über einen Steckplatz ist doch egal (zumindest im Fall des P55, wenn der sowieso nur 16 hat).
 
Krautmaster schrieb:
Wenn 2 Karten zusammen ein Frame rechnen dürften diese Frames flüssiger bereitstehen als wenn sie abwechselnd rechnen. Oder?
Rechnen sie tatsächlich immer zusammen oder wird es nur behauptet?
PC Experience hat in UT3 den Hydra-Modus "bewiesen" aber UT3 nicht "gebencht".

Man kann gerne glauben, das Lucid den Durchbruch geschafft hat und jetzt die Mainboardhersteller mit Freuden zusätzliche Chips verbauen.
Man kann aber auch im ersten Augenblick skeptisch sein.
 
Das ist echt eine nette Technik.

So könnten unterschiede der FPS von Spielen im Zusammenhang mit dem Treiber verkleinert werden, oder auch unterschiede je nach Qualitätseinstellung.

Beispiel Kantenglättung in Crysis Warhead:
Fall 1: Crysis Warhead - 1680x1050 - 1xAA/1xAF:
- Nvidia GeForce GTX 285 = 28,1 FPS
- ATi Radeon HD 4890 = 25,9 FPS

Fall 2: Crysis Warhead - 1680x1050 - 8xAA/16xAF:
- ATi Radeon HD 4890 = 18,2 FPS
- Nvidia GeForce GTX 285 = 17,7 FPS

Quelle der Daten: Test: ATi Radeon HD 5870 (18/29)

Wenn der Chip Intelligent genug ist, müsste die Aufteilung des Bildbereiches bei Fall 1:
- Nvidia GeForce GTX 285 = 52,1%
- ATi Radeon HD 4890 = 47,9%
und bei Fall 2:
- ATi Radeon HD 4890 = 50,7%
- Nvidia GeForce GTX 285 = 49,3%
sein.
Im Beispiel Crysis und Kantenglättung sind die Unterschiede nicht ganz so groß aber z.B. bei Anno 1404 ist es deutlicher.

So könnten auch unterschiede der FPS in Spielen kompensiert werden.
z.B. schneidet im Spiel Bioshock nVidia besser ab, dafür aber ATI im Spiel Battleforge
wobei dort die Unterschiede je nach Einstellungen drastisch sind.

Mit Hydra wäre es möglich beide Spiele in hohen Einstellungen zu spielen "unabhängig" *hust* vom Hersteller (zumindest von einem).

Jetzt wäre noch interessant zu wissen ob Hydra für jedes Spiel Profile anlegt oder ob es dynamisch die Aufgaben verteilt.
(ich meine ich hätte das in den Quellen nicht gefunden; hab die Quellen nur überflogen)
Angesichts der langen Entwicklungszeit spekuliere ich auf dynamische Verteilung.
Dabei müsste "nur" die Wartezeit der einzelnen Bildabschnitte pro Grafikkarte verglichen werden und schon im nächsten Frame würden die Aufgaben optimiert verteilt werden können.
(Wobei die Profile für etliche von spielen und Unmengen von Grafikkarten-Kombinationsmöglichkeiten sich wohl eh nicht gelohnt hätten.)

Damit könnten auch unterschiedliche Szenerien im Spiel besser verarbeiten könnte.
z.B. ein Spiel im Weltraum
Rechts nur ein Planet und Links im Orbit eine kämpfende Flotte mit Unmengen von Partikel-Effekten und im Hintergrund die Sonne mit HDR über alle Kleinteile...
Wobei sich das mit entsprechend kleiner Rasterung der Bildabschnitte nahezu aufheben würde...

Wie fast alle schon erwähnt haben: Bleibt nur abzuwarten ob sich die Technik durchsetzt ;-)
Es ist auf jeden Fall ein Vorteil zur abwechselnden Bildberechnung (Crossfire/SLI) und vor allem Grafikkarten unabhängig.

mfg. Elder
 
Man darf gerne skeptisch sein, aber es macht wenig Sinn, die Behauptungen der Firma in Frage zu stellen indem man eigene Behauptungen dagegen setzt. Ich tendiere dann dazu, die Behauptungen der Firma als fundierter anzusehen. Lies den hier im Thread mehrfach verlinkten Artikel von techreport.com, da wird auf die Technik naeher eingegangen.
 
@Unyu

na gut, aber Lastverteilung wäre bei 1 Bild GPU1 - 1 Bild GPU2 relativ easy und würde wohl nicht unbedingt einen speziellen Chip erfordern.
Abwechselnd Bildchen rechnen lassen kann nicht die Lösung sein.

Natürlich wäre theworetisch sicher noch eine viel feinere Aufsplittung möglich, eben bis auf den einzelnen Befehl herunter. Der Lucids Chip wird das möglichst fair in kompativle Bildblöcke teilen was die eigentliche Schrierigkeit ist. Eine durchgehende Fläche, ein einzelnen Objekt, wird eventuell nicht unter den GPU aufteilbar sein. Deswegen bedient man sich eines Objektes, Waffe, Spiegelungen, Gegenstände, Hintergrund untereinander aufteilen.

Das Zusammenfassen und die Erkennung dieser Blöcke wird das schwierigste sein und den Treiber sehr komplex machen. Scheitert so far ja noch am Treiber. Es läuft auf 4 -5 Spielen ganz gut.
Die Frage ist eher:

"Wie sieht es bei neuen Titeln + anderen Spielen aus? Muss jedes Spiel zuerst explizit vorbereitet werden oder ist auch ein neues Spiel dynamisch mit dem Hydra spielbar?"
 
Zuletzt bearbeitet:
Jesterfox hat ein wichtiges Thema angesprochen.
Denn man muss immer auf einem gemeinsamen Nenner kommen. Bei AA wären das also in etwa die Standardmodi bis 8x.
Dann gibt es auch noch einen Unterschied bei der Filterung. Ist eben die Frage ob man das sieht. Bei vielen Spielen wahrscheinlich nicht, aber bei einigen wo der Unterschied zwischen manchen Karten eh deutlich war, könnte es zu unschönen Bildern kommen.

DX10 mit ner GF7, oder DX11 mit ner GF8/200 wird nicht gehen. So wie ich den Artikel verstanden habe, bestimmt eben da die schwächste Karte.
Davon ab ist mit Hydra ja DX11 noch gar nicht möglich.

Das größte Problem sehe ich in der ganzen Treiberarbeit die auf Lucid zukommt. Die werden wohl für jedes Spiel angepasst werden.
Das Problem könnten dann Spiele sein, die nicht auf der Blockbuster-Liste stehen. Werden die genau so gut funktionieren?

Ob das wirklich der heilige Gral ist, müssen ausführliche Tests und Erfahrungen zeigen. Aber interessant ist es alle mal.
 
Zurück
Oben