News Lucids Hydra-Chip erstmals getestet

schön gesagt und sehr gut die Revolution dahinter offengelegt.

Reinbaun was geht- Am besten den Hydra Chip noch in die CPU-DIE integrieren :P
 
Das Ding ist eigentliche ne kleine Revolution im Mainboard Markt. Mal schauen obs auch die Aufmerksamkeit kriegt, die es verdient hat :)
 
Also ich finde den Ansatz, den Lucid mit diesem Chip aller Voraussicht nach löst, sehr interessant.
Für mich (und wohl auch einige andere) kommt SLI und Crossfire nicht in Frage, auf Grund von Problemen wie Microruckler oder dem Prob., dass identische Grakas verwendet werden müssen. Beides würde in diesem Fall wegfallen.
Auch das Argument, das ganze sei sinnlos sobald eine neue Graka-Generation released ist, wird hinfällig. Man kann ja die neue zur alten dazupacken und hat wieder um einiges mehr Rechenpower als mit der neuen allein.
Ich finde diese Innovation genial, und wenn sich der Preis fuer ein Motherboard mit diesem Chip auf ein annehmbares Niveau (wäre für mich 150-200 Euro) einpendelt sowie ein ausführlicher Test die Erwartungen bestätigt bzw. keine unbekannten Schwierigkeiten aufdeckt, erwäge ich ernsthaft den Kauf eines solchen Produktes im kommenden Jahr. Da wird nämlich sowieso ein neuer PC fällig..

Greets!
 
Sehr interessanter Chip. Kann Nvidia das zusammenarbeiten mit ATI Karten nicht im Treiber verhindern, oder im Bios?^^
 
warum sollten sie? ich meine es täte der branche nur gut, denn man könnte unbefangen grakas kaufen oder behalten.
zudem die großen drei eigentlich froh sein können, das david die lösung für goliath gefunden hat.
 
naja - aber NVidia kann dann nicht mehr ihre SLI Technologie lizensieren lassen... was dank Intel sicher auch noch ganzschön Geld einbringt. :P

Denen wird das nicht so passen wenn mit Hydra die ATI karten vielleicht sogar nen Tick besser skalieren sollten als die eigenen. Irgendwer wird sich schon beschweren. Für eine revolution müsste der Hydra wirklich auf jedem Mainboard verbaut sein. Ich denke sein Preis is jetzt noch so hoch, da man nicht von Masse sprechen kann. Vllt wird er mal standard wie Audio und Lan.
 
luluthemonkey schrieb:
Auf dem x58 geht doch Crossfire oder SLi, oder?

Okay, natürlich nicht im Mischbetrieb, aber warum sollte man denn mischen?
nach dem Motto: "Die ATi rendert viel toller, dafür berechnet die nVidia mit Cuda viel schöner die Physik. ich mische dann mal." ?

dafür braucht man den chip nicht sondern nur nen modded ngo nvidia treiber (ohne ati sperre) + win 7.
 
mich würde mal interessiren, ob das wirklich geht DX 11 und PhisikX mit z.b. Einer 5850 und einer GTX 260². Ansonsten sehr schön auch schon die ergebnisse im Mischbetrieb, wobei ich denke, das da noch ein wenig herauszuholen ist.
 
Zuletzt bearbeitet:
natürlich hast du recht. Gründe gibt es dann wohl Zuhauf.
Jedoch nehem ich an, hat Nvidia keine Mittel hat sich dagegen zu wehren.

Soetwas ist halt Marktwirtschaft, denn Matrox weint auch nicht wegen Eyefinity.

Keiner der beiden (NV/ATI) war in der Lage dort gescheite Lösungen zu bringen.
Und sind wir mal ehrlich, dass aus SLI, Tripple SLI und dann Quad wurde ist doch einfach nur peinlich ....
Jetz ist einer schneller und Nvida macht alles kaputt? Glaube ich nicht ;)
 
Zuletzt bearbeitet:
Wenn der Chip noch preiswerter werden würde, bin ich überzeugt, dass er Erfolg haben wird!
 
als stand alone lösung in form einer pci karte oder ähnlcih wäre son teil der renner.

da würde ich auch gut und gerne 100euro dafür zahlen, das hieße nämlcih ich könnte meine alte karte behalten, bzw zu meiner 5870 eine 5770 oder ähliches hinzuschalten um mehr leistung zu kriegen.

Aber erstmal muss sich die technologie beweisen.

gruß
 
Ist eigentlich eine ganz tolle Erfindung und sicher nützlich, wenn man alles mögliche zusamenmischen kann. Aber die Frage ist, wie dann das Endprodukt der beiden verschiedenen GPU's aussieht und inwiefern es dann Mikrorukler usw gibt.
 
Es hängt sicher auch viel vom Hydra Treiber ab. Theoretisch müsste eine sehr gute Skalierung zu erreichen sein.

Man stelle sich das mal so vor:

Der Chip teilt das erste Bild mal frei nach belieben auf. Stellt fest, GPU 1 braucht deutlich länger für seinen Teil als GPU2 - also bekommt beim nächsten Bild GPU1 mehr Instruktionen und GPU2 etwas weniger.

Falls dies so umsetzbar ist und dabei die ganze GPU API erfasst ist, sollte dies mit allem möglich sein, Sogar GPU Computing, egal welches DX, Physiks etc.

Es muss theoretisch "einfach" die ganze Grafikschnittstelle die ein Spiel ansprechen kann erschlossen sein und dynamisch zugeordnet werden.

Hinter dem Vorhang wird es wohl äußerst kompliziert sein da sich die anfallende Arbeit nich einfach zerlegen lässt.

CB -> habt ihr so ein Board? Wird es einen Test geben?
 
RubyRhod schrieb:
Offenbar hast du mehr Informationen als ich - woher nimmst du, dass ein Bild geteilt gerendert wird (was man bei SLI und CF ja eben nicht macht und DAHER das Microruckler-Problem herrührt, es bei der Hydra-Lösung also nicht auftreten sollte).
Hast du Links?

Hier ist ein Vorab-Test von techreport.com, da wird auch genauer auf die Technik eingegangen.

Mal ganz davon ab wuerde mich interessieren, was du so machst. Irgendwie geht mir immer die Hutschnur hoch wenn Leute ankommen, keine Ahnung haben und technologische komplizierte Entwicklungen als "was ist denn so besonders dran" abtun, ohne ueberhaupt nur einen blassen Schimmer von der Ingenieursleistung zu haben, die hinter den Entwicklungen steckt.
 
Da bin ich aber überrascht, dass dies (zum Teil) so gut skalliert. Warum bekommen das NV und ATI nicht so hin? Setzten 6 ATI und nVidia! Finde das durchaus interessant und kann mir gut vorstellen, dass dies eine Zukunft hat, denn dem User eröffnet das völlig neue Möglichkeiten. Wie wird das nur Treiberseitig gelöst das ganze? Hat da einer Infos zu?
 
jep - auch grad entdeckt. Auch sehr gute Benchmarkergebnisse!

http://techreport.com/articles.x/17934/3

jedoch scheinen die meisten Games vorgegeben zu sein. Handelt sich sicher um Aushängeschilder bei denen die Performance optimiert wurde.

@cyrezz

steht so ziemlich in jeder der 3 Quellen.
 
Zuletzt bearbeitet:
Skalieren tut es überraschend gut dieser Mischbetrieb zwischen ATI/Nvidia finde ich. Ist auch alles schön und gut, aber was mich jetzt wirklich mal interessiert ist. Wurde das Problem Microruckler denn nun gelöst so wie es versprochen wurde ? wenn nein, dann können die sich ihren Hydra Chip sonst wo hinstecken.

Ich mein was soll das denn dann bringen ? ja toll Ati/Nvidia zusammen aber trotzdem ein Ruckeln das mal sowas von auf die Nerven geht.
 
µRuckler wurden selbstverständlich nicht beseitigt. Ist eben eine typische AFR Lösung, mit dem einzigen Ziel möglichst toll zu skalieren.

Die µRuckler und Inputlag Versprecher stammen wohl eh von einem Marketing Fuzi, um die Presse erstmal heiß zu machen.

Bravo, alle Welt ist begeistert. Tolle Skalierung, lange Diagramme. Was will man mehr.
In den Foren wird man MSI und Lucid von nun an anhimmeln.
 
Ich frage mich gerade wie das funktioniert, wenn man zum Beispiel ne GTX285 und ne HD5870 zusammenhängt mit dem Hydra CHip.

Die GTX285 beherscht KEIN DX11, die HD5870 schon.

prinzipiell wäre dann die GTX285 nutzlos, da sie die Instruktionen nicht umsetzen kann, da sie nicht DX11 kompatibel ist.

Ist das so?

müsste man in diesem Fall einfach auf DX11 verzichten? irgendwer ne Idee?
 
ähm unyu das ist kein AFR wenn ich das richtig verstanden hab... Die Grafikkarten arbeiten zusammen an einem Bild.
 
Zurück
Oben