Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Also ich finde den Ansatz, den Lucid mit diesem Chip aller Voraussicht nach löst, sehr interessant.
Für mich (und wohl auch einige andere) kommt SLI und Crossfire nicht in Frage, auf Grund von Problemen wie Microruckler oder dem Prob., dass identische Grakas verwendet werden müssen. Beides würde in diesem Fall wegfallen.
Auch das Argument, das ganze sei sinnlos sobald eine neue Graka-Generation released ist, wird hinfällig. Man kann ja die neue zur alten dazupacken und hat wieder um einiges mehr Rechenpower als mit der neuen allein.
Ich finde diese Innovation genial, und wenn sich der Preis fuer ein Motherboard mit diesem Chip auf ein annehmbares Niveau (wäre für mich 150-200 Euro) einpendelt sowie ein ausführlicher Test die Erwartungen bestätigt bzw. keine unbekannten Schwierigkeiten aufdeckt, erwäge ich ernsthaft den Kauf eines solchen Produktes im kommenden Jahr. Da wird nämlich sowieso ein neuer PC fällig..
warum sollten sie? ich meine es täte der branche nur gut, denn man könnte unbefangen grakas kaufen oder behalten.
zudem die großen drei eigentlich froh sein können, das david die lösung für goliath gefunden hat.
naja - aber NVidia kann dann nicht mehr ihre SLI Technologie lizensieren lassen... was dank Intel sicher auch noch ganzschön Geld einbringt.
Denen wird das nicht so passen wenn mit Hydra die ATI karten vielleicht sogar nen Tick besser skalieren sollten als die eigenen. Irgendwer wird sich schon beschweren. Für eine revolution müsste der Hydra wirklich auf jedem Mainboard verbaut sein. Ich denke sein Preis is jetzt noch so hoch, da man nicht von Masse sprechen kann. Vllt wird er mal standard wie Audio und Lan.
Okay, natürlich nicht im Mischbetrieb, aber warum sollte man denn mischen?
nach dem Motto: "Die ATi rendert viel toller, dafür berechnet die nVidia mit Cuda viel schöner die Physik. ich mische dann mal." ?
mich würde mal interessiren, ob das wirklich geht DX 11 und PhisikX mit z.b. Einer 5850 und einer GTX 260². Ansonsten sehr schön auch schon die ergebnisse im Mischbetrieb, wobei ich denke, das da noch ein wenig herauszuholen ist.
natürlich hast du recht. Gründe gibt es dann wohl Zuhauf.
Jedoch nehem ich an, hat Nvidia keine Mittel hat sich dagegen zu wehren.
Soetwas ist halt Marktwirtschaft, denn Matrox weint auch nicht wegen Eyefinity.
Keiner der beiden (NV/ATI) war in der Lage dort gescheite Lösungen zu bringen.
Und sind wir mal ehrlich, dass aus SLI, Tripple SLI und dann Quad wurde ist doch einfach nur peinlich ....
Jetz ist einer schneller und Nvida macht alles kaputt? Glaube ich nicht
als stand alone lösung in form einer pci karte oder ähnlcih wäre son teil der renner.
da würde ich auch gut und gerne 100euro dafür zahlen, das hieße nämlcih ich könnte meine alte karte behalten, bzw zu meiner 5870 eine 5770 oder ähliches hinzuschalten um mehr leistung zu kriegen.
Ist eigentlich eine ganz tolle Erfindung und sicher nützlich, wenn man alles mögliche zusamenmischen kann. Aber die Frage ist, wie dann das Endprodukt der beiden verschiedenen GPU's aussieht und inwiefern es dann Mikrorukler usw gibt.
Es hängt sicher auch viel vom Hydra Treiber ab. Theoretisch müsste eine sehr gute Skalierung zu erreichen sein.
Man stelle sich das mal so vor:
Der Chip teilt das erste Bild mal frei nach belieben auf. Stellt fest, GPU 1 braucht deutlich länger für seinen Teil als GPU2 - also bekommt beim nächsten Bild GPU1 mehr Instruktionen und GPU2 etwas weniger.
Falls dies so umsetzbar ist und dabei die ganze GPU API erfasst ist, sollte dies mit allem möglich sein, Sogar GPU Computing, egal welches DX, Physiks etc.
Es muss theoretisch "einfach" die ganze Grafikschnittstelle die ein Spiel ansprechen kann erschlossen sein und dynamisch zugeordnet werden.
Hinter dem Vorhang wird es wohl äußerst kompliziert sein da sich die anfallende Arbeit nich einfach zerlegen lässt.
CB -> habt ihr so ein Board? Wird es einen Test geben?
Offenbar hast du mehr Informationen als ich - woher nimmst du, dass ein Bild geteilt gerendert wird (was man bei SLI und CF ja eben nicht macht und DAHER das Microruckler-Problem herrührt, es bei der Hydra-Lösung also nicht auftreten sollte).
Hast du Links?
Hier ist ein Vorab-Test von techreport.com, da wird auch genauer auf die Technik eingegangen.
Mal ganz davon ab wuerde mich interessieren, was du so machst. Irgendwie geht mir immer die Hutschnur hoch wenn Leute ankommen, keine Ahnung haben und technologische komplizierte Entwicklungen als "was ist denn so besonders dran" abtun, ohne ueberhaupt nur einen blassen Schimmer von der Ingenieursleistung zu haben, die hinter den Entwicklungen steckt.
Da bin ich aber überrascht, dass dies (zum Teil) so gut skalliert. Warum bekommen das NV und ATI nicht so hin? Setzten 6 ATI und nVidia! Finde das durchaus interessant und kann mir gut vorstellen, dass dies eine Zukunft hat, denn dem User eröffnet das völlig neue Möglichkeiten. Wie wird das nur Treiberseitig gelöst das ganze? Hat da einer Infos zu?
Skalieren tut es überraschend gut dieser Mischbetrieb zwischen ATI/Nvidia finde ich. Ist auch alles schön und gut, aber was mich jetzt wirklich mal interessiert ist. Wurde das Problem Microruckler denn nun gelöst so wie es versprochen wurde ? wenn nein, dann können die sich ihren Hydra Chip sonst wo hinstecken.
Ich mein was soll das denn dann bringen ? ja toll Ati/Nvidia zusammen aber trotzdem ein Ruckeln das mal sowas von auf die Nerven geht.