Test Test: MSI Big Bang Fuzion mit Hydra-Chip

Schöner und aufwendiger Test mal wieder - Respekt.
Schade dass nicht auf ergänzende Eigenschaften eingegangen wurde, doch das schien nicht die Zielsetzung des Tests zu sein. Wenn PhysX oder bessere Filter der Konkurrenz sich gegenseitig ergänzen wäre das das wichtigste Kaufargument für einen Hydra-Chip
y33H@ schrieb:
Es heißt PhysX und Batman AA läuft im X-Mode [= AMD + NV] nicht.
Finsterkatze schrieb:
ATI u Nvidia als Physx Karte funktioniert, wie immer auf Umwegen. PCGH z.B hat auch Batman im Test.
Das näher zu untersuchen und die Grenzen zu zeigen wäre in einem kurzen Abschnitt sicherlich interessant gewesen.

Laut dem Test in der Printausgabe der ct geht PhysX im Mischbetrieb nicht. Ebenso funktionieren nur Qualitätsfilter die beide Hersteller, Ati und Nvidia, verwenden. Sprich immer nur der kleinste gemeinsame Nenner. Das gilt offensichtlich auch für DX Modi. So läuft HAWX nur im DX10 anstatt DX10.1 da die Nvidia Karten das nicht unterstützen.
Das wäre interessant mal nach zu testen - vor allem scheint es auch grosse Unterschiede zu geben abhängig davon welche Karte als primäre Anzeige verwendet wird.

Eigentlich hatte ich von Hydra erwartet das beste aus beiden Welten zu nutzen und verfügbar zu machen - so ist es irgendwie unsinnig wenn nur Features verwendet werden können die beide Hersteller unterstützen.
 
schrott, einfach nur schrott lol ... hätte das Ding die Micro Ruckler in griff bekommen /bow /bow und gekauft aber so, einfach Schrott
 
War aber auch irgendwie klar, dass nur Features unterstützt werden, die beide Karten können.
Teilweise ists ja gut was hier an Performance dazugewonnen wird.
Ich glaube aber nicht, dass das mit Hydra je was werden wird. Zu kostspielieg für die Firma, wenn sie ständig bei den Treibern nachbessern müssen.
 
Sehr schöner Test, danke dafür :-)

P.s: Manman, was bin ich am Anfang von Bild 1 verwirrt gewesen, als ich die Miniansicht auf Seite 1 sah.. "Was zur Hölle ist da vor dem CPU Kühler" .. Sah aus wie ein halber Lüfter oder so :D
 
Ich finde es sehr schade,
dass nicht ein bisschen mehr auf das Board selber eingegangen wurde.

Und noch was:
Warum ist eine Hd5870@Hydra teilweise mehr als 2.5x so schnell wie eine einzelne? o.O
 
Ich versteh das ganze Konzept nicht:

Ich gebe doch nur so viel Geld für das Board aus, wenn ich - aus welchem Grund auch immer - bereits je eine teure Karte von AMD und NVIDIA habe, die ich dann zusammen stecken will.
Gerade das funktioniert ja aber nicht.
Also behalte ich doch einfach mein bisheriges Board, und kauf noch die 2. AMD oder NVIDIA Karte dazu, oder? Für 330 Euro ist das doch bequem machbar ...
 
Die Idee dahinter ist unter anderem die Mikroruckler zu reduzieren.
Ich habe mir vom Artikel nur das Fazit durchgelesen, weil ich aus Umwelttehnischen gründen und P/L gründen so ein Gespann nicht haben will, aber in der PCGH hörte sich das ganze besser an.
 
ich war sehr gespannt als ich das erste mal über diese Technologie gehört/gelesen habe.

der erste Gedanke war: die Kombination aus einer HD5870 (nur fürs Rendering) und eine GT250 (nur fürs Physik) in Spielen für möglichst reales Spielvergnügen.

an diese Stelle würde euch gerne diesen Artikel empfehlen "Mit ATI und nVidia zusammen PhysX nutzen(anleitung)"
http://extreme.pcgameshardware.de/grafikkarten/76699-mit-ati-und-nvidia-zusammen-physx-nutzen-anleitung.html

oder diesen hier "PhysX auf ATI-Karten freischalten"
http://physxinfo.com/news/427/modded-geforce-drivers-unlocked-physx-for-radeon/

nun hoffe ich jetzt, das Lucida mit den Treibern andsers verfahren soll.
Bin der Meinung wenn der Hersteller drei komplette Treiberversioneneinen herausbringt die die Treiber der ATI-nVidia beinhalten, sollten diese Anlaufschwierigkeinen der Vergangenheit angehören.
Der erste Komlett-Treiber: ATI-nVidia Grafikkombination
Zweite Komlett-Treiber : ATI-ATI Grafikkombination
Dritte Komlett-Treiber : nVidia-nVidia Grafikkombination

habe mich auf den Test bei CB sooo gefreut, jetzt ist er da, vielen Dank !!! :daumen:
 
Zuletzt bearbeitet:
was bedeutet 5870 @ hydra ?!

sind das nun 2x 5870er die nicht im CF sondern hydra rennen
oder nur 1x 5870 @ hydra statt norm. chipsatz ...


mehr asl doppelt so schnell sollte die 5870er ja net nur wegen hydra sein oder ?!
 
Nitschi66 schrieb:
Ich finde es immer wieder sehr störend, das ihr eure koordinaten-achsen NICHT beschriftet, wäre mal angebracht, oder bitte was soll 50,0 bedeuten?

Falls du die Diagramme bei den Mikrorucklern meinst.
Steht zwar nicht da wo es hingehört aber es steht da "Ordinatenwerte in Millisekunden."


Warum bring ich sowas raus wenn der Stand der Technik so mies ist, dass ich mir sowieso nur den Ruf versaue?
 
Intels Skulltrail lässt grüßen. Interessante Technologie auf dem Papier aber in der Praxis einfach unbrauchbar. Ich denke MSI bzw. Lucidlogix sind auch nicht in der Lage an dieser Situation so schnell etwas zu verändern bzw. die ganzen Probleme in den Griff zu bekommen. Die Mängel sind zum Teil doch gravierend und da mittlerweile SLI oder CF auf einem Board funktioniert hat das MSI Big Bang viel von seinem einstigen Vorsprung bzw. der Innovation eingebüßt, so dass sich wohl langfristig der doch sehr intensiv nötige Treibersupport nicht lohnt.

Auch an das DFI Board mit Intel Atom möchte ich an dieser Stelle erinnern.
http://lp.lanparty.com.tw/portal/CM...sWindow?action=e&windowstate=normal&mode=view
https://www.computerbase.de/2009-11/dfi-intel-p45-und-nvidia-ion-plus-atom-auf-einem-pcb/

Da besteht zumindest noch die Hoffnung, dass es irgendwann in Europa verfügbar ist.
 
Komisch, dass es hier besser abgeschnitten hat. Sind aber wohl auch die einzige Spiele die gehen:
hardwareluxx.de/index.php/artikel/hardware/mainboards/14442-msi-big-bang-fuzion.html

Für den Rest ist Hydra höchstwahrscheinlich doch noch zu früh in den Markt gekommen (bzgl. doch noch vorhandene Microruckler, ...). Auf Verbesserung müsste man Warten. Aber auch nicht unbedingt mehrere Jahre lang. Also gibts sicher noch Hoffnung für so einen kleinen Chip. :)
 
Danke für den ausführlichen Test, Hut ab. Ich hätte das Ding spätestens nach dem ersten Spieletest in die Ecke geschmissen ;)

In der aktuellen Form ist Hydra leider komplett unbrauchbar. Nach Studie der Einzelbenchmarks drängte sich mir der Eindruck auf, dass man für jedes Spiel eine andere Grafikkarten-Konstellation benötigt, um das optimale Ergebnis herauszuholen, was ja an sich schonmal auf schlechte Treiber schließen lässt. Wenn man dann noch beachtet, was für unglaubliche Grafikfehler Einzug halten und die Mikrorucklerproblematik auch nicht gelöst wurde, weil man scheinbar auf das selbe Prinzip wie bei Crossfire/SLI setzt, wird einem klar, dass Hydra im aktuellen Stadium ein Schuss in den Ofen war.

Aber scheinbar liegt vieles an den Treibern, theoretisch kann sich da ja in diesem Jahr noch einiges tun. Wenn die Technologie es überlebt, fallen bis Ende 2010 auch die Preise für solche Boards und ne Revision der Hydra-Chips gibts evtl. auch noch. Atm kann man damit leider keinen Blumentop gewinnen. Schade, hätte gerne meine alte 3850 nochmal in den Rechner gesteckt ;D
 
Für das Geld aber dann mit Sicherheit das Rampage Extreme III!
Da weiss ich was ich hab fürs Geld.
Da hab ich auch CF u SLI auf einem Board u. kann auch sicher sein das es funzt.
Kauf mir doch nicht einen Sack voll Probleme für 300 Euro!
 
Zuletzt bearbeitet:
Finde das aber schön das man von ein Extra Chip entwickelt haben damit man flexibler vielleicht mal wird und die Entwicklung noch weiter voran getrieben wird.

Hoffe das man bald mehre Grafikkarten ohne Problem betreiben kann, egal ob Software oder Hardware Problem.
 
AW: MSI Big Bang Fuzion mit Hydra-Chip
ich war sehr gespannt als ich das erste mal über diese Technologie gehört/gelesen habe.

der erste Gedanke war: die Kombination aus einer HD5870 (nur fürs Rendering) und eine GT250 (nur fürs Physik) in Spielen für möglichst reales Spielvergnügen.

Ich bekomm echt noch Herzprobleme wenn ich sowas lese, und festellen muss wie Informationsressistent manche leute eigentlich sind.
IHR KÖNNT EINE ATI UND EINE NVIDIA ALS PHYSX BENUTZEN, auf jedem board mit 2x 16x pcie, JEDEM!!!
Das ganze wird doch nur softwaremäßig geblockt, und wenn Hydra dafür da is das Rendering Aufzuteilen auf beide Chips, kann es ja nicht sein dass Physx genutzt werden kann, da Physx nicht zum Engine Rendering gehört!!! Physx is ne eigene Engine die paralell dur eigentlichen Grafik läuft, die EINE gpu braucht, und zwar nur eine Nvidia gpu, und da kann KEIN wunderchip nachhelfen.
Man >.<
Und wie verblendet muss man eig sein, zu glauben dass der hydra im X Mode ATI karten CUDA, und Nvidia Karten DX11 beibringt? Da können die daten aufgeteilt werden wie sie wollen, wenn ihr mit net DX11 api zockt, und die daten dann an ne NV karte schickt, kann sie das bild garnicht berechnen, weil sie es nicht versteht, und bei CUDA genau das gleiche, da Blickts die ATI karte nich. Oder soll der Hydra am besten des zeug selbst errechnen? WIsst ihr was, dann würde Hydra noch schlechtere Treiber haben, und ungefähr 200W Schlucken, mit eigenem Speicher ausgerüstet sein, und selbst nen PCIe Platz verbraten

Dazu kommt das Rumgeheule von wegen "Der XMode funktioniert nicht richtig" "Öhh der XMode skaliert voll scheisse"...Leute, das war von ANFANG an klar. Sinn und Zweck ist es nicht ne ATI9600XT mit ner 88Ultra zu kreuzen, sondern um die Skalierung zu verbessern, Mikroruckeln entgegen zu wirken, und Evt durch die Kartenverdopplung den Speicher zu verdoppeln, was ja mit AFR nicht möglich ist.

MAN
Ihr könnt echt aufregen
 
Aller Anfang ist schwer.
Die Hydra-Technik steckt noch in Kinderschuhe.
Wie lange hat die 64Bit technik gebraucht sich durchzusetzen?
Bis heut noch nicht.
Seit jahrzehnte wird mit Elektroautos experementiert und heute erwarten wir innerhalb von paar monaten Riesige Vortschritte bei den E-Autos.

Ich denke die Technik hat potenzial und brauch noch viel geld und viel Zeit bis soetwas fuer jedermann interessant wird.
Denke aber das das Thema Geld die Sache zum scheitern verurteilt genauso wie fehlende Cooperation von NVidia und ATI.
 
Eigentlich sehr schade, dass Hydra im Mischbetrieb so schlimme Macken aufweist, denn gerade das war ja das spannende an der Sache.
Dass Lucid ATi bzw nVidia im CF bzw SLI nicht schlägt, war ja dagegen zu erwarten - da sind die Grafikkartenhersteller ja auch Monate im Vorraus.
Ich hoffe, dass Lucid nicht aufgibt und weiter entwickelt.

@CockyBocky:
schlecht aufgestanden? ^^

GaBBa-Gandalf schrieb:
Leider verwenden die Deutschen viel so oft den Begriff "No Go".... Eigentlich wird der Begriff so gut wie nicht im Englischen gebraucht...
Die Engländer sagen aber auch "mobile phone" statt Handy. und nun?
 
Zuletzt bearbeitet:
Meiner Meinung nach ist der Hydra Chip von der Theorie her schon Spitze.

Daß dieses Produkt, wie fast jedes andere im IT Bereich auch, erst beim Kunden reift
ist gerade angesichts des Preises allerdings eine echte Frecheit und Marketingtechnisch
in meinem Augen unverantwortbar.

Sicher muß man sich bewußt sein, daß die Investitionen in dieses Produkt richtig hoch sein werden,
aber wie kann es eine Chance haben, wenn Lucid schon anfänglich die Kundschaft mit schlechten Treibern vergrault ?

Sowas spricht sich doch, grad in Zeiten des Internets blitzschnell rum und es wird sehr schnell
keiner bereit sein 75$ Aufpreis für Schrott zu bezahlen.

Lucid hätte hier sehr viel Geld in gute Treiber investieren müssen, den Lucid-200 Chip für
schmales Geld anbieten sollen und die Reinvestition langfristig auslegen müssen.

Mit einer guten Idee allein macht man auf die schnelle heute kein Geld mehr, das muß auch funktionieren.

Dann hätt man, bei entsprechendem Preis, Massen begeistern können und die Investition so langfristig wieder rein geholt.
Schade eigentlich, weil wie gesagt - die Idee an sich ist schon Spitze.
 
Zurück
Oben