News Bringt Intel den „Hydra“-Chip auf das X58-Board?

solte das system wirklich in der umsetzung funktionieren wäre es für mich ein starker kaufgrund und wechselgrund, beim nächst möglichen aufrüstung in kombination mit einem i5.
ATI und NVIDIA ermöglichen es beide ja auch schon teilw. zu stromsparzwecken, aber bei ati dann leider auch nur in kombination mit bestimmten karten ... intel könnte die boards billiger herstellen und man kann in alle richtungen aufrüsten und variieren ... man ist absolut nichtmehr an die entscheidung gebunden ein sli oder crossfire board kaufen zu wollen und kann sich mehr optionen offen halten ...
ich denke die vergangenheit wie nvidia mit intel rummgesprungen ist mit dem sli hat intel zu diesem schritt bewegt und das wird nvidia im mainboard segment sehr wehtun ... einzig und allein der 9300 chipsatz für mobile geräte ist z.z. interessant nurnoch von nvidia ... und ich denke das wird intel zukünftig auch ändern wollen ... auch wenn erst schätze ich ende 2009/anfang 2010.

bin echt gespannt ob sich der chip mit der technik festigt ... und er tatsächlich kommen sollte
 
@MacGyver: Tja, es liegt an dir! Jetzt haste schon den passenden Namen, dann nimm dir ein Taschenmesser und bastel mal was... Nee, Scherz. Da kommt wahrscheinlich ein Bluescreen dabei raus. Ich glaube das macht schon Probleme wenn man z.B. von Nvidia auf Ati umsteigt (oder auch andersrum) und noch Reste nach der Deinstallation von dem ForceWare (Catalyst) Treiber auf der Platte sind.
Aber falls sowas mal möglich sein sollte, dann müsste der Chip ja zwischen beide Karten kommen und quasi als Vermittler zwischen SLI-Bridge und Crossfire-Bridge dienen, damit die beiden Karten miteinander arbeiten können. Genial wärs allemal. So könnte man die Vorteile beider Hersteller vereinen und das Treiberproblem könnte dann ja eventuell auch durch den Treiber von dem Chip gesteuert werden...
Naja, weg von der Träumerei: Also wenn der Chip es wirklich schaffen sollte, die Microruckler zu unterbinden oder ganz abzuschaffen, dann würde die Zukunft wohl den MultiGPU Systemen gehören. Dann müsste man den Chip aber auch in die Grakas einbauen, wenns ne X2 is oder eine GX2 (wenn die von Nvidia in Zukunft noch so heißen sollten). Wenn der Chip echt so potent ist, wies "Iapetos" beschrieben hat, dann sehe ich rosige Aussichten für die Firma ^^ Jetzt muss er sich nur noch im Alltag beweisen...
 
Yorkfield schrieb:
Erst mal sollte man abwarten wie gut dieser Hydra Chip überhaupt funktioniert. Ich kann mir nicht vorstellen das jemand aus dem Nichts plötzlich einen Wunderchip kreiert der besser funktioniert als ATI's Crossfire und Nvidia's SLI zusammen. Noch dazu kommt ein eigenes Renderverfahren. Ich bin da skeptisch.


Also ich hab mir die News beim Inquirer mal durchgelesen. Klingt nach einer extrem guten Idee wie dieser Chip funktioniert, ich geb ihm gute Chancen!


Papst_Benedikt schrieb:
Interessanter fände ich es, wenn man unterschiedlicher Grakas mischen könnte. Also zum Beispiel eine HD4870 mit einer Geforce 9600 GSO (für PhysiX). Wenn sowas möglich wäre, das wäre echt der Hammer! Aber ich glaube, das wird wohl noch lange dauern, wenn überhaupt...

Ich würde sagen das geht auch heute schon ohne SLI bzw. Crossfire System, solange die Geforce sich wirklich NUR um PhysX kümmert.
Das ist einfach nur Umlagerung der Physikberechnung von der CPU auf eine separate Karte, so wie das eben mit der Ageia PhysX-Karte eben angefangen hat.
 
Ich kannte Hydra bisher gar nicht ...

Ich hab mir jetzt mal den Artikel vom Inquirier über Hydra durchgelesen, es sollen sogar auch X2 Grakas möglich sein mit angepassten Treibern. Da wäre dann 8x "SLI/CF" möglich.

Dann könnte man sich ja nen schönes CUDA System mit 4xGTX295 ( 1920 SP ) zusammenschustern und könnte wirklich alle 8 GPUs auch für das MultiGPU Rendering Nutzen.

Wenn ich das System richtig verstanden habe, wäre es dann sogar egal dass jede GPU nur 896MB VRAM zur Verfügung hat da ja jede GPU nur anteilig die jeweiligen Texturen etc. benötigt.

An NVIDIAs Stelle hätte ich den Verein (Lucid) sofort gekauft und es als NVIDIA HYDRA SLI auf den Mark geworfen. Das ganze hört sich nämlich wirklich nach der effizeintesten Methode für Multi GPU Lösungen an.
 
Also aich bin dem gegenüber sehr skeptisch.

Erstens verbauen doch die meisten sowieso kein Board von Intel, sondern von anderen Mainboardherstellern wie Asus, MSI, Gigabyte usw.

Zweitens glaube ich nicht, dass das a) überhaupt richtig effizient funktioniert und b) schneller ist als CF/SLI.

Drittens scheitert das ganze allein schon daran, das man unter Vista nur einen Grafikkartentreiber installieren kann. Nvidia und ATI parallel wird allein schon wegen den Treibern nicht funktionieren. Selbst wenn es gehen würde, würden sich die Treiber wohl mehr gegenseitig abschießen als zusammen laufen.
(@Caelte: schön nachgeplappert :D)

Selbst wenn man ein und denselben hersteller Verwendet, glaube ich nicht, dass es in der Praxis in Spielen besser funktioniert als das bisher bekannte SLI/CF.

Also ich glaube es erst, wenn der Chip von guten Mainboardherstellern wie die oben genannten verbaut wird und die Treiber richtig Funktionieren.
 
Zuletzt bearbeitet:
Man soll teoretisch mit Hydra auch Nvidia und ATi kombinieren können. In der Praxis schiebt leider Windows einen Riegel vor, weil es nur einen Grafikkartentreiber erlaubt.

Den großen Vorteil des Chips sehe ich auch darin, dass man nicht 2mal die gleiche Graka braucht. Ich könnte zB wenn ich mir ne 5850 (wenn sie rauskommt) kaufe, einfach meine jetzige 4850 behalten und beide zusammen arbeiten lassen.
 
Zuletzt bearbeitet:
Selbst wenn der parallele Betrieb von Grafikkarten verschiedener Hersteller nicht funktionieren sollte (was ich für sehr wahrscheinlich halte), wäre diese Lösung jeder anderen weit überlegen. Ich hege keinen Zweifel daran, DASS es funktioniert, schließlich haben die Leute vom Inquirer es in Funktion gesehen. Besser als AFR oder Scissor-Mode ist es auf jeden Fall. WENN Intel diesen Chip integriert, werden die anderen Hersteller nachziehen. Das Ergebnis wäre nicht nur ein Vorteil für die Mainboardhersteller, sondern auch für die Grafikkartenhersteller, die nun endlich eine nahezu optimale Skalierung ihrer GPUs erreicht hätten und diese dann auch so bewerben könnten.
 
Blöde Frage, aber warum können nV oder AMD nicht ihre MultiGPU´s mit was anderem als AFR betreiben und dieser Chip schon?
 
r4yn3 schrieb:
Blöde Frage, aber warum können nV oder AMD nicht ihre MultiGPU´s mit was anderem als AFR betreiben und dieser Chip schon?

Keine blöde Frage, aber AFR ist nunmal das gängige Verfahren das sich durchgesetzt hat (SFR hat halt auch seine nachteile)!
Bei AFR war halt die FPS am höchsten, außerdem ist die logik (abwechselnd die andere Karte rendern zu lassen) einfacher als zu prüfen und die Aufgaben besser zu verteilen.
Microruckeln könnte es aber auch hier geben (wenn die Lastverteilung doch nicht optimal ist)!

OT:
@Caelte: dein Assassin's Creed Avatar im X-Mas Look gefällt mir! :-)
 
Zuletzt bearbeitet:
Hat den diesen Zauberchip überhaupt schon jemand gesehen?
Ich glaube das ist ein Paperlaunch - mit unbestimmtem Hardwarelaunch.

Sozusgen ein Duke Nukem aus Silizium :D
 
Papst_Benedikt schrieb:
@MacGyver: Tja, es liegt an dir! Jetzt haste schon den passenden Namen, dann nimm dir ein Taschenmesser und bastel mal was...

Geht nicht. Mir ist der Klingeldraht ausgegangen und mein Taschenlötkolben hat kein Gas mehr. Und für die Sachen stürz ich mich kurz vor Weihnachten bestimmt nicht mehr ins Getümmel :D
 
Zuletzt bearbeitet: (Korrektur)
Warum geht ihr alle davon aus das jedes Windows dem Doppeltreiber (Nvidea+ATi) nen Riegel vorschiebt? DAS tut NUR Vista. Unter XP haben einige Leute beide Hersteller laufen, teils für Multimonitorsysteme teils für PhysX auf der Nv.

Nur eben Vista scheibt dem einen Riegel vor, somit haben ATi oder Nv keine Schuld daran das es nicht parallel läuft sondern schlicht und ergreifend Microsoft.

Übrigens, was einige hier gesagt haben von dem achso schwierigen Generationenbetrieb der Grakas: Ich hatte bis vor kurzem zu meiner HD4850 eine HD3450 laufen, um die für nen Kumpel zu testen der sie mir abkaufen wollt. Treiberneuinstallation war nichmal nötig, der Catalyst erkennt die Karte sofort wenn da ein Moni angeschlossen ist (Und als Moni hab ich einfach meinen Fernseher genommen).

Insgesamt sehe ich den Hydra-Chip als willkommene Lösung zur Beseitigung einiger Probleme bei multi-GPU Systemen, aber das was einige hier meinen was er neu macht (verschiedene Hersteller) kann er auch nicht besser als bisherige Chips (Nv nur für PhysX) oder auch genauso wenig wie andre Chips (2Karten z.B. HD4850 und 8800GTX im "SLi/CF" Modus laufen lassen). Was ersterem nur einen Riegel vorschiebt ist schlicht und ergreifend Vista.

Es mag zwar sein das die Mischberechnung des Bildes auf 2 Karten verschiedener Chip-Hersteller noch implementiert wird, aber afaik ist sie bis dato noch nicht vorhanden.
 
Zuletzt bearbeitet:
Halt ich für ausgeschlossen in Mischsystem mit z.B GTX280 und HD4870 gemeinsam für ein Bild zu nutzen. Woher ergäbe sich dann die Bildqualität?
Und auf der Seite les ich eig nur heraus, das er so toll sein soll weil er die Last "perfekt" verteilt.
Da frag ich mich doch, wenn nichtmal nV oder AMD in der Lage sind, ihre eigenen GPU´s (und das schon in der 3tn Generation) die Last optimal zu verteilen, was soll dann der "popel" Chip bewirken?
Für mich sehr fraglich...

E: Weiß nicht ob der Test hier bekannt ist, hab ihn aber grad gefunden...für die die´s interessiert:
http://techgage.com/article/lucid_hydra_engine_multi-gpu_technology/1
 
Zuletzt bearbeitet:
Xpect schrieb:
DAS tut NUR Vista.
Hat niemand anders behauptet, zumindestens ich nicht.
schlicht und ergreifend Microsoft.
Nur leider ist jede Hardware ohne Softwareunterstützung Elektroschrott ;)
Ich hoffe stark, das dass bei Windows 7 wieder rückgängig gemacht wird.
Generationenbetrieb (..) zu meiner HD4850 eine HD3450 laufen (..)
Kannst du CF aktivieren ? Bezweifle ich doch mal stark. Screenshot vom Treiber mit aktiviertem CF könnte mich überzeugen.
Natürlich laufen sie nebeneinander. Aber nicht miteinander im CF-Betrieb.
Wenn er das machen würde, was angepriesen wird, wäre es eine "wunderentwicklung": Die Leistung mehrerer Grafikkarten von unterschiedlichen Herstellern und unerschiedlichen Generationen zur Berechnung des Bildes zusammen zu nutzen, die Last perfekt verteilen und dabei kein AFR benutzen (=Mikroruckler adee).

Also wenn es wirklichkeit wird, wäre es die entwicklung schlecht hin im Grafikkartenmarkt.
Wenn das wörtchen wenn nich wäre ;)
 
Dann könnte man sich ja nen schönes CUDA System mit 4xGTX295 ( 1920 SP ) zusammenschustern und könnte wirklich alle 8 GPUs auch für das MultiGPU Rendering Nutzen.
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Gibts schon, und zwar mit dem Fastra. Jetzt müssen nur noch 4xGTX 295 einbauen ^^
Geht zwar nicht im SLI, aber das währe zu krass.


Darüber hinaus soll der Chip nicht Alternate Frame Rendering (AFR) als Rendermethode nutzen, sondern eine eigene Implementierung.
Das hört sich wirklich nach dem Ende der µRuckler an. Darauf wird ATI und NV wohl reagieren müssen wenn das stimmt... Naja abwarten vielleicht bricht die Leistung dadurch auch enorm ein und Intel muss per Software optimieren bzw. den Treiber an die Spiele anpassen. Dann schaut die Sache schon wieder anders aus.

MfG Kasmo
 
Also Intel muss da ganz bestimmt nicht am Treiber optimieren oder dihn an Spiele anpassen. Das wäre wenn nötig die aufgabe von Lucid.
 
Hydra ist für mich einer der wenigen Gründe auf den i7 zu wechseln.
Aber die Gründe reichen noch nicht.

Wenn es aber die Mikroruckler umschifft und auch mit günstigen Grafikkarten Performance rausholt, dann aber her damit. Das wäre dann nämlich mal eine löbliche Verbesserung.
 
WENN es wirklich klappen sollte mit diesem chip Mikroruckler verschwinden zu lassen, wäre das für mich in jedem Fall ein grund auf ein multi-gpu-system zu setzen. Im moment gibt es einfach noch zu viele punkte die dagegen sprechen (Mikroruckler, generationenkonflikte, unsinnige verteilung der daten im speicher....). Aber wenn hydra zumindest ein paar dieser probs ausräumt dann wäre das beschreibene intel board ja der traum jedes aufrüsters. Aber lasst uns erstmal einen test von cb abwarten, für mich klingt das ganze teilweise zu schön um wahr zu sein.
 
Hi,

sehe in dem Ansatz auch einiges an Potenzial.

Problem bei Intel und ATI denke ich war das beide Unternehmen an bestimmte Altlasten, Vorgaben gebunden sind. Anderst konnte Lucid vollkommen unvorbelastet an die Entwicklung gehen.

Wenn das in der Praxis läuft denke ich werden MultiGPU-Systeme sehr intressant.

Mir würde es sogar reichen wenn ich nur den gleichen Hersteller verwenden könnte.

Soweit ich mich erinnere wurde Lucid durch eine Intel Investment Firma unterstützt, was erklären sollte warum Intel als erstes auf diesen Zug aufspringt.
Wenn er sich bewährt kann man sicher sein das dieser Chip bald auf allen HighEnd Systemen zufinden ist.

we will see

greets
 
Zurück
Oben