News Lucids Hydra-Chip erstmals getestet

@bensen

-> Alter Scholli, 12,5k Beiträge ;)

da hast do wohl recht. Aber siehs mal so - die NichtBlockbuster sind meistens Spiele mit minderer Grafikanforderung die selbst auf einer Karte in Max Quali ohne Probleme zu bewerkstellingen sind.
Außerdem sehe ich im Hydra nicht den Chipp der es ermöglicht statt einer guten Graka 2 mittlere zu nehmen. Vieleher bietet er zum jetzigen Zeitpunkt eine HighEnd Karte noch weiter aufzumöbeln indem man eine 2. High End Karte hinzufügt.

Und die Spiele die diese Leistung brauchen werden sicher auch supportet.

Aber ich geb dir recht. Lucids wird mehr Arbeit haben als man sich ausmalen kann. Leicht ist das ganz sicher nicht. Da müssten AMD und Nvidia schon bereit sein die passenden Profile mitzuliefern.
 
Naja, ich könnte mir vorstellen, dass Lucid vlt. im Bereich der Shader aufteilen kann. Shader A braucht DX11 Features und es gibt eine DX11 GraKa, dann wird der dort berechnet. Shader B braucht nur DX10 Features und kann auf einer anderen GraKa laufen. K.A. dafür habe ich zuwenig Ahnung von der Materie.

Greetz,
GHad
 
Da skalieren ja die Karten richtig böse mit, wird wohl in Zukunft die beste Wahl für Enhusiasten sein. Fragt sich nur, wie gut das Ganze mit 3-Way-SLI und Crossfire X läuft.
 
@GHad

wohl eher nicht da man ja nur über den jeweiligen Treibern von Nvidia und AMD ansetzen kann. Man programmiert ja keine eigenen Treiber für die Grafikkarten. Heißt einzelne Shader ansprechen wird nicht drin sein.

Ganz grob kann man wohl sagen:

-> Das Spiel will 3 Bäume, 2 Spieler, Ein Hintegrund und eine Waffe darstellen:
-> Der Treiber teilt diese Anforderung auf, Hintergrund +2 Bäume bekommt GPU1 (bzw der Treiber), den Rest GPU2(bzw der Treiber).
-> Ergebnisse werden wieder zusammengesetzt
-> um das zu splitten und zusammenzusetzen ist wohl der Chip nötig um die Grafikkarten selber direkt ansprechen zu können , eventuell auch einfach wegen der Performance.
 
freu mich das wohl hinter " der heissen luft " wohl doch was dahinter steckt.
beachtlich finde ich doch einen funktionierenden mischbetrieb,
auch die möglichkeit / skalierung von GTX mit GTS !
wenn die ersten vorab-test´s die resultate bestätigen werden, könnte
" ein neues zeitalter " von mgpu bevorstehen.
 
Jesterfox schrieb:
Wobei aber der getestete Aufbau eine PCIe Karte ist! Ob ich die PCIe-Lanes der CPU direkt auf dem Board abgreife oder über einen Steckplatz ist doch egal (zumindest im Fall des P55, wenn der sowieso nur 16 hat).

Bei dem Versuchsaufbau wurden die PCIe-Kanäle abgegriffen, das ist richtig und im Grunde so mit jedem Board möglich.
Aber die Kanäle wurden auf eine externe Platine mit den verschiedenen Grafikkarten geleitet (das sind nicht zwei PCs, sondern nur ein PC und ein Gehäuse mit einer Backplane).
Die Funktionsweise als PCIe-Switch wurde eben so umgesetzt. Die Daten werden aber nicht wieder über die Leitungen auf dem Mainboard an die Grafikkarten verteilt, sondern gemäß der grafischen Darstellung (siehe mein Post vorher) auf der Backplane aufgeteilt.
Die PCIe-Kanäle auf dem Board können eben nicht als eine Art Rückkanal verwendet werden, weil dadurch das Datenvolumen verdoppelt werden würde.
Wenn es eine Zusatzkarte so wie im Versuchsaufbau geben würde, dann müßten die Grafikkarten auch auf einer Backplane (wie im Testaufbau) oder aber direkt mit der Zusatzkarte durch Steckverbindungen verbunden werden.
Wie soll das in einem herkömmlichen PC-Gehäuse mit herkömmlichen Grafikkarten umgesetzt werden? Ergo, bleibt eben nur die Integration auf dem MB übrig.
 
MFelgate schrieb:
Wie soll das in einem herkömmlichen PC-Gehäuse mit herkömmlichen Grafikkarten umgesetzt werden? Ergo, bleibt eben nur die Integration auf dem MB übrig.

Jo, klar... praxistauglich ist was anderes... andererseits gibts bestimm Leute die sich so einen externen "Grafikbooster" neben den PC stellen würden. Damit fällt man auf Lan-Partys bestimmt auf ;-)
 
@jesterfox oder endlich DIE Lösung für Spielenotebooks^^. Wäre doch nett: ein kleines Notebook für unterwegs und zum zocken daheim es an der (ATX großen) Dockingstation dranhängen.
 
Klingt alles ganz Interessant allerdings bin ich immernoch nicht überzeugt ob es a) ohne ruckler geht b) für jedes Spiel angepasst werden muss und c) man Hydra und das Multigpuset bezahlen muss.

Ich kann mir ehrlich gesagt nicht vorstellen das es der "big Bang" wird eher ein Nischenprodukt aber gut wer 2 HD 58xx oder GTX 285 kauft wird auch keine Probleme haben Hydra noch mit zu bezahlen die Frage ist dann was bekommt man dafür

Ich lass mich aber sehr gerne positiv überraschen aber Skepsis finde ich erstmal auch angebracht.
 
MFelgate schrieb:
Wenn es eine Zusatzkarte so wie im Versuchsaufbau geben würde, dann müßten die Grafikkarten auch auf einer Backplane (wie im Testaufbau) oder aber direkt mit der Zusatzkarte durch Steckverbindungen verbunden werden.
Wie soll das in einem herkömmlichen PC-Gehäuse mit herkömmlichen Grafikkarten umgesetzt werden? Ergo, bleibt eben nur die Integration auf dem MB übrig.

Jop, genauso siehts aus.
Per Rückkanal auf p55 ist nicht möglich, es sei denn, die 16 durch die CPU vorhandenen Lanes werden vor der Lucid-Karte per Extrachip geswitcht, oder es stehen ihr einfach nur 8 "echte" Lanes zur Verfügung, den beiden Grakas jeweilsl 4.
Der von Felgate erwähnte erhöhte Datenaufwand wird die 8 (echten) Lanes, aber auch 16 geswitchte (Fake)-Lanes wohl schnell an ihre Grenzen bringen. Immerhin vervierfacht sich afaik die Datenlast auf die 16 vorhandenen Lanes, hin und zurück zum Lucid-Chip, 2mal hin zu den Grakas, wenn der Lucid-Chip nicht selbst als Switch dient.

Dient er als Switch per PCIe-Karte haben wir die erwähnten physischen Probleme mit unserem PC-Gehäuse und auch dem MB.

So bleibt für eine Lucid-PCIe-non-switch-Lösung nurmehr als (sinnvolle) Möglichkeit ein Chipsatz (bzw. CPU) der Minimum 32 Lanes bereitstellt, besser 48, um beim Datentransfer nicht gegenüber der Lucid-Switch-Lösung im Nachteil zu sein.

Die Integration in das MB als PCIe-Switch ist aber die deutlich elegantere Lösung.
(Oder auf einer Dual-GPU-Karte selber, womöglich mit Fermi und Cypress, dann fiele aber weihnachten tatsächlich auf Ostern :D )

Gruß
Raubwanze
 
Zuletzt bearbeitet:
MFelgate schrieb:
Wie soll das in einem herkömmlichen PC-Gehäuse mit herkömmlichen Grafikkarten umgesetzt werden? Ergo, bleibt eben nur die Integration auf dem MB übrig.

Da sehe ich nicht so große schwierigkeiten.
man könnte eine PCIe x16 steckkarte machen auf welcher zwei pcie x16 slots sind.
(must dir wie Strommessgeräte für Steckdosen vorstellen)
damit wären die Grafikkarten zwar ca.1-2 cm höher, dürfte aber mit den meisten PC Gehäusen noch kompatibel sein.
 
für mich steht jedoch die Mehrleistung im Vergleich zum Preis zweier in dem Segment doch nicht ganz so günstigen Grafikkarten nicht im Verhältnis.


Technologisch/wirtschaftlich bzw. marketingtechnisch jedoch gar ein Meilenstein.
 
Ich wart mal auf gescheite breitflächige Tests, alles andere ist wenig aussagekräftig. Vor allem ob man tatsächlich alle Features kombiniert brauchen kann. Die neuen ATI Cards können doch dieses kranke FSAA-Dingensbumens (Name grad entfallen), wie soll das funktionieren wenn die ATI Card nur jede zweite Zeile oder Frame rendert. Gerade bei den AA Umsetzungen gibts doch ziemliche Unterschiede. Bei CUDA, Physx usw. ist das ja recht eindeutig da es monopolistisch ist derzeit.

Gruß
 
Ich stelle mir die Frage, wie Lucid da die Lizensen sowie Patentrechte umgeht... den ich bezweifle das ATi sowie NVIDIA dies gutheißen, schließlich umgehen die Crossfire sowie SLI.

Ist ja quasi wie ein kopierschutz zu umgehen oder zu Cracken, klärt mich mal einr auf?

Schon das man bis jez nichts weiter von NV sowie ATi/AMD gehört hat, und immerwieder verschoben wird das diese technik auf dem Markt kommt.

Da denke ich mal es laufen gewise verhandlungen bzw die Firmen versuchen zu verhindern das es zum endverbraucher geht.

Hier ist viel Geld im Spiel, am ende wird Lucid geschluckt wie bei Ageia und jemand oder mehrere Leute sind dann stinkreich.

Aber ansich ist die Idee ganz gut, was mich noich Interessieren würde wieviel Grakas können maximal von einem Lucidchip verwaltet werden?

Könnte ich ne Matrox sowie ne ATi und ne NV zusammenhängen, eventuell noch ne S3? Oder gar bisschen weiter zurück und ich koppel eine 3dfx Voodoo5 mit ner Modernen Karte und mir steht glide zur verfügung mit Max FPS und AA etc.?

fragen über Fragen...
 
Zuletzt bearbeitet: (fehler)
RubyRhod schrieb:
Offenbar hast du mehr Informationen als ich - woher nimmst du, dass ein Bild geteilt gerendert wird (was man bei SLI und CF ja eben nicht macht und DAHER das Microruckler-Problem herrührt, es bei der Hydra-Lösung also nicht auftreten sollte).
Hast du Links?
ich denke schon, dass die karten zusammen an einem bild werkeln. da sonst die minimum frame rate des gespanns nicht soviel höher wäre, als die minimum framerate der schlechteren karte (ausgehend von 2 verschiedenen karten).
wenn der chip wirlich gut ist, dann lässt er übrigens nicht jeweils 50% eines bildes von einer karte errechnen, sondern ermittelt die idelae bildaufteilung pro (unterschiedliche) gpu, um eine bestmögliche framerate zu erhalten
-> beispielsweise 30% des bildes auf der schwächeren karte, 70% auf der stärkeren, um zu verhindern, dass die stärkere karte leerlaufzeiten hat, in denen sie auf die schwächere warten muss.

--------

rockys82 schrieb:
Ich stelle mir die Frage, wie Lucid da die Lizensen sowie Patentrechte umgeht... den ich bezweifle das ATi sowie NVIDIA dies gutheißen, schließlich umgehen die Crossfire sowie SLI...
wobei sich andererseits da die frage stellt, ob solch ein chip eines dritten anbieters wirklich ein nachteil für amd/ati & nvidia wäre. müssten sie doch keine anstrengungen und somit gelder in die weiterentwicklung und vor allem perfektionierung von sli / crossfire stecken. die folge könnte sein, dass die grafikkarten selbst dadurch günstiger werden, was dann den gesammtpreis des systems wieder etwas drückt / der aufpreis für hydra system etwas kaschiert. sollte sich das hydra system dann auch noch durchsetzen, könnte der chip wiederum weiter vergünstigt werden, da die abnahmezahlen steigen würden.
 
Zuletzt bearbeitet:
sollte das klappen mit diesem chip wär des echt net schlecht
aber ich könnt wetten das des dann ati und nvidia net gefällt und die durch neue treiber oder ähnliches das dann wieder unterbinden
naja wir werden sehen man soll den tag zumindestens nicht vor dem abend loben
 
Krautmaster schrieb:
Mal was anderes: Vielleicht kann man das noch softwaretechnisch hinbekommen, dass bei einem Mainboard mit IGP die Zusatzkarte komplett abgeschaltet wird und nur bei Bedarf aktiviert wird. Wie hies die verkorkste Technologie von Nvidia damals?

Wäre zumindest wünschenswert wenn man sich zb eine GTX295 + HD2100 ins System baut. Dann vielleicht 3D aber nur die gute Graka rendern lassen, glaub die HD2100 würde da nich viel bringen ;)


Wahrscheinlich meinst du mit verkorkster Technik HybridSLI (insbesondere den Part HybridPower).

Weiß allerdings nicht warum du es verkorkste Technik nennst, bei meinem HTPC läufts perfekt (Kompatible Hardware ist Vorraussetzung) - komme da auf ne Idle-Leistungsaufnahme zwischen 40 und 50 Watt.

Schade dass die Technik quasi eingestellt wurde, bleibt zu hoffen dass der Hydra-Chip ein ähnliches Features unterstützt.
 
Zurück
Oben