Hydrachips

BRDiger

Ensign
Registriert
Apr. 2009
Beiträge
141
Was derzeit mal wieder ein wenig untergeht, allerdings recht vielversprechend klingt, ist die Tatsache das Lucid die Hydrachips in 30 Tagen auf den Markt werfen will Die Chips versprachen ja schon in der ersten Version (100) eine 100% Skalierung bei verschiedenen GraKa Kombinationen... Denke man darf gespannt sein...
PS Ich denke das ganze koennte, sollte es denn so funktionieren wie angekuendigt, den ganzen Markt revolutionieren. Man steckt neben der alten Karte halt gleich die neue dazu, anstatt sie auszutauschen... Alleine aus dem Grund sollte man wohl noch ein kleinwenig laenger mit Neuanschaffungen warten...
 
Zuletzt bearbeitet:
wenn das so funktioniert wie es bis jetzt aussieht, dann wird das mal ein top produkt.

allerdings hab ich ein bisschen bammel, dass die boards mit diesen chips unverschämte preise haben werden. ich für meinen teil kaufe mir einfach keine boards die mehr als 120€ kosten.
 
Bei Heise gibts auch noch eine Newsmeldung dazu

Ich bin wirklich gespannt was die Praxis zeigen wird. Das könnte wirklich eine kleine Revolution einläuten, wobei ich ebenfalls vermute das die Boards mit Hydra-Chip einiges mehr kosten werden. Außerdem muss man erstmal schauen ob der Hydro Chip überhaupt bei AMD Einsatz findet wenn Intel an LucidLogix beteiligt ist - würde mich nicht wundern wenn man diesen Vorteil nicht teilen möchte.
 
wenn man anandtech glauben schenken will, dann wird das ganze ein teurer spaß. für den kleinsten mit 2x 8 lanes gpu und 1x 8 lanes cpu würden $32 fällig und für vollen x16 support schon $72. nur für den chip ohne zusätzlichen schaltungsaufwand wie leiterbahnen, bauelemente, ect. pp und da haben die boardhersteller selbst noch keinen cent dran verdient.

allerdings fallen pci-e switch und lizenzkosten für sli/crossfire weg.
 
Zuletzt bearbeitet:
Erschwerend kommt im Moment noch hinzu, dass Lucid lediglich Intels P55-Plattform für die Chips validiert hat.

Wie vermutet hat Intel die Hand drauf, ... und auch der Preis wird ganz schön happig werden:
Für das erwähnte MSI P55 Big Bang bestimmt ~+200€. Auf Tests bin ich trotzdem sehr gespannt.

Even better: we got to play on a GeForce GTX 260 + ATI Radeon HD 4890 running in multi-GPU mode.

Danke fürs verlinken ;)
 
Zuletzt bearbeitet:
100% Skalierung ist Marketinggewäsch, so gut skaliert nichtmal AFR (Alternate Frame Rendering), was bei SLI und Crossfire zum Einsatz kommt. Und effizienter als AFR geht einfach nicht, wenn man mal die Mikrorucklerproblematik ausblendet.
 
wau kante ich gar nicht gibts das auch bald für amd ?
 
Das ganze ist hier in den meisten Medien nur beilaeufig erwaehnt worden...sicherlich muss man die Tests abwarten, aber mal ganz im ernst...beliebige Karten zu kombinieren, ein anstaendiges Ergebnis vorrausgesetzt, koennte mich dann doch davon abhalten den Weg der Kompletten AMD Plattform zu gehen...
 
Jesterfox schrieb:
Ich frag mich eh, wie das funktionieren soll? Das ganze ist doch 'n Hoax.
Ich halte es für unwahrscheinlich, dass sich Intel an einem Unternehmen beteiligt, das nur heiße Luft produziert.
theorist schrieb:
Und effizienter als AFR geht einfach nicht, wenn man mal die Mikrorucklerproblematik ausblendet.
Falsch. Bei AFR werden so viele Frames verworfen, dass es ineffizient wird. Du hast dein Argument mit der Anspielung auf das Mikroruckeln selbst widerlegt. Das Verfahren von Lucid muss zwangsläufig effizienter sein, weil es die Last an der Geometrie aufteilt und nichts verworfen wird. Welche neuen Nachteile sich dadurch ergeben, ist natürlich noch nicht bekannt.
scauter2008 schrieb:
wau kante ich gar nicht gibts das auch bald für amd ?
Das wäre schön, was? Wenn die das anstelle des gewöhnlichen PCIe-Switches verwenden würden, könnte man die X2-Karten beim Neukauf tatsächlich in Erwägung ziehen.
 
Frames verwerfen? Was meinst du genau?
Und AFR ist fast maximale Effizienz, da jede GPU ein Bild fertigt, sind es in der Theorie +100% Leistung.
 
Die Frames sind vorberechnet, also geschätzt. Nicht immer sind die vorberechneten Frames nutzbar, weil der Benutzer eben anderswo hinschaut. Daher rühren die Mikroruckler, welche ja nichts anderes sind als extreme Einbrüche in der Framerate, weil zuvor berechnete Frames verworfen werden mussten. Insgesamt schwankt also die Zeit zwischen zwei ausgegebenen Frames sehr stark, was allgemein als störend empfunden werden kann. Zusätzlich steigt das Input-Lag, alles wirkt verzögert.
AFR ist nur dann effizient, wenn vorher bekannt ist, was berechnet werden soll, also eine vorgeschriebene Szene (Echtzeit-Film?) - in der Spielerealität eine unmöglich Situation.
 
Gibt es irgendwelche Beweise dass Frames "verworfen" werden?
Denn SLI/CF bringt ja so seine Zusatzleistung. Wenn dauernd alles neu berchnet werden müsste, wäre der Performancezuwachs wohl kaum so hoch.
Das ist ja das lustige an den µ-Rucklern. Die Framerate stimmt ja, nur die Zeitabstände zwischen den Frames ist so unregelmäßig, dass diese zusätzlichen Bilder mitunter wenig bringen.

sieht ja dann ungefähr so aus: Bild-20ms-Bild-5ms-Bild 20ms-Bild- 5ms-...

Wenn Bilder verworfen würden, würde ja nicht der Zeitabstand unsymmetrisch werden, sondern ein komplettes Bild fehlen.
 
Nein - der Abstand zwischen zwei Bildern wächst in einem solchen Fall. Tritt das prognostizierte Verhalten ein, so werden die Bilder mit minimalem Abstand zwischen einander ausgegeben.
Beweisen kann ich sowas natürlich nicht. Ich kann aber dennoch mehr, als "Selten so einen Schwachsinn gelesen" schreiben und mir Gedanken machen.

edit:
Natürlich hast du Recht was die Framerate betrifft: Es muss ja nur in jedem fünften Fall die Prognose stimmen, um die Framerate um 20% zu erhöhen etc.
Insofern ist ein Performance-Zuwachs zu messen; das was gefühlt ankommt, ist allerdings weit weniger, gerade, wenn die Abstände zwischen den Bildern größer werden -> niedrige Framerate.
 
Zuletzt bearbeitet:
Deine Argumentation ist nicht ganz schlüssig. Die Frames haben durchgängig diesen unregelmäßigen Abstand. Würde ja nach deiner Begründung bedeuten das jedesmal ein "Frame verworfen" würde.

1 GPU: B-25ms-B-25ms-B-25ms
2 GPU ideal: B-12,5ms-B-12,5ms-B
real: B-20ms-B-5ms-B-20ms-B-5ms

Bild verwerfen: B-12,5ms-B-25ms-B-12,5ms-B-12,5ms

Zum Thema vorberechnet:
Da wird nichts vorberechnet aufgrund von Schätzdaten. Das bezieht sich nur auf die Berechnung vor der Bildausgabe.
 
Zuletzt bearbeitet:
Wie erklärst du dir dann die Unregelmäßigkeiten bei der Bildausgabe? Delay? Wenn ja - warum? Schlechter Scheduler, also reines Software-Problem?
Zur Vorberechnung: Was meinst du mit "bezieht sich nur auf die Berechnung vor der Bildausgabe"? Es wird klar ein Prerender Limit definiert, das unter DX9 noch bei maximal drei lag - drei Frames (und seit DX10 wohl beliebig angehoben werden kann (?)).
 
Zurück
Oben