News Ares IV: Asus soll an einer Dual-GPU-Grafikkarte mit Vega arbeiten

@Hito360
Wenn ich mich recht erinnere wurde vor einiger Zeit angestrebt durch DX 12 sogar Nvidia und AMD-GPU`s im Verbund arbeiten zu lassen. Bis heute habe ich da aber keine großartigen Neuigkeiten dazu gelesen.

b2t.
Ich fand diese ganz speziellen Dual-GPU`s immer sehr interessant.
Die liegen allerdings preislich entweder weit weg von dem, was ich bereit bin in Hardware zum spielen zu investieren oder sind generell sinnlos (wie diese Dual GTX 760 Karte, den es vor einigen Jahren gab.)

Würde ich mir daher nicht kaufen, hat aber einen netten "exotischen" Show Effekt und ich sehe mir gerne passende Systeme und Benchmarks dazu an. :)
 
Bis auf ME:A hab bisher eigentlich ziemlich alles gut mit CF zum Laufen bekommen, bei 1-2 Spielen musste ich weils kein Profil gab durchprobieren aber lief dann auch mit allgemeinen Einstellungen. Hängt immer von den Entwicklern der Spiele ab wieviel ein CF-Profil anpassen muss oder nicht. Meist betrifft es Effekte oder HUD.
1 GPU alleine hat für mich nie genug Leistung da ich wo immer es geht in 3D zocke.

Bisher habe ich aber dann doch lieber zu 2 GPUs statt einer Dual gegriffen.

Zurück zun Thema: Hab ich das richtig verstanden das hier als News wieder über etwas berichtet wird was es vermutlich nie geben wird? ;)
 
paul1508 schrieb:
Wobei hier nur das (schlechte) alternate Frame rendering genutzt werden kann was praktisch kaum Vorteile gegenüber Single Gpu bringt... Wenn vorher ein Frame 16 ms gebraucht hat (man also effektiv nur 60 fps hatte), dann braucht es damit auch 16 ms. Nur bekommt man von zwei GPUs die Bilder und verdoppelt (im besten Fall) seine fps. Die Verzögerung zwischen Mausbewegung und Anzeige wird aber nicht geringer. Eine Signle GPU welche 120 fps schafft (im Vergleich zu Dual-GPU 120 fps) hat wirklich nur 8 ms zwischen Eingabe und Ausgabe. 120 fps Single-GPU sind somit besser als 120 fps Dual-GPU.

Das gilt dann aber wohl nur, wenn man mit der Eingabeverzögerung bei 60fps nicht zufrieden ist. Wenn man wie ich auch mit der Eingabeverzögerung bei 40fps leben kann (weil man z.B. keine kompetitiven multiplayer shooter spielt), dann würde man mit den 120fps wohl immer noch ein deutlich geschmeidigeres Bild bei ausreichender Eingabeverzögerung erhalten, oder?
 
Der Thread zur alten 6800 Dual ist gut :D
Voll Krass 2 mal 512 mb Speicher... der Verbrauch dann mehr als 75 Watt usw.

2030 denken wir hier dran zurück. Nur 2 mal 8/16 GB Speicher, nur 350 Watt Verbrauch, nur 25 Mrd. Transistoren :)

Wird wohl ein prestige Monster im Bereich 2000 Euro, die Leistung könnte sehr interessant werden.
 
tobi14 schrieb:
Crossfire und SLI ist so was von tot!

Also SLi war schon mal tot und kann ein paar Jahre später zurück...
 
Ich dachte CF wäre tot...
Das war noch nie am Leben, SLI genau so.

Mit einer Wasserkühlung könnten wenigstens die Temps unter Kontrolle bleiben. Mit einem 1000-1500Watt NT ist die Stromversorgung dann auch kein Problem mehr.

Um was wetten wir das die 2x8GB VRam verbauen, anstatt 2x16GB quasi ordentlich. Das wird wieder ein Bauernfänger deluxe.

Es sei denn man ist miner, dann könnte es tatsächlich interessant werden.
 
KarlKarolinger schrieb:
Wenn man wie ich auch mit der Eingabeverzögerung bei 40fps leben kann (weil man z.B. keine kompetitiven multiplayer shooter spielt), dann würde man mit den 120fps wohl immer noch ein deutlich geschmeidigeres Bild bei ausreichender Eingabeverzögerung erhalten, oder?
Ob ein Spiel Eingaben verzögert annimmt oder nicht liegt nur am Spiel selbst, wenns sauber programmiert ist verzögert es nichts (außer die CPU ist überlastet). Ich zumindest lass meine Eingabegeräte nicht über die GPU laufen.
Aber die Gamer von heute glauben immer noch das Spiele physikalisch falsch programmiert wären nur weil die Q3A Engine so war x)
 
Ozmog schrieb:
War ein Dual-GPU-Betrieb durch DX12 nicht schon möglich? Also abseits von CF und SLI...
Das meine ich auch...

Hito360 schrieb:
DX12+Vulkan sind nicht der eigentliche Grund warum man multiGPU nicht mehr direkt unterstützen muss?
Anders: Wegen mGPU unter DX12 ist CF und SLI eigentlich überflüssig. AFAIK

paul1508 schrieb:
Die Verzögerung zwischen Mausbewegung und Anzeige wird aber nicht geringer. Eine Signle GPU welche 120 fps schafft (im Vergleich zu Dual-GPU 120 fps) hat wirklich nur 8 ms zwischen Eingabe und Ausgabe. 120 fps Single-GPU sind somit besser als 120 fps Dual-GPU.
Die Eigabeverzögerung muss man doch seperat betrachten. Also der 'Input-Lag' plus der Zeit die eine Graka nach der Eigabe bis zur fertigen Berechnung und Ausgabe des Bildes benötigt (Frametime)

Xes schrieb:
@Hito360
Wenn ich mich recht erinnere wurde vor einiger Zeit angestrebt durch DX 12 sogar Nvidia und AMD-GPU`s im Verbund arbeiten zu lassen. Bis heute habe ich da aber keine großartigen Neuigkeiten dazu gelesen.
Es gab sogar schon einen Test wo eine nVidia und eine AMD Karte im Teamwork gearbeitet haben. Finde den auf die schnelle leider nicht.


BTT
Ich gehe auch davon aus, daß es wie bei der Dual-Nano aka. ProDuo gehandhabt wird. Die Nano hatte das aggressivere Powertarget als die Furys, weswegen sie eine deulich niedrigere Leistungsaufnahme hatte.
Die Nano ist wie festgenagelt auf 175W, so die ProDuo mit maximal 350W.

Wenn Asus sich dessen auch bedient, wird die Leistungsaufnahme geringer als die kolportierten 375W.. grob mal 2.
Ist aber pure Spekulation, mal sehn' was Asus da raushaut.
 
Vielleicht ist das vielleicht was für VR? Jede der beiden GPUs berechnet ein Bild in voller Auflösung das perspektivisch um die Pupillendistanz versetzt ist. Dann wäre so eine Karte annähernd doppelt so schnell wie eine Single GPU Karte.
 
Kasmopaya schrieb:
Mit einem 1000-1500Watt NT ist die Stromversorgung dann auch kein Problem mehr.
Wieso sollte das ein Problem sein, 2 R390X kann man auch betreiben ohne Probleme, die brauchen auch nicht weniger
 
species_0001 schrieb:
so ne Karte macht total Sinn, wenn AMD und nvidia CF/SLI in der Treiberentwicklung praktisch aufgeben. :rolleyes:
https://www.3dcenter.org/news/nvidias-sli-und-amds-crossfire-sind-faktisch-geschichte

Sporck schrieb:
Ich dachte CF wäre tot... :D

Ozmog schrieb:
War ein Dual-GPU-Betrieb durch DX12 nicht schon möglich? Also abseits von CF und SLI...

Hito360 schrieb:
DX12+Vulkan sind nicht der eigentliche Grund warum man multiGPU nicht mehr direkt unterstützen muss?

Genau so ist es. DX12 und Vulkan haben eh multi GPU Support.

Sli und Crossfire sind tot - Es lebe Multi-GPU! :lol:
 
Man kann auf jeden Fall sagen, dass CF und SLI (oder generell Multi-GPU) vor einem Neuanfang stehen. Ob es besser oder schlechter wird, oder überhaupt weiter geht, bleibt abzuwarten.
Das macht es zu einem ziemlichen Glücksspiel, sich jetzt so eine Karte zu kaufen. Jedenfalls, wenn man damit spielen will.
 
Pah, gegen eine echte Quad-GPU-VSA100 (alias 3dfx Voodoo 5 6000) hat die doch eh keine Chance. :cool_alt:
 
KarlKarolinger schrieb:
Das gilt dann aber wohl nur, wenn man mit der Eingabeverzögerung bei 60fps nicht zufrieden ist. Wenn man wie ich auch mit der Eingabeverzögerung bei 40fps leben kann (weil man z.B. keine kompetitiven multiplayer shooter spielt), dann würde man mit den 120fps wohl immer noch ein deutlich geschmeidigeres Bild bei ausreichender Eingabeverzögerung erhalten, oder?

alxtraxxx schrieb:
Ob ein Spiel Eingaben verzögert annimmt oder nicht liegt nur am Spiel selbst, wenns sauber programmiert ist verzögert es nichts (außer die CPU ist überlastet). Ich zumindest lass meine Eingabegeräte nicht über die GPU laufen.
Aber die Gamer von heute glauben immer noch das Spiele physikalisch falsch programmiert wären nur weil die Q3A Engine so war x)

Es geht hier nicht um die Eingabeverzögerung. Es geht um die Dauer zwischen Eingabe und Ausgabe (beim PC), also wie lange die Grafikkarte braucht um das Bild zu rendern. Die Eingabeverzögerung ist dem noch vorzuschalten.

Ehrlich gesagt ist es eine Geldfrage --> Wenn du 800 € ausgibst um zwei 1070 SLI laufen zu lassen um damit 120 fps zu erhalten, würde ich eher empfehlen eine 1080 zu kaufen und damit beispielsweise 90 fps zu bekommen. Diese 90 fps sollten sich "smoother" anfühlen (ja ich sag dezidiert anfühlen, weil das eben auch nicht nur sehen ist, sondern auch ein Gefühl... man bekommt mit wie schnell die Mausbewegung die man gerade gemacht hat in Bilder umgesetzt wird, wer das nicht versteht soll mal Dead Space 1 mit vsync spielen.)
Außerdem kann man auch sagen -> 1x1070 mit gsync ist in manchen Anwendungsfällen smoother als 2x1070 mit "normalen" Monitor.

Was ich damit sagen will -> Wie flüssig ein spiel läuft kann man nicht mit einer einzigen Zahl beschreiben. Es kommen viele Faktoren zusammen. Es galt eigentlich immer schon, dass die nächstbessere Single-GPU immer die bessere Wahl gegenüber einem Multi-GPU Setup ist. Das geht so lange, bis man bei der stärksten, also der 1080 Ti ist. Wenn man noch mehr Leistung braucht, kann man sich über Multi-GPU Gedanken machen. G-sync und freesync helfen aber auch in einigen Fällen es "smoother" zu machen ohne wirklich mehr Leistung zu haben.
 
Zuletzt bearbeitet:
Mein CF System damals mit 2x RX380 war genau 3 Tage im Rechner... Wer sich mit Microrucklern rumärgern und bei jedem Spiel Profile anpassen will viel Spaß. Am Besten dann gleich auf Linux zocken...

Um DX12 und Multi GPU wurde es sehr ruhig in letzter Zeit... Wohl aus gutem Grund...

Die Karte hat dann 4x8 Pin Stecker? ^^
 
frag mich halt echt, ob die dann zum minen auch taugt, sprich ob man dann die rechenleistung von 2 gpus entsprechend abrufen kann ohne verluste etc. kenn mich da net aus. wäre aber interessant zu wissen :D weil das teil wäre ja dann n echtes mining monster (vega soll ja sehr gut zum minen sein... deswegen wohl auch diese vegabundles weil gamer sonst evtl leer ausgehen)
 
Ich warte ja immer noch darauf, dass, wie von so vielen hier prophezeit wurde, mit DX12 und Vulkan Multi-GPU endlich so richtig durchstarten und sich der DRAM bei Multi-GPU endlich addieren wird. :rolleyes:
 
Hi

Die Karte ; sofern sie den je kommt , ist doch nur ein Vorzeigeobjekt.
Ich hätte aber nicht gedacht dass sowas von Asus kommt,
ich hatte eher eine Vega Devil 13 auf der Liste.

Zu Crossfire Thematik:

Nach Vega wird es absolut keinen Grund mehr geben für Crossfire.
Navi wird ein Multi GPU Package nach Ryzen Vorbild.
58295_06_nvidia-shift-multiple-gpus-future-geforce-cards.png

MfG
 
Eigentlich war Powercolor bisher immer der Hersteller, der gerne auch Dual GPU Karten im Programm hatte, zum Beispiel diese Devil Karte. Daher fand ich es schon erstaunlich, dass ASUS da jetzt auch einsteigt und nebenher eben auch als einziger Hersteller auf Mining ausgerichtete Karten (mit doppelkugelgelagerten Lüftern) anbietet.

Es wird wohl von Seiten AMDs keine großartige Treiberseitige Unterstützung für CrossFire mehr geben, so dass das dann primär von den Spiele-Entwicklern ausgehen müsste, aber unterstützen werden RX Vega Karten weiterhin den CF-Modus.

Bei dem absehbaren Ansturm auf die RX Vega GPUs (und evt. von Beginn an deutlich höher angesetzte Preise) dürfte es möglicherweise nicht einfach werden 2 oder gar 3 Karten für eine CF-Konfiguration ab zu bekommen.
 
Vega unterstützt doch Infinity Fabric.
Wäre dann eine RX Vega Dual GPU überhaupt auf Crossfire angewiesen, wenn beide GPU's über Infinity Fabric kommunizieren?
Ist eigentlich bekannt, wie die Zen Kerne bei Threadripper untereinander kommunizieren? Läuft das auch über Infinity Fabric?
 
Zurück
Oben