News Radeon Pro Duo: AMDs Dual-Fiji-Grafikkarte im Detail fotografiert

Darkscream schrieb:
Schön und gut, aber sollte AMD sich solch offensichtliche Ladenhüter nicht gleich sparen. Ist doch wahr, so viel Rechenpower bei so wenig Vram muss doch am Markt vorbei gehen. Einzige Zielgruppe wären wohl Leute mit 144Hz Monitoren bei wenig Auflösung.

Erstens, AMD hat von Anfang an kommuniziert, dass diese Karte an VR-Entwickler gerichtet ist und nicht an Spieler.
Zweitens, die 4GB HBM sind im Moment kein Flaschenhals, solange du nicht nachweislich keine Glaskugel zu Rate ziehen kannst du dir solche Kommentare komplett sparen.
 
Darkscream schrieb:
Schön und gut, aber sollte AMD sich solch offensichtliche Ladenhüter nicht gleich sparen. Ist doch wahr, so viel Rechenpower bei so wenig Vram muss doch am Markt vorbei gehen. Einzige Zielgruppe wären wohl Leute mit 144Hz Monitoren bei wenig Auflösung.

Keine Tests gelesen?
Ausserdem bin ich recht froh darüber, dass AMD selber Entscheidet, wann, wie und wo welche Grafikkarte auf den Markt kommt.
Ich denke mal, sie Wissen was sie tun.
 
Warum lese ich immer "alte" Berichte?

Videocardz hatte das schon vor 2 Tagen gepostet - aber egal - wenigstens mal eine Info.
 
Mein Gott, in jedem Beitrag der letzen Wochen immer wieder das RAM geblubber. Dass man HBM nicht mit GDDR5-Speicher gleich setzen kann, weiß jeder der die Tests zu den Fury-Karten gelesen hat.
Diese Dual-Karten scheinen sich irgendwie zu lohnen sonst würde diese Karten nicht immer wieder erneut vor einer neuen Generation auf den Markt kommen.

Und da die VR-Entwickler genau jetzt die Leistung brauchen und nicht erst 2017, macht es wohl Sinn und bei solchen Entwicklungen wird es wohl nicht an Geld für 1-2 Dualkarten hängen.
 
Darkscream schrieb:
Ich meine ja nur das es aus finanzieller Sicht ein minus Geschäft wird was sich ein finanziell angeschlagener Konzern wie AMD sparen sollte.

Ich glaube nicht, dass du in der Position bist, das entscheiden zu können.
 
D708 schrieb:
Die Karte ist nur für VR gedacht.

Die Karte ist nicht nur allgemein für VR-gemacht, AMD bietet VR-Enteickler Komplett-Systeme mit dieser Grafikkarte an. Das sollten die meisten mittlerweile mitbekommen haben. Aber offensichtlich nicht, wenn man Threads über die Pro Duo verfolgt.
(Kritik ist nicht an dich sonderen andere hier im Forum gerichtet)

fury-x2-vrla-amd-tiki-635x356.jpg


Laut Gerüchten soll das Setup ziemlich beliebt sein und aktuell gibt es keine schnellere Lösung für VR, außer SLI, Crossfire Setups.
 
Stromfresser pur :freak: 3 Stromanschlüsse? Finde auch das die Karte nicht viel auf dem Markt bringen wird.
 
Für VR evtl. interessant wenn jede GPU ein Bild rechnet. Wenn jedoch herkömmliches CF gemacht wird, wegen der 4GB eher uninteressant.

Dazu noch diese Kühlung... Ein 120er Radi für an die 500W ist ein bißchen knapp. Da kurbelt der Lüfter bestimmt unter Last mit über 2kUPM... Wenn Wasser dann auch bitte leise.
 
Die Karte ist für ENTWICKLER gedacht, nicht für den normalen Zocker.
Was ist daran eigentlich nicht zu verstehen?
 
Mit einem Single-Radiator? Das dürfte aber laut werden, wenn die nicht gedrosselt ist.
 
2160x1200 bei den aktuellen VR-Headsets, d.h. 1080x1200 pro Auge. Jeder Fiji-Chip dieser Karte braucht also nur eine Auflösung von 1080x1200 bei 90fps erreichen. Hier sind 4GB HBM je "Auge" doch ne starke Ansage, selbst wenn hier klar Ressourcen doppelt im Speicher liegen. In diesem Sinne wäre auch ein größeres Display, bspw. mit vierfacher Auflösung 5320x2400, bzw. 2160x2400 pro Auge noch gut bezwingbar.

Ich denke die Karte wird daher eher für VR-Entwickler ausgegeben, weil es (auch ohne diese Karte) zuwenige Konsumenten gäbe, die VR-Spiele mit diesem Leistungsprofil nutzen könnten. Die bisherigen Spiele müssen (mehr denn je) mit bereits existierender Hardware zurecht kommen, da die 90fps (bei der Vive und Rift) einzuhalten sind. Der Markt hat sich hier noch nicht entwickelt.
 
Candy_Cloud schrieb:
Für VR evtl. interessant wenn jede GPU ein Bild rechnet. Wenn jedoch herkömmliches CF gemacht wird, wegen der 4GB eher uninteressant.

Falsch, beim traditionellen AFR/Crossfire rechnen die GPUs abwechselnd an einer Bildfolge, rechnet jede GPU für sich gleichzeitig an jeweils einer Perspektive um beide Bilder möglichst zeitgleich auszugeben dann hat das herzlich wenig damit zu tuen.
 
Hito schrieb:
Daß, wie hier einige behaupten die Augen jeweils pro GPU ein Bild bekommen halte ich für extrem unwahrscheinlich. Dies bedarf einer extrem genauen Synchronisierung, denn Abweichungen kann man sich in VR nicht leisten.

Ist dafür nicht (unter anderem) LiquidVR gedacht?
 
Hito schrieb:
Daß, wie hier einige behaupten die Augen jeweils pro GPU ein Bild bekommen halte ich für extrem unwahrscheinlich. Dies bedarf einer extrem genauen Synchronisierung, denn Abweichungen kann man sich in VR nicht leisten, das bedeutet daß unter entsprechenden Bedingungen Bild1 und Bild2 nicht zusammenpassen - schrecklich für VR. Wenn überhaupt würden die Bilder von den GPUs abwechselnd gerendert werden.

Synchronisieren muss man so und so, dafür ist vsync da. Solange alles in den 11,11ms passiert die man bei 90FPS Zeit hat kriegt man davon nichts mit. Wenn man eine GPU hat wird auch erst ein Auge gerendert, zur Brille geschickt, danach das zweite gerendert und zur Brille geschickt.

Hier etwas Anschaulicher aus dem Vortrag von Alex Vlachos. http://www.gdcvault.com/play/1023522/Advanced-VR-Rendering

single.jpg
dual.jpg
 
Wadenbeisser schrieb:
@Hito
Für 2 Nanos brauchst du keine 3 8 poligen PCIe Strom Anschlüsse sondern nur 2, für 2 FuryX hingegen schon.
Zudem sehe ich bei der Synchronisation kein Problem wenn beide GPUs gleichzeitig mit dem Bild starten und es zusammen ausgeben wenn die letzte GPU ihr Bild berechnet hat.

sammelst du Posts mit dem Halbwissen? Niemand sieht ein Problem wenn die Karten immer auf die Millisekunde genau gleich schnell fertig sind. Nur ist das so gut wie nie der Fall, denn eine einzelne GPU alleine hat schon Schwankungen. Alleine schon mit dem GPUthrottling hast du genug Schwankungen. Man kann den Content nunmal nicht streamlinen.

Was du mit den Stromanschlüssen ansprichst ist ebenso löchrig: 2x FuryX brauchen 4 Anschlüsse. Und was macht das für einen Unterschied?
die Duo nimmt sich bis zu 525Watt? Spricht für ein erhöhtes Powertarget. Da muss auch besser gekühlt werden. Teufelskreis.

Es bleibt dabei: 2 Nanos kosten 998€ (oder weniger?), können leichter bessere Kühlung erreichen so daß der GPUtakt nicht mehr throttelt bei Dauerbelastung und fressen maximal 2x175W.

Nimmst ne EKWB Predator360 mit Schnellverschlüssen + 2 Nanokühler prefilled kommste aufs gleiche Geld.

Mehrwert: 2 superkühles Nano-Gespann welches selbst übertaktet nicht throttelt, 360er Qualitätsradiator = niedrige Lautstärke, 175Watt Stromersparnis*


​*da geht noch eine Nano!
 
Es bleibt dabei: 2 Nanos kosten 998€ (oder weniger?), können leichter bessere Kühlung erreichen so daß der GPUtakt nicht mehr throttelt bei Dauerbelastung und fressen maximal 2x175W.

Nimmst ne EKWB Predator360 mit Schnellverschlüssen + 2 Nanokühler prefilled kommste aufs gleiche Geld.

Mehrwert: 2 superkühles Nano-Gespann welches selbst übertaktet nicht throttelt, 360er Qualitätsradiator = niedrige Lautstärke, 175Watt Stromersparnis*

Bist Du von Beruf Milchmädchen?
 
Hejo schrieb:
Diese Dual-Karten scheinen sich irgendwie zu lohnen sonst würde diese Karten nicht immer wieder erneut vor einer neuen Generation auf den Markt kommen.

Und da die VR-Entwickler genau jetzt die Leistung brauchen und nicht erst 2017, macht es wohl Sinn und bei solchen Entwicklungen wird es wohl nicht an Geld für 1-2 Dualkarten hängen.

Das sehe ich auch so, sonst würde Crytek diese nicht ausschließlich für Ihre Entwickler-Hotspots geordert haben (wurde von AMD auf der GDC noch hervor gehoben). Natürlich spielt das Image ein wenig auch eine Rolle, die schnellste (wenn auch Dual-GPU) Grafikkarte auf dem Markt zu haben, aber dann hätte AMD wie ursprünglich angedacht die Karte auch zu Weihnachten im letzten Jahr heraus bringen können (trotz kurz davor berichtetem Leck bei der Kühlung), zumal die GTX 1080 evt. schon bald die Radeon Pro Duo als stärkste Karte ablösen wird. Ich freue mich schon auf die ersten Benchmarks :).

Es geht hier aber primär um eine Investition in die Zukunft, sich im VR Markt so früh wie möglich mit starker Präsenz auf zu stellen und als der Hauptlieferant für GPUs bei den VR Entwicklern zu etablieren, auch für die kommende, vermutlich weitaus lukrativere 2.VR Generation auf dem PC (nachdem die 1. PC VR Generation außerhalb von Enthusiasten/Early Adoptern und Angebern wohl eher preis-leistungs-technisch enttäuscht hat), die dann evt. den Massenmarkt dann abdecken könnte (wobei die Entwickler jetzt schon die stärkere Hardware in Form der Radeon Duo Pro brauchen, um für die höheren Auflösungen der 2. VR Generation vernünftig entwickeln zu können), wie es in der 1. Generation wohl nur Sonys PS VR schaffen können wird. Vergleichbar ist das wohl mit der bei den Konsolen erfolgreichen AMD Strategie, die letztendlich auch positive Auswirkungen auf PC Portierungen hat, da AMD GPUs davon im Endeffekt profitieren können.

Somit geht es m.E. für AMD nicht darum mit der Radeon Pro Duo kurzfristig große Profite zu erzielen, sondern um eine solide Basis für langfristige Profite im VR Bereich zu schaffen.
 
Dual können durchaus sinnvoll sein, vielleicht nicht für's Gaming aber in anderen Bereichen. Wenn man in einem Server nur begrenz Slots hat, können mehr Einheiten verbaut werden. Damit erhöht sich die Performance/Watt weil man sich Host Server spart und damit Energie.
 
@Hito
Wo du jetzt schon mit dem Punkt Halbweissen ankommst...
Ein 8 Pin PCIe Strom Anschluss ist für 150W da und weitere 75W kann der Slot liefern, damit kommen wir auf insgesammt 525W. Die Fury X hat ne TDP von 275W. Rein rechnerisch wären wir bei 2 Karten mit 550W. Das sind gerade einmal 25W mehr und das bekommt man beim gereiften Chip auch noch mit etwas Selektion und weniger Spannung hin.
2 Nanos haben je ne TDP von 175W und zusammen käme man auf 350W, dafür reichen auch 2 8 Pin Anschlüsse. Dieser werden in ihrer Taktfrequenz vor allem durch das Power Target.
Entfesselt man diese frißt sie ca. so viel wie die Fury X, was auch kein Wunder ist da dort der gleiche Chip wie bei der Fury X verbaut ist.
Deine nicht throttelnde Fury ist also nichts anderes als ne Fury X ohne Wasserkühlung, mit nem vergleichsweise schwachbrüstigen Spannungswandler und mit 50 MHz weniger Taktfrequenz auf der Uhr.
Dein 360er Radiator rundet den Punkt "Halbwissen" dann nochmal zusätzlich ab. Wieviele Gehäuse kennst du wo das Ding rein passt?
Das ist ein Massenprodukt und kein 0815 Bastelquatsch.

Dann weiter zum VR Part.
Der Schwerpunkt ist dort die Latenz und wann könnte die Latenz geringer sein als zu dem Zeitpunkt wo beide Bilder gleichzeitig fertig werden? Genau das soll aber beim klassischen multi GPU ums verrecken vermieden werden, Stichwort Bild Latenz und Mikroruckler.
 
Die stetige Annahme mancher User, dass die 4GB HBM der FuryX in 4K ein Flaschenhals sind geht mir auch verdammt auf den Sender.
Wer hat das je in einem Test nachweisen können? Und ich will hier nicht wieder den CB-Apfel/Birnen-Vergleich aufgetischt bekommen der lediglich GDDR5 Speicher abhandelt. Denn neben der Speichermenge sind auch Speicher-Verwaltung, -Anbindung, und -Komprimierungsverfahren relevant.
Ich habe es in den letzten Monaten nicht in einem einzigen Game unter 4K geschafft den Speicher auszureizen!
Nichtmal in The Division.

Ein Thread zu diesem Thema von PCGH wo ich aktiv war. Kp, aber nach meinem Vorschlag zu einem direkten Vegleich mit einem 980Ti User hat dieser den Schwanz eingezogen^^
 
Zurück
Oben