News Radeon Pro Duo 2.0: Dual-Polaris und 32 GB GDDR5 für 1.000 US-Dollar

@CB
Solltet ihr ein Exemplar bekommen, könnt ihr bitte ein paar Tests damit machen und veröffentlichen - evtl. auch Spiele?
Ich muss zugeben, dass ich nach den ganzen Posts zum Nichtprofessionellen Bereich des Spiele spielens doch etwas neugierig geworden bin.
 
Zuletzt bearbeitet:
wäre ich auch dafür. Wenns ie genauso gut performt wie 2 580X nur mit doppelten VRAm wäre das für mich sogar ne geile Karte ;)
 
Die gibt's doch schon.. Nur Games eben noch nicht

Weil diese Anwendungen eben auch keine komplexen 3D Engines sind. Denn bei komplexeren 3D engines wird es sehr schnell problematisch (schwer zu programmieren und selbst im optimalfall wird die Performance nicht ssoo gut sein) für eine gleichmäßige Aufteilung der Daten sowie der Rechenoperationen zwischen den GPUs zu sorgen und all das mit einem minimalen Kommunikationsoverhead. Diesen Programmieraufwand macht sich niemand für diejenigen 0.1 \% aller Spieler, die mehr als eine GPU im Rechner haben. Bei einfacheren Anwendungen, wie zum Beispiel einem einfachen 3D Volumenrenderer, sieht die Sache schon wieder ganz anders aus. Für solche Fälle gab es übrigens bereits Anwendungen mit Multi-GPU-Support und "sich addierendem VRAM", bevor es überhaupt diese Low-Level-APIs gab.
 
Zuletzt bearbeitet:
Hopsekäse schrieb:
Weil ich im HPC-Bereich tätig bin (...)
Bei uns im HPC-Bereich ist Speicherlokalität täglich Brot und das Thema geht da weit über 1-2 GPUs und Speicherpools hinaus. Und da gilt einfach: Wenn man etwas nicht aus irgendwelchen Gründen auf 2 Knoten mit 2x Speicher aufteilen MUSS, dann lässt man das am Besten auch. Denn dann bleibt man weniger äbhängig davon, ob und wie sich die Anwendung diesbezüglich verhält.

Das hört sich aber nicht nach HPC an. Selbst auf dem Cluster unserer Uni laufen äußerst selten Programme mit nur einem Node. Bei den größeren Rechenzentren, wo ganze Institute, mehrere Unis oder Unternehmen etc. pp. kooperieren, ist das noch viel seltener der Fall.

In großen Clustern hängen häufig sowieso Dual-GPU-Karten. Die main-GPU-Partition selbst bei unserem "kleinen" Uni-Cluster (der nur unserer Uni gehört und auch ausschließlich exklusiv von uns genutzt wird) hat auch etwas mehr als 100 K80-Dual-Teslas. Einfach weil Platz/Kühlung/Stromverbrauch bei Dual-GPUs - da sie nur einen Slot brauchen - viel attraktiver ist, als viele einzelne dicke Karten.

Ich kenne kaum Anwendungen im HPC-Bereich, die nur auf einem Node bzw. nur einer GPU laufen. Ob das Klimasimulationen, Sternimpolosionen, Materialsimulationen, Teilchenphysik, Genomsimulationen, Machine Learning Modelle, oder oder oder sind.

Die Parallelisierung ist da auch i.d.R. nicht besonders schwer, denn HPC-Cluster sind ja vornehmlich für zwei Dinge im Betrieb: Cloud-Computing oder wissenschaftliche Berechnungen. Ersteres ist schon von seiner Natur aus ein verteiltes, paralleles System und letzteres birgt auch immer komplexe Probleme, die in Teilprobleme zerglegbar sind.

Selbst auf unserem kleinen Uni-Cluster laufen die Klimamodelle der Meteorologen i.d.R. mit 64-256 Nodes, wobei das je nach Partition Dual- oder Quad-Sockel-Nodes mit jeweile 8 bis 16 Core Xeons sind.

Ich bin im Bereich AI/Machine Learning unterwegs. Dort hatte ich bis jetzt auch nie Probleme, Dual-GPUs zu nutzen, denn entweder handelt es sich um ein komplexes Modell, was viel Rechenzeit benötigt, dann kann ich bedingt durch die große Architektur bei z.B. neuronalen Netzen eigentlich immer starke Zusammenhangskomponenten modellieren und damit ein großes Netz in kleinere Teile splitten, die dann jeweils auf eine GPU geschoben werden...oder ich habe eben keine besonders komplexen Simulationen, weil ich nur mal kleinere Optimierungen vornehme...dann möchte man als Wissenschaftler aber definitiv immer verschiedene Optimierungen testen, was viele kleine Experimente bedeutet...und ob ich dann 16 Nodes allokiere mit je einer GPU wo dann 16 verschiedene kleine Experimente laufen, oder 8 Nodes mit Dual-GPUs, wo dann eben jeweils 2 kleine Experimente parallel pro Node arbeiten, ist mir vollkommen Wumpe. Das kostet mich ja auch kaum Aufwand, außer minimale Anpassungen in den Slurm-skripten die meine Simulationsskripte aufrufen.


EDIT: Das Einzige, wo imho 1x32 GB wirklich deutlich cooler als 2x16 GB im HPC-Bereich ist, ist wenn ich möglichst komplexe Dinge pro GPU berechnen will: die VRAM-Kapazität pro GPU limitiert mir in meinem Machine Learning Fall die sinnvolle Größe, die ein Teilnetz haben kann. Für sehr komplexe Probleme möchte ich aber auch recht große Teilnetze habe. Wenn die Teilnetze zu klein strukturiert werden, müssen ansonsten natürlich in der Tat ewig viele Daten ständig synchronisiert werden, dann dauert die Simulation durch den Datentransfer Ewigkeiten oder die Ausdrucksmächtigkeit meiner Modelle sinkt, weil die größe meiner Teilnetze beschränke...

...16GB pro GPU ist ja aber bis auf die seit "kurzem" verfügbare P6000 eine ganze Zeit lang das Maximum an VRAM pro GPU gewesen. Insofern sehe ich das für eine ~1000 Eur Karte nicht gerade als Problem an. Das ist imho für die Preisregion sogar ziemlich gut.
 
Zuletzt bearbeitet:
2010 ... irgendwo im Netz: http://www.tomshardware.com/reviews/amd-crossfire-nvidia-sli-multi-gpu,2678.html

Multi-GPU beschreibt hier SLI und CF

Mega-Bryte schrieb:
?.!

Zwei GPUs auf einer Platine ... das war schon zu Voodoo-Zeiten so beim alten SLI

zwei GPUs auf einer Platine sind im Falle von Nvidia nunmal SLI (egal welches)

Che-Tah schrieb:
@Mega-Bryte: Darf ich Fragen wofür du deine 9 (3x3) Monitore verwendest?

Aktuell zur Darstellung größerer Zeichungen mit vielen Details, ohne immer schieben zu müssen (Pan) und gerne auch mal für ne Runde WoTanks oder WoWarships, 5040x3150x32bit@60Hz ... besser als FullHD oder 4K ^^ auch mit den Bildschirmkanten, die fallen nach ner Weile kaum mehr auf.

Mracpad schrieb:
CF und Multi-GPU sind zwei verschiedene paar Schuhe. Die Pro-Duo ist eine Multi-GPU Karte. Crossfire(X) ist wie beide SLI Varianten und AMR ein Werkzeug das erlaubt zwei GPU "wie eine einzelne zu verwenden" um die Leistung zu erhöhen. Das kann man mit der Pro Duo zwar machen, muss man aber nicht.

Radeon Pro Duo: http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_pro_duo/s01.php

Komisch, genau dasselbe ist es, wenn ich 4WaySLI mache, dort werden die SLI-Bridges genau wie bei einem Verbund aus zwei GTX590 oder 690 oder Titan Z oder auch 9800X2 gesteckt ... man verbindet jeweils zwei Karten und dann von jedem virtuellen X2-Gespann eine Karte mit einer des zweiten virtuellen X2-Gespanns

MultiGPU ist dasselbe, wie SLI. Und so wie ich das ursprünglich schrieb, war es das auch schon zu Zeiten des alten SLI von 3dfx, dass eine andere Bilddarstellung nutzte, als sie heute gebräuchlich ist.

Mracpad schrieb:
Edit: was soll das denn werden, ein Schwanzvergleich? Mein erstes 3DFX SLI bestand aus Voodoo 2 Karten, mein erstes Crossfire Setup aus zwei 3870x2 Karten, die wegen der beschissenen Skalierung durch eine einzelne 4870x2 ersetzt wurde. NVIDIA SLI hatte ich noch nicht, denn ich hatte nur eine einzelne 8800er GTX. Und jetzt? Was hat das mit dem Thema zu tun? Multi-GPU ist nicht gleich CF oder SLI. Und auch ohne CF/SLI/AMR lassen sich mehrere GPU gleichzeitig verwenden, nicht nur abwechselnd.

Schön das du dich mit der Technik beschäftigst, aber die Aussage "Die Pro Duo sei ein CF" wird dadurch nicht richtiger.

@fat: Widerlegung siehe Aussage zu Mracpad

"Pro Duo kein CF" ... die erste Pro Duo, die hier besprochen wird, ist eine CF-Karte, sie ist die Nachfolgerin der R9 295 X2 http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_pro_duo/s01.php und die 2.0 ist deren Nachfolgerin.
 
@Mega-Bryte: Es ist doch imho recht unerheblich, ob man beide GPUs per CF für Grafikoutput nutzen kann. Müssen tut man das bei NVIDIA/SLI nicht und es würde mich wundern, wenn es da bei AMD einen Zwang geben würde. Also zumindest für Compute-Applications. Die meisten Compute-Workstations sind sowieso headless linux - also Terminal only ohne überhaupt einen X-Server.

Damit kann man dann komplexere Sachen auf mehren GPUs parallel berechnen lassen und den VRAM entsprechend voll ausnutzen. Oder halt mehrere kleinere Simulationen parallel laufen lassen..
 
ascer schrieb:
@Mega-Bryte: Es ist doch imho recht unerheblich, ob man beide GPUs per CF für Grafikoutput nutzen kann. Müssen tut man das bei NVIDIA/SLI nicht und es würde mich wundern, wenn es da bei AMD einen Zwang geben würde. ...

Wenn du meine Posts durchliest, wirst du genau diesen punkt auch finden: 25.04.2017 13:36h (almost leet time ^^ )

Mega-Bryte schrieb:
Meine GTX590 ist auch eine Multi-GPU, die ich im SLI betreiben "kann", aber nicht muß. Ich kann genauso gut auch den SLI-Betrieb der Karte in sich auch aufheben und habe so zwei Karten mit je zwei Monitoranschlüssen und 3D wird dann halt nur auf GPU A oder B berechnet, je nach Auswahl. Die zweite GPU bleibt dabei "ungenutzt". ...
Ergänzung ()

Krautmaster schrieb:
@MegaByte

Bei Computing und FEM sicher, mir gings aber rein um die 3D Engine als Visualisierung.

deshalb erwähnte ich ja auch Maximus:

Mega-Bryte schrieb:

damit entscheidet der Treiber, wer die Arbeit übernimmt. Vorausgesetzt, man probiert einfach mal mit ein wenig Geld aus. In der Bucht gibt es ältere Teslas für nen schmalen Taler

Teilweise sogar eine K5200 plus eine K... tesla für 700€

Alternativ, wenn da nicht mehr viel Platz ist, gibt es ja auch ältere Quadro Plex, die nur eine Hostcard im PC brauchen und wie eine USV neben dem PC stehen.
 
Die Preise für solche karten werden wohl nicht sonderlich fallen mit der Zeit oder?
 
Meinst du die Tesla oder die gerade NEU vorgestellte Pro Duo 2.0? Alte Tesla bekommst du ab knapp unter 100€ ... 1060C oder sowas. Die neue Pro Duo 2.0 wird so schnell wohl nicht billiger werden.
 
ja die neue hier. würde gern mal testen wie sowas beim Gamen performt und was OC technisch geht. denke mit Wakü kann man da sicher bisschen was rausholen.
 
Sunjy Kamikaze schrieb:
ja die neue hier. würde gern mal testen wie sowas beim Gamen performt und was OC technisch geht. denke mit Wakü .

Würd mich wundern, wenn es da schon nen Wakü-Baustein gibt. Kannst dir ja den Vorgänger mal auf Tweakpc anschauen, dann bekommst du evtl. eine Vorstellung, was mindestens geht. Schau mal in meinen letzten Posts hier im Thread, da hab ich die verlinkt.

Hier: http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_pro_duo/s01.php
 
Ach Mega-Bryte, versuch doch nicht irgendetwas zu belegen was einfach nicht stimmt. Auch wenn der Einfachheit halber SLI / CF und Co. im Gamingsprachgebrauch mit der Verwendung mehrerer GPU gleich gesetzt wird ändert das doch nichts am technischen Hintergrund.

CF ist nicht gleich AMR ist nicht gleich NVIDIA SLI ist nicht gleich MultiChrome ist nicht gleich 3dfx SLI ist nicht gleich BitFluent.

Das alles sind Verfahren die es ermöglichen mehrere GPU gemeinsam eine einzelne Aufgabe bearbeiten zu lassen.

Ohne "Multi-GPU" also kein CF und Co. Das gilt aber nicht im Umkehrschluss, denn mehrere GPU können auch sinnvoll genutzt werden ohne auf ein solches Verfahren zurück zu greifen. Hier zwei simple und belanglose Beispiele aus der Praxis:

Die iGPU des i7 2600K zaubert einen Southpark Marathon auf den TV während ich und meine Fury am Bildschirm Fallout daddeln.

Eine HD 7970 vergnügt sich mit Bitcoin Mining während die GTX 970 einen Steckplatz weiter für Multiplayeraction in Battlefield 4 sorgt.

Diese und ähnliche Anwendungsmöglichkeiten bieten sich auch mit zwei baugleichen Grafikkarten oder einer einzelnen Karte mit zwei GPU, auch wenn sie nicht zu diesem Zweck hergestellt wurden. Du hast doch selbst geschrieben dass du dir darüber im klaren bist dass deine GTX 590 nicht zwingend SLI verwenden muss. Das gleiche gilt für die Pro Duo und CF.
Wieso willst du dann trotzdem auf die Richtigkeit der Äusserung "Die Pro Duo IST ein CF." bestehen?


Fun fact edit: Die GTX 590 ist gemäß der NVIDIA eigenen Definition keine Multi-GPU und NVIDIA Multi-GPU Systeme unterstützen offiziell kein SLI.
 
Zuletzt bearbeitet:
Und der nächste der redaktionelle Ungenauigkeit in einem Artikel mit technischen Spezifikationen gleich setzt. Wenn man ein "können" hinten dran hängt, stimmt es ja sogar.

Je nach Zusammenhang ist an der Behauptung, die Pro Duo sei eine CF Karte ja auch garnichts auszusetzen.
Sie ist bestimmt AMD Crossfire Technologies ready. Das ist meine R9 Fury allerdings auch.
 
isi2211 schrieb:
Die Radeon Pro Duo 2.0 ist eine CF Karte!
"AMD nutzt vollwertige P20 mit je 2.304 Rechenkernen, die auf einer Platine sitzen und in einem Crossfire-Verbund arbeiten. "

->https://www.golem.de/news/radeon-pr...karte-mit-zwei-polaris-chips-1704-127456.html

update;

" im Profi-Bereich und unter einigen VR-Anwendungen manchmal sogar als kompletten 32-GB-Speicher nutzen, regulär verhält sich die Karte aber natürlich "nur" wie ein 16-GB-Modell."

->https://www.3dcenter.org/news/amd-stellt-eine-neue-radeon-pro-duo-mit-zwei-polaris-10-chips-vor
 
Zuletzt bearbeitet: (u2d)
Sorry, aber ab Sätzen wie "die neue Radeon Pro Duo (für einen abweichenden Namen war offenbar kein Geld mehr da)" höre ich in der Regel auf zu lesen - egal ob AMD, Nvidia oder Intel.
In einer objektiven und nicht wertenden Berichterstattung sollte sowas nicht vorkommen.
 
diesen Satz fand ich auch wirklich nicht toll und vor allendingen nicht seriös! Hätte man weg lassen sollen (müssen).
Aber man geht doch nicht jedesmal zum Lachen in den Keller...... ;)
 
isi2211 schrieb:
update;

" im Profi-Bereich und unter einigen VR-Anwendungen manchmal sogar als kompletten 32-GB-Speicher nutzen, regulär verhält sich die Karte aber natürlich "nur" wie ein 16-GB-Modell."

->https://www.3dcenter.org/news/amd-stellt-eine-neue-radeon-pro-duo-mit-zwei-polaris-10-chips-vor

Selbstverständlich stehen im CF Betrieb nur 16 GB Speicher zur Verfügung. Mit meiner Bemerkung das dem eben nicht grundsätzlich, sondern im CF Betrieb so ist hat diese unsägliche Diskussion über "die CF" Karte ja begonnen. Das Speicherverhalten im CF war auch von Anfang an klar und niemand hat versucht das zu bestreiten.
 
nichts desto trotz würde ich sagen das diese Karte genau richtig Positioniert wurde und genau das ist was sie verspricht; nämlich eine Entwicklerkarte für VR etc. und für diesen Preis ist sie eine mehr als gelungenes Update....
 
Dann ist ja gut das es eben keine explizite CF Karte ist, denn dann wäre sie schließlich für den angestrebten Zweck ungeeignet. ;)
 
Zurück
Oben