News Radeon Pro Duo 2.0: Dual-Polaris und 32 GB GDDR5 für 1.000 US-Dollar

Mracpad schrieb:
Nur bei CF, und dafür ist die Karte nicht gedacht.

Die Karte IST ein CF auf einer Karte. Also ist der Einwand der nicht kompletten Nutzbarkeit des doppelten Speichers richtig.

Auch die neuen APIs ändern daran nichts. Die ermöglichen es theoretisch, beide Speicher komplett unterschiedlich zu befüllen, aber zumindest mir wäre keine Multi-GPU-Umsetzung unter diesen APIs bekannt, die nicht dennoch einen Großteil der Daten in beiden Speichern braucht.
Bei AFR ist es offensichtlich unmöglich und bei SFR kenne ich auch keine sinnvolle Implementation, die die Redundanz auf den beiden Speichern nennenswert reduziert.
 
Langsam wird es albern. Nein, die Karte IST kein CF. :rolleyes:

Und wenn die GPU unterschiedliche Aufgaben bearbeiten wird auch der Speicher unabhängig benutzt.

As the performance of applications and processing technology advances, the industry continues to strive for the most photo-realistic designs possible. Designers who work on these projects usually alternate between creating their designs with one application, followed by a full render/ray trace cycle with another application, which can be time consuming and inefficient.

With the Radeon Pro Duo graphics card, designers can now simultaneously use two software packages, with one GPU dedicated to the functions of each application concurrently. Live content creation using the first GPU, with real-time rendering and/or ray tracing on the second GPU is now possible. The user can benefit from shortened design cycles or is now able to do more design iterations within the allotted design window for an overall better outcome.
 
Du meinst SFR ? und das ist in CIV BEYOND EARTH umgesetzt. Mit Mantle API hätte man hier volle Kontrolle.
Ich glaube kaum dass AMD hier eine Bremse ist.

Bin auch gespannt auf Vega, HBM Cache Controller und Fabric Bus. Bei AMD geht es speziell mit Navi Richtung Verbund von Chips und gemeinsamen Adressraum.

@Zockerkarte
Sry, aber wenn ich an einem Produkt arbeite, ist es eine Arbeit, auch wenn es ein Game ist.
 
Zuletzt bearbeitet:
Mit so viel Speicher lässt sich BO3 problemlos spielen
 
Ob das für Polaris nicht ein bisschen spät ist?
Mit VEGA wäre es mal was...


tmkoeln
 
tmkoeln schrieb:
Ob das für Polaris nicht ein bisschen spät ist?

Naja, wenn Du vom Vorgänger ausgehst (mit 2x Fiji Chips bestückt) dann war damals die semi-professionelle Dual-GPU Karte der letzte Vertreter mit Fiji GPUs und ich denke darauf wird es im großen und ganzen bei der neuen Radeon Pro Duo auch hinauslaufen, obwohl es evt. noch Rebrands von Polaris in Zukunft (unterhalb der aktuellen 70er Serie von AMD, im OEM Bereich etwa) geben könnte.

Vermutlich wird kurz vor dem Navi Marktstart die dritte Radeon Pro Duo Iteration herauskommen als letztes Modell mit Vega-GPUs (gerechnet ohne mögliche Rebrands), wenn AMD dieser Release-Politik treu bleiben sollte.
 
Mracpad schrieb:
Langsam wird es albern. Nein, die Karte IST kein CF. :rolleyes:

Und wenn die GPU unterschiedliche Aufgaben bearbeiten wird auch der Speicher unabhängig benutzt.

Okay. Da hat jemand wohl einen Korinthenkacker gefrühstückt.
Neue Formulierung:
Sie verhalten sich in allen Situationen wie zwei Karten, die bei Bedarf zu einer CF-Einheit zusammengeführt werden können.
Von EINER 32-GB-Karte zu sprechen ist aber in jedem Fall falsch. Wenn die Karten getrennt arbeiten, dann sind es eben auch zwei Karten mit je 16GB (und nur halber Bandbreite zu CPU und RAM). Die eine führt Aufgabe A aus und hat dafür 16GB Speicher und die Andere führt B aus und hat dafür auch 16GB Speicher.

Egal ob man sie als CF-Einheit oder einzeln benutzen will, hat man 2x16GB, was etwas Anderes ist als 1x32GB.
Und dass das etwas Anderes (in den meisten Fällen schlechteres) ist als eine GPU mit doppelter Leistung und doppeltem Speicher ist nunmal so.
Das liegt ganz einfach daran, dass es im Idealfall zwar möglich ist, komplett unterschiedliche Daten in beiden Speichern zu haben, das aber abseits von einigen Compute-Anwendungen selten der Fall ist.

In Spielen ist es annähernd unmöglich (zumindest mit SFR und AFR und eine anständige Alternative muss ich erstmal sehen).
Und selbst bei den von dir zitierten Verwendungen werden Daten redundant vorliegen und somit den effektiv nutzbaren Speicher reduzieren.
In dem Beispiel ist z.B. zumindest der kreierte Content (sei jetzt mal fiktiv 1GB) in beiden Speichern und belegt insgesamt damit 2x1GB, wo auf einer 1x32GB-Karte nur 1GB belegt wäre. Ganz einfach weil er zum editieren etc. im Speicher von GPU1 liegen muss, zum Rendern aber auch im Speicher von GPU2. Das ist zwangsläufig so, weil weder GPU1 performant auf dem Speicher von GPU2 rumarbeiten kann, noch kann GPU2 performant irgendwelche Szenen rendern, die im Speicher von GPU1 liegen. Es ist halt einfach kein shared memory, sondern es sind zwei NUMA-Nodes.
Genauso ist es z.B. auch mit RayTracing. Man kann nicht einfach die Szene auf beide Speicher aufteilen. Die Rays können potentiell von überall überall hin reflektiert werden, weshalb jede GPU die volle Szene braucht, wenn sie nicht extreme Performance-Penalties kassieren will, wenn mal ein Ray in den Teil der anderen GPU springt.
 
Ok nochmal. Rein hypotetisch. Zum Zocken sollte sie ja so schnell sein wie ein CF gespannt aus 2x480 mit der Taktanpassung natürlich. Nur das sie jeweils 16GB Vram hat. Also 2x16=16

Wie sieht es mit den Bausteinen aus bei einer gpu der Pro sorte.. mit Wakü sollte man doch locker an die Taktraten der einzelnen GPUs kommen oder?
 
Also von der Rohleistung her immer noch genauso wie bei der 295x2 von vor 3 Jahren, nur weniger Stromverbrauch und mehr Speicher.
 
du hast es erfasst: 300 Euro weniger, 300 Watt weniger, neuere und moderne Anschlüße, das bei etwas höherer Leistung. Passt doch für den Zielmarkt, oder?
 
El_Chapo schrieb:
und 2x mehr Verbrauch? :)

...das wäre für mich KEIN k.o. Kriterium.

Das gleicht AMD mit ZeroCorePower, bei Gelegenheitsspielern wie mir, absolut wieder aus.

Ein Langzeittest würde hier überraschende Ergebnisse liefern. Da schneidet AMD mit Sicherheit kaum schlechter ab als nVidia.

Zum Thema Cuda vs. OpenCL.
Die Software ist in Cuda Hand, das stimmt schon.
Nur genau diese Unterstützung, von der "schwenn" schreibt, kann sich AMD zur jetzigen Zeit nicht leisten um OpenCL zu pushen.

Da bleibt die Frage, ob man alles richtig macht, mit der propritären nVidia Geschichte, oder ob man OpenCL eine Chance gibt, um in Zukunft mehr Auswahl zu bekommen.
 
rg88 schrieb:
Was zeigt, dass du vom Zielmarkt null Schimmer hast :rolleyes:
Nein, ich arbeite nur im Computingbereich und wir kooperieren mit dem größten Rechenzentrum in Süddeutschland. OpenCL spielt in der Industrie momentan keine Rolle..
 
Wie schauts eigentlich dann mit Mikrorucklern aus? Ist Hardware-Crossfire weniger anfällig?
 
Hopsekäse
Wieso ist dir der Unterschied von 2x16 oder 1x32 so wichtig.
Wenn Software A auf GPU A berechnet wird und Software B auf GPU B, wo ist der Unterschied, wenn Software A&B auf GPU C mit 32 GB berechnet wird ?
Es kommt eben auf die Software an und deine absolute Aussage "niemals" ist eben schon nicht korrekt.
Mir kommt es so vor als ob bei AMD immer alles falsch gemacht wird, dabei NV selbst Dual GPUs in dem Beteich anbietet.
 
[eTP]AcCiDeNt schrieb:
Da bleibt die Frage, ob man alles richtig macht, mit der propritären nVidia Geschichte, oder ob man OpenCL eine Chance gibt, um in Zukunft mehr Auswahl zu bekommen.

Ich glaube für diejenigen die professionell arbeiten sind andere Dinge wichtiger als die Wahl zwischen zwei Hardwarevarianten.
Fortschritt und Support z.B. OpenCL 2.1 ist die letzte finale Version und von November 2015. Bei Cuda ist die letzte Version 8.0.61 vom Februar 2017.

Der Unterschied ist, dass Cuda ein optimiertes Werkzeug eines Hardwareherstellers ist, der aktives Interesse an dessen Nutzung und Weiterentwicklung hat, weil er damit Geld verdient. OpenCL ist dagegen eine Spezifikation einer Gruppen von Unternehmen die einen kleinsten gemeinsamen Nenner zwischen allen darstellt. Da sitzt niemand wirklich aktiv dahinter und pusht es vorwärts, und selbst wenn, dann müsste er bei jeder Neuentwicklung alle (bzw. die meisten) Mitglieder davon überzeugen es in den Standard aufzunehmen.

Ist so ähnlich wie Diktatur vs. Demokratie. Ein Diktator sagt: "Da kommt ein Flughafen hin" und 5 Jahre später ist er da. In der Demokratie dauert alleine die Planfeststellung schon 15 Jahre :D
Demokratie ist fairer, Diktatur aber effizienter.
 
borizb schrieb:
Für Shadow of Mordor in 4K und alles auf Max reichts auch grad so ;)

Hab nie ein anderes Spiel gehabt dass ohne ersichtlichen Grund dermaßen viel VRAM futtert.
ME Andromeda sieht besser aus und braucht nur 3Gb statt >8 wie SoM.

Nicht vergessen: Bei Dual Karten ist der Speicher immer zu halbieren!
Effektiv Nutzbar dürften daher also 16GB sein, wenn mich nicht alles täuscht.

nicht unter DX12 !
 
Krautmaster schrieb:
Unterstützen eig CAD Apps wie NX, ProE, Autocad usw MultiGPU ausreichend gut? Also ganz generell.

Gerade bei NX bin ich eher schockiert wie schlecht die 3D Engine ist. Da is ne Intel iGPU unwesentlich langsamer als ne P2000 Quadro. Da is die CPU Leistung auf einem Kern noch wichtiger. Und im normalen untexturierten 3D Modell reichen dann auch 200 MB Vram ^^

Also so Karten eher was für Rendern mit Multi GPU. Wer macht sowas auf Arbeit?



muss man das verstehen?

Wenn du eine GPU-Unterstützung in deiner Software für Nvidia CUDA hast und dir die einzelne Quadro zu "ruckelig" arbeitet, dann müßtest du dich nach einer zusätzlichen Tesla umsehen. Sowas nennt Nvidia dann Maximus unddabei soll die Bildgebende Graka sich eigentlich nur noch um die Darstellung kümmern und nicht auch noch um die Berechnungen. Dabei wird erreicht, dass die Darstellung nicht durch die Berechnungen aufgehalten wird (da das Umschalten zwischen Berechnen und Darstellen ordentlich Zeit frisst) und sich die Benutzeroberfläche deutlich flüssiger anfühlt. Bei einer Kopplung einer Quadro mit mehreren Tesla kann man entsprechend mehr Aufgaben auf die Tesla abwälzen, bevor der Treiber auf die Quadro zurückgreifen würde.

Bei Nvidia entscheidet bei Maximus der Treiber, welche der Karten belastet wird. Steht aber auch alles so ähnlich auf deren Website. Damit schaffen es manche Leute auch, mit ner popligen 2000er Quadro große 3D Modelle mit allen möglichen Details darzustellen und zu drehen und sonstwas, ohne dass da auch nur was ruckeln könnte.

Mein Träumchen?

Einmal von einer aktuellen Serie zwei dicke Quadros plus zwei Dual-GPU-Teslas, dann noch GenLock und ne schicke Projektionseinheit. Aber da muß ich wohl vorher im Lotto gewinnen.
 
Zurück
Oben