News Flaggschiff: AMD zeigt Dual-Fiji-Grafiklösung zur E3 2015

Kurze Frage zu SLI/CF/Dual GPU:

ist denn in absehbarer Zeit eine Technik marktreif, die die "Mikroruckler-Problematik" behebt?

Ich werde mir zum Start von Skylake ein komplett neues System inkl. UHD-Monitor zusammenbauen. Da selbst eine 980Ti (und wohl auch eine FuryX) nicht genügend Leistung bringen, um deutlich mehr als 30fps bei max. Details darzustellen, ist die Frage nach SLI/CF/Dual GPU natürlich naheliegend. Dies kommt aber nur in Frage, wenn es keine Mikroruckler mehr gibt.

Also: kommt da was auf uns zu und soll ich daher in ein größeres Netzteil mit entsprechenden Anschlüssen investieren, oder kann ich mir das sparen?

Danke für eure Hilfe!
 
3x Nano CF und Folding@Home oder Collatz :evillol:
Ergänzung ()

Azzkickr schrieb:
Also: kommt da was auf uns zu und soll ich daher in ein größeres Netzteil mit entsprechenden Anschlüssen investieren, oder kann ich mir das sparen?

Danke für eure Hilfe!

eher sparen. Kann keiner sagen ob AMD od. NV es schaft die Microruckler zu 100% zu beseitigen
 
Azzkickr schrieb:
ist denn in absehbarer Zeit eine Technik marktreif, die die "Mikroruckler-Problematik" behebt?

Ja mit DX12.
 
Krautmaster schrieb:
@ Dual Fiji

Da kotzt das Festnageln auf 4 GB / Chip natürlich etwas an... verschärft die VRam Thematik noch. So ne geile Karte, mit HBM 2 der Hammer... man stelle sich 2x8 oder 2x16 GB zusammen mit 2x Fiji in der Größe vor.

Wenn 4 GB bei einer Fiji grenzwertig ist... was ist dann mit effektiv 4 GB bei CF Fiji?

Und bevor jetzt wieder diese Vulkan / SFR und DX 12 = 4+4 GB Posts daherkommen... im Leben nicht. In 3 Jahren vielleicht bei einzelnen Titeln aber ich wäre schon überrascht wenn auch nur eine Engine in den nächsten 2 Jahren wirklich die 2x4 GB als 8GB nutzen kann.

Abseits davon sehr lecker, sicher mehr OC Potential + brachiale Chipleistung. TDP, vollkommen egal.

Edit:

Siehe auch
http://www.pcgameshardware.de/Direc...-Techdemo-von-Square-Enix-und-Nvidia-1157899/



bin gespannt wie sich das VRam Thema noch entwickelt.

Mit DX 12 verschärft sich da gar nichts - denn dann sind 2x 4GB HBM eben 2x 4GB HBM und nicht wie jetzt 1x 4 GB HBM...
 
Novasun schrieb:
Mit DX 12 verschärft sich da gar nichts - denn dann sind 2x 4GB HBM eben 2x 4GB HBM und nicht wie jetzt 1x 4 GB HBM...

wie schon gesagt NEIN. Nur wenn das Game explizit mit einer SFR fähigen Engine daherkommt was nur der Fall sein wird wenn sich der Aufwand lohnt und die Umsetzung einfach ist. Mir wär nicht mal ne Demo dazu bekannt.
 
Solange man nicht weiß was die Grafikkarten letztendlich wirklich an Leistung bringen und wie sich der neue HBM Speicher in der Realität schlägt, kann AMD Bauteile in Luft halten so lange sie wollen, begeistern kann das nicht. Ich finde es langsam nur noch Nervig, ständig wird irgendeine Meldung publiziert oder irgendwelche Grafikkarten Designs veröffentlicht, aber wie sich denn nun die neue Technik mit HBM und die Grafikkarte mit dem Fiji Chip nun wirklich schlägt, liegt nach wir vor völlig im dunkeln. Sollen sie doch endlich mit allen Informationen rausrücken und auch die Medien mit entsprechenden GPU`s ausrüsten, damit man endlich mal licht ins dunkel bringt, diese Hinhaltetaktik ist doch nun wirklich nicht mehr zum ertragen, Sorry.
 
Ich finde es ja interessant, dass so viele Hoffnung auf eine deutlich gestiegene SLI/CF Performance mit SFR haben.
Ihr müsst aber immer noch bedenken: Die Grafikkarten müssen immer noch im Großteil die gleichen Daten im Speicher behalten, da sie ja quasi ein sehr ähnliches Bild berechnen müssen.
Jedoch wird vermutlich die Speicherbelegung allein aufgrund der Tatsache, dass die Karten nur noch die Hälfte der Auflösung berechnen müssen, weniger.
Aber aus 4GB werden dann nicht unbedingt 8. Die Auslastung der beiden 4GB Karten wird niedriger werden, aber wie viel steht ja noch in den Sternen.
Man kanns ja aber mal ausprobieren was für einen Einfluss die Auflösung hat: Einfach mal seine Auflösung von WQHD auf FHD andern (Anzahl der zu berechnenden Pixel halbiert sich etwa) und mal den Vram beobachten.
Ich denke, das ist ungefähr das was man von SFR erwarten kann.
 
Volker schrieb:
Ich sag dir das was AMD auf ihren Slides sagt. Da steht 175 Watt und 1x 8-Pin.

Da steht aber nicht ob das TDP oder Verbrauch ist ...
bei NV ist TDP und Verbrauch das selbe da sie oft PT limitiert sind, bei AMD aber nicht!
 
xXTHMXx schrieb:
Man kanns ja aber mal ausprobieren was für einen Einfluss die Auflösung hat: Einfach mal seine Auflösung von WQHD auf FHD andern (Anzahl der zu berechnenden Pixel halbiert sich etwa) und mal den Vram beobachten.
Ich denke, das ist ungefähr das was man von SFR erwarten kann.

richtig, ganz zu Schweigen davon dass SFR heute schon möglich sein sollte aber bisher kaum umgesetzt wurde, unter DX12 vielleicht einfacher, aber vom Aufwand immer noch hoch.
Ergänzung ()

Knuddelbearli schrieb:
Da steht aber nicht ob das TDP oder Verbrauch ist ...
bei NV ist TDP und Verbrauch das selbe da sie oft PT limitiert sind, bei AMD aber nicht!

naja viel Spielraum gibts bei der Diskussion doch nicht. Ob 140, 150 oder 170W ist doch Banane. Je nach Performance. Ich erwarte mal so etwa R9 290X + 10% also etwa GTX 980 Niveau... bei eben ~150-170W Verbrauch wie eben von AMD auch angegeben.

Ob da ein Fiji CUT oder einfach eine niedrig taktende Variante eingesetzt wird wird sich zeigen.
 
Plus kommt LiquidVR mit einer VR Brille ins Spiel, da wird es keine geben da eine GPU einen Bildschirm übernimmt.
 
Die Nano wäre irgendwann mal was feines für meinen kleinen PC, da ist nur ein 400W NT mit 1x8Pin drin. :)
 
Bin mal auf den Stromverbrauch gespannt...ob mein 550W-Netzteil die packen würde mit ner Effizienten CPU? :D

Die Leistung wird mit Sicherheit ein Kapitel für sich sein - der Preis aber auch.
Bin gespannt ob nVidia mit einer Titan XZ oder ZX kontert :lol:
 
Zuletzt bearbeitet:
Knuddelbearli schrieb:
290X ist 75% einer Titan X...
Ähm, wo hast du denn diesen Wert her? Es sind maximal 65%, z.B. bei diesem Test:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-980-ti-test.49655/seite-6#abschnitt_ultrahdtests_in_3840__2160_4k
Oder rechnest du mit OC Custom Modelle?

Knuddelbearli schrieb:
Sorry muss ich dir das jetzt echt erklären? Man will eine Möglichst effiziente Karte bauen. Was wird man also tun? Shader deaktivieren und Takt erhöhen und damit Wattt pro Leistung erhöhen oder umgekehrt? ...
Das Thema Shader und Takt ist mir durchaus klar, aber dennoch danke für deine Erklärung. Mir ging es darum:
Volker schrieb:
Keiner weiß was bei Nano verbaut ist. Da sie nicht Fury heißt gehe ich von deutlich abgespeckten Fiji-Chip aus, also nicht nur Taktraten runter sondern auch Shader.
Knuddelbearli schrieb:
Weniger Shader heißt mehr Takt heißt ineffizienter und das wo die Nano nochmal fast 50% effizienter sein soll als die Fury. Biste sicher das du deine Aussage nicht nochmal überdenken willst?
Die Nano wird deutlich langsamer sein als Fury X, also werden da sicherlich auch die Shader beschnitten, denn nur mit einer Taktsenkung, was man z.B. bei der normalen Fury machen könnte, ist das nicht drin, da wäre man deutlich unter dem Takt-SweetSpot, kannst den Chip ja nicht auf 500MHz laufen lassen. Und nichts anderes hat ja Volker geschrieben, oder habe ich dich falsch verstanden?
 
Krautmaster schrieb:
wie schon gesagt NEIN. Nur wenn das Game explizit mit einer SFR fähigen Engine daherkommt was nur der Fall sein wird wenn sich der Aufwand lohnt und die Umsetzung einfach ist. Mir wär nicht mal ne Demo dazu bekannt.

Soweit ich das verstanden habe, soll Ashes of the Singularity SFR anstelle von AFR unter DX12 nutzen.
Fiji X2 halte ich daher ebenfalls für sehr interessant. Letztenendes müssen wir Ende Juni abwarten und schauen, ob 4GB auf einer AMD Karte ausreichend sind. Bei der Performance bei dem Monsterchip kann man sich per 3 Satz ja ausrechnen, wo man theoretisch landen könnte, ganz unabhängig davon, ob wir GCN1.3/2.0 möglicherweise enthüllt bekommen und es vllt weitere Verbesserungen in DX12/Vulkan bringt, wo GCN ab 1.0 ohnehin schon gut performt.
 
Krautmaster schrieb:
richtig, ganz zu Schweigen davon dass SFR heute schon möglich sein sollte aber bisher kaum umgesetzt wurde, unter DX12 vielleicht einfacher, aber vom Aufwand immer noch hoch.
Das SFR unter DX11 kannst du nicht vergleichen mit SFR unter DX12.
Wenn ich es damals richtig verstanden habe, sieht der Unterschied etwa so aus:
Im Grunde macht SFR zwar immer das gleiche, aber die GPU nicht. Unter DX12 kann SFR Teile eines Frames auf die GPUs aufteilen, unter DX11 muss jede GPU vorher den den kompletten Frame berechnen, es geht da eben nicht anders, danach teilt SFR diesen Frame auf. Gedacht war dieses Feature unter DX11 und früher eher als Kompatibilitätsmodus für alte Spiele, wenn AFR Probleme gemacht hat. Es scheint aber bei einigen etwas zu bringen beim Thema Mikroruckeln, der Leistungseinbruch schein aber hoch zu sein.
 
Zuletzt bearbeitet:
Zurück
Oben