News Fiji Gemini: AMD macht Verschiebung der Dual-GPU-Grafikkarte offiziell

pipip schrieb:
Mextli
Ist auch so, weil die FuryX als Single GPU wohl kommende Games keine 4k auf Ultra-Details schaffen würde.
Hier ging es zwar ursprünglich um VR, aber prinzipiell sagst Du doch genau dasselbe wie die Tests? Aktuell ist sie ausreichend, aber in kommenden Games könnte es sein das die 4MB HBM nicht mehr ausreichen?! Also nichts genaues weiß man nicht, oder wie war das? Sind ja die Texturen die RAM fressen. Aber nun gut, mag ja sein.

Will jetzt keine Haarspalterei betreiben, aber solche 'könnte' Aussagen sind imo immer mit Vorsicht zu genießen. Die 8GB der 390 bekommt man aktuell doch auch nur mit Liebhaber Modpacks von 2-3 Spielen voll.

Und warum die 4GB für VR nicht langen sollten versteh ich auch nicht. Kollege hatte die Occulus Rift zum testen da und für die langt ja eine 970 (1080x1200 *2). Und die Hive hat dieselbe Auflösung. Die Morpheus von Sony hat 1900*1200... alles Auflösung mit denen eine Nano/Fury locker mithalten kann und für die es auch keine 8GB HBM benötigt. Also für aktuelle Games ist sie ausreichend und für die aktuellen VR Karten ist sie es ebenfalls. Verstehe also die Anforderungen mancher hier nicht.
 
Wadenbeisser schrieb:
Die Frage ist nur wer dann die Rolle des DAU einnimmt wenn die Karte auf den VR Bereich ausgelegt ist in dem bekanntlich 2 Displays zum Einsatz kommen, welche möglichst Zeitgleich ihr Bild bekommen sollten und damit die normalen multi GPU Spielchenmit ihren Profilen bei einer solchen Grafikkarte irrelevant sein dürften. Angesichts der relativ veringen Auflösung der Displays dürften auch die 4GB kaum ein Problem sein und den Shadern dürfte auch noch etwas Verwaltungsarbeit übergeholfen werden, wovon der Fiji ja mehr als genug hat.

Wäre eine solche Karte nur auf VR ausgelegt? Wohl kaum denn wo soll das Problem sein die zweite GPU zu nutzen um bei gleicher Bildeinstellung eine höhere Framerate zu erzielen? Wo die 4GB mit einer GPU nicht limitieren limitieren sie dann mit 2 GPUs auch nicht.

Ich spreche auch nicht umsonst von der Dual Fiji aka Fury X2!
 
Burner87 schrieb:
Sorry, aber ich habe noch nie so einen Unfug gehört. Wer lässt denn bitte die Chance von verkauften Karten aus, nur weil "anderweitiges Zubehör" nicht verfügbar ist. Die glauben doch selbst nicht, was sie da erzählen. AMD braucht dringend einen höheren Umsatz und Gewinn. Wenn man nichts verkauft, macht man beides nicht.

Wie bereits erwähnt werden AMDs Gemini Karten vorerst ein Nischenprodukt sein (sogar noch mehr als die Titan X von nVidia das momentan schon ist), und vielleicht ist ja AMD so schlau und bietet die Karte vergünstigt in einem VR Bundle (mit VR Brille, Oculus Rift zuerst und später dann wahlweise auch mit der HTC Vive, FOVE, StarVR oder was auch immer da noch kommen mag) an? Es hilft wenig ein Produkt auf den Markt zu werfen, anstatt einige Monate mehr noch zu warten bis die Primäranwendung für diese Karte dann auch verfügbar ist.

BookerDeWitt schrieb:
Da AMD für VR bisher am besten dasteht wird es mMn auch eine reine Karte für diesen Anwendungsbereich.

Möglicherweise ist das bisher so, aber Du glaubst doch nicht wirklich, dass nVidia dabei tatenlos zusehen wird und keine Konkurrenzkarte ins Rennen schicken (bzw. aus dem Boden stampfen) wird? Auch wenn Oculus eine GTX970 oder R9 290 als Minimalanforderungen zur Nutzung Ihrer VR Brillen angegeben haben, so geht nVidia von mindestens einer GTX 980 aus. Daraus kann man aber nicht unbedingt auf eine Entwicklung einer Dual-Karte auf Basis von GTX 980 Chips schließen, aber eine Dual-Karte auf Basis von GTX980Ti Chips wäre wohl der zu vermutende Konter von nVidia, es sei denn man will den Preis des eigenen Produkts niedriger halten und nVidias Knausrigkeit in Sachen Speicher spricht dann auch eher für die GTX 980er Chips (eine GTX 990).
 
Chismon schrieb:
Es hilft wenig ein Produkt auf den Markt zu werfen, anstatt einige Monate mehr noch zu warten bis die Primäranwendung für diese Karte dann auch verfügbar ist.

​Man bindet quasi ein Nischenprodukt an ein noch größeres Nischenprodukt.
​Eigentlich sollte solch eine Karte auch immer ein Werbeträger sein und bei Vergleichstest den Hersteller weit oben zeigen.

https://www.computerbase.de/artikel.../#diagramm-rating-1920-1080-normale-qualitaet

Gerade hier führen bei alles drei Auflösungen Nvidia Karten die Liste an und gerade vor Weihnachten wäre es Werbetechnisch nicht verkehrt gewesen, wenn die Listen von einem roten Balken angeführt worden wären.

Zu einer anderen Zeit hätte ich auch gesagt: "Macht nichts. Kann man auch warten." aber kurz vor Weihnachten nochmals ein neues Produkt vorstellen, in den Schlagzeilen stehen und die schnellste Karte haben fände ich nicht so verkehrt.
 
max_1234 schrieb:
Natürlich warten sie auf VR, was soll man denn sonst auch mit einer X2 Fury machen? 4k@144Hz Monitore gibts noch nicht :D

Titel wurde auf anderen Seiten übrigens sachlicher gewählt als hier (Titel = News | News = Warten auf VR), aber ist ja nichts neues.

mfg,
Max

4k schafft die ja nicht ma weil sie vram gekrüppelt limitiert xD
die normale single fury x wird ja schon durch die 4gb eingebremst wie einige test zeigen.


also ausser VR ist die nicht brauchbar.


Necareor schrieb:
Kannst du dieses Fanboy-Verschwörungs-Gelaber nicht einfach mal lassen...? Muss das bei jeder AMD-News sein?

das hilft bei amd max nicht leider.
 
Necareor schrieb:
Kannst du dieses Fanboy-Verschwörungs-Gelaber nicht einfach mal lassen...? Muss das bei jeder AMD-News sein?

So sehr ich auch pro-amd bin, ich sehe an dem Titel auch nichts unsachliches...
Ergänzung ()

_Cloud_ schrieb:
das hilft bei amd max nicht leider.

Du kannst schön ruhig in deiner Ecke bleiben. Bist keinen Deut besser.
 
Zuletzt bearbeitet:
CCIBS schrieb:
​Man bindet quasi ein Nischenprodukt an ein noch größeres Nischenprodukt.
​Eigentlich sollte solch eine Karte auch immer ein Werbeträger sein und bei Vergleichstest den Hersteller weit oben zeigen.

https://www.computerbase.de/artikel.../#diagramm-rating-1920-1080-normale-qualitaet

Gerade hier führen bei alles drei Auflösungen Nvidia Karten die Liste an und gerade vor Weihnachten wäre es Werbetechnisch nicht verkehrt gewesen, wenn die Listen von einem roten Balken angeführt worden wären.

Zu einer anderen Zeit hätte ich auch gesagt: "Macht nichts. Kann man auch warten." aber kurz vor Weihnachten nochmals ein neues Produkt vorstellen, in den Schlagzeilen stehen und die schnellste Karte haben fände ich nicht so verkehrt.

Wer kommt denn für die beiden Nischenprodukte in Frage? Das sind zu Beginn eigentlich entweder Techfreaks oder Neureiche und erstere wissen genau was sie wollen oder nicht und bei letzteren wird vorgegeben, dass Geld keine Rolle spielt. So gesehen ist das Weihnachtsgeschäft, welches auf die breite Masse abzielt, nicht relevant und ich denke schon, dass AMD insgesamt damit besser fährt, das Produkt im Tandem mit dem Produkt anzubieten, für welche die Gemini gedacht ist (VR Brillen), als von der (momentan meist zu nVidia lehnenden Presse, der aktuelle PCGH nVidia-Werbe-Bericht zu VR Brillen ist ein gutes Beispiel dafür: http://www.pcgameshardware.de/Virtual-Reality-Hardware-258542/Specials/Rift-und-Vive-ausprobiert-1181440/, neutrale/faire Berichterstattung sieht leider anders aus) schon vorher zur Weihnachtszeit abgewatscht zu werden.
Ich glaube kaum, dass eine höhere Benchmarkleistung der Gemini Dual-Chip-Karte (im Vergleich zu Single-Chip-Karten wie der GTX Titan X oder 980TiOC) zur Weihnachtszeit als Kaufanreiz bei Ober- und Mittelklassekarten von AMD dienen würde und für die (nVidia) Karten, die bei allen drei Auflösungen insgesamt führend sein sollen, bezahlt man aber auch (unverhältnismäßig) mehr Geld als für die AMD Konkurrenzprodukte ;).
 
q2 16 soll auch greenland anlaufen.... wehe die machen es schon wieder so dass sie erstmal fury x laufen lassen und von unten anfangen aufzurollen. dann wird das selbe bei nvidia auch kommen -.-
2016 kauf ich mir vlt mal wieder nen desktop, wenn dann nicht 4k bei den meisten spielen klar geht können sie ihren mist behalten
 
Die ganzen VRam fanboys, 4GB reicht für die aktuellen games... sogar in 4k, der Ram ist nicht das problem sondern eher die GPU Leistung... nur weil 4Gbyte voll sind bedeutet es nicht das 4Gbyte auch genutzt werden geschweige denn unbedingt mehr benötigt wird.

Ja es gibt VRam bugs/leaks... siehe das aktuelle COD/AC oder einfach Spiele die so schlecht optimiert sind (wieder COD) wo selbst matschige Texturen plötzlich 8GB VRam fast voll kloppen.

Für mich kommt die AMD Karte leider eh nicht in frage, wegen 3x Displayport und 1x HDMI... aber wenn AMD meint das man keinen DVI anschluß oder 2x HDMI mehr braucht, dann pech gehabt. Dann bekommt halt Nvidia meine Kohle.

Ich wüßte auch nicht was eine Dual GPU Grafikkarte gegenüber Crossfire/SLI besser macht!?

Weniger Stromverbrauch?

Besser zu Kühlen weil sich der Airflow zwischen der ersten und zweiten Karte stauen würde?

Weil man kein SLI/Crossfire MB hat?

Mir fällt sonst nichts ein was für eine Dual GPU Grafikkarte sprechen könnte...
 
Halten wir doch mal die Fakten zusammen für VR:

- Das VR gut anfühlt braucht man 60FPS pro Auge also muss die Grafikkarte 120FPS schaffen da wir ja 2 Augen haben
- Microruckler sind ein großes Problem bei VR weil einem davon Übel wird.

mein Fazit. Es wird eine Umstellung geben bei der Frame Rendering Variante. Man wird von AFR (Alternate frame rendering)(Split-Frame Rendering) auf SFR (Split-Frame Rendering)wechseln, schon alleine wegen den Microrucklern dann besitzt die Fury X² dann auch 8gb Vram. Mit SFR wird man dann die 120 FPS gerade so erreichen können in WQHD.

Mach wir uns nichts vor in 4k wird VR die nächsten 2-3 Jahre nicht hinhauen und in 1k -2k nur mit Dual Chip Lösungen.

Was man auch sieht im Video von Pipip ist wie wichtig Async Shader für die Latenz-Zeiten sind. Die GPU wird immer voll ausgelastet und kann dadurch viel Zeit einsparen. Bin gespannt was Nvidi macht die ja augenscheinlich kein Async Compute haben. Das wird in einer Erhöhung der Latenz-Zeit bei Nvidia einhergehen was das Spielgefühl mindern kann wenn die Latenz zu groß ausfällt.
 
Zuletzt bearbeitet:
AFR ist doch genau die Variante die für Mikroruckler sorgte gerade weil jede GPU ein anderes Bild berechnet und genau deshalb benötigt auch jede Karte mehr oder weniger die gleichen Daten im Grafikspeicher, wodurch man effektiv auf der Speichermenge einer Karte bleibt. Gerade deshalb will man ja beim normalen multi GPU Einsatz bei DX12 und Co. SFR anbieten/zu SFR wechseln.

Für 2 GPUs gibt es aber eine viel simplere Lösung als sich mit solchen multi GPU Lösungen rumzuschlagen. Man läßt einfach jede GPU eine andere Seite berechnen. Jedes Display hat also seine eigene GPU, wodurch die Bilder zeitgleich und ohne unnötige Verzögerungen ausgegeben werden könnten.
 
Zuletzt bearbeitet von einem Moderator:
Danke hab das wohl verwechselt. Habs korrigiert. So einfach ist das auch wieder nicht. SFR ist ja genau das was ja VR macht das 1 Bild wir dann halt auf der linken Seite dargestellt. Das 2 Bild dann auf der Rechten Seite. Hinzu kommt das hier ja noch ein optischer Versatz mit eingerechnet werden muss beim 2 Bild. Das muss alles getimte werden.
 
Naja diese Art des Multi-GPU-Renderings bei 3D ist von der Speicherproblematik sehr nahe am AFR dran: Jede GPU berechnet ihr eigenes Bild - eine GPU das Bild für das linke Auge und eine GPU das Bild für das rechte Auge. Da wir zu denjenigen Lebensformen gehören, wo sich die Sichtkegel der beiden Augen sehr stark überlappen, sehen beide Augen auch in der Regel die selben Objekte. Ergo müssen fast alle Objekte auch im Speicher von beiden GPUs vorrätig liegen. Der Fluch, dass Objekte doppelt gesehen werden ist aber auch ein Segen: Analogerweise wie bei AFR kann man sich als Programmierer die Lastbalancierung sparen, da jede Kamera in etwa gleich viele Rechenoperationen benötigt.

Jedoch darf man sich zudem noch Gedanken machen ob man und wenn ja wie man diejenigen Berechnungen aufteilt, die nicht direkt mit dem Zeichnen des Endergebnisses zu tun haben (z.b. VXGI, Physik, KI, Schattenwurf, usw).
 
Zuletzt bearbeitet:
Chismon schrieb:
Wer kommt denn für die beiden Nischenprodukte in Frage? Das sind zu Beginn eigentlich entweder Techfreaks oder Neureiche und erstere wissen genau was sie wollen oder nicht und bei letzteren wird vorgegeben, dass Geld keine Rolle spielt. So gesehen ist das Weihnachtsgeschäft, welches auf die breite Masse abzielt, nicht relevant und ich denke schon, dass AMD insgesamt damit besser fährt, das Produkt im Tandem mit dem Produkt anzubieten, für welche die Gemini gedacht ist (VR Brillen), als von der (momentan meist zu nVidia lehnenden Presse, der aktuelle PCGH nVidia-Werbe-Bericht zu VR Brillen ist ein gutes Beispiel dafür: http://www.pcgameshardware.de/Virtu...2/Specials/Rift-und-Vive-ausprobiert-1181440/, neutrale/faire Berichterstattung sieht leider anders aus) schon vorher zur Weihnachtszeit abgewatscht zu werden.
Ich glaube kaum, dass eine höhere Benchmarkleistung der Gemini Dual-Chip-Karte (im Vergleich zu Single-Chip-Karten wie der GTX Titan X oder 980TiOC) zur Weihnachtszeit als Kaufanreiz bei Ober- und Mittelklassekarten von AMD dienen würde und für die (nVidia) Karten, die bei allen drei Auflösungen insgesamt führend sein sollen, bezahlt man aber auch (unverhältnismäßig) mehr Geld als für die AMD Konkurrenzprodukte ;).

Den Werbeeffekt, dass das Spitzenprodukt eines Herstellers ganz oben steht, würde ich nicht unterschätzen. Es wäre trotzdem besser als es jetzt ist. Die Karte wäre ja zum erscheinen der VR-Brille immer noch da, aber so hat man gar nichts. Sie muss ja nicht einmal wirklich gekauft werden. Sie soll nur oben stehen.

​Warum der Link von PCGH nicht neutral/fair sein soll verstehe ich jetzt zugegeben nicht. Vielleicht bin ich auch noch nicht richtig wach und sehe es nicht. Aber im Grunde wurde halt über das Gefühl mit einer VR-Brille berichtet und zu beginn etwas auf die Hardware, mit welcher sie betrieben wurde, eingegangen.
 
Mextli schrieb:
Und warum die 4GB für VR nicht langen sollten versteh ich auch nicht.
Ich glaube, du hast nicht ganz verstanden, worauf ich abgezielt habe. Für VR ist diese Karte sicherlich super, keine Frage. Mir ging es darum, dass, wenn AMD die Karte jetzt schon auf den Markt wirft, obwohl es VR-Equipment aber noch nicht gibt, wird diese Karte weltweit getestet als das neue 1000€ Grafik-Flaggschiff. Das bedeutet in 4K und Ultra-Details bei aktuellen AAA-Titeln, und da wird die Karte untergehen, v.a. wegen ihres geringen Speichers. Auch die 6GB GDDR5 der GTX 980 Ti kommt da an's Limit.
Für eine normale Gaming-Karte sollten zur Rohleistung zweier Fijis mMn 8GB HBM(2) oder 12GB GDDR5 in's Boot geholt werden.
 
ampre schrieb:
Danke hab das wohl verwechselt. Habs korrigiert. So einfach ist das auch wieder nicht. SFR ist ja genau das was ja VR macht das 1 Bild wir dann halt auf der linken Seite dargestellt. Das 2 Bild dann auf der Rechten Seite. Hinzu kommt das hier ja noch ein optischer Versatz mit eingerechnet werden muss beim 2 Bild. Das muss alles getimte werden.

Nein beim SFR wird das Bild geteilt und die GPUs rechnen an ihrem Teil des Bildes. Das sind 2 verschiedene Paar Schuhe.
Für die VR Geschichte benötigt man 2 versetzte Bilder, für jedes Auge eines und das vermutlich möglichst zur gleichen Zeit. Da liegt es nahe einfach 2 GPUs gleichzeitig an den beiden Bildern rechnen zu lassen und kann die ganzen üblichen multi GPU Probleme sparen.
 
CCIBS schrieb:
Den Werbeeffekt, dass das Spitzenprodukt eines Herstellers ganz oben steht, würde ich nicht unterschätzen. Es wäre trotzdem besser als es jetzt ist. Die Karte wäre ja zum erscheinen der VR-Brille immer noch da, aber so hat man gar nichts. Sie muss ja nicht einmal wirklich gekauft werden. Sie soll nur oben stehen.

​Warum der Link von PCGH nicht neutral/fair sein soll verstehe ich jetzt zugegeben nicht. Vielleicht bin ich auch noch nicht richtig wach und sehe es nicht. Aber im Grunde wurde halt über das Gefühl mit einer VR-Brille berichtet und zu beginn etwas auf die Hardware, mit welcher sie betrieben wurde, eingegangen.

Naja, ein wenig peinlich ist es schon eine Karte bis Ende des Jahres anzukündigen und dann zu verschieben, aber in dem Fall kann die "Schuld" dafür ja auch die VR Hersteller abgewälzt werden, wenn man denn glaubt die eigene Karte sei so anwendungsspezifisch. Die Frage ist auch ob die Karte im Rahmen von VR jetzt getestet werden würde oder einfach nur einem Standardtest unterzogen werden (und später dann gelegentlichen Tests mit VR Brillen). Sicherlich könnte man dann zum Launch der VR Brillen, wenn der Hype auf dem Höhepunkt ist, mehr Kapital aus der Spezialisierung der Karte schlagen und ein größeres Publikum anfixen als jetzt einige Monate im Voraus und dann wird es relativ still um die Karte, wenn die VR Brillen auf den Markt kommen und der Konkurrent profitiert dann davon. Wissen kann man das nicht und natürlich ist das spekulativ, ich denke beide Vorgehensweisen haben ein Für und Wider.

Fair/neutral ist an dem Artikel nicht, dass AMD mit keinem Wort erwähnt wird, auch wenn diese meines Wissens die Pioniere bei der Technik (Liquid VR) waren und das folgende Statement liest sich wie aus einem nVidia Werbekatalog und geht m.E. gar nicht: "Nur die Maxwell-Architektur der aktuellen Grafikkarten-Generation kommt laut dem aktuellen Marktführer mit den erhöhten Anforderungen von VR zurecht." Erstens ist die Aussage ausgemachter Blödsinn und zweitens sollte man hinter dieser Marketing-Propaganda zumindest ein Fragezeichen (Statement) folgen lassen, wenn man denn ernst genommen werden will und nicht einseitige Kauf-/Produktansagen unkritisch weiter gibt. Kompetent und neutral sieht m.E. anders aus und ich bin nicht der einzige dem das sauer aufgestoßen ist (siehe einzelne Artikelkommentare hier und bei PCGH).

Was die ewig andauernde Diskussion um den Speicherbedarf bei aktuellen Grafikkarten (in diesem Thread einmal wieder) angeht, so kann man es auch übertreiben, denn wegen einer Hand voll von Spielen gewisser Publisher/Entwicklerstudios (Ubisoft fällt mir da natürlich spontan ein, wobei Activision und WB bspw. auch keine Kinder von Traurigkeit sind) die schlecht/schlampig/verschwenderisch programmieren darauf zu schließen, dass man nur noch 8GB (oder besser noch 12GB) Karten kaufen sollte, kann ich auch nur den Kopf schütteln. Meine Ansprüche sind da wohl weitaus gemäßigter, denn für den überwiegenden Rest der Spiele sind 4GB oftmals weitaus mehr als benötigt und meistens noch 2GB an Speicherausbau ausreichend wenn man evt. mit kleinen Abstrichen leben kann (und ich würde dann eben auf diese Hand voll von medial gehypten Spieletiteln verzichten ... ein Denkzettel an die Entwickler ... wenn es mehr Leute machen würde, dann würde sich auch die Mentalität wieder ändern, denn es gibt ja auch genügend löbliche Beispiele für effiziente Programmierung von Spielen, The Witcher 3 und Star Wars Battlefront wären solche Beispiele).
Was fehlt ist eine Ressourcen-Standardisierung oder -Limitierung seitens der Entwickler, ansonsten wird über Jahre hinweg ein Speicherwettrüsten (und Preistreiberei) bei den Grafikkarten stattfinden (nVidia und AMD wird es freuen, die Kunden nicht so sehr), für kaum spürbaren Mehrwert. Es reicht scheinbar nicht, dass Spiele mittlerweile massig Speicherplatz auf HDDs und SSDs benötigen, jetzt auch noch bei den Grafikkarten, nur weil man sich keine Mühe mehr gibt platzsparend und effizient zu programmieren, obwohl das Know-How da ist ... ein Armutszeugnis.
 
Burner87 schrieb:
Sorry, aber ich habe noch nie so einen Unfug gehört. Wer lässt denn bitte die Chance von verkauften Karten aus, nur weil "anderweitiges Zubehör" nicht verfügbar ist. Die glauben doch selbst nicht, was sie da erzählen. AMD braucht dringend einen höheren Umsatz und Gewinn. Wenn man nichts verkauft, macht man beides nicht.

Mann erwirtschaftet aber auch keinen Gewinn, wen man Sachen Produzieren lässt, die dann sich dann nicht verkaufen und einstauben, weil noch kein Markt dafür existent ist.

Es gibt weder die Bildschirme noch doch die VRs dafür....
 
Zurück
Oben