News Radeon Pro Duo: AMDs Dual-Fiji-Grafikkarte im Detail fotografiert

Eine Grafikkarte deren Vram nicht für 4 Jahre, sondern nur für ein paar Monate ausgelegt ist, bezeichne ich mal dreist als Vram Krüppel. Derjenige der sich sofort dann die nächsten dual GPU Kauft kommt vielleicht sogar über die Runden.

Ansonsten sind Fury X 4GB und auch diese dual Fury Vram Krüppel 1. Klasse. Vram bleibt Vram, bleibt Vram. HBM kann hier nicht zaubern, wird man wieder bei den Pascal HBM Karten sehen können. Vram ist durch nichts zu ersetzen als durch mehr Vram!

So, auf gehts. HODOR!
 
@Edelhamster

Nicht wirklich:

The most we can say of a specific 4GB issue at 4K is that gamers who want to play at 4K will have to do some fine-tuning to keep frame rates and resolutions balanced, but that’s not unique to any vendor. If you’re a gamer who wants 4K and ultra-high quality visual settings, none of the current GPUs on the market are going to suit you. HBM2 and 14/16nm GPUs may change that, but for now playing in 4K is intrinsically a balancing act. The Fury X may require a bit more fine-tuning than the 980 Ti or Titan X, but that’s not grounds for declaring 4GB an unsuitable amount of VRAM in today’s games.

http://www.extremetech.com/gaming/2...x-faces-off-with-nvidias-gtx-980-ti-titan-x/5

Sprich, da wo es interessant werden könnte, sind die Spiele eh so langsam das es dann eh nicht mehr interessiert da unspielbar. Wie das in der Zukunft aussieht weiß keiner, Spekulationen dazu völlig unnötig.
 
@Kasmopaya

Dann mußt du wohl nur die sündhaft teuren profi Karten zum daddeln kaufen denn vor 4 Jahren erschienen die ersten Kepler Karten die es lediglich mit 2 GB VRAM gab oder hattest du die HD7970 mit ihren 3 GB vorgezogen?
 
ich werd sie mir kaufen!

einige hier sollten mal bissel mehr artikel lesen bevor dann solche "aussagen" kommen.
und was soll das ganze aufgerege?

@Hito belese dich mal was VR angeht.
 
Du liebe Zeit. Vergleicht man den Thread bei nvidias angekündigter GTX 1080, merkt man leicht, wo man hier letztlich gelandet ist: Auf einer nvidia-Fanbase. Gebashe gibt es dort so gut wie keine, eher Vorfreude auf ein kindlich idealisiertes, "perfektes" Stücks Hardware. Während in diesem AMD-Thread jeder dritte von "Schrott" o.ä. redet.

Das lustigste dabei ist: Beide Threads sind in "Grafikkarten Fachgespräche" zu finden, was suggeriert, daß hier fachlich und eigentlich auch sachlich geurteilt wird. Eigentlich. Normalerweise.

Man verliert jegliche Lust, überhaupt noch über Grafikkarten zu sprechen.
 
@ strex & wolfsrabe,vielen Dank für eure Beiträge von meiner Seite!
 
Wolfsrabe schrieb:
Denke ich mir auch :D
Bin ja wirklich niemand, der sich so mit der Materie beschäftig (seh' da sowieso keinen Sinn, ausser im Forum klugzuscheissen)
noch mit dem gesamten Umfang einer Geschäftsführung mit allen dafür notwendigen Kenntnissen über aktuelle und künftige Entwicklungen auskennt. ICH bin mir dessen bewusst und spekuliere darum (fast) gar nicht erst.
Typen wie Kasmopaya, dessen VRAM-Krüppelposts in den ersten Jahren noch irgendwie lustig waren, sind nur noch nervig und dumm!
Oder die, die ständig den Untergang AMDs sehen, weil die nicht ihre Traumkarte bauen, nähmlich doppelte Leistung bei halbem Verbrauch des entsprechenden Nvidia Pendants.
Sprich, solange es keine R9 x80 gibt, die mit einer GTX x80 mithalten kann, ist der Laden so gut wie tot. :freak:

Und zum Thema Verbrauch (kotz): An den Stromanschlüssen erkennt man also neuerdings das die Karte ein Stromfresser wird? ...Dachte für diesen Titel ist W/fps wichtig, nicht die Spezifikationen. Und da werden die ersten Test der neuen Karten beweisen, was Sache ist. Sofern Wolfgang sich dazu herablässt, einen effen Stromzähler ans System zu hängen und alle Benchmarks mitloggt.
Dann kommen wir in einen Bereich, wo man eine halbwegs, im Ansatz, gerade eben mal so ausreichende Aussage über einen echten praktischen Verbrauchswert sprechen kann.
 
Wolfsrabe schrieb:
Du liebe Zeit. Vergleicht man den Thread bei nvidias angekündigter GTX 1080, merkt man leicht, wo man hier letztlich gelandet ist: Auf einer nvidia-Fanbase. Gebashe gibt es dort so gut wie keine, eher Vorfreude auf ein kindlich idealisiertes, "perfektes" Stücks Hardware. Während in diesem AMD-Thread jeder dritte von "Schrott" o.ä. redet.
...

Naja...
Was soll man sagen...? Sich hinzusetzen und "zu zählen wie viele hier jubeln und da nörgeln" und irgenwelche Parolen über die Community durch die Gegend zu werfen, ist halt auch nicht inhaltlich. In absolut 200%ig gar keinster Weise. Es ist genauso das inhaltslose Lager-Gerede wie du es selbst kritisiert hast. Kannst dich also über deinen eigenen Beitrag gerade genauso ärgern.

Der Vergleich hinkt ohnehin massiv, denn bei dem einen handelt es sich um eine spannende neue Generation in neuer Fertigung und das Andere ist eine aufgewärmte Dual-Variante einer mäßig erfolgreichen GPU, die noch gerade so vor den neuen Generationen mal rausgeschoben wird, weil man ja irgendwann mal meinte, man würde so etwas bringen.
Wenn du unbedingt auf dem elendigen Lagerkampf rumreiten willst, dann Vergleiche halt wenigstens die Reaktionen auf die Infos zu den jeweiligen neuen Generationen und nicht Äpfel mit Birnen.

Wenn Intel jetzt ankäme und Dual-Sockel-Boards für den Desktop und dafür i9-Prozessoren auf Basis des bekannten Haswell-E bringen würde, wäre das auch nichts großartig interessantes (kann man ja mit Xeons auch schon haben, genauso wie man mit 2 Karten Fijii-CfX betreiben kann...). Spannende neue Informationen zur neuen Zen-Architektur hingegen wären da wieder ein ganz anderes, hochinteressantes Paar Schuhe.


Zur Karte:
Einfach viel zu spät. Egal ob und in welchem Lager die Interessen liegen, zu diesem Zeitpunkt ist diese Karte schlichtweg für nur noch sehr sehr wenige Käufer interessant (ist ja ohnehin schon keine Mainstream-Karte). Wenn man sie einfach gecancelled hätte, wäre die Publicity allerdings bestimmt auch mies gewesen. Wer weiß, vielleicht ist sie so ja wenigstens noch ein Weilchen marketingtechnisch nützlich, z.B. weil man sich ein blödes Krönchen aufsetzen kann, weil man etwas gemacht hat, woran die Konkurrenz aus guten Gründen kein Interesse hat. Ich hoffe nur, dass das Ding bei AMD nicht zu viel Ressourcen verschlungen hat und sie maximale Aufmerksamkeit auf die wirklich interessanten Dinge richten konnten.

strex schrieb:
Sprich, da wo es interessant werden könnte, sind die Spiele eh so langsam das es dann eh nicht mehr interessiert da unspielbar.

Gerade in einem Thread wie diesem hier, ist es sicherlich naheliegend, auch Multi-GPU zu berücksichtigen. Der von dir verlinkte Artikel betrachtet nur einzelne GPUs. Gerade in 4K kann es in Szenarien, in denen die Rechenleistung potentiell verdoppelt wird, der Speicher aber nicht, diesbezüglich erheblich anders aussehen. Gerade für die hier thematisierte Karte ist das ziemlich relevant.
 
Zuletzt bearbeitet:
Palmdale schrieb:
...
Das Ding ist doch wirklich nur dann interessant, wenn man keinen Platz für zwei Karten hat, oder sehe ich das falsch?

Oder man 2 verbauen will, weil man für 4 einzelne Karten keinen Platz hat... :D

Ich finde selbst eine solche nicht gerade für den Mainstream gedachte Karte immer interessant. Es steigert die Leistungsdichte und zeigt was pro PCB möglich ist.

​*gern haben will*
 
so man nimmt eine R2 295x ist ja auch dual GPU

schnalt man passendes WasserBlock drauf mit eine wasserpumpe mit AGB (Hersteller egal) und ein 120 mm Radiator +Lüfter

und sehen ob die Kühleistung reicht
 
@Hopsekäse
Was soll an der Geforce so spannend sein?
Das irgendwann ein neuer Chip mit nem neuen Fertigungsprozess kommt ist schon lange bekannt aber was bleibst sonst noch?
Das man es tatsächlich fertig bringt endlich mal 8 GB zu verbauen (gibt es bei AMD bereist von Anfang an bei der 390er Modellen) oder das der Chip inzwischen in 2 Stufen runter kastriert werden soll? Viel mehr Infos bleiben schließlich nicht übrig.
 
Chismon schrieb:
, zumal die GTX 1080 evt. schon bald die Radeon Pro Duo als stärkste Karte ablösen wird. Ich freue mich schon auf die ersten Benchmarks :).

Das wird sich bei weitem nicht ausgehen!
 
Da nimmt man doch gleich zwei, weiter so AMD ... Nvidia wird da gegensteuern müssen :)
 
Fragger911 schrieb:
Oder man 2 verbauen will, weil man für 4 einzelne Karten keinen Platz hat... :D

Ich finde selbst eine solche nicht gerade für den Mainstream gedachte Karte immer interessant. Es steigert die Leistungsdichte und zeigt was pro PCB möglich ist.

​*gern haben will*

Mainstream hin oder her, aber nur aus Machbarkeit braucht man in der Entwicklung das Geld auch nicht zum Fenster rauswerfen. Es bringt 0 Vorteile, da der Treiber das gleiche machen muss ob nun CF oder DualGPU

EXTREM schrieb:
Die Karte ist für ENTWICKLER gedacht, nicht für den normalen Zocker.
Was ist daran eigentlich nicht zu verstehen?

Aha okay, und welche Wunder ergeben sich auf Seiten des sogenannten Entwicklers, wenn er statt einem CF Gespann eine Dual-Karte verwendet? Seinen Crimson-Treiber schreibt er nicht selbst, das Zusammenspiel der GPUs ist identisch wie bei allen anderen Karten zuvor. Bleibt ausschließlich der Platz im Gehäuse und die reine Machbarkeitsstudie übrig, um zu zeigen, dass man im Jahr 2015 keine heiße Luft angekündigt hatte (und die Karte seit Q4 im Lager rumliegt). Nur weil etwas technisch möglich ist, muss mans nicht auch umsetzen, schon dreimal net, wenn man kaum Geld für Spielereien über hat.
 
IBISXI schrieb:
Das wird sich bei weitem nicht ausgehen!

Naja, ich erwarte auch nicht, dass die GTX1080 50% schneller als eine Fury X wird, aber wenn dem so wäre, dann könnte das für die Radeon Pro Duo evt. knapp werden, denn viel mehr als einem 60% Leistungsplus gegenüber einer einfachen Fury X traue ich der Radeon Pro Duo auch nicht zu bei den meisten (VR) Spielen etwa, eher weniger, aber wir werden ja hoffentlich bald sehen (und ich eines besseren belehrt?) ;).
 
Darkscream schrieb:
Schön und gut, aber sollte AMD sich solch offensichtliche Ladenhüter nicht gleich sparen. Ist doch wahr, so viel Rechenpower bei so wenig Vram muss doch am Markt vorbei gehen. Einzige Zielgruppe wären wohl Leute mit 144Hz Monitoren bei wenig Auflösung.

Gleich der zweite Post ein Fail. Wen du nicht nur den Anrisstext gelesen hast, wüsstest du das diese Karte für Profis gedacht ist und nicht für Kids die sich weder diese Karte noch eine Nano leisten können.

Kasmopaya schrieb:
Eine Grafikkarte deren Vram nicht für 4 Jahre, sondern nur für ein paar Monate ausgelegt ist, bezeichne ich mal dreist als Vram Krüppel. Derjenige der sich sofort dann die nächsten dual GPU Kauft kommt vielleicht sogar über die Runden.

Ansonsten sind Fury X 4GB und auch diese dual Fury Vram Krüppel 1. Klasse. Vram bleibt Vram, bleibt Vram. HBM kann hier nicht zaubern, wird man wieder bei den Pascal HBM Karten sehen können. Vram ist durch nichts zu ersetzen als durch mehr Vram!

So, auf gehts. HODOR!

Wer Produkte als Krüppel bezeichnet und eine schreibe wie deiner einer an den Tag legt, bleibt genauso hinter seinen Möglichkeiten zurück wie die Produkte deren nutzen er für beschränkt hält.

Mit anderen Worten, dein Beitrag ist das dümmste was ich seit langem gelesen habe.
 
@Palmdale
Wie ich schon zig mal schrieb hat das nichts mit Crossfire zu tuen wenn 2 getrennte Bildfolgen parallel berechnet werden um sie gleichzeitig auszugeben und hier ergibt sich auch der Vorteil eines solchen Doppelwoppers. Die kürzeren Signalwege, vor allem wenn eine GPU auf die Daten der anderen GPU zugreifen könnte und genau dafür brauch man eine Karte mit der eine entsprechende Kommunikation entwickelt werden kann.

Ich frage mich nur ob man bei dem Doppelwopper es ähnlich wie seinerzeit bei der 3870 X2 gegangen ist und einen extra Bus für die Kommunikation zwischen den GPUs eingebaut hat um so die interne Bandbreite zu erhöhen.
 
Nur mal zwischengefragt: Was habt ihr "Die-Karte-ist-sinnlos-Flamer" eigentlich davon, diese (eure) Erkenntnis so hatnäckig unters Volk zu bringen... so rein persönlich? Lebt ihr dann besser, seid ihr Glücklicher weil ihr glaubt die Wahrheit zu kennen?
Ich denke, ihr habt schwerwiegende persönliche Probleme und braucht nur ein Ventil... ;)
 
gibt schon ein ek water block http://www.techpowerup.com/forums/t...-a-radeon-pro-duo-full-coverage-block.222010/
91a.jpg
und erste benches
http://planetagracza.pl/amd-radeon-...ty-jak-wypada-w-starciu-z-geforce-gtx-980-ti/
mit fury x un 980ti
 
Zurück
Oben