News Fiji XT: AMDs Radeon-Flaggschiff heißt Radeon R9 Fury X

"...auf AMDs Referenzdesign beschränkt sei, sollen Board-Partner bei Fiji Pro auch eigene Kühler-Designs nutzen dürfen."
Ich bitte darum damit aufzuhören solchen die Kleinen verwirrenden Unsinn zu schreiben. Die Foren sind schon voll damit!
Das Referenzdesign ist ohne einen weiteren Bezug anzuführen IMMER PCB-bezogen und wenn nicht dann schreibt es gefälligst gleich dazu!
So muss man raten was nun gemeint ist:
A Referenzdesign
B Referenzdesign mit eigener Kühllösung
C eigenes Design mit Originalkühler
D eigenes Design mit eigener Kühlösung


Das ist doch nicht so schwer und die Kleinen können sich dann auch verständlich ausdrücken beim Potenzvergleich.
danke
 
White_Eagle schrieb:
Der Name war ja schon klar wie das Ahmen in der Kirche.
Das der Vollausbau nur mit Wasserkühler erscheint + 2x 8-Pin-Stromanschluß ist leider ganz schlecht, bzw kein gutes Zeichen,
da bekleckert sich AMD leider nicht gerad mit Ruhm:
viel Strom: heiß, kaum noch übertaktbar, da schon nah Limit, nur um mit der Nvidia GTX 980 Ti gleich zu ziehen?
Und das nur wegen dem HBM, und dann auch nur 4 GB?
Shit happens oder so?
Das einzig Gute: Ne tolle Bandbreite.

PS.
da ein Luftkühler offenbar nicht mehr möglich ist, bei der entstehenden Abwärme.

Die Geschichte wiederholt sich, da werden Erinnerungen wach:

https://www.youtube.com/watch?v=u5YJsMaT_AE

die Effizienz der Karte wird sicherlich durch den Keller gehen und in China wieder raus kommen. Evtl. knacken wir die 500w Grenze im CB Last Test (Gesamtsystem). Wundern würde es mich nicht ...
 
Zuletzt bearbeitet:
D3Spieler schrieb:
Die Geschichte wiederholt sich, da werden Erinnerungen wach:

https://www.youtube.com/watch?v=u5YJsMaT_AE

die Effizienz der Karte wird sicherlich durch den Keller gehen und in China wieder raus kommen. Evtl. knacken wir die 500w Grenze im CB Last Test (Gesamtsystem). Wundern würde es mich nicht ...

Lass uns an deinen gesicherten Infos teilhaben. 640px-Triple-facepalm.jpg
 
"Erinnern wir uns an die maximale Leistungsaufnahme und die durchschnittliche Leistungsaufnahme beim Gaming, dann sieht man einmal mehr, dass AMDs Problem nicht in der Leistungsfähigkeit und Effizienz der Architektur an sich liegt, sondern genau dort, wo Nvidia jetzt mit Maxwell richtig punkten kann: Der fein abgestuften und sehr schnellen Anpassung der Leistungsaufnahme anhand der tatsächlich anliegenden Last. Mit diesen sehr kurzen Intervallen regelt Maxwell viel filigraner und zielgerichteter, als es AMDs Power Tune aktuell vermag." THG

ich weiß auf meinen link clicken ist schwer...vlt hat amd ja einfach mal das power tune angepasst...

ansosnten ist die karter sicher mit einem 120er radi leiser zu kühlen als mit jeder custom luftkühlung.
woher ich das weiß? weil ich selbst schon eine karte mit voltage regulator am limit mit einer corsair h60 und custom lüfter gekühlt habe
ergebnis: für normalsterbliche unhörbar

aber klar es gibt ja immer die jungs mit nem mora und leute für die eben silent lautlos bedeutet, die auf dem land wohnen mit 500m zur nächsten straße sowie haus und wenn ein vogel zwitscher wird die schrotflinte rausgeholt (schallgedämpft natürlich)
 
pipip schrieb:
guenterm

Also du meinst, lieber wie NV bei der TITANX oder AMD bei der R9 290X auf eine billige Referenz setzten, weil es für jene, die eine Wasserkühlung haben wollen es nicht schade ist, wenn man die Kühlung tauscht ?
Ärgerlich, wenn man was für eine gute Kühlung bezahlt hat und am Ende die Karte trotzdem gleich viel kostet wie die Titan.

Wirklich AMD sollte sich schämen !

Aber wer weiß, vllt gibt es dann ein paar AMD Fijii Pro User, die eine Luftkühlung haben, aber diese Komplettwasserkühler haben wollen. Vllt sind die sogar kompatibel :eek:

guenterm hat doch recht. Warum nicht einfach mal Grafikkarten komplett ohne Kühler verkaufen? Bei den CPUs gehts ja schließlich auch. Ich kühle seit Jahren nur noch mit Wasser, und es nervt jedesmal, wenn dann der Schrott von Lüftern wieder in den Müll wandert und erstmal die Slotblende getauscht werden darf.

Hab eigentlich auch überlegt, meine 7970er mal auszuwechseln. Sofern es die Fiji XT aber nur mit AIO-Wasserkühlung zu kaufen gibt (egal von wem), fällt die als Alternative schonmal weg.
 
Motorrad schrieb:
Kein DVI- Ausgang!? :rolleyes:

Damit kann ich mich nicht anfreunden!

Ich eigentlich auch nicht, mindestens ein DVI Anschluss sollte schon sein.

chithanh schrieb:
Wozu? HDMI und DVI sind elektrisch kompatibel, mit einem einfachen passiven Adapter oder Kabel bist du bis 1080p dabei.

Für höhere Auflösungen brauchst du dann halt einen DisplayPort nach Dual-Link DVI Adapter, aber selbst der ist im Vergleich zur Grafikkarte noch günstig.

Na toll, und dann darf man noch einmal neben Grafikkarte für Adapter oder neues Kabel draufzahlen, nur weil AMD auf einmal den Grafikartenanschluss, der auf Desktopebene vermutlich am meisten genutzt wird, in der neuen Generation aussortiert zugunsten des fragilen/unausgegorenen Display-Port (nur um 6K Eye-Finity anpreisen zu können, welches für die meisten eh nicht in Frage kommt)? So ein Käse. Damit magst Du vielleicht zufrieden sein, weil es für Dich keine unnützen/ungerechtfertigten Mehrkosten bedeutet, aber meinereiner eben nicht. Wenn das Vorgabe sein sollte und Boardpartner keine DVI-Lösungen mehr anbieten, wäre das jedenfalls kein unwesentlicher Grund, die Karte für einen Kauf nicht in Erwägung zu ziehen. Es bleibt ja noch die Hoffnung, dass dieses beim Fiji Pro (ohne X) Design anders sein könnte und ein DVI-Anschluss noch unterstützt wird, zumal diese Version auch weitaus interessanter für mich im kommenden Jahr (im Zuge reduzierter Preise) wäre als die Enthusiasten (Fiji XT) Version.

SavageSkull schrieb:
Wurde auch Zeit, dass der endlich mal abgeschafft wird. Der ist mittlerweile einfach dermaßen veraltet und unnötig groß. 1 HDMI für den Fernseher und der Rest DP ist auch die richtige sinnvolle Lösung

Aber ein halbgarer/limitierter DP 1.2 ist besser? Das sehe ich anders. Bevor nicht höhere Frequenzen (DP 1.3) möglich sind, werde ich auch nicht auf DP umsteigen wollen (damit man im Anschluss daran dann wieder draufzahlen soll, das ist doch Kundenverblödung).

Motorrad schrieb:
Wenn ich von Problemen lese, dann dreht es sich meistens um HDMI und ab und zu mal um die DP1.1 - DP1.2 Problematik!
DVI funktioniert in dessen Auflösungsbereich immer und auf Anhieb. Zudem lassen sich die Stecker ordentlich festschrauben und machen insgesamt einen stabileren Eindruck.
Und Kontaktprobleme hatte ich mit DVI auch noch nicht.

Für mich bleibt DVI der Computer- Grafikanschluß!
Gegen eine zusätzliche HDMI- Buchse an der Karte habe ich nichts, wenn dies nicht auf Kosten einer DVI- Buchse geht!

Sehe ich auch so, momentan gibt es keine bessere/brauchbarere Alternative, aber vielleicht bleibt das erst einmal ein Einzelfall, denn die Käufer der Fury X werden sich auch nicht daran stören zusätzlich Geld für Kabel oder Adapter hinzublättern, nur um mit zweifelhaft nützlichem 6K Eye-Finity prahlen zu können und wie viele Enthusiasten das dann wohl auch an drei 1440p Monitoren nutzen werden, kann man sich wohl an einer Hand abzählen.

hrafnagaldr schrieb:
Mich stören DVI nur noch, seit es den Nachfolger DP gibt. Und der DP 1.2 zwischen meiner R9 290 und dem Dell U2713HM lief schon seit dem ersten tag ohne Fehler. Das mit einem sagenhaften 7€ DP 1.2 Kabel. DVI ist nur noch Platzverschwendung an Highendkarten und Monitoren.
Der DP hat auch eine Arretierung, ich hab noch keinen abgerissen.

Nur, weil es bei Dir gut gelaufen ist, heisst das nicht, dass andere mit DP keine schlechten Erfahrungen gemacht haben. Wenn AMD bzw. die Boardpartner einen Adapter oder ein Kabel beilegen, dann wäre das auch okay, aber dieser "6K Marketing-Gag" wird ansonsten durch Mehrkosten auf potentielle Kunden abgewälzt (ziemlich ätzende Kundenpolitik seitens AMD dann).
 
Zuletzt bearbeitet:
Na toll, und dann darf man noch einmal neben Grafikkarte für Adapter oder neues Kabel draufzahlen, nur weil AMD auf einmal den Grafikartenanschluss, der auf Desktopebene vermutlich am meisten genutzt wird, in der neuen Generation aussortiert zugunsten des fragilen/unausgegorenen Display-Port

Ich weiß nicht wieviele Grafikkarten du bisher gekauft hast, aber in der Regel sind eigentlich meist irwelche Adapter dabei. Kann gut sein dass es Beispiel ein passender DVI Adapter beiliegt. Einfach mal abwarten. Ich habe zu mindestens ein Haufen solcher Adapter in der Lade liegen.
 
pipip schrieb:
Ich weiß nicht wieviele Grafikkarten du bisher gekauft hast, aber in der Regel sind eigentlich meist irwelche Adapter dabei. Kann gut sein dass es Beispiel ein passender DVI Adapter beiliegt. Einfach mal abwarten. Ich habe zu mindestens ein Haufen solcher Adapter in der Lade liegen.

Es waren schon einige, die meisten/letzten aber ohne zusätzliche Adapter, Kabel, etc. (das war früher vermutlich auch noch anders, heutzutage wird ja an allem gespart oder "unnützer Käse" dazugepackt).
 
Chismon

Kommt auch meist an den Boardpartner an, bei den man eine Karte kauft. Manche geben auch nur ein HDMI Kabel rein. Mein Notebook hat zum Beispiel ein Minidisplayport neben dem HDMI Kabel. Dank meiner letzten Sapphire, habe ich einen Adapter um mein Notebook bei Bedarf auch einmal am Monitor anschließen zu können und die letzte male auch genützt.

Mich würde interessieren, welchen Monitor du aber verwendest, dass er kein HDMI oder DP hat. Wenn man sich doch so eine Grafikkarte kauft, spart man in der Regel auch nicht am Monitor. In Relation ist aber so ein Adapter ein Peanuts zu dem Preis, was man für die Karte hinlegt.
https://geizhals.at/sapphire-aktive...ter-44000-03-40g-a657211.html?hloc=at&hloc=de
657211.jpg


Soviel ich da sehe, ist das sogar ein aktiver adapter. Wer weiß, vllt liegt so einer vllt bei Sapphire sogar dabei.

okay einmal ohne mini DP
https://geizhals.at/sapphire-aktive...ter-44000-02-40r-a567957.html?hloc=at&hloc=de

@Genkidama
http://www.pcgameshardware.de/AMD-R...597/News/R9-380X-R9-290X-Vorstellung-1148770/
Die Radeon soll 50 Prozent schneller ausfallen als die R9 290X, aber nur fünf Prozent mehr verbrauchen.
Ich glaube das betrifft aber den Ueber Modus und nicht den Quiet. Aber man darf gespannt sein, was rauskommt. Kommt es aber so, dann hat man durchaus bei der Effizienz etwas getan.
Die komplett Wasserkühlung macht dann sein übrigens, indem es den Chip kühl behält und somit auch den Verbrauch etwas senkt, was ja bei guter Kühlung oft der Fall ist und auch bei Vergleichen Referenz vs sehr gute Luftkühlung beobachten kann.
 
Zuletzt bearbeitet:
pipip schrieb:
...Ich habe zu mindestens ein Haufen solcher Adapter in der Lade liegen.
Ich ebenfalls und mein Monitor besitzt noch nicht mal mehr ein DVI-Port, sondern HDMI/MHL, D-Sub und DP
DVI wird so langsam aber sicher ersetzt und ich finde das auch gut so. Spart Platz auf der Karte was durch mehr Anschlüsse (z.b. DP/HDMI) erweitert werden kann und das Kabel selbst ist auch kleiner und kann unter anderem auch den Ton Durchschleifen

PS: gerade geschaut.
Selbst mein sehr alter Zweitmonitor (LG W2261VP) hat neben ein DVI auch ein HDMI Anschluss
 
Zuletzt bearbeitet:
chithanh schrieb:
Wozu? HDMI und DVI sind elektrisch kompatibel, mit einem einfachen passiven Adapter oder Kabel bist du bis 1080p dabei.
Für höhere Auflösungen brauchst du dann halt einen DisplayPort nach Dual-Link DVI Adapter, aber selbst der ist im Vergleich zur Grafikkarte noch günstig.

Übertakteter IPS-Monitor 120Hz (siehe sig) - Der funktioniert nur mit DVI-D - Und durch einen Adapter kommen die hohe Frequenzen nicht vernümpftig durch. Das wurde damals alles schon auf 120hz.net bespochen.... Das Max für solche Adapter lag damals bei 270mhz bis 330mhz - Das reicht nicht für 120Hz...

Wenn Du einen Adapter findest, durch den nachweislich 485-500 Mhz durchgehen lass es mich wissen!

Ist eben kein Monitor von der Stange. Zwar schon etwas älter und so langsam kommen ja endlich gute neue raus die von Haus aus (mit IPS - oder jedenfalls nicht TN) bei 2560x1440 120+ Hz hinbekommen - Aber mein alter soll noch bleiben...

Deswegen! :-)
 
Zuletzt bearbeitet:
Haha ein Best Buy Laden hat die Karten sogar schon auf dem Regal (natürlich nur die 300er Reihe ohne Fury)
http://imgur.com/6aGGKLm
Eigentlich dürfte das ja gar nicht der Fall sein. Da ist was gehörig schief gelaufen. :D

Aber aussagekräftige Benchmarks von Privatpersonen kann man trotzdem nicht erwarten. Wer weiss was AMD da noch für ein Treiber nebst dem Release dazu gibt, was es offensichtlich noch nicht für die Öffentlichkeit gibt.

Klar erwarten hier einige nicht so grosse Unterschiede... Aber es wird welche geben, hoffe ich mal. :D
 
pipip schrieb:
Chismon

Kommt auch meist an den Boardpartner an, bei den man eine Karte kauft. Manche geben auch nur ein HDMI Kabel rein. Mein Notebook hat zum Beispiel ein Minidisplayport neben dem HDMI Kabel. Dank meiner letzten Sapphire, habe ich einen Adapter um mein Notebook bei Bedarf auch einmal am Monitor anschließen zu können und die letzte male auch genützt.

Mich würde interessieren, welchen Monitor du aber verwendest, dass er kein HDMI oder DP hat. Wenn man sich doch so eine Grafikkarte kauft, spart man in der Regel auch nicht am Monitor. In Relation ist aber so ein Adapter ein Peanuts zu dem Preis, was man für die Karte hinlegt.
https://geizhals.at/sapphire-aktive...ter-44000-03-40g-a657211.html?hloc=at&hloc=de

Soviel ich da sehe, ist das sogar ein aktiver adapter. Wer weiß, vllt liegt so einer vllt bei Sapphire sogar dabei.

okay einmal ohne mini DP
https://geizhals.at/sapphire-aktive...ter-44000-02-40r-a567957.html?hloc=at&hloc=de

Besten Dank für den Weblink zum passenden Adapter :).

Wie geschrieben, wenn einer dabei wäre, wäre das schön und es geht ja nicht nur um mich/meine Situation. Mein Monitor (Dell 2709W) hat 2x DVI, 1x HDMI, 1 x VGA und 1x Display-Port(DP) und wäre somit nicht das Problem, aber ich hatte eigentlich gehofft vorerst ohne Kabel- oder Adapterkauf auszukommen bzw. erst bei Einführung von DP1.3 ein DP-Kabel kaufen zu müssen (was soll ich dann mit einem DP1.2 Kabel oder Adapter), da der Monitor gut via DVI läuft und ich würde keinen 4K (Freesync) Monitor kaufen wollen, der kein DP1.3 unterstützt, daher muss ich mich vorerst eh mit 1200p begnügen. Es ist ja nicht so, daß beide Hersteller nicht auf DVI-Ports verzichten würden (siehe GTX980Ti), deshalb finde ich den Vorstoß von AMD nicht gerade vorteilhaft/seltsam (aber es begründet sich ganz klar durch das 6K Marketing, obwohl dieses auch mit zwei DP und einem DVI ginge). Mein älteres Laptop hat auch einen Mini-DP Anschluss, aber das schliesse ich auch gewöhnlich nicht an den Monitor an.

Höchstwahrscheinlich würde es eine Sapphire Fury (Pro, nicht XT) werden (meine ATI Karten waren bisher immer von Sapphire, die letzte noch mit AGP) oder evt. eine XFX (da ich mit meiner vorletzten nVidia von XFX auch gute Erfahrung gemacht hatte, auch wenn ich danach auf meine aktuelle Gigabyte um gestiegen bin).
 
Zuletzt bearbeitet:
Wie sich hier viele hinstellen,
Und sich als Mittelpunkt der Welt sehen.

DVI wird's noch lange geben,
egal ob es einem gefällt oder nicht.


Adapter hin oder her,
ich hab damit nur schlechte Erfahrungen sammeln können.
 
Zuletzt bearbeitet:
Zurück
Oben