Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano
Da hält aber jemand tapfer durch. Man könnte sich auch einfach im Marktplatz für ca. 40-70€ eine beliebige Fermi holen, die als Notgrafikkarte noch taugt und mit der 8800GTS 512 den Boden wischt.
Dummerweise setzen die besseren Kühler auf Axiallüfter womit das mit der Lautstärke erledigt wäre - bleibt noch die Temperatur und diese ist mir weitgehend egal da die abgegebene Wärmeenergie gleicht bleibt (verringerter Verbrauch wegen tieferen Temperaturen ausgenommen).
Hmm verstehe zwar nicht ganz deine Argumentationskette, aber mir ist die Temperatur nicht egel, da bei geringeren Temps weniger Strom verbraucht wird und zusätzlich mehr OC-Potential vorhanden ist.
Um an die Leistung einer AIO zu kommen, reicht ein Axialkühler der Partnerkarten bei weitem nicht aus. Da bedarf es schon eines Acceleros/Morpheus oder Ähnlichem.
@Banger
ich hatte vorrübergehend 2x eine 290 für ca 3 wochen (amazon warehouse) da, einmal vapor oc und trix oc. vapor hatte grafikfehler. später das schnäppchen mit der trix, leider friete der rechner im desktop betrieb ein und warf einige Male bluescreens.
kurz: Danke aber ich werde diesen marathon hoffentlich mit der fury x oder fury beenden. ich zähle stark auf die fury x, ein monat mehr und ~100€ unterschied machen den braten nicht mehr besser xD
spart mir dann auch wieder die zeit und nerven des weiteren suchen!
Für neuere Monitore ist MST überflüssig und 4K@60 Hz geht auch mit SST. Die Radeon 6950 sollte das definitiv können, ebenso wie Kaveri und Carrizzo. Vielleicht ist dein DP-Kabel nicht geeignet für den HBR3-Transfermodus.
All because MST is supported on a HD 6xxx graphics card via display port... but apparently SST is not..... This still somewhat baffles me how something more complicated works fine yet something straight forward has been overlooked...
es ging um TVs die seit bereits einem Jahr mit HDMI 2.0 daherkommen und bis Ende des Jahres kaum ein "non 4K" Gerät mehr über die Ladentheke gehen dürfte
richtig, von den 2014er und 2013er haben einige HDMI 1.4, aber wie isch schon postete über 203 Modelle HDMI 2 und in Zukunft auch nichts anderes. Ab 420€... 4k @60hz. HDMI 2.0 ist da bereits standard, darüber braucht man wenig diskutieren. Obs für jemand von Relevanz ist bleibt Einzelfall ... wie immer.
Wieso nur Dx 12_0 und nicht 12_1? Maxwell 2.0 ist nun schon ein dreiviertel Jahr auf den Markt und AMD liegt da schon zurück mit den Featurelevel? Klasse AMD.
bei der Lebensdauer der Samsung Bildschirme sind die unterstützten Features eh egal. Kurz nach der Garantie kauft man eh häufig nen neuen Dann kann man ja einen passend zur Grafikkarte besorgen
Da nerven mich meine drei iiyama schon fast, weil die seit 2008 bzw. 2010 einfach nicht kaputt gehen wollen, so dass endlich mal eine höhere Auflösung zwangsweise her muss.
Ist doch ganz klar, drei,vier Leute im CB-Forum machen die Masse der Spieler aus
Die, die einen PC wie einen PC benutzen, sollen sich gefälligst nicht so breitmachen mit ihrem "Interessiert mich überhaupt nicht" und gefälligst ne völlig überteuerte Titan X kaufen und sich auf den Boden vor den Fernseher setzen
Mich wundert, dass sich noch keiner über die viel zu vielen Display-Port Anschlüsse aufregt: "Warum sind das nicht alles HDMI 2.0??? ICH spiele auf drei Fernsehern und ich finde das totalen Scheiß, total am Markt vorbei"
Dennoch bei 4k Monitoren von einer großen Auswahl zu reden halte ich für übertrieben. Auch wenn es knapp 50 Monitore gibt, gibt es in Wirklichkeit nur einen der wirklich für 4 k zu gebrauchen ist, weil die anderen einfach zu klein sind.
Und ich rede hier von Gaming, frag mal Hisn, der den 39er Phillips hat, ob er sich vorstellen kann, 4k auf einen kleineren Monitor zu spielen.
Somit HDMI 2.0 ist für jene interessant, die einen Fernseher anstecken kann. Dann sollen eben diese Personen ein Adapter nehmen und wenn das nicht akzeptabel ist müssen sie wohl zu NV setzten. Dass es nur bei Fijii aber ein HEVC Unterstützung gibt, ist dann nicht wichtig, da wurde ja das Argument gebracht, dazu hat man ja eine starke CPU !
Danke AMD, jetzt darf ich mir 3 DP zu VGA Adapter kaufen um mein Tripple 17" CRT Setup zu befeuern....
Ich find es ebenfalls ziemlich skurril, wie plötzlich jeder auf nem 4k@60Hz spielen will. G-Sync interessiert den Nvidia Fanboy gar nicht mehr?
Aber echt schade für AMD um die Leute, die jetzt nur wegen fehlendem HDMI2.0 nicht von einer GTX980Ti auf Fury X umsteigen...scheinen ja ziemlich viele vorgehabt zu haben
@pipip: Hör auf damit logische Argumente zu liefern
Das bringt das grüne Lager nur dazu neue Sachen zu finden wie z.B. "Die Karten sind viel zu klein, da sieht man ja durch das Fenster gar nicht die Leistung"
Aber die etwa 38 Watt Unterschied zwischen Referenz- und Wasserkühlung dürften dann zumindest eine erste Orientierung sein, wie viel Leistungsaufnahme bei den R9 290(X) völlig unnötig erfolgt, nur weil die originale Kühlung auf ganzer Linie versagt.
Eine gute Kühlung macht bei Hawaii durchaus was aus. Ich habe übrigens den Kraken G10 mit einem 240mm Radiator gekopelt. Die GPU und auch die RAM Chips sind deutlich kühler und die zwei 120 mm Lüfter laufen auf einem Minimum. Wenn man will, kann man die AMD Grafikkarten sogar um noch mal 50-100mV undervolten. Damit holt man noch mal etwas mehr Referenz raus.
Besonders interessant wäre mal ein Test zu sehen, was aus den jetztigen R9 noch durch undervolting und Takt Anpassung drinnen ist. Klar macht das keiner, aber jeder kann den Takt und die VCore auch runtersetzten und somit den Verbrauch senken, der bei AMD traditionell meist einfach zu "hoch" gegriffen ist.
Im Endeffekt einen auf "Nano" machen.
Soviel ich gelesen habe, ist Undvolting aktuell nur bei AMD Karten möglich. Stimmt das ? Oder ist das ein Gerücht ?
Aber wie gesagt, keiner macht das, weil am Ende doch jeder lieber "mehr" Leistung will oder die Arbeit nicht machen will. OEM werden das selten machen, weil der Aufwand zu hoch ist und auch die Güte der Chips besser aussortiert werden muss, im Gegenteil, manche R9 290 OEM Modelle hatten sogar einen leicht erhöhten VCore im Vergleich zum Referenzmodell. Da wollte man die Güte noch mal "verbessern". Solche Details merkt man aber erst, wenn man sich wirklich damit beschäftigen möchte.
@DDai6oro & Pipip:
Ist ja auch nur logisch, je kälter, desto weniger Leckströme. Dadurch weniger Strom nötig für die selbe Leistung. Der Meister der Leckströme Pentium4/D kann ein Lied davon singen. Nur, dass bei der 29x zumindest eine ordentliche Leistung am Ende heraus kommt im Gegensatz zu den Netburst-CPUs
Somit HDMI 2.0 ist für jene interessant, die einen Fernseher anstecken kann. Dann sollen eben diese Personen ein Adapter nehmen und wenn das nicht akzeptabel ist müssen sie wohl zu NV setzten.
Du fängst immer wieder an, aber nochmal, es gibt keinen Adapter der 60Hz kann! Würde es einen geben, würde ich nicht so einen Wirbel darum machen.
Wie wäre es wenn du meine Beitrage nochmal liest, Hdmi 2.0 ist nur für UHD-TVs interessant, da fast alle Grafikkarten einen DP 1.2 haben ist die Frage ob ein 4k Monitor einen Hdmi 2.0 Eingang hat überflüssig, da alle min. mit einem DP Eingang ausgestattet sind.
Wieviel Erfahrung hast du mit 4k? Ich für meinen Teil würde liebend gerne meinen UHD-TV auch mit 60Hz betreiben können und das geht halt z.Z. nur mit einer Grafikkarte die einen Hdmi 2.0 Ausgang hat. Und auch wenn ich eher die Ausnahme darstelle habe ich wohl eher das Recht hier meine Intressen zu vertreten als du der Wahrscheinlich keinen 4k Monitor oder UHD-TV im Betrieb hat und somit weder einen DP noch einen Hdmi 2.0 Ausgang an der Graka benötigt.
Schaby
Es ging nur um die Aussage, wieso AMD denn ihre Karten überhaupt mit 4k wirbt. Meine Antwort, weil viele User durchaus noch am Monitor spielen und hier aktuell DP 1.2 der Standard ist.
Wie ich schon schrieb, wenn kauf dir ein Adapter (wie sagst, gibt es den noch nicht, was ich lese erst später in diesem Jahr) oder kauf dir eine NV Karte und fertig.
The AMD Radeon™ Fury X is an enthusiast graphics card designed to provide multi-display 4K gaming at 60Hz.
In addition, Active DisplayPort 1.2a-to-HDMI 2.0 adapters are set to debut this summer. These adapters will enable any graphics cards with DP1.2a outputs to deliver 4K@60Hz gaming on UHD televisions that support HDMI 2.0.
An alle diese plötzlich massenhaft auftretenden angeblichen 4kTV-Gamer: Wer noch keinen Panasonic-Edel-TV mit DisplayPort 1.2a hat, sollte auf den passenden DisplayPort 1.2a-to-HDMI 2.0 Adapter warten, der 60Hz auch auf dem 4k-TV ermöglicht (z.B. von http://www.accellcables.com/ oder von BizLink (http://www.hardware.fr/news/09-01-2015/).
Jup, 58° ist wirklich eine Ansage.
An die 50° die Fiji laut AMD erreichen soll, glaub ich allerdings auch nicht. Hersteller Angaben sind eigentlich immer geschönt. Ich vermute sie haben einen Mix aus allen möglichen Einstellungen für die Werte gewählt, was bei der Temperatur bedeuten kann, dass zwar eine "brauchbare" Auflösung bei einem fordernden Spiel gewählt wurde, aber dafür alles sonstige an Optionen runter gedreht wurde, damit die GPU nicht so warm wird.
Andererseits, soweit ich HBM verstanden habe, fehlt Fiji das interne Speicherinterface, da es an die Speicherstacks "verteilt" wurde, während das klassische Speicherinterface für sich schon eine deftige Wärmequelle sein ist.
Daher dürfte es schwer fallen, die Temperaturen der "klassischen" GPU mit integriertem Speicherinterface und Fiji, später auch Pascal, zu vergleichen.
Ergänzung ()
rg88 schrieb:
Ist doch ganz klar, drei,vier Leute im CB-Forum machen die Masse der Spieler aus
...
Und wie schon einmal von mir erwähnt, in vielen Foren gibt es seit ein paar wenigen Tagen die "Beschwerde", dass mit der Karte nicht 4k@60Hz an der Glotze rennt... Ein Thema, von dem ich persönlich noch nie gehört habe...
... sicherlich auch mangels Interesse... weil... Windows...
Bei der Auflösung würde ich an Windows nicht bei unter 3Meter Diagonale denken... und das nur, um dann etwa 6 bis 7 Meter entfernt zu sitzen...? Wenn diese Leute wenigstens vom Mac reden würden, da Icons und Schrift im Desktop Bereich nicht auf Erbsen Größe schrumpfen.