Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano
Boah, Leute. Hört doch auf über den Preis zu diskutieren, der ja in Kürze in echt im Preisvergleich abzulesen sein wird. Ob das dann 650€, 750€, oder 7,50€ sein wird, wird man in Kürze sehen.
Da bin ich ma gespannt. Schön wäre wenn AMD das Board Layout dann auch über die nächsten Generationen 100% gleich halten kann sodass man einen recht kompakten Wasserkühler über mehrere Generationen verwenden kann.
Die AiO bereitet mir am meisten Kopfschmerzen, nicht die Leistung sondern eher wie: Radiator aus Aluminium, 6/8 Schlauch, Pumpenkopf nicht austauschbar, bzw. nicht zu entnehmen.
Eine niedrigere Temperatur bedeutet weniger Verbrauch. All zu heiß ist also eher schlecht. War auch beim Fermi damals ein Problem, die Auslegung der Kühlung auf 90° hat den Verbrauch der Karten noch weiter nach oben geschraubt.
Richtig .. Lüfter die richtig aufdrehen müssen verbrauchen logischerweise wesentlich mehr Strom. Deshalb liegt der Verbrauch von Partnerkarten oft wesentlich niedriger, weil die einfach nicht heiß werden.
Contra braucht bei der WCE die Pumpe auch dauerhaft Leistung, wir werden sehen was beim Verbrauch raus kommt.
Eine niedrigere Temperatur bedeutet weniger Verbrauch. All zu heiß ist also eher schlecht. War auch beim Fermi damals ein Problem, die Auslegung der Kühlung auf 90° hat den Verbrauch der Karten noch weiter nach oben geschraubt.
na das eine hat mit dem Anderen erstmal wenig zu tun. Ich schrieb ja "wenns leise is". Und er schrieb "Stromverbrauch" als separates Kriterium, ist ja auch absolut berechtigt.
Wir sind uns doch einig dass eine Karte A mit niedrigeren Temperaturen dennoch mehr Stromverbrauch haben kann als Karte B mit hohen Temperaturen...
@Max 1234
Ich denke den Lüfterverbrauch kannste vernachlässigen. Auf Maximum mit 3 großen Fans vllt 3-5W, wenn überhaupt. Und Maximum dreht heute eigentlich kaum ne Karte.
Viel eher reichen da 0,05V weniger die bei ner Partnerkarte mit großem Kühler angesetzt werden und der Verbrauch sinkt um 10-20W.
sieht für mich ziemlich genau aufs % gleich aus... was auch Nvidias und AMDs Ziel ist da keiner mit dem Preis nachgeben muss ^^
Mir riecht das nach wie vor fast nach Preisabsprachen und hier auch Leistungsabsprachen. Man trimmt das Produkt so dass es genau gleich auf ist. Nvidia hätte ja auch bei der TITAN X und GTX 980 TI sofern nötig gut 10-20% mehr Takt ansetzen können... macht man aber nicht da denen wohl daran liegt genau gleiche Leistung anzubieten.
Gegenargument?
- Nvidia Preispolitik
- Nvidia Kundenpolitik
- Nvidia G-sync nur mit wesentlich teureren Monitoren möglich
- Die 980ti/TitanX ist lauter
- Die 980ti/TitanX wird heißer
- Die 980ti/TitanX sind länger (unpassend für viele Gehäuse (mini/micro-ATX yeah)
- Die 980ti/TitanX sind schon länger auf dem Markt und haben schon (3?) Treiber Updates bekommen / FuryX ist neu und auf Augenhöhe der 980ti
- HDMI ist zum Sterben verurteilt / Spanne von 4k Fernsehern unter 30ms Input lag ist verschwindend gering
- AMD hat HBM, was allem Anschein nach mit 4GB locker für 4k Gaming reicht
- Die Fury X wird günstiger, also auch vom P/L her besser
- Die Fury X hat eine wesentlich höhere computing leistung als die Titanx
Und das ganze noch ohne DX12 Bonus - to be continued wenn es soweit ist
- persönliche Einschätzung.
klar ich mein die optische Qualität spielt immer rein, egal ob Hairworks, TressFX, PhysX usw... ich mag diese proprietären Sachen auch nicht wirklich aber dass sich die Hersteller da versuchen nen Alleinstellungsmerkmal zu schaffen ist auch verständlich.
Die ein oder andere Gameworks Effekte sind wirklich sehr nice... die Feuer Demos zB auch.
@max_1234
sei dir genehmigt diese Argumente. Das meiste davon tangiert mich nicht und viele dieser Argumente scheinen mir etwas perplex, sozusagen "Gegenargumente" zu sein. Es geht ja da nicht um "Vorteile" sondern eher darum weshalb es für dich "kein Nachteil" ist.
zb "HDMI brauch ich nicht da kaum ein TV <30ms Input Lag" oder "HBM und 4GB da wohl ausreichend".