Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen
wieso schält man den Idle nicht ab oder zumindest deutlich niedriger als 950rpm?? Das wäre in meinem Fall viel zu viel ... bei 950rpm wäre ein Netzteil schon direkt als störend deklariert. Hat der 3000rpm Fan (die er nie braucht) so ne hohe Anlaufspannung / Drehzahl?
Der Lüfter geht nicht weiter zu drosseln, diese Gentle Typhoons bekommt man auf knapp 1000 U/min runter. Es ist im übrigen ein PWM-Lüfter, der läuft konstant mit 12V.
Ansich sind die GTs sehr gute und hochwertige Lüfter, die außerhalb von Deutschland in der Wakü-Szene auch ziemlich beliebt sind.
Ich verstehe nur nicht, warum AMD auf ein Standard High-RPM Modell setzt, obwohl sie doch auch die Low-RPM Modelle validiert haben, von denen bspw. Das 2150er Modell locker ausgereicht hätte. Scheinbar gehen sie selbst nicht davon aus, dass es sich lohnen würde sich von Nidec Servo ein Custom-Modell bauen zu lassen.
Ich zitieren mal Jen-Hsun Huang:
""....second 3D memory. Getting more bandwidth is easy, getting more capacity is easy, getting more capacity and bandwidth is really hard....""
Es wurde mich nicht wundern ob AMD, den HBM für Nvidia Pascal testet.
Könnte AMD 8GB HBM verbauen, würden sie es. Können sie aber nicht. Dass ist der Preis den sie dafür zahlen müssen, mit dieser Technologie als erstes am Markt zu sein. Immerhin arbeiten sie verstärkt an der Speicherverwaltung, und vielleicht tragt das auch weiterhin noch Früchte.
Ob ihnen dieser Preis bei der nächsten Generation zu gute kommt muss sich erst noch zeigen.
Es ist der Preis für AMD, d.h. kein Argument als Kunde die Nachteile zu ignorieren. Wenn es wenigstens eine Performancewunder in speicherunhungrigen Gelgenheiten wäre. Doch so wie es geworden ist, kann man die gesteigerte Bandbreite vergessen. Es bleibt ein zu kleiner Speicher und ein völlig vernachlässigtes Portfolio unterhalb der Fury.
Jetzt hab ich nur eine 660, und selbst da habe ich einen Monitor der DP kann. Wie schon gesagt, kommt bei mir kein Monitor hinzu der auf DVI angewiesen ist, daher führt für mich diese Argumentation ins nichts. Ebenso wie ich fehlendes HDMI2.0 nicht einen Tag vermissen würde.
Und ich hab 2 DP Monitore, der 3. würde nicht mehr benutzbar sein. Das ist ein Nachteil. Das kann man doch nicht allgemein für nicht erklären, nur weils einen selbst nicht trifft.
Was will man der AiO als nächstes vorwerfen, sollte sich das fiepen mal erübrigen? Dann kommen bestimmt Dinge wie die zu hohen VRM Temps, oder der zu warme Radiator.
Was soll der Quark? Als ob man die AIO von Grund auf hassen müsste... Das Ding fiept nunmal und wurde extra verbaut damits leise ist. Das ist doch ein netter Wiederspruch. Wie soll man als Kunde wissen, das es aufeinmal nicht mehr fiept? Das wird schwierig, die erste Ladung ist bereits im Umlauf.
Das sind eben die paar Sympathie Punkte die man AMD als Underdog zuschreiben muss.
Nachteile in Kauf zu nehmen ist keine Sympathie, sondern Quatsch. Nachteile in Kauf zu nehmen, die einen nicht stören ist was anderes, aber dazu muss man andere nicht missionieren.
Ich zitieren mal Jen-Hsun Huang:
""....second 3D memory. Getting more bandwidth is easy, getting more capacity is easy, getting more capacity and bandwidth is really hard....""
Nein, HBM ist für nvidia keine alte Sache, wollten sie doch ursprünglich auf HMC setzen, das sie zusammen mit Micron in Kooperation entwickelt haben.
Nur ist HMC offenbar HBM unterlegen und jetzt setzt nvidia bei Pascal auf HBM statt HMC.
Es wurde mich nicht wundern ob AMD, den HBM für Nvidia Pascal testet.
Nein? AMD hat zusammen mit Hynix zusammen an HBM geforscht. Seit scheinbar ca. 5 Jahren. Nvidia hatte vorher nicht so einen Einblick in die HBM Technik wie AMD und konnte keine Erfahrungen sammeln.
Warum ignorieren die AMD fanboys alle nachteile der Fury X (inc. Preiss) ?
Wäre es nicht nützlicher ob die AMD fanjobs AMD mal sagen das die VRAM werbung +4GB (3xx) und HBM hype einfach nichts bringt, wenn einfach die "neue" serie von Karten, der grünen vorgänger nicht wesentlich schneller, sparsammer oder billiger ist ??
IMO ist der grösste nachteil von AMD das die Fanboys einfach mit allem zufrieden sind.
4xx - 12GB Vram.
Fury Y - 8GB HBM, 10.000 buswidth.
Yipi yey.
PiPaPa schrieb:
Nein? AMD hat zusammen mit Hynix zusammen an HBM geforscht. Seit scheinbar ca. 5 Jahren. Nvidia hatte vorher nicht so einen Einblick in die HBM Technik wie AMD und konnte keine Erfahrungen sammeln.
Ich seh es eigentlich wie ihr - etwas Konsumverzicht würde wahrscheinlich mal wieder etwas Bewegung in den Markt bringen und der Käufer hätte ein besseres Preis-Leistungs-Verhältnis. Aber solang viele Leute mehr auf die Firma statt auf das Angebotene schauen, wird sicher keine große Veränderung kommen. Die Preise werden wahrscheinlich nochmal deutlich zulegen.
Lob mag da natürlich das falsche Wort sein, aber rein der Übersichhalber schneid ich gern alte Zöpfe ab. Ist natürlich kein Argument, da es nur für mich "Sinn" ergibt, aber nunja.
is ja auch dein gutes Recht darauf Wert zu legen . Mich stören die leeren Schlüsse hinten eigentlich weniger.
Stimmt, der Dual und Tripplehead Verbrauch hat sich extrem verbessert. Ich vermute mal weil die MC nicht mehr so extrem schnell takten müssen, oder evtl dem neuen Powertune zu verdanken, die die Karte runtertakten lässt.
Auf der anderen Seite versteh ich den Idle Verbrauch nicht...auch hier denke ich dass das per Treiber noch gefixt wird.
Bzw. sieht man am Verbrauch mit "kein Monitor", dass offensichtlich ZeroCore bei Fiji noch nicht richtig arbeitet.
steht glaub auch im Text. ZeroCore tut wohl noch nicht aber ich hab im Regelfall mein Bildschirm an. Im Vergleich von vor paar Jahren agieren die GPU ohnehin auf sehr sparsamen Idle Verbrauchsniveau. Aber ja, auch ich lass den PC manchmal Laufen da ich dann Fernzugriff mich daraufschalte um irgendwas zu erledigen, da wiederum würde ZeroCore durchaus was bringen.
Mmm das einzige Manko bei Freesync ist noch die 40Hz Problematik. Diese wird aber bei künftigen Scaler bzw. Panelgeneration auch hoffentlich der Vergangenheit angehören. Ais meiner Sicht kann ich nur hoffen dass diverse Monitorhersteller G-Sync fallen lassen. Und wenn Nvidias Ego dann zu groß ist, um auf Adaptive Sync zu setzen, würden sie den Karren an die Wand fahren, sofern sich Panelhersteller bemüht sich Adaptive Sync fähige Panels noch besser zu machen.
Wie du schon sagst ist das eher etwas wo die TFT Hersteller tätig werden müssen. Ich habe auch viele Games die ich bei um 30-40fps zocke, sieht man an den 4k Benches auch gut. Aber gut, der Philips 40" 4k hat leider weder G noch Freesync. Schade eigentlich aber die Arbeitstätigkeit / grafische Tätigkeiten gehn bei mir vor Gaming.
Ergänzung ()
der_henk schrieb:
Ich verstehe nur nicht, warum AMD auf ein Standard High-RPM Modell setzt, obwohl sie doch auch die Low-RPM Modelle validiert haben, von denen bspw. Das 2150er Modell locker ausgereicht hätte. Scheinbar gehen sie selbst nicht davon, dass es sich lohnen würde sich von Nidec Servo ein Custom-Modell bauen zu lassen.
same here. Ich mein kaum ein Review kommt auf über 1300 rpm, schon bei Furmark und weit weg von den 75°C Throttel Temperatur. Das Teil is heute ja auf Betrieb bei 50°C Raumluft ausgelegt mit seinen 3000rpm, selbst da vermutlich noch zu viel. Wie du sagst, mit ~2000 rpm wäre das mehr als genug gewesen und lieber bei leisen 600-800 rpm andrehen lassen. Die Pumpe ist ja eins aber auch der Lüfter läuft auf zu hohen Touren weshalb die Custom Modelle aus eigenen und Konkurrenz Reihen als sogar die Referenzkarten leiser sind (idle). Selbst die R9 290X is leiser idle.
Kann natürlich auch sein dass man wirklich noch OC so derb freischält dass die Fury X 1400 mhz macht und 500W verbrät.
@HBM
Nun Pascal hatte ja erst neulich Tapeout aber ich denke Nvidia wird so lange es geht auf GDDR5 setzen (zumindest so lange dieser wirtschaftlicher ist). Im Mainstream sowieso. Ein HBM Interposer wie bei Fiji, in 65nm (schon ordentlich klein) und >1000mm² ist sicher kein zu unterschätzender Kostenfaktor. Die Produktion hört sich 1. komplex an 2. ist man weniger flexibel. HBM2 lockert das etwas auf.
Naja wie auch immer, ich würde fast wetten dass AMD absolut 0 Vorteile durch den jetzt frühen HBM Einsatz hat. Nvidia hat ihr HBM Produkt so gut wie fertig und muss nun warten bis es wirtschaftlich ist, was auch von den 16nm oder 14nm oder was es auch nachher sein werden abhängt.
Man wird ne Tesla bringen, nächstes Jahr. Würde mich nicht wundern wenn der Consumer Markt bei Nvidia 2016 komplett um HBM rumkommt.
ZeroCore tut wohl noch nicht aber ich hab im Regelfall mein Bildschirm an. Im Vergleich von vor paar Jahren agieren die GPU ohnehin auf sehr sparsamen Idle Verbrauchsniveau. Aber ja, auch ich lass den PC manchmal Laufen da ich dann Fernzugriff mich daraufschalte um irgendwas zu erledigen, da wiederum würde ZeroCore durchaus was bringen.
Ich hab hier ein Crossfire (mit 2 Karten) und 3 Monitoren. Die Erfahrung mit ZeroCore ist sehr positiv: im reinen Desktop-Betrieb schaltet sich die zweite Karte komplett ab. Bei der ersten Karte läuft (seit ich von 1 auf 3 Monitore aufgerüstet habe) nur der Speicher mit vollem Takt (taktet sich nun nicht mehr runter), während der GPU-Core weiterhin auf 300MHz runtergeht.
Der erste Schritt beim Wechsel von HD4000 auf die HD5000-Generation (PowerPlay als Bestandteil von Terrascale 2?!) brachte schon ein ordentliches Energiesparpotential mit sich, das dann mit ZeroCore weiter optimiert wurde.
Informiere dich besser, denn dann wüsstest du dass NV HMC nützen wollte
HBM ist aber für GPU eigener Standard.
HMC hat genauso wie HBM seine Vor und Nachteile. Sowohl AMD als auch NV beschäftigen sich seit Jahren mit neuen Speichertechnologien. Bisher haben sich dann aber AMD Lösungen durchgesetzt.
Was soll an "HBM 2 (was es so nicht gibt, die Bezeichnung ist ein Forentypus)" bzgl Interposer irgendwas auflockern? Dieser wird bei der nächsten Version von HBM auch benötigt, somit braucht auch nvidia ihn.
Dazu was ist an Pascal ein fertiges HBM Produkt? Es soll einen Tape out gegeben haben. Dazu gibt es keine Bestätigung, nichts. Nur eine Meldung.
Nvidia muss erstmal mit HBM überhaupt was liefern.
und? Nvidia tut ja auch gut daran da sie schön sehen wie es bei der Konkurrenz funktioniert. Dass sich AMD auf HBM festgelegt hat ist ja schon länger klar und con HCM wird Nvidia auch schon länger weg sein. Nvidias Vorteil hierbei ist auch vor allem die Fertigung des Interposers usw. UMC stellt das ja zZ für AMD an, eventuell dann auch für Nvidia und das Verfahren wird nun für die Massenproduktion bereits erprobt.
Interessanter wirds ob Nvidias Package Lösung dann anders aussieht oder in wie fern beide Technologien auseinander gehen. Ich meine dass bei Pascal zumindest 6 HBM Chips abgebildet wurden im Schema.
Ich spreche da weder AMD nen wirklichen Vorteil zu noch Nvidia nen Nachteil. Ein Vorteil hätte AMD wenn HBM heute im Consumer Produkte Vorteile hätte die ich abseits der Größe der Karte bisher nicht wirklich erkennen kann.