News AMD Radeon R9: Fury X kostet 649 US-Dollar und ist ab 24. Juni erhältlich

Die Raumtemperatur ist da nicht so wichtig. Die AIO dürften auch mit 60-70°C Wassertemperatur noch betreibbar sein und damit recht hohes Delta zwischen Wasser und Luft haben. Der Vorteil von Wasser ist ja dass das Delta zwischen Chip und Wasser deutlich kleiner ist als bei Luft. Für nen 40-50°C kalten Chip recht um die 60 °C Wasser wenn die Abgabe ans Wasser passt... vllt arbeiten die AIO auch mit 70°C Wasser.

Luft kommt jedenfalls viel eher in Straucheln als Wasser was Umgebungstemperatur angeht.

Was ist denn die zulässige maximale Wassertemperatur bei diesen AIO? Was passiert wenn die Pumpe ausfällt, im dümmsten Fall kocht das Wasser am Chip binnen wenigen Sekunden und das Ding geht hoch :D

(450W sind n bisschen anderes Kaliber als die 60W die heute ne CPU wegfrisst )

Edit: Man könnte auch 70 Bar Innendruck fahren (wie bei nem Druckwasserreaktor), dann würde Wasser erst bei 280°C verdampfen :P
 
Zuletzt bearbeitet:
Nach 17 Monaten nach der 750Ti und 9 Monaten (fast einem Jahr) und Nutzung von HBM hat es AMD geschaft uns diese
OC dream und Wordls fastest GPU zu machen:
Fury X mit WaKu
Fury X mit LuKu
Fury Nano
Ohne DP1.3 ? Ohne HDMI 2.0 ? Ohne H.265 ? Ohne Conservative Rasterization Tier 1, Raster Order Views (ROV) und Volume tiled resources ?

Und der 6 Monate lange Marketing BS ist auch nicht auszuhalten. Sie reden nur über HBM und nix anderes. Mit den rebrands sind sie leise und vergleichen sie es mit einer stock 7950/670 um schneller auszusehen und dann schreiben sie unter den 3D mark score ""relative"" performance.

Applaust AMD, Applaus ! Jetzt hat Nvidia einfach keinen grund sich mit Pascal (stacked mem+16nm) zu beeilen, sonder ich tippe auf ein maxwell 16nm rebrand.

C'mon AMD wir wollen Entwicklung und Konkurenz, es ist nicht genug sich immer hinterher zu schleppen.

All in all eine große Ingenieurische Enteuschung. Sie haben HBM nur benutzt um Luft für die aufgedrehten Cores zu machen.

Leute Nvidia hatte das selbe Performance schon vor Einem Jahr im beutel mit GDDR 5 gehabt und nur auf AMD gewartet.

Jetzt wird sich im nachsten 10+ Monaten sicherlich nichts ändern.


@CB
Bitte macht mal vernünftige Benchmarks:
fury waku vs. 980ti hibryd
fury luku vs. 980ti luku
fury nano vs. 970 mini

Bravo ATi
 
Zuletzt bearbeitet:
Wie auf dem Bild zu erkennen ist, wird der Chip und der HBM-Ram vom großen Kühlblock inkl. Pumpeneinheit gekühlt.
Für die Spawas wurde der Rücklaufschlauch extra unterbrochen und ein Kupferrohr dazwischengebaut. Dieses Kupferrohr läuft offensichtlich genau über den Spawas und ist mit der Kühlplatte scheinbar verlötet, um die Wärmeübertragung zu verbessern.
 
Mc_Luebke schrieb:
Was man bei der ganzen Diskussion vielleicht beachten sollte, ist, dass NVIDIA ein knapp 50% höheres Forschungsbudget hat als AMD und Intel ein knapp 13 mal so hohes Forschungsbudget. AMD konkurriert mit beiden gleichzeitig (kann allerdings von Synergien profitieren und fertigt nicht selber).

Das ist zwar eine schöne Anekdote am Rand, aber als Käufer interessiert mich das herzlich wenig. Da nehm ich das Produkt was mir den besten Gegenwert für mein hart verdientes Geld bietet.

AMD hat schlicht kein Geld um NVIDIA an der Spitze das Wasser abzugraben.

Wenn es denn tatsächlich auf eine Massenschlacht hinausläuft und man selbst nicht genug Masse hat, ist es dann klug, da mitzuspielen?

AMD verhindert erfolgreich zwei gigantische Monopole, die die Kunden ohne Zweifel ganz stark betreffen würden

Ein Duopol ist nicht besser, und ein Monopol kann man nur dann verhindern, wenn die eigenen Produkte noch eine konkurrenztechnische Relevanz haben. IM CPU Bereich ist das bei AMD wohl nicht mehr der Fall.

Im CPU Bereich ist es sicherlich nicht Intels Absicht komplett weg zu ziehen, da im Falle eines Monopols die Wettbewerbshüter vermutlich böse nerven.

Warum sollten sie das tun? Ein Monopol ist nicht per se eine verbotene Sache, und wenn man ein solches erreicht, weil die Konkurrenz aufgibt, dann ist das kein Grund für die Wettbewerbshüter einzuschreiten. Abgesehen davon ibt es im CPU-Bereich abseits X86 noch genug Konkurrenz.

Zudem sind die Architekturen von AMD (zwar ineffizient aber) durchaus modern (sowohl GPU als auch CPU),
Widerspricht sich das nicht?

allerdings haben sie glaube ich die Softwareentwicklung bzw. das Verhalten der Konkurrenz falsch eingeschätzt. Module, APU und HBM sind z.B. extrem gute und (verhältnismäßig) günstige Technologien.

Wenn man die technische Entwicklung falsch einschätzt, dann hat man einen kapitalen Fehler begannen. Das kann man sich nicht sehr oft leisten, manchmal gar nicht.

Pisaro schrieb:
@jbauer: Aber es stimmt. Viele außerhalb des Forums empfehlen einfach NVidia und sagen AMD kann nichts. In meinem Freundeskreis war es schon so weit das meine Empfehlung (R9 290) dann gegen eine GTX 960 getauscht wurde weil NVidia ja extrem geil ist und man auf AMD nichts spielen kann. Genauso war die Wortwahl.

Das spricht nicht für deinen Bekanntenkreis :), bei meinem ist das anders.

Das AMD schlechte Produkte im GPU Bereich hat musst du mir mal zeigen.

Das habe ich nicht behauptet.

Achso: Wenn man nicht unbedingt Project Cars spielt ist eine 280x einer 960 vorzuziehen.

Wieso das? So pauschal läßt sich das nicht sagen, die 280x ist ein wenig schneller, dafür aber auch ein wenig teurer, verbraucht deutlich mehr Strom und ist heißer und lauter. Ohne die Anforderungen zu kennen läßt sich keine vernünftige Empfehlung abgeben.
 
Kenneth Coldy schrieb:
Ja. Mitleid mit NVIDIA. Finde ich ziemlich deplaziert, wer holzschrauben-Mockups als funktionsfähige Grafikkarte und Krüppelram verkaufen will soll sterben.
Was bist du für ein Troll?
 
@Cokebei3Grad
Wo siehst du da eine Nano?


Edit: Hups, etwas in der Seite verrutscht. Das war von Seite 11.
Nevermind. :/
 
Zuletzt bearbeitet:
jbauer schrieb:
Warum sollten sie das tun? Ein Monopol ist nicht per se eine verbotene Sache, und wenn man ein solches erreicht, weil die Konkurrenz aufgibt, dann ist das kein Grund für die Wettbewerbshüter einzuschreiten. Abgesehen davon ibt es im CPU-Bereich abseits X86 noch genug Konkurrenz.

Das ist nicht ganz richtig. Man erinnere Apple: die waren Pleite und suchten dringen einen Investor, um diese abzuwenden. Fanden aber keinen - bis Microsoft einschritt und Apple wieder auf die Beine half. Und das war bestimmt nicht aus Nächstenliebe - sondern weil Microsoft sonst wegen Monopol oder quasi-Monopol das eigene Unternehmen hätte aufspalten müssen.
 
@Tom_1

So langsam aber sicher nimmt die Anzahl der Trolle hier überhand.. ich klink mich jetzt aus dem Thread aus..
 
Butschre schrieb:
@issenia
Das war auch die Aussage von Lisa Su! Overclocking Potenzial wird da bestimmt vorhanden sein...

Potential ist immer da.

rentex schrieb:
Da unterstellt jemand, ohne RL Benches das die Fiji der 4 K King ist...

Unterstellen kann man erst einmal alles.

dcdead schrieb:
was wäre denn der optimale platz für so einen radiator? vorne einsaugend eher nicht, oder?

Eher hinten ausblasend

pupsi11 schrieb:
wüsste auf anhieb nicht wo ich dann den lüfter der fury x anbringen sollte. weil hinten ist ja schon der gehäuse lüfter. oben dann die aio für die cpu.

Und was würde dich davon abhalten, den hinten abzumontieren um den Radi da dran zu schrauben?

Außerdem wird es genau dafür ja entweder die nano oder mit Sicherheit auch Customkarten der Hersteller geben, wie das eben immer so ist ;)
 
vorne einsaugend eher nicht, oder?
Das müsste man dann im versuch Ermitteln, die Anordnung auf den Bildern zeigt eine raus blasende Montage und ist dann wohl für den hinteren Lüfter Platz gedacht. Man kann den verbauten Lüfter sicher auch rumdrehen so das der Radiator Luft von außen ansaugt was gerade bei hoher Wasser Temperatur einiges ausmachen kann. Wäre klasse wenn das hier im test dann auch gleich versucht wird.
 
Zuletzt bearbeitet:
pupsi11 schrieb:
wüsste auf anhieb nicht wo ich dann den lüfter der fury x anbringen sollte. weil hinten ist ja schon der gehäuse lüfter. oben dann die aio für die cpu.
Ja und? Dann nimmste den Gehäuselüfter weg und packst dort den GPU Radiator hin.
Ein Luftzug für Mainboard & Co ist ja weiterhin vorhanden.
 
Ja der Stromverbrauch bei einem Gamer ist Wurst.

Aber 80 Watt Unterschied x 100.000 Gamer ist nicht mehr ganz so Wurst.
 
pupsi11 schrieb:
wüsste auf anhieb nicht wo ich dann den lüfter der fury x anbringen sollte. weil hinten ist ja schon der gehäuse lüfter. oben dann die aio für die cpu.

Gehäuselüfter einfach ersetzen?
 
jbauer schrieb:
Das ist zwar eine schöne Anekdote am Rand, aber als Käufer interessiert mich das herzlich wenig. Da nehm ich das Produkt was mir den besten Gegenwert für mein hart verdientes Geld bietet.

Ist dein gutes Recht. Ich habe doch ausdrücklich geschrieben, dass es mir eben nicht darum geht das man AMD deswegen kaufen soll. Je nach Preisbereich bietet AMD jedoch nach wie vor den besten Gegenwert fürs Geld.

Wenn es denn tatsächlich auf eine Massenschlacht hinausläuft und man selbst nicht genug Masse hat, ist es dann klug, da mitzuspielen?

Was soll AMD denn sonst tun? Sich einfach auflösen? Sie sind dabei sich eine Nische zu schaffen (APU, Konsolen) und im mittleren Segment sind sie durchaus konkurrenzfähig (FX83xx + R9 280x sind Preis/Leistung sehr gut und je nach Anwendung deutlich schneller als die Konkurrenz).
AMD kann man sicherlich vorwerfen, dass sie in der Vergangenheit nicht schmutzig genug gekämpft haben. Nun sind sie so klein bzw. haben so wenig Geld, dass sie es nicht mehr können. Sie haben keinen finanziellen Hebel, machen weniger Gewinn und haben jetzt schon ein deutlich kleineres R&D Budget.

Ein Duopol ist nicht besser, und ein Monopol kann man nur dann verhindern, wenn die eigenen Produkte noch eine konkurrenztechnische Relevanz haben. IM CPU Bereich ist das bei AMD wohl nicht mehr der Fall.

Ein Duopol ist nicht zwangsweise besser, in den meisten Fällen ist dies aber der Fall. Intel hat schon mehrfach bewiesen, dass sie ihre Marktmacht missbrauchen, das lässt nichts gutes erhoffen. Wer davon ausgeht, dass es nicht schlechter wird, wenn AMD Pleite ist, der geht vermutlich auch im Kasino zum Geldautomaten.

Widerspricht sich das nicht?

Nein das ist kein Widerspruch.


Mich nervt dieses billige gebashe. Manchmal könnte man den Eindruck gewinnen jeder zweite Forenbesucher, der eine NVIDIA GPU oder Intel CPU besitzt wünscht AMD und allen Angestellten nur das Schlechteste. Umgekehrt gilt das natürlich ähnlich. Das ist Kindergartenverhalten und nützt im Zweifelsfall niemandem.
Damit meine ich nicht einmal den Schwanzvergleich, den viele hier betreiben, da sie sich scheinbar mit ihrem PC profilieren wollen oder sich, noch schlimmer, (teilweise) darüber identifizieren. Das "Wer hat den Längsten?" Gehabe ist ja manchmal noch amüsant zu lesen.
Es gibt kein einziges prominentes Beispiel in dem ein Monopol dem Verbraucher langfristig einen Nutzen gebracht hat, ganz im Gegenteil. Dafür gibt es aber unzählige Beispiele, dass Konkurrenz das Geschäft belebt und sowohl die Zahl der Innovationen erhöht als auch die Innovationszeit verkürzt.
 
flappes schrieb:
Ja der Stromverbrauch bei einem Gamer ist Wurst.

Aber 80 Watt Unterschied x 100.000 Gamer ist nicht mehr ganz so Wurst.
Bevor wir wegen 100.000*80W kreischend im Kreis herum rennen, sollten wir uns wesentlich mehr Gedanken um unseren Fleischkonsum und die Verdauung von Kühen Sorgen machen.

Alternativ das Millionen von Menschen tagtäglich mehr als 80W zusätzlich durch ineffiziente Wasserboiler, unnötig langes duschen usw Strom verschwenden.
 
flappes schrieb:
Ja der Stromverbrauch bei einem Gamer ist Wurst.

Aber 80 Watt Unterschied x 100.000 Gamer ist nicht mehr ganz so Wurst.

Doch? Oder warum sollte das für jemand einzelnen Relevant sein wie oft der Nachbar sich die Haare föhnt? Komm' da irgendwie nicht so mit grad?

@PiPaPa: Strom kann man nicht verschwenden ;)
Selbst wenn du alle 5 Jahre den Supertollsten Boiler kaufen gehst kommt dich das Energietechnisch 10 mal teurer als den alten zu behalten bis er die Grätsche macht wenn man ihn auch mal reinigt usw.
Fußabdruck undso. Und wenn ein 40 Jahre altes Auto heute immer noch fährt ist es immer noch sehr viel Effizienter als die heutigen, die nach ca 10 Jahren irreperabel die Grätsche machen.
 
Zuletzt bearbeitet:
Zurück
Oben