News Radeon R9 390X anscheinend mit Cooler-Master-Kühler

Relaxo32

Ich hatte damals die GeForce FX 5700

Was das Case angeht. Naja kommt drauf an, welchen CPU Kühler man verwendet.

Ich würde zwei Komplett-Kühler nehmen, für CPU und GPU und vorne rauspusten lassen. Hinten kommt dann die Frischluft rein.

Was AiO selbst angeht. Man wird es sehen, aber ich denke eher, man sollte mal den Referenzkühler der R9 290X ansehen und dann die des R9 295X, welche ja bekanntlich ja zwei Hawaii Chips hat.
Wenn man nachforscht, wird man sehen, dass bei der R9 295x bei Lautstärke und Kühlung besser abschneidet und das auch nur mit einem 120 mm Radiator.

Btw noch ein Beispiel. Es gab ja vor der R9 295X auch eine R9 290X2

https://geizhals.at/powercolor-radeon-r9-290x2-devil-13-axr9-290x-ii-8gbd5-a1127312.html?hloc=at
1127312.jpg


500 watt TDP für das Boardlayout. Gut man benötigt hier dann eben eine 3 Slot Kühllösung.

Was sich im Design ändert, ist der HBM Speicher. Ob der eine aktive Kühlung benötigt, wird man dann wohl noch hören.

Aber hier zeigt sich die R9 295X etwas schneller und bei weiten leiser als die Luftkühler Version von Powercolor.
 
Zuletzt bearbeitet:
kisser schrieb:
b) die produzierten Stückzahlen anfangs gering sind.
Zudem muss Hynix hier erstmal nicht mit anderen Herstellern konkurrieren. Andererseits hat AMD hat die Technik mitentwickelt, das kann schon auch helfen.

Sofern die Listungen bei Zauba irgendeine Aussagekraft haben, was OVP oder Straßenpreis angeht, wird Fiji schon merklich teurer als Hawaii. iirc waren die Einträge so um die 75.000 Rupien, Vesuvius (295x2) liegt bei 90.000. Für uns hier kommt dann noch der schwache Eurokurs dazu ;) (was natürlich auch GM200 betrifft)

Es ist ja auch nicht nur HBM, es kommt noch der riesige Chip mit 4096 SP und ein großer Interposer dazu. Die AiO natürlich auch, falls es stimmt.
 
Zuletzt bearbeitet:
pipip schrieb:
Relaxo32

Ich hatte damals die GeForce FX 5700

Ich die FX 5600, schlechteste Karte die ich jemals hatte :D

500 watt TDP für das Boardlayout. Gut man benötigt hier dann eben eine 3 Slot Kühllösung.

Klar, da wird man vllt nicht drum rum kommen, aber meine Bedenken waren auch bezüglich der Dritt-Hersteller, dases diesmal gleich von Anfang an alles richtig gemacht wird von allen Herstellern bzw. neue Kühlerkonzepte entwickelt werden. Vllt setzen auch einige Hersteller selbst vermehrt auf AiOs, würde sicher der Verbreitung dieser zu gute kommen.

Aber mal abwarten, Tee trinken.
 
Zuletzt bearbeitet: (pauschalisierung rausgenommen)
Katillah schrieb:
Die eigentliche Frage ist doch:
Wieviel Tee muss ich noch trinken, um die Abwarterei zu überwinden

Can it run Crysis ist die eigentliche Frage. Und vor allem: how fast.

Und wenn das ding am 12.2. in Indien war...wieso isses dann noch nich hier ? Die sollen mal schneller fahren...
Ergänzung ()

Relaxo32 schrieb:
Schönes Beispiel mein Lancool K11X: vorne 2 Einlässe, hinten 1 Auslass. Wie verbauen? Vorne anschließen, saugend -> Wärme der Grafikkarte über den Radiator wird mit ins Gehäuse gepumpt, was wiederum die anderen Komponenten unnötig aufheizt. Hinten raussaugend -> Wärme aus dem inneren des Gehäuses läuft mit über den Radiator, was die Kühlung der Grafikkarte wiederum senkt. Nach vorne rausblasend ist auch ein Problem, da der Lüfter des Radiators dann wahrscheinlich die Luft des zweiten einsaugenden Lüfters absaugen würde.
Eine effektive Nutzung gibt es in dem Fall nicht.
Und es gibt sicher auch andere 0815 User die sich eine 390x zulegen wollen, aber eben ein 0815 Gehäuse haben wo maximal ein Auslass/Einlass vorhanden sind.
vorne, unten.
ist wirklich ein sehr schönes beispiel. gehäuse ohne top lüfter sind bei high end hardware nicht mehr zeitgemäß.
wenn du high end hardware bzw. hardware, die besonders heiss werden kann, verbauen willst, dann brauchst du nicht mit einem ford fiesta gehäuse ankommen. ist jetzt nicht persönlich bezogen.
 
Was ist denn ein "High End" Gehäuse?
Eins mit besonders vielen Lüfterplätzen?

Meins hat genau zwei. Vorne 120mm, hinten 120mm (+NT oben).

Weniger ist manchmal mehr. Das reicht auch für... High End (nur für diese AIO leider nicht, weil ich die Lüfterplätze für Lüfter benötige ;) ).
 
Bei der Delta-Kodierung werden nur noch Werte gespeichert, welche die Farbdifferenzen zwischen einzelnen Pixeln darstellen. Da sich die Farben meistens nur marginal unterscheiden, wird weniger Speicher benötigt, als wenn man die kompletten Farbinformationen speichern würde.
Weniger Vram Verbrauch laut Theorie. Ergo nicht nur die Überschrift lesen.

Da es viele Karten mit 2 unterschiedlichen Speichermengen gab, rechnet man entweder immer mit der geringeren oder immer mit der höheren. Ansonsten wird das Bild verzerrt.
Es geht nicht drum was es im Standard gab, sondern welche Rohleistung wieviel Vram verarbeiten kann. Auf Marketing hab ich noch nie was gegeben, meine Ergebnisse kommen alle von Jahre langer Beobachtung. Die 580 3GB hat es mal wieder gezeigt. AMD hatte recht, zu einer HD 7900er Rohleistung gehören sich 3GB Vram. NV verbaut bei der Titan II auf jeden Fall nicht zu viel Vram(NV typisch), die Titan I hatte auch kein GB zu viel an Bord.
 
Zuletzt bearbeitet:
Die Titan hatte auch den "Prosumer" als Zielgruppe.

Aber eine GTX 580 mit 3GB? Die hat sich wirklich jemand gekauft damals lol? (Zumindest ohne SLI).

Aber gut, mal so mal so. Entweder es ist zu viel oder zu wenig. Oder gibt es zu wenig gar nicht?
 
Eine 580 3GB ist das allergleiche wie eine Titan II 12GB. Ein Chip im Vollausbau mit verdoppelten Vram. Der einzige Unterschied ist das die 580 3GB für 500€ zu haben war und die Titan II wohl für 1500€ an den Start gehen wird.

LOL eine 6GB Titan II zum Wucherpreis. Das will ich mal sehen wer sich freiwillig im Vram beschneiden lässt und so viel Geld hinlegt. Vor allem soll die Karte ja auch für Quad SLI noch geeignet sein. Und dann am besten die GTX 1080 mit 3GB ins Rennen schicken.

Guggt ihr hier wenn ihr die Vram Basics mal abdecken wollt, inkl. der Zeit in dem die 580 3GB gekauft wurde und man schon Anfang 2011 merkte das 1,5GB hinten und vorne nicht ausreichen werden in Zig Jahren: https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/

Wann wurde jemals zu viel verbaut? Sogar die 8800GTX 768MB brauchte dann am Ende bei SC II Ultra Details jedes MB um nicht abzusaufen. Rohleistung wieder perfekt in Sync mit der Vram Ausstattung.
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Als jemand der noch nie 'ne Wasserkühlung besaß, werfe ich mal die Frage in die Runde: Wieviele Jahre hält denn so ein geschlossenes System einer vom Hersteller aus wassergekühlten Grafikkarte? [...]

Herdware schrieb:
Ich habe seit November 2011 eine H100 als CPU-Kühler im Einsatz. Die funktioniert heute noch so, wie am ersten Tag. Die Kühlleistung ist nicht zurückgegangen und sie ist auch nicht lauter geworden oder zeigt irgendwelche sonstigen Verschleißerscheinungen. Der AiO-Kühler hat sich als wirklich wartungsfrei herausgestellt. (Ich klopfe auf Holz und hoffe, dass das noch ein paar Jahre so bleibt. ;) [...]

Ich habe einen 240er Radiator seit 2009 im Towerdeckel inkl. wechselnder CPU/GPU Kühler im Einsatz.
Zur damaligen Zeit war das Thema Wasserzusätze noch nicht so verbreitet und es wurde gern mal nur dest. Wasser (normales Wasser wäre def. nicht wartungsfrei) eingefüllt. Als ich angefangen hab gaaaanz wenig Gylsantin (0815 PKW-Kühlerschutzmittel) beizumischen habe ich auch beim Wasser keine Ausfallerscheinungen mehr. Auf teures super duper Wasserkühlungsmittelkorrossionschutzkonzentrat kannst du da verzichten.
 
Ja also die Titan II wird wohl schon 12Gb haben. Die 2 anderen Titan´s hatten ja schon 6GB. Wenn die titan X wirklich "nur" 6GB Vram hat wird die 980Ti/990 nur eine übertaktete GPU.
 
Kasmopaya schrieb:
Es geht nicht drum was es im Standard gab, sondern welche Rohleistung wieviel Vram verarbeiten kann.

Das lässt sich aber nicht sinnvoll allgemeingültig angeben, weil das Verhältnis von Shaderoperationen ("Rohleistung") zu Texturoperationen/-zugriffen ("VRAM-Menge/-Bandbreite") bei jedem Spiel bzw. jeder Anwendung anders sein kann.
 
Hauptsache das Ding hat ordentlich Leistung und ist vom Preis her angemessen und nicht zu laut.

Wer Strom sparen will, ist hier falsch aufgehoben. :p
 
Sehe ich auch so, ab einem bestimmten gewünschten Leistungslevel ist Stromsparen nicht mehr möglich...natürlich hat alles eine gewisse Grenze, die jeder selber bestimmen muss. Man bedenke das eine Karte dieser Klasse, nicht ständig auf dem Maximum betrieben wird.
 
Einfach lächerlich einiges hier.
Schauen wir uns einmal GM204 und GM200 an.
GM204 kommt ebenfalls in 80% der Fälle mit 6-Pin + 8-Pin + PCIe = 300W oder mehr daher. Quelle
Wir wissen gar nicht was 300W in AMDs Fall bedeutet. (Ich denke aber wie viele hier, dass es sich dabei um TDP handelt.)
Eine Referenz GTX 980 Verbraucht beim Spielen 185 Watt. Quelle
"Die GM200-GPU soll über 3.072 Shader- und 256 oder 192 Textur-Einheiten verfügen. 96 ROPs und ein 384 Bit breiter Speicherbus komplettieren die Eckdaten." Quelle
GM204: 2048 Shader, 128 TMU, 64 ROPs, 256 Bit Interface. Quelle
Also GM200 ist (bis auf den Takt natürlich) +50% GM204. Das macht mit einer ganz simplen Extrapolation einen Verbrauch beim Spielen von 277 Watt :freak:
 
poi schrieb:
(Ich denke aber wie viele hier, dass es sich dabei um TDP handelt.)

Nein. Bei Grafikkarten geben die Hersteller tatsächlich den Verbrauch an und nicht die TDP. Der 6 Pin bzw. 8 Pin Stecker ist nur dafür da um die Karte 100% Stabil zu betreiben mit ihrem auto overclock.
 
Hmm, schade. Ich hatte eigentlich darauf gehofft, dass die HBM den mid/low end Karten auch HBM gönnen würde, aber da stimmen die verschiedenen Leaks ja leider überein.
Ich hatte anfangs auf eine 370 (X) mit maximal 120 W gehofft welche grob um die 150 kosten soll "Träum".
Aber scheinbar haben sie nur den High end karten HBM gegönnt und die 285X welche wohl der 370 entspricht liegt beim Verbrauch ja deutlich darüber. (Aktuell ist meine Sapphire HD 6850 das mit abstand lauteste an meinem Rechner -.-)
Naja wahrscheinlich reicht mir ja auch die 260X, welche dann hoffentlich deutlich leiser, am besten (semi) passiv in meinen Rechner kommt.
 
Also wenn die Karte nicht so laut wird, werde ich das bestimmt auch noch irgendwie unterkriegen.

Ich hoffe mal auf gerechte Markteinführungspreise, weil ich eigentlich recht zeitig nach Release zuschlagen möchte, jedoch sind um die 400€ mein oberes Limit für ne Grafikkarte.

Wenn nicht, hoffe ich auf eine generalüberholte R9 290X mit 8GB als R9 380X, aber mit ein paar % mehr Leistung, soll mir auch recht sein.
 
Cool Master schrieb:
Nein. Bei Grafikkarten geben die Hersteller tatsächlich den Verbrauch an und nicht die TDP. Der 6 Pin bzw. 8 Pin Stecker ist nur dafür da um die Karte 100% Stabil zu betreiben mit ihrem auto overclock.

falsch,
nvidia gibt den maximalverbrauch an (der bei custommodellen auch gerne mal darüber ist)
amd gibt immer die tdp an, die selbst in partnermodellen äußerst selten überschritten wird
 
Bei Fermi war die TDP sogar unter dem Verbrauch, weil sie drauf ausgelegt war den Chip auf 90° köcheln zu lassen... der Chip hälts auch aus, aber wirklich gut ist die Idee trotzdem nicht. Die guten Custom-Kühler konnten dann auch den Stromverbrauch des Fermi etwas zügeln. Kühlere Chips haben weniger weniger Verlustleistung (weniger Leckströme).
 
Zurück
Oben