News PCB und Kühler der AMD Radeon R9 295X2 enthüllt

@riDDi
Ich hab gestern Lateinschulaufgabe geschrieben :stock:
Gibts das auch auf Deutsch für Lateinfaule? ^^
 
Richthofen schrieb:
Das scheint der Markt doch deutlich anders zu sehen als du :) Aber wahrscheinlich sind die alle doof. Es bleibt dabei. Nvidia fährt mit Kepler besser als AMD mit seinen GPUs. Und GK110 hat im Vergleich zu Hawaii doch erheblich mehr Potential. Der lässt sich einfach leichter kühlen und das ist auch bei einem Dual GPU Setup gegeben. Mit der gleichen Kühllösung zieht GK110 auf und davon. Ich glaube nur, dass Nvidia sich das sparen wird. Die werden eher eine 790 im 690 Stil heraus bringen. AMD wird sich durch exorbitante Leistungsaufnahme wieder entsprechend unbeliebt machen. War ja bei der 7990 schon so und bei der 7970 und 290x ebenfalls.

Der Markt sieht das nicht anders.....
Ich habe von Produkten geschrieben, welche noch gar nicht auf dem Markt sind und die momentane Situation ist einfach die, dass AMD mit dem W9100 effizienter, schneller und günstiger aufgestellt ist, als Nvidia mit dem Titan Z.

Die Frage ist halt nun wie sich der Markt entwickelt, wenn AMD diese Karte auf den Markt loslässt.

Edit: Ach übrigens,die 290X und Titan Black Verbrauchen gleich viel Strom ;)
 
Zuletzt bearbeitet:
core2e6300 schrieb:
Eine AIO mit 2x 120mm Lüftern kühlt eine 400W Grafikkarte vielleicht auf 80°C und das bei Haarföhn-Lautstärke. ;)
Richtig. Deshalb hat bislang auch ein einfacher Radiallüfter gereicht, um die HD6990 (auf ~80°) bei Haarföhn Lautstärke zu kühlen. Die hat mit OC-Profil auch mal 400Watt gezogen. Die Wasserkühlung hat da deutlich mehr Potential, da ist dann auch die um 100 Watt gestiegene TDP zu vernachlässigen.
 
Gibt es irgendwo verlässliche Zahlen wieviele dieser Doppel-GPU Brummer AMD und NVidia die letzten Jahren jeweils verkauft haben?

Würde mich schon einmal interessieren.
 
Oromis schrieb:
@riDDi
Ich hab gestern Lateinschulaufgabe geschrieben :stock:
Gibts das auch auf Deutsch für Lateinfaule? ^^
"melius est ergo duos esse simul quam"
Google sagt: Es ist daher besser, daß zwei zusammen sein sollten, als :lol:

Also irgendwas mit "zwei sind besser" ;)
 
core2e6300 schrieb:
Ich glaube du verstehst mich nicht. Ich habe einen Radiator mit 9x120 mm Lüftern und trotzdem wird die GTX 680 noch so warm. Bei absoluter Vollast wird sie übrigens noch wärmer, habe es etwas falsch in Erinnerung gehabt.
Dadurch, dass das Wasser dann sehr warm wird, wird auch die CPU deutlich wärmer (+10 °C). Und das bei einer "nur" 200W Grafikkarte mit einem Monster-Radiator.
Eine AIO mit 2x 120mm Lüftern kühlt eine 400W Grafikkarte vielleicht auf 80°C und das bei Haarföhn-Lautstärke. ;)

Hmmm... Das widerspricht eigentlich allen, was ich bisher so an Werten von wassergekühlten Grafikkarten gesehen habe. Sobald eine WK im Spiel ist, sind GPU-Temperaturen eigentlich kein Problem mehr.
Hast du es tatsächlich mal mit kleinerem Radiator versucht, oder ist das nur ein Bauchgefühl, dass die Temperaturen dann dramatisch steigen würden?

Ich hab jetzt keine Lust, ewig nach vergleichbaren Testszenarien zu suchen. Leider machen sich viele Reviewer nicht mal die Mühe mitzuteilen, was für einen Radiator sie überhaupt benutzt haben.
Hier ist ein spontan gegoogletes Beispiel einer 290X an einem 180mm-Radiator, inklusive i5@4,2GHz. Die Delta-Temperatur geht selbst bei starker Übertaktung nicht über 30°.

Ich erwarte eher nicht, dass die 295X2 den 120mm-Radiator zu sehr überfordert. Aber wir werden es ja am Dienstag sehen. :)
 
Oromis schrieb:
Gibts das auch auf Deutsch für Lateinfaule? ^^

Gorby schrieb:
"melius est ergo duos esse simul quam"
Google sagt: Es ist daher besser, daß zwei zusammen sein sollten, als :lol:

Also irgendwas mit "zwei sind besser" ;)

Steht auf dem Karton. Ich hab auch nur Google gefragt.
 
aivazi schrieb:
Edit: Ach übrigens,die 290X und Titan Black Verbrauchen gleich viel Strom ;)

@Stock ist die Black 20 Watt sparsamer und 6-8% schneller, @Max sind es nur noch 10 Watt zu Gunsten der Black bei 9-12% Mehrleistung. Und das trotz mehr Speicherchips die dann durch den hohen Takt noch ein gutes Stück mehr verbrauchen.

Der GK110 ist, in Sachen Gaming Hawaii durchaus überlegen, sowohl von der Effizienz und der Kühlbarkeit als auch von der Maximal erreichbaren Leistung her. Wobei die Kühlbarkeit in erster Linie durch die größere Fläche bei (etwas) geringerem Verbrauch erreicht wird, die Leistung durch die etwas effizienteren Shader und die höheren Taktreserven.
Allerdings fällt auch deutlich auf dass der GK110 seinen Sweet-Spot in den Taktbereichen der Ur-Titan zu haben scheint und darüber doch teils deutlich an Effizienz verliert. Wahrscheinlich ist das auch der Grund weswegen die Titan mit nur 836Mhz Baseclock gekommen ist - so konnte NV noch schön Lob für die Sparsamkeit einheimsen. @Max zeigt die Titan ja auch wohin die Reise geht.

Die Effizienz der Karte wird bei >1000Mhz sicherlich nicht rosig sein, aber dafür gibt es eben auch massivst Leistung; und für letztere werden sich immer Abnehmer finden, vor allem wenn man "nur" die Hälfte der Z dafür verlangt; und doch ist das eine Summe die zu 40nm Zeiten noch für 2 Dual-Grakas gereicht hätte.
 
Dann wirds wohl "2 sind besser als 1" heißen. Ich will jetzt mein Lateinbuch einfach nicht anfassen^^
 
riDDi schrieb:
melius est ergo duos esse simul quam

Wenn meine Lateinkenntnisse nicht komplett eingerostet sind müsste es übersetzt in etwa (komplett frei, ganz genau würde es nicht "deutsch" klingen) heißen:

"Es ist besser zu zweit zu sein als alleine"

Ganz richtig übersetzt:
Es ist besser zwei zusammen zu sein als ich (selbst).

Nehmt mich da aber nicht beim Wort, hatte schon 2 Jahre kein Latein mehr.
 
Zuletzt bearbeitet:
Thanok schrieb:
@Stock ist die Black 20 Watt sparsamer und 6-8% schneller, @Max sind es nur noch 10 Watt zu Gunsten der Black bei 9-12% Mehrleistung. Und das trotz mehr Speicherchips die dann durch den hohen Takt noch ein gutes Stück mehr verbrauchen.

Der GK110 ist, in Sachen Gaming Hawaii durchaus überlegen, sowohl von der Effizienz und der Kühlbarkeit als auch von der Maximal erreichbaren Leistung her. Wobei die Kühlbarkeit in erster Linie durch die größere Fläche bei (etwas) geringerem Verbrauch erreicht wird, die Leistung durch die etwas effizienteren Shader und die höheren Taktreserven.

10% schneller bei 25% mehr DIE Fläche ( wo man locker 35% mehr Shader reinpacken kann ) und deutlich mehr DP Power sehe ich als vieles an aber sicher nicht überlegen.

AMD hat scheinbar die bei weitem bessere Architektur. aber dadurch das sie ein deutlich kleineres DIE nutzen ist der GK110 der bessere Chip. Leider wird letzteres meistens mit ersterem gleichgesetzt ...
 
Oromis schrieb:
Dann wirds wohl "2 sind besser als 1" heißen. Ich will jetzt mein Lateinbuch einfach nicht anfassen^^

Ach ja das elendige Latein. Ich habe zwar das große Latinum, aber keine Ahnung, wie man das übersetzt :D

Die Übersetzung von GamingWiidesire könnte aber hinkommen.
 
Knuddelbearli schrieb:
10% schneller bei 25% mehr DIE Fläche ( wo man locker 35% mehr Shader reinpacken kann ) und deutlich mehr DP Power sehe ich als vieles an aber sicher nicht überlegen.

Bitte beachte das Fettgedruckte in meinem Post. Ich habe es bewusst FETT geschrieben damit genau so ein Post nicht vorkommt. Das nächste mal muss ich das wohl in Rot machen.

Außerdem vergleichst du die Leistung/mm², wogegen ich auf die Leistung pro Watt hin argumentiert habe. In Sachen Leistung/mm² ist AMD natürlich vorn, nur nützt dem Nutzer das herzlich wenig. Außerdem sind je nach Architektur die einzelnen Shader größer und brauchen so grundsätzlich unterschiedlich viel Fläche. Interessant wäre lediglich zu wissen wie viele Shader der GK110 oder Hawaii hätten beherbergen können wenn der ganze GPU-Computing-Kram wegfallen würde; nur dann könnte man wahrscheinlich zu wenig Geld verdienen da der Profi-Markt an so etwas nicht interessiert wäre.
Mir als Nutzer ist es egal ob der Chip für die Leistung nun 20mm² oder 2.000mm² braucht, aber mir ist es nicht egal ob die Karte 200 oder 2.000 Watt für diese frames braucht. Von ersterem hat der Kunde nichts (bzw. nur indirekt da ein kleinerer Die bei gleicher Komplexität billiger ist als ein großer; die Komplexität von den aktuellen Chips können wir allerdings nicht beurteilen), von letzterem jedoch schon.
 
Knuddelbearli schrieb:
10% schneller bei 25% mehr DIE Fläche ( wo man locker 35% mehr Shader reinpacken kann ) und deutlich mehr DP Power sehe ich als vieles an aber sicher nicht überlegen.

AMD hat scheinbar die bei weitem bessere Architektur. aber dadurch das sie ein deutlich kleineres DIE nutzen ist der GK110 der bessere Chip. Leider wird letzteres meistens mit ersterem gleichgesetzt ...

Also dass mit der DP Power stimmt ja eigentlich so nicht ^^, eine nicht durch das Bios limitierte Hawaii XT bietet mit 2,67 TFlop/s mehr als doppelt soviel DP Leistung gegenüber einer entfesselten Titan die nur etwa 1,3 TFlop/ Leistung hat.
Demnach fällt das Pro Argument in Sachen Computing bei dem GK110 fast komplett weg, da dieser Grad einmal halb so effizient ist wie ein Hawaii XT.

Lediglich im Gaming verbraucht der der GK110 etwa 18 Watt weniger... was aber auch keine große Nummer ist, die Differenz von der 5870 und GTX480 war damals der Hammer mit 150 Watt, aber 18 Watt lassen mich schon etwas Kalt, vor Allem weil die Differenz zwischen 327 und 345 Watt im einstelligen Prozentualen Bereich ist.

Edit:
Interessant wäre lediglich zu wissen wie viele Shader der GK110 oder Hawaii hätten beherbergen können wenn der ganze GPU-Computing-Kram wegfallen würde

Das ist ja das interessante an den beiden Architekturen.
Der GK110 würde dadurch kleiner werden, weil für die DP Computing Leistung extra Einheiten vorhanden sind.
Der Hawaii dagegen würde gleichgroß bleiben, weil er keine extra Einheiten hat, sondern die Shadereinheiten fungieren für das Computing, weshalb der Hawaii auch dieses krasse Verhältnis von 1:2 von SP und DP hat.
 
Zuletzt bearbeitet:
Richthofen schrieb:
Das scheint der Markt doch deutlich anders zu sehen als du :) Aber wahrscheinlich sind die alle doof. Es bleibt dabei. Nvidia fährt mit Kepler besser als AMD mit seinen GPUs. Und GK110 hat im Vergleich zu Hawaii doch erheblich mehr Potential. Der lässt sich einfach leichter kühlen und das ist auch bei einem Dual GPU Setup gegeben. Mit der gleichen Kühllösung zieht GK110 auf und davon. Ich glaube nur, dass Nvidia sich das sparen wird. Die werden eher eine 790 im 690 Stil heraus bringen. AMD wird sich durch exorbitante Leistungsaufnahme wieder entsprechend unbeliebt machen. War ja bei der 7990 schon so und bei der 7970 und 290x ebenfalls.

Da du keine Ahnung hast, äußere dich einfach nicht!
Eine meiner 6950, ist im Cinebench schneller, als eine Titan, dies meint er mit Effizienz.
In einer Workstation, hat NV momentan absolut nichts zu suchen.
Auch die Leistung einer Quadro, ist mehr als peinlich, im Vergleich zu einer Midrange AMD Karte!

Was denkst du denn, warum die NV Karten, so wenig Strom fressen beim gamen?
Dies wurde hart erkauft, indem man die Open GL/ CL Leistung stark beschnitten hat.
 
Reichlich langweilig über die DP Leistung zu schwärmen und gleichzeitig die schwache Tessellation Leistung von Hawaii zu ignorieren.
Die 295X wird an Spieler verkauft, die eben vor einem Jahr 1,5 Titan oder vor ein paar Monaten 3 290X fürs selbe Geld bekommen hätten. Über die Chipgröße zu jammern ist mal wieder das typische einseitige Mimimi. Vielleicht nochmal überlegen ob es eine 290X zu dem Preis überhaupt geben würde, bei einem fetteren Chip.

@aivazi
Eine 290X Uber saugt über 300W, während es bei der 1 Jahr alten Titan 200W sind.
http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php
Schlägt sich doch ganz gut die Museumshardware "Titan".

Eine GTX 480 liegt gar bei sparsamen 230W
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

Wo das ein einstelliger Prozentbereich sein soll ist wohl dein Geheimnis.
 
Es kommt eben auch auf das Einsatzgebiet an. Der ganze DP, GPU-Computing Kram kann mir als Gamer voll und ganz gestohlen bleiben so dass ich gerne voll darauf verzichten kann und dafür mehr Shader mit offenen Armen begrüße.
Wer viel OpenCL/GL nutzt ist derzeit mit AMD weitaus besser beraten, da kommt Kepler nicht Ansatzweise mit. Im Serverbereich bietet NV jedoch einen Vorteil den AMD bisher noch nicht hat egalisieren können - CUDA. Es gibt genug Software die CUDA nutzen kann und dort nützt einem die OpenCL Performance natürlich nicht wirklich was.
Schön wäre es natürlich wenn die Hersteller die Karten künstlich beschneiden würden so dass man eine Karte kaufen könnte die nur die Features hat die man selbst braucht, ähnlich wie Intel das mit den CPUs abzieht. Wobei dann die voll ausgestatteten Versionen wohl noch teurer sein würden.

Es hat eben alles sein Für und Wieder und jede Architektur hat in bestimmten Bereichen Stärken und Schwächen. Aus reiner Gamersicht halte ich den GK110 eben für "besser" da der Chip bei gleicher Leistung weniger verbraucht, und somit leichter (leiser) zu kühlen ist. Bis auf CUDA bei der Videokonvertierung habe ich aber sonst nichts von dem ganzen Computingkram gebraucht.
 
Thanok schrieb:
Bitte beachte das Fettgedruckte in meinem Post. Ich habe es bewusst FETT geschrieben damit genau so ein Post nicht vorkommt. Das nächste mal muss ich das wohl in Rot machen.

Lies meinen ganzen Post dann musste gar nichts fett markieren. Habe deinem Hervorgehobene extra einen ganzen Absatz gewidmet
 
Irgendwie erinnert mich Nvidia vs. AMD wie Apple gegen Samsung. Die einen setzen auf Professionalität und Understatement bei ihren Veröffentlichungen und Marketing, die anderen machen jeden Mist, um Publicity zu erhalten. Das sind echte Gegensätze.:D
 
Zurück
Oben