News PCB und Kühler der AMD Radeon R9 295X2 enthüllt

Thanok schrieb:
Mir als Nutzer ist es egal ob der Chip für die Leistung nun 20mm² oder 2.000mm² braucht, aber mir ist es nicht egal ob die Karte 200 oder 2.000 Watt für diese frames braucht. Von ersterem hat der Kunde nichts (bzw. nur indirekt da ein kleinerer Die bei gleicher Komplexität billiger ist als ein großer; die Komplexität von den aktuellen Chips können wir allerdings nicht beurteilen), von letzterem jedoch schon.

200 vs 2000 W na klar ...

es sind aber 230 vs 245W ( bei Aftermarkte Kühler, bei Referenz ist es mehr aufgrund der 90C° und Chips brauchen ab rund 85C° deutlich mehr Strom ) unter last. jetzt rechne mal aus wie lange die Karte unter LAST laufen muss damit sich der Aufpreis zur Black rechnet ^^

Und wie gesagt ich unterschied extra im 2ten Absatz zwischen Architektur ( wo NV mit Maxwell bestenfalls aufschließt oO ) und Chip wo NV dank 25% mehr DIE Space knapp vorn ist.
Ergänzung ()

aivazi schrieb:
Also dass mit der DP Power stimmt ja eigentlich so nicht ^^, eine nicht durch das Bios limitierte Hawaii XT bietet mit 2,67 TFlop/s mehr als doppelt soviel DP Leistung gegenüber einer entfesselten Titan die nur etwa 1,3 TFlop/ Leistung hat.
Demnach fällt das Pro Argument in Sachen Computing bei dem GK110 fast komplett weg, da dieser Grad einmal halb so effizient ist wie ein Hawaii XT.
Deshalb ja auch Pro Hawaii!


aivazi schrieb:
Das ist ja das interessante an den beiden Architekturen.
Der GK110 würde dadurch kleiner werden, weil für die DP Computing Leistung extra Einheiten vorhanden sind.
Der Hawaii dagegen würde gleichgroß bleiben, weil er keine extra Einheiten hat, sondern die Shadereinheiten fungieren für das Computing, weshalb der Hawaii auch dieses krasse Verhältnis von 1:2 von SP und DP hat.

Das stimmt so nicht.
Selbst 1:16 SP:DP kostet Transistoren. bis inkl 1:3 hält es sich noch in Grenzen aber 1:2 ist dann richtig teuer! Vorteil von den extra Einheiten von NV ist das man die Komplett Powergaten kann. Sie also im SP betrieb schlimmstenfalls 0,1W benötigen.
 
Zuletzt bearbeitet:
Vorteil von den extra Einheiten von NV ist das man die Komplett Powergaten kann. Sie also im SP betrieb schlimmstenfalls 0,1W benötigen.

Das Modell von AMD ist sogar noch effizienter.
Da brauchen die DP Einheiten im SP Betrieb einfach mal gar nichts, weil sie physisch nicht vorhanden sind :)
Spart sogar Chipfläche.
Da werden die selben Einheiten für beides benutzt. Das ist verdammt kosteneffizient. Irgendwo muss da noch mehr dahinter stecken. Einfach die selben Shader verwenden ist zu naheliegend, als dass man jetzt erst drauf kommt. Da muss AMD die Shader generell umdesignt haben.
 
Knuddelbearli schrieb:
200 vs 2000 W na klar ...

Wenn ich schon mit extremen Chipflächen anfange muss ich dies auch beim Verbrauch fortsetzen. Ansonsten passen die Verhältnisse nicht mehr.

Knuddelbearli schrieb:
es sind aber 230 vs 245W ( bei Aftermarkte Kühler, bei Referenz ist es mehr aufgrund der 90C° und Chips brauchen ab rund 85C° deutlich mehr Strom ) unter last.
Du musst schon Äpfel mit Äpfel vergleichen, also entweder beide @Referenz oder beide @Aftermarket. Referenz mit Aftermarket zu vergleichen ist einfach nur Schönrechnerei damit ein bestimmtes Produkt besser dasteht.

Knuddelbearli schrieb:
jetzt rechne mal aus wie lange die Karte unter LAST laufen muss damit sich der Aufpreis zur Black rechnet ^^
Jetzt geht das schon wieder los... Dass NV beim P/L hinterherhinkt ist allgemein bekannt, und dass alles mit "Titan" im Namen noch schlimmer ist, erst recht. Das Problem ist dass die meisten Leute eine GraKa nur über den Preis definieren (wobei nach dieser Logik eine iGPU die beste GraKa ist) und dabei die Vorzüge eines überteuerten Produkts unter den Tisch kehren. Ich habe im Titan-Diskussionsfred mal einen sehr großen Kritiker gefragt was denn abseits des Preises gegen die Titan einzuwenden sei - seine Antwort: Der Preis.

Humanere Preise würde ich sehr begrüßen, aber ich Boykottiere jetzt nicht GraKas nur weil ich die Preise für ungerechtfertigt halte.

Knuddelbearli schrieb:
Und wie gesagt ich unterschied extra im 2ten Absatz zwischen Architektur ( wo NV mit Maxwell bestenfalls aufschließt oO ) und Chip wo NV dank 25% mehr DIE Space knapp vorn ist.

Das liegt nicht unbedingt an der Chipfläche. NV opfert Chipfläche für eigene DP-Einheiten, AMD macht das nicht. Die Nutzfläche des GK110 beim zocken muss daher entsprechend umgerechnet werden. Wie gesagt, Äpfel und Birnen. Zumal natürlich beide Architekturen komplett anders aufgebaut sind und keiner weiß wie viel Fläche jetzt für was draufgeht. Dem Nutzer ist egal wie viel mm² Chip für die Leistung benötigt werden, der Verbrauch jedoch nicht.
 
@Unyu: Bei den von dir verlinkten Diagrammen wurde ich irgendwie stutzig und habe mal bei Computerbase nachgeschaut, was hier gemessen wurde (Gesamtsystem). Da bleibt zwar die Titan (und Titan Black) besser als die 290X, aber nicht um solche Welten. https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-titan-black-test.2410/seite-8
Wie kann man denn solche abweichenden Eindrücke erklären? Schlagt mich bitte nicht, ich bin nur neugierig und unwissend. :D

Das wollte ich nur mal in die Diskussion einbringen. Lese gerade interessiert mit. :daumen:
 
[F]L4SH schrieb:
Das Modell von AMD ist sogar noch effizienter.
Da brauchen die DP Einheiten im SP Betrieb einfach mal gar nichts, weil sie physisch nicht vorhanden sind :)
Spart sogar Chipfläche.
Da werden die selben Einheiten für beides benutzt. Das ist verdammt kosteneffizient. Irgendwo muss da noch mehr dahinter stecken. Einfach die selben Shader verwenden ist zu naheliegend, als dass man jetzt erst drauf kommt. Da muss AMD die Shader generell umdesignt haben.

Wie bereits gesagt auch bei AMD kostet das eine Menge Transistoren, eventuell sogar mehr und dafür ist die restliche Architektur weit Effizienter. Weiss das gerade nicht da 1:2 einfach fast noch nie da war.
Ergänzung ()

Thanok schrieb:
Du musst schon Äpfel mit Äpfel vergleichen, also entweder beide @Referenz oder beide @Aftermarket. Referenz mit Aftermarket zu vergleichen ist einfach nur Schönrechnerei damit ein bestimmtes Produkt besser dasteht.


Natürlich beide Aftermarket. Bei Titan nicht möglich aber TI hat den selben Verbrauch und dort sieht man auch das Aftermarket bei NV nichts bringt. Da der Verbrauch erst ab 85C° spürbar ansteigt.

Thanok schrieb:
Jetzt geht das schon wieder los... Dass NV beim P/L hinterherhinkt ist allgemein bekannt, und dass alles mit "Titan" im Namen noch schlimmer ist, erst recht. Das Problem ist dass die meisten Leute eine GraKa nur über den Preis definieren (wobei nach dieser Logik eine iGPU die beste GraKa ist) und dabei die Vorzüge eines überteuerten Produkts unter den Tisch kehren. Ich habe im Titan-Diskussionsfred mal einen sehr großen Kritiker gefragt was denn abseits des Preises gegen die Titan einzuwenden sei - seine Antwort: Der Preis.


Hätte ja normalerweise gegen die 780TI vergleichen aber die Black kam ja aus deinem Post.


Thanok schrieb:
Das liegt nicht unbedingt an der Chipfläche. NV opfert Chipfläche für eigene DP-Einheiten, AMD macht das nicht. Die Nutzfläche des GK110 beim zocken muss daher entsprechend umgerechnet werden. Wie gesagt, Äpfel und Birnen. Zumal natürlich beide Architekturen komplett anders aufgebaut sind und keiner weiß wie viel Fläche jetzt für was draufgeht. Dem Nutzer ist egal wie viel mm² Chip für die Leistung benötigt werden, der Verbrauch jedoch nicht.

Und wieder. Ich trenne in meinen Posts immer zwischen Architektur und Chip. Wenn du über Endverbraucher reden willst geht es dir um den Chip und nicht die Architektur. Also hör auf dich auf meine Architektur Posts zu beziehen!
Mir geht es primär immer um die Architektur da man daran sieht wer eigentlich den besseren Job macht.

Und wie gesagt wenn du glaubst das DP ohne extra Einheiten for free ist dann glaubst du falsch. Gerade 2:1 kostet eine Menge Transistoren.
 
5.0 Original schrieb:
Da du keine Ahnung hast, äußere dich einfach nicht!
Eine meiner 6950, ist im Cinebench schneller, als eine Titan, dies meint er mit Effizienz.
In einer Workstation, hat NV momentan absolut nichts zu suchen.
Auch die Leistung einer Quadro, ist mehr als peinlich, im Vergleich zu einer Midrange AMD Karte!

Ist das nicht etwas gewagt, Gaming-Karten in einem einzelnen Benchmark (der nur für ein spezielles Renderprogramm steht) miteinander zu vergleichen und daraus abzuleiten, wer die besseren Workstation-Karten baut? ;)

Schau dir mal ein paar Benchmarks von Workstation-Karten in Workstation-Anwendungen an. Es ist stark unterschiedlich von Anwendung zu Anwendung, aber es ist kein genereller Vorteil für AMD zu erkennen, sondern Quadros und FirePros sind immer gut durchmischt.

Was man allerdings erkennen kann ist, dass in einigen Benchmarks Consumer-Karten (aufgrund von Treiber/BIOS) brutal abstinken. Auch das grundsätzlich Hersteller übergreifend. In einigen Fällen sieht man dabei, dass Hawaii in der Consumer-Version in bestimmten Teilen nicht ganz so verkrüppelt zu sein scheint, wie die Consumer-Version von GK110. Z.B. in Catia, wo die 780Ti abstürzt, aber die 290X mit den großen Quadros und FirePros mithält.

Trotzdem sollte es sich jeder Profi stark überlegen, ob er ein paar Hundert Euro sparen und z.B. für Catia eine 290X statt einer W9000 oder K5000 kaufen will. Allein schon wegen der fehlenden Zertifizierung und damit keinem Support im Problemfall. Auch nur einen Tag nicht an der CAD-Workstation arbeiten können, weil z.B. der Gaming-Treiber Zicken macht oder auch wegen etwas ganz anderem, der Support einen aber pauschal wegen der Radeon oder GeForce abwimmelt, kann schnell viel teurer kommen.
 
Knuddelbearli schrieb:
Mir geht es primär immer um die Architektur da man daran sieht wer eigentlich den besseren Job macht.
[...]
Und wie gesagt wenn du glaubst das DP ohne extra Einheiten for free ist dann glaubst du falsch. Gerade 2:1 kostet eine Menge Transistoren.

Nur ist eben die Frage woran man die Architekturvorteile festmachen will; Gaming-Leistung, SP, DP, OpenGL, das ganze ist ja sehr undurchsichtig geworden da es zig Anwendungsgebiete gibt.
Ich sehe das ganze eben von der Seite des Gamers aus, und da soll eine gute Architektur vor allem Frames liefern. Ob man dies durch schwache Computingleistung in anderen Bereichen erkauft ist mir von diesem Standpunkt her egal. Je mehr Computingkram in einem Chip drinsteckt desto ineffizienter wird dieser natürlich von diesem Standpunkt aus - beide Big-Chips sind dafür Beispiele.
Klar ist aber auch dass, wer auch abseits des Spielens etwas mit einer GraKa machen will, die Computinganteile des Chips mit Handkuss annimmt.

Nur lässt sich nur schwer sagen dass Architektur XYZ ineffizienter/schlechter ist als Architektur ABC, da es immer auf den Anwendungsbereich, und natürlich den Chip mit seiner Austattung, ankommt. Genau deshalb habe ich den GK110/Kepler aus Gamingsicht als Effizienter als Hawaii/GCN bezeichnet - mehr Leistung bei geringerem Verbrauch.
 
Das ja das Tolle. Unter Einbezug des kleineren DIES ist die Hawaii Architektur einfach überall besser.
( Ok Außer Tesselation aber zeig mir mal einen Realen! Anwendungszweck wo das limitiert bei Hawaii )

Selbst wenn 25% kleinere DIE nur 33% mehr Shader bedeutet ( dürfte eher deutlich mehr sein da ein guter teil des Chips aus teilen besteht die nichts mit den ALUs zu tun hat, dürfte eher bis zu 45% möglich sein, aber nehmen wir 33% an, und nicht vergessen richtig Prozent zu rechnen 25% kleineres DIE heißt nunmal im Umkehrschluss das das andere DIE 33% größer ist ) Würde das reichen um GK110 klar zu schlagen! Und da man dann einfach Takt senken kann ist auch die Effizienz besser als bei GK110.
Also einfach +33% Shader und statt 1GHz 900MHz.
Effizienz super und da man dann auch bei selben verbrauch pro DIE Fläche ist wie GK110 lässt es sich dann auch super Kühlen.
 
bensen schrieb:
zu1: Wenn die Leistungsaufnahme gemessen wird und du die TDP kennst weißt du ob sie überschritten ist.

Das schließt ein überschreiten aus. Oder was verstehst du unter worst case?

zu2: Was für Vorlesungen sollen das denn bitte sein? Allgemeine Kartenkunde?
zu3: Was soll dann das Gejammer?
Entschuldigung aber dein Ton sowie die Antworten die du gibst disqualifizieren dich, bensen eindeutig für weitere Unterhaltungen über grundlegende technische Aspekte. Des weiteren, ach nein. Das lohnt sich einfach nicht, mit dir zu schreiben. Einfach zu respektlos, der bensen.
 
Zuletzt bearbeitet:
Herdware schrieb:
Hmmm... Das widerspricht eigentlich allen, was ich bisher so an Werten von wassergekühlten Grafikkarten gesehen habe. Sobald eine WK im Spiel ist, sind GPU-Temperaturen eigentlich kein Problem mehr.
Hast du es tatsächlich mal mit kleinerem Radiator versucht, oder ist das nur ein Bauchgefühl, dass die Temperaturen dann dramatisch steigen würden?

Ich hatte vorher einen 2x 120 mm Vollkupfer, 45mm dicken Radiator (Link), der garantiert besser ist als eine AIO. Dort habe ich aber NUR die CPU angeschlossen, die bei Volllast das Wasser auf knapp 40°C anstiegen lies. Die Lüfter liefen dabei auf höchster Drehzahl. Mit meinem neuen Radiator (Mo-Ra 360 LT) wird das Wasser unter Volllast der CPU nicht spürbar wärmer (max. 2-3 ° C). Sobald ich aber die Grafikkarte dazu schalte, erhöht sich die Temperatur spürbar. Die Lüfter laufen aber auch nur auf 5V. Ändert aber nichts daran, dass die Grafikkarte mehr Strom verbraucht, mehr Wärme erzeugt und diese Wärme zu 99% in den Kühlkreislauf geht und somit das Wasser erwärmt.

Herdware schrieb:
[...]Hier ist ein spontan gegoogletes Beispiel einer 290X an einem 180mm-Radiator, inklusive i5@4,2GHz. Die Delta-Temperatur geht selbst bei starker Übertaktung nicht über 30°.[...]

Ich finde den Test sehr unverständlich. Die schreiben von Delta T, also eine Differenz entweder von Raumtemperatur oder von Wassertemperatur. Außerdem testen die bei Unigine. Dieser Test verursacht zumindest bei meiner Grafikkarte nur 60% der TDP. Erst Furmark geht auf über 100% TDP und erhitzt die Grafikkarte enorm.
Bei Standard-Takt soll die Radeon 290X also schon 23°C wärmer sein als die Umgebung (oder das Wasser, was enorm wäre). Wenn wir jetzt noch 40% draufrechnen für die Volllast (wie gesagt Unigine lastet die Grafikkarte nicht voll aus), würde die Grafikkarte schon über 30°C wärmer werden. Heißt bei einer Raumtemperatur von 22°C sind das schon 52°C. Ich möchte nicht wissen, wie warm die CPU bei Volllast nun werden würde. Jedenfalls müsste der Core i5-3570K garantiert über 80°C warm werden mit diesem Setup.
Nun gut bei der 295X2 soll die Wasserkühlung nur für die Grafikkarte verwendet werden. Das Wasser darf halt nicht zu warm werden, weil sonst die Pumpe außerhalb der Spezifikationen läuft und evtl. schlapp macht (ab ca. 60°C Wassertemp).
 
Knuddelbearli schrieb:
Selbst wenn 25% kleinere DIE nur 33% mehr Shader bedeutet ( dürfte eher deutlich mehr sein da ein guter teil des Chips aus teilen besteht die nichts mit den ALUs zu tun hat, dürfte eher bis zu 45% möglich sein, aber nehmen wir 33% an, und nicht vergessen richtig Prozent zu rechnen 25% kleineres DIE heißt nunmal im Umkehrschluss das das andere DIE 33% größer ist ) Würde das reichen um GK110 klar zu schlagen! [...]

Leider hat AMD diesen Raum (bisher) nicht genutzt, obwohl deine Argumentation Sinn ergibt. Über die Gründe können wir nur Vermutungen anstellen, ich persönlich tippe darauf dass Hawaii relativ Komplex in der Herstellung ist und der Ausschuss bei einem größerem Die zu groß wäre. Ist aber eben nur eine Vermutung die ich nicht belegen kann.
In der aktuellen Version muss aber viel über einen hohen Chiptakt gelöst werden was oberhalb von 900Mhz schnell zu einem starken abfallen der Effizienz sorgt (Laut CB-Test >80Watt für 10% mehr Leistung) und die "typischen" Hawaii-Probleme verursacht.
 
So ein lächerlich kleiner Radiator für eine Dual GPU Karte? Na ganz tolle Leistung AMD ^^. kann mir doch keiner erzählen das es leiser ist als ein Custom Lüftkühler mit 3 Lüftern drauf.
 
Ich gehe mal davon aus, das der Radiator ausreichen wird.
Ansonsten hätte man auch drei Axial Lüfter nehmen können so wie bei der 7990.

Das sieht man auch an den Benchmarks das sie gut kühlt, die 295x2 ist schneller als zwei Referenz 290x.
Zwei 290x sind eigentlich schneller als eine 295x2, aber zwei 290x im ref. design erreichen das thermal Limit und drosseln runter.


Ob der Radiator laut werden wird kommt auf die verbauten Lüfter an.
Notfalls kann man sie sicher austauschen.
 
Zuletzt bearbeitet:
nVVater schrieb:
Ich gehe mal davon aus, das der Radiator ausreichen wird.
Ansonsten hätte man auch drei Axial Lüfter nehmen können so wie bei der 7990.

Das sieht man auch an den Benchmarks das sie gut kühlt, die 295x2 ist schneller als zwei Referenz 290x.
Zwei 290x sind eigentlich schneller als eine 295x2, aber zwei 290x im ref. design erreichen das thermal Limit und drosseln runter.

Wieso sollten 2 290X mit 1GHz normal schneller sein als eine 295X2 mit angeblich 1018MHz
 
Weil zwei einzelne Highend karten immer schneller sind als die selben chips auf einem PCB
http://www.hardwareluxx.de/index.ph...370-test-nvidia-geforce-gtx-690.html?start=11

auch zwei 7970 sind schneller als eine 7990

die 295X2 ist aber deutlich schneller als zwei Referenz 290x
das liegt auch nicht wegen den lächerlichen 18MHz mehr.

Es liegt einfach nur daran weil zwei ref. 290x das Thermal Limit erreichen aber eine 295X2 nicht.
Von daher kann man bereits ausgehen das die 295X2 kühl bleibt.
 
Zuletzt bearbeitet:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-690-test.1762/seite-4
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-7990-test.2088/seite-3

Es kommt aber auch auf die restliche Hardware an. Mit einem PCIe Slot x4 wird ein MGPU System natürlich gebremst, ebenso wenn die CPU nicht genügend Lanes liefern kann.
Die vorigen MPGU Karten waren allerdings stark heruntergetaktet um den Stromverbrauch zu limitieren wodurch diese hinter einer einzelnen Karte zurück gefallen sind. Dieses Problem wird die 295X nicht haben wenn die Kühlung die GPUs kühl genug hält.
 
computerbase hat die anderen karten aber nicht mit dem identischen Treiber gegen getestet.
Sieht zumindest nicht danach aus
 
also der Luxx Vergleich taugt mal gar nichts. Da das Kepler karten mit Boost sind und der Boost nie aufs MHz gleich ist.
7990 war auchs chon mit Boost wenn dann müsste man einen OC 6990 test suchen
 
Für mich ist so eine Enthusiastenkarte nur für Wasserkühlung bestimmt.

Wenn der kolportierte Preis stimmen sollte, dann kann man sich schon ein Waküsystem aus zwei einzelnen R9 290X aufbauen.

Und unter Wasser wird eine 290X unter Last (z.b. Spiele) maximal 45°C warm mit passender Kühlkonfiguration.

Der einzige für mich sinnvolle Vorteil ist der eines gemeinsamen PCBs.
 
Selbst bei High End Systemen, machen Wasserkühlungen nur einen lächerlich geringen Anteil am Markt aus. Wenn etwas verkauft werden soll, muss es nunmal auf Lukü oder sowas hier ausgerichtet werden.
 
Zurück
Oben