News Radeon RX Vega 64 Nitro: Sapphires Custom Design hat drei Mal 8‑Pin-PCIe

Hejo schrieb:
Nur weil 3x 8-Pin bis zu 525W ziehen dürfen, heißt das nicht das die Karte soviel zieht , vermutlich nicht mal die Hälfte.
Auf 7 Seiten etliche sinnfreie Beiträge dazu. :rolleyes:

Damit liegt deine Vermutung bei maximal 262,5 Watt. Vergleiche selbst:

Maximiert man das Power Target, explodiert der Leistungsbedarf deutlich: Die Radeon RX Vega 56 genehmigt sich dann zusätzliche 109 Watt und erreicht im Schnitt 342 Watt. Die Radeon RX Vega 64 kommt auf Plus 106 Watt und knackt damit gar die 400-Watt-Schallmauer. Das ist ein Wert, den man selbst mit einer stark übertakteten GeForce GTX 1080 Ti nicht einmal im Ansatz erreicht. Partnerdesigns mit mehr Spielraum beim Verbrauch werden es nicht leicht haben, leise zu bleiben.

Quelle
 
Am besten 3x8Pin, voll OC unter Wasser, so dass das auch möglich ist + Sky X ab 10 Kernen, voll OC.

Damit heizt man Wohnungen :king:
 
Caramelito schrieb:
Damit heizt man Wohnungen :king:

Dann spart man sich zumindest die extra Heizkosten. Gerade im Herbst und Frühling sollte so eine Kombination eine ziemlich gute und ausreichende Heizleistung zusammenbringen. :D
 
Ich finde die Sache mit den 3 x 8-Pin Stecker relativ heftig fürs Jahr 2017. Ich meine, dass sogar die alte Geforce 8800 GTX/Ultra nicht einmal so viel hatte und die galt doch schon als kleines Kraftwerk ... wird zwar nicht viele User treffen, aber es gibt ja Leute, die müssten sich dann ein neues Netzteil zusammen mit der Karte holen, das ist schon ein Nachteil.
 
matty2580 schrieb:
Und die Kosten durch einen halbwegs guten G-Sync-Monitor kompensieren aktuell sowieso die Preise für die wenigen lieferbaren Vega 10 GPUs.

Und dann an Nvidia gebunden sein?
Nein, danke.

Ich warte einfach.
Mein 3,5GB VRAM Krüppel ist zwar schon länger überfordert, aber meinen tollen FS Monitor werd ich noch Jahre nicht ersetzen.
 
Caramelito schrieb:
Damit heizt man Wohnungen :king:

Ich spiele auch im Winter gerne bei offenem Fenster, also Ideal um trotzdem eine angenehme Temperatur vorm PC zu haben.
Brauche einen adäquaten Heizquellenersatz für meine 290x. (nicht..) :king:
 
just_fre@kin schrieb:
Ich meine, dass sogar die alte Geforce 8800 GTX/Ultra nicht einmal so viel hatte und die galt doch schon als kleines Kraftwerk ...

Was soll den der komische Vergleich mit einer 8800 Ultra? Die hat nur rund 175 Watt @ Stock gezogen. Heute bekommt man mit so einem Verbrauch nur noch Mittelklassekarten oder vielleicht noch untere Oberklasse. Alle High End Karten verbrauchen mehr als eine 8800 Ultra damals. Schon klar das die keine 3x8 Pin hatte. Damals war schon ein gutes 500 Watt Netzteil extrem großzügig für die schnellste kaufbare Grafikkarte. Heute kommt man damit nicht mehr weit.
 
Heute kommt man damit nicht mehr weit.

Also mein in der Sig. stehendes System läuft mit nem Seasonic 450W NT. Die 56 ist aber auch leicht UV+OCed. Einen Absturz hab ich bisher nicht gehabt. Last getestet mit Witcher3 und Furmark Firestrike. Der Prozessor braucht kaum mehr VCore, wie viel genau müsste ich nochmal schauen.

Aber du hast wohl Recht, die 64er würde ich damit nur hart an der Grenze des NT betreiben können, wenn ich da kein Feintuning betreibe.

Edit: @Caramelito: Dass die NVs aktuell nicht so viel Strom verbraten ist ja bekannt. Ging aber in dem Thread hier allgemein eher um die Sapphire Vega 64..
Die schnellste kaufbare wäre außerdem ne 1080Ti ;)
 
Zuletzt bearbeitet:
Steini1990 schrieb:
. Damals war schon ein gutes 500 Watt Netzteil extrem großzügig für die schnellste kaufbare Grafikkarte. Heute kommt man damit nicht mehr weit.

Wieso kommst du mit 500w nicht weit?

Ich habe letzte Woche hier 2x 1080 (2100mhz @ 1v, jeweils, was ca. 180-200W pro Karte waren je nach Game) + 8700k OC mit einem 650W betrieben und es lief problemlos ;)
 
c0mputerMensch schrieb:
Damit liegt deine Vermutung bei maximal 262,5 Watt. Vergleiche selbst:



Quelle


PowerTarget maximieren ist betreiben außerhalb vorgesehener Spezifikationen ergo OC , du hast mich nicht verstanden :)

Zusatz: es ging darum das hier Beiträge meinen sie nehmen die Graka aus der Packung schließen an und das Ding verbaucht 525W weil es soviel aus der Leitung ziehen dürfte...
 
Zuletzt bearbeitet:
duskstalker schrieb:
vega kommt in bestimmten spielen an die 1080ti ran und von der hardware her sind sie beide der jeweilige high end chip mit ~13 tflops.

Ja was heißt scho dürfen, die Karte konkurriert maximal mit ner 1080 und ist in bestimmten spielen langsamer als ne 1070 und braucht dafür im Verhältnis Unmengen an Strom.

"bestimmte spiele" sind halt zufällig die spiele, die nicht komplett gameworks verseucht

Die Zöpfe von Gameworks wurden lange schon abgeschnitten. GPU Physx gibts ned mehr.
Gameworks läuft auf AMD ned schlechter sonder sogar manchmal besser.
 
Zuletzt bearbeitet:
Die Zöpfe von Gameworks wurden lange schon abgeschnitten. GPU Physx gibts ned mehr.
Gameworks läuft auf AMD nicht schlechter.

Tut mir leid, aber das kann man nicht so ganz ernst nehmen. Gab schon mehrere Screenshots wo die gebenchten Spiele ohne GW mit den Spielen mit GW verglichen wurden. Warum laufen denn nun NV-Karten bei den GW-Titeln im Vergleich zu den AMD-Karten deutlich besser als bei den nicht-GW Titeln?

Kommt da nicht irgendwie die Vermutung auf, dass es Gameworks liegt?
 
Zuletzt bearbeitet:
duskstalker schrieb:
ja natürlich ist nvidia schuld - wäre amd der marktführer, würde jeder für amd optimieren.

AMD ist Marktführer bei den Konsolen und hat im Desktopgschäft 30%.
So schlecht is des nun auf wieder ned. Ausgeglichen trifft es eher.

indem entwicklerseitig amd ausgebootet wird.

Nochmal die Frage nach Beweisen dafür. Aluhut lässt wieder grüßen.

vega kann die leistung in modernen spielen absolut abliefern - d.h. leistung ist da.

Kann Vega absolut nicht. Nur in ausgesuchten Spielen mit AMD´s "Gameworks" Programm.
Doom, Wolfenstein, Dirt 4 ohne Multisampling. An einer Hand abzuzählen.

nur mal so nebenbei: im CB parkour sind zwei drittel gameworks titel.

Wo sollen die denn sein und welche Funktionen beinhalten die?

Rambo5018 schrieb:
Warum laufen denn nun NV-Karten bei den GW-Titeln im Vergleich zu den AMD-Karten deutlich besser als bei den nicht-GW Titeln?

Tun sie doch nicht. Gibt viele Gameworkstitel in denen AMD schneller ist so auch umgekehrt.
 
Zuletzt bearbeitet:
Rambo5018 schrieb:
Warum laufen denn nun NV-Karten bei den GW-Titeln im Vergleich zu den AMD-Karten deutlich besser als bei den nicht-GW Titeln?

Kommt da nicht irgendwie die Vermutung auf, dass es Gameworks liegt?

Gut möglich, dass es an GameWorks liegt - und das ist auch gut so. Wenn der Großteil der Spiele auf GameWorks setzt, dann kaufe ich mir logischerweise auch eine Grafikkarte, die im Großteil dieser (bzw. den von mir gespielten) Spiele die Nase vorn hat - unter gegebenen Umständen wie Abwärme, Leistungsaufnahme und Kühlung in Verbindung zur Lautstärke.

Es ist wunderbar, dass AMD es nach über einem Jahr der Aufholjagd geschafft hat, ein Produkt an den Endkunden auszuliefern, das in puncto Geschwindigkeit im Schnitt etwas langsamer als die Konkurrenz ist, selten mal aufholen und gar überholen kann, des Öfteren aber sogar deutlich hinter der Konkurrenz zurück liegt - und das zu ökonomisch nicht konkurrenzfähigen Rahmenbedingungen.

nVidia bietet mit GameWorks eine Schnittstelle, die es offensichtlich ermöglicht, die Spiele der eigenen Hardware-Architektur leichter zugänglich zu gestalten, wieso ist das etwas schlechtes?

Ich bin schon sehr gespannt auf die Tensor-Core-Diskussionen, wenn Volta massenmarkttauglich wird. Wahrscheinlich wird der dadurch gewonnene Leistungsschub in den Augen einiger "Fanboys gewisser anderer Lager" auch wieder zerpflückt, weil es nicht von der eigenen Wunschmarke stammt.

Und wenn AMD nun daher kommt mit der "Furz um die Ecke-API" und diese dreimal um nVidia herumtanzt, dann ist das auch OK, am Ende zählt doch, was das Produkt im Schnitt abliefert - und da braucht man sich nicht selbst belügen und sollte der Wahrheit einfach in's Auge blicken. Mit der aktuellen Grafikkartengeneration bekleckert AMD sich keineswegs mit Ruhm.

Cya, Mäxl
 
DJMadMax schrieb:
Gut möglich, dass es an GameWorks liegt - und das ist auch gut so. Wenn der Großteil der Spiele auf GameWorks setzt, dann kaufe ich mir logischerweise auch eine Grafikkarte, die im Großteil dieser (bzw. den von mir gespielten) Spiele die Nase vorn hat - [

Ein NV only feature...für mich als Endkunden ist das nicht "auch gut so". Besser wäre keine proprietäre Lösung im Einsatz zu haben um Kundenbindung zu betreiben und trotzdem schneller zu sein.
Die Gefahr einer Monopolstellung bzw. dem freiwilligen "zwang" Nvidia zu kaufen wird hier komplett ausgeblendet.

Auch in meinen Augen ist Vega nicht wirklich toll bisher, Gameworks aber auch nicht.
 
Gameworks ist so ziemlich der selbe Mumpitz wie PhysX früher. Brauchte niemand, brachte fast nichts und sorgte für Inkompatibilitäten.
 
Zuckerwatte schrieb:
Die Gefahr einer Monopolstellung bzw. dem freiwilligen "zwang" Nvidia zu kaufen wird hier komplett ausgeblendet.

Auch in meinen Augen ist Vega nicht wirklich toll bisher, Gameworks aber auch nicht.

Danke, das wollte ich im Wesentlichen auch sagen. Wenn GameWorks keine Nachteile für AMD hat, warum stellt man den Quelltext dann nicht öffentlich? Bzw. auch für AMD einsehbar um Treiber darauf zu optimieren und nicht Reverse-Engineering betreiben zu müssen?
Warum nutzt man proprietäre Standards wie G-Sync, die der Konkurrent nicht nutzen kann?

Das ist einzig und allein das Ausnutzen der Marktmacht, sonst nichts. Warum genau man das jetzt verteidigt, ist mir nicht schlüssig. Wenn AMD sich aus dem Highend-Markt verabschiedet dann schaut euch die Prozessorentwicklung von 2010-2016 an, das blüht uns dann. Oder alternativ ne Preisgestaltung Richtung GTX 2080 -> Preis der jetzigen Titan.

Davon abgesehen habt ihr natürlich Recht damit, dass die aktuelle Radeon-Gen (Vega 56+64) vergleichweise ineffizient ist und im Vergleich zu den Geforce eben ~1 Jahr zu spät kommt. P/L ist hier aber immer noch konkurrenzfähig, wenn man sie sich für 400€ respektive 500€ kauft. Vor allem wenn man noch den Preisvorteil F-Sync vs G-Sync Monitor dazunimmt.

Ich will damit nicht sagen dass man NV nicht kaufen sollte, wer die Leistung haben wollte soll halt zuschlagen. Aber die Geschäftspraktiken muss man deswegen ja noch nicht gutheißen. Scheint immer so zu sein dass Leute meinen ihren Kauf rechtfertigen zu müssen und "ihre" Marke zu verteidigen. Ich hätte mir wenn ich vor nem Jahr ne neue Karte gebraucht hätte mit mehr Bumms wohl ne NV gekauft, einfach weil von AMD noch nichts vergleichbares da war. Deswegen kann man trotzdem kritisieren, wie sich das Unternehmen am Markt verhält.
 
Zuletzt bearbeitet:
Rambo5018 schrieb:
Das ist einzig und allein das Ausnutzen der Marktmacht, sonst nichts. Warum genau man das jetzt verteidigt, ist mir nicht schlüssig. Wenn AMD sich aus dem Highend-Markt verabschiedet dann schaut euch die Prozessorentwicklung von 2010-2016 an, das blüht uns dann. Oder alternativ ne Preisgestaltung Richtung GTX 2080 -> Preis der jetzigen Titan.

Ich fand es letztes Jahr schon lustig als Nvidia die 1080 für 800€ herausgebracht hat und alle gejubelt haben wie "günstig" die Karte im vergleich zur 980Ti war. Und als dann die 1080Ti herausgekommen ist haben alle Nvidia als heiligen Samariter gesehen, weil sie die 1080 dann für 500€ verkauften.
Jedoch ist die 1080 nur der kleine Mittelklassechip. Früher hat dieser Chip in dieser Größe in Form der GTX770 knapp 300€ gekostet. Jetzt verlangt Nvidia 800€ dafür und die Leute jubeln.
Das gleiche wird mit Volta/Ampere auch passieren, sollte AMD nicht endlich etwas Druck ausüben. Dann wird halt erst der kleine Chip GV/GA106 für 700€ herausgebracht ("sparsamer als 1080Ti bei gleicher Leistung, Hurra!"), dann nach und nach GV/GA104 und 102. Jeder Release verbunden mit einer Preissenkung des jeweils kleineren Chip. Gekauft werden, würde es trotzdem. Ist ja ne Geforce.

Deswegen sollte man keine Monopole aufkommen lassen.
 
frost21 schrieb:
Das gleiche wird mit Volta/Ampere auch passieren, sollte AMD nicht endlich etwas Druck ausüben.

Die Frage ist auch, ob AMD überhaupt versucht wieder zu normalen Preis anzubieten.

Die Polaris Karten hatten vorm Mining-Boom klar das bessere Preis/Leistung-Verhältnis als die 960er und 1060er.
Bei Vega ist das P/L Verhältnis offensichtlich nicht besser als bei Nvidia. Liegt aber wohl auch an den hohen Produktionskosten.

Nur, wird AMD wirklich wieder gute Preise haben? Ich befürchte, eher nicht. Obwohl ich auch unbedingt eine passende Karte für meinen FreeSync Monitor möchte.
 
Nunja, wer weiß was mit Navi kommt. Ich hoffe ihnen gelingt der gleiche Streich wie mit Ryzen/Threadripper. Quasi ein modular aufgebauter Die, der günstig herzustellen ist und mit Hilfe von Infinite Fabric mit mehreren Dies kommuniziert. Damit wäre es definitiv möglich, einen Preiskampf anzugehen, wie ein Threadripper es gegen die i9s gemacht hat.
 
Zurück
Oben