Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

rg88 schrieb:
Rein technisch ein riesiger Unterschied. Das Netz ist mittlerweile ein vollkommen anderes

Hehe, ich will mich jetzt nicht technisch auslassen, aber ich hab 2005 in der Prototypentestung bei o2 gearbeitet(die Verträge waren aber immer Standard). Die grundsätzliche Technologie ist die Gleiche geblieben: die Sprache wird in Datenpakete zerhackschnipselt und in den zugewiesenen Slots eingespeist! Das war schon bei GSM so, das ist bei UMTS so und ebenso bei LTE(wie auch bei der 5.Generation, die es in Deutschland bisher nur in winzigen Testarealen gibt, in Japan teilweise schon flächendeckend, z.B. Tokyo). Natürlich hatten wir damals(2005) schon Layer 3! Und auch heute inkludiert mein Vertrag noch kein LTE(Layer 4), obwohl relativ neu(so zwei Jahre alt, 1&1, Vodafone). Bei 42 möglichen MBit aber zu vernachlässigen...sofern sie denn mal verfügbar sind. War damals übrigens IMHO das günstigste, was ich bekommen hab, um nicht regelmäßig in weitere Abzockfallen zu geraten...nein, stimmt nicht, o2/E-Netz wäre 5 Euro billiger gewesen. Dachte dass man den Testberichten glauben kann, dass Vodafone ein besseres Netz hat(mir gehts hier immer noch nur um die Sprachqualität). Pustekuchen!

Im Übrigen bin ich immer noch der Meinung, dass Vega, zumindest zum jetzigen Zeitpunkt mit der schlechten (Treiber)-Unterstützung, schrott ist.
 
Zuletzt bearbeitet:
Ich finds immernoch lächerlich 15-50€ mehr an Stromkosten IM JAHR(!!) als so riesen Minuspunkt zu sehen.
Wir leben in einer Zeit in der 500€ für Smartphones normal geworden ist, der Trend geht zu 700-800€ Smartphones die alle 1-2 Jahre ausgetauscht werden und die Korinthen-kacker die so ein Smartphone haben bemängeln 15-50€ mehrkosten im Jahe 😂
Ihr macht mich echt fertig...
Ergänzung ()

Wenn man hier jedem glauben schenken mag der "kauf/hab die 1080/ti gekauft" dann müssen ja nächstes jahr sie rekorde von nvidia um 2000% übertroffen werden.
Lächerlich wie die leute hier ihren unmut mit solche angaben noch dramatisieren wollen... 🙄
 
t3chn0 schrieb:
... sprechen Linus, Jay, Dimitry and Luke total offen über das Verhalten von AMD gegenüber der Presse, den Testern und den eigenen Board-Partnern wie XFX und Sapphire. Der Umgang mit AMD muss absolut chaotisch sein und AMD forciert eine sehr harte Gangart ggü. seinen eigenen Partnern. Nvidia tut dies ausdrücklich NICHT! Auch wird darüber berichtet dass AMD total untransparent arbeitet, Dinge versucht zu verschleiern und genau wie Nvidia Dinge ankündigt ohne sie zu halten. Generell soll der Umgang mit Nvidia aber erheblich unkomplizierter sein als mit AMD. Und dieses Video ist ganz sicher nicht durch Nvidia gesponsort, denn auch Nvidia bekommt Kritik ab.

Nach wie vor wird aber sogar getan, als sei Nvidia böse und AMD gut ... bin total begeistert von dem Strix Kühler und man sieht eindeutig, dass die 64 durch das Custom Design erheblich besser arbeitet. Ich kann zumindest den Lüfter nur "wärmstens" empfehlen.

Besten Dank für das Video, Linus ist ja teilweise so eine Nervensäge/extrovertiert/überdreht (geht hoffentlich nicht nur mir so :p :mussweg:?), aber gut, irgendwann gewöhnt man sich an ihn.

Dass Bing zum suchen von Pornos bestens geeignet sein soll, wusste ich auch noch nicht :D.

Ja, beide - AMD und nVidia - bekommen ein wenig Ihr Fett weg (durchaus gerechtfertigt, wie ich finde), wobei die Preispolitik bei RX Vega von AMD z.Z. noch wirklich unterirdisch ist und ich auch nicht kaufen würde, selbst wenn RX Vega 56 jetzt 10-15% mehr leisten würde und in einem schicken/ausgereiften XFX oder Sapphire Modell daher käme.

Preise für Custom-Modelle über 500 US$/Euro mit vorheriger großspuriger Ankündigung der König unter 400 US$ zu sein, geht einfach/leider gar nicht und durch den Kakao ziehen lasse ich mich nicht von Händlern oder AMD mit Ihrer eingeschränkten Radeon Pack Strategie (wenn Preis-Leistung-Relation nicht stimmig ist).

Nun, ich denke dass XFX wohl gute Gründe gehabt haben wird von nVidia als Boardpartner weg zu AMD damals zu wechseln, wobei es ja auch 'mal Gerüchte gab, dass EVGA einen Wechsel zu AMD in Betracht ziehen würde.

Dass AMD ein Chaosladen ist wo viel drunter und drüber geht und alles weniger gut organisiert ist, kann ich mir gut vorstellen :D ...

... und nee, trotz positivem Ersteindruck von CB bleibt/ist ASUS/Strix für mich keine Option (ein dermaßen unsympathischer Laden, der sich bei AMD einen Ersterscheinungswettbewerbsvorteil erkauft :rolleyes:, so etwas unterstütze ich bestimmt nicht mit einem Kauf), kühlen/Grafikkarten bauen können die anderen beiden zweigleisig fahrenden Mainstream-Partner, MSI (siehe Lightning "Monsterkarte") oder Gigabyte (Aorus Extreme Gaming), mindestens genauso gut und schon deutlich länger für i.d.R. geringere Marktpreise.

Meine Hoffnung bleibt, dass einer der kleineren AMD-spezifischen Boardpartner eine tolle 56er Karte bringen wird, wobei XFX ja die meiste Garantie bieten würde (3 Jahre + 5 Jahre auf die Lüfter, es sei denn Gigabyte bietet wieder 4 Jahre nach Registrierung) und nicht so pingelig bzgl. untervolten, übertakten, usw. zu sein scheint.

Sapphire wäre auch ok mit jetzt 3-jähriger Garantie, bei HIS müssten die nur 2 Jahre Garantie entweder mit überlegenem Kühldesign und verbauten Komponenten oder/und niedrigerem Preis erkauft werden (dass das HIS Design optisch ansprechender ausfallen könnte halte ich für fast unmöglich, da ist es fast wahrscheinlicher, dass Weihnachten und Ostern auf einen Tag fallen), zumal übterakten, untervolten usw. dort nicht geduldet werden.

Bliebe noch Powercolor, aber die bieten wie HIS auch nur 2 Jahre Garantie auf Ihre Karten und auch wenn die Polaris Karten dort auf den ersten Blick als mit am gelungensten getestet worden sind, las ich später, dass die Verarbeitungsqualität geringer als bei der Konkurrenz sein soll ... so gesehen bin ich da auch etwas skeptisch, aber hoffentlich werden erste Tests hier und anderswo das genauer beleuchten.
 
Zuletzt bearbeitet:
SirMiles schrieb:
Ich finds immernoch lächerlich 15-50€ mehr an Stromkosten IM JAHR(!!) als so riesen Minuspunkt zu sehen.

Ich wunder mich auch immer. Man ist bereit, teilweise bis zu 750 Euro für eine 1080 TI hinzublättern, aber ist dann über geringe Mehrkosten bezüglich des Stromverbrauchs absolut erbost, weil man dieses Geld dann nicht bereit ist zu zahlen.

Manchmal hab ich das Gefühl, dass man dieses Stromkosten-Argument einfach vorschiebt wie damals die Sache mit PhysX - einfach nur, um wegen des Meckern Willens etwas zu meckern zu haben.
 
So, heut ist so ein schöner Tag, daher mein letzter Post: es geht mir keineswegs um die Stromkosten, sondern unnütze Energieverschwendung. Das meine ich eher ökologisch, ohne Grüner zu sein. Deswegen hätte ich mir auch nie ne Bulldozer-Architektur zugelegt, und auch der Fermi neulich war ein Versehen...deswegen hab ich damals von X38 auf P45 gewechselt(weil die paar Prozent mehr Leistung, zumal ich eh kein CrossX/SLI nutzen wollte)...und und und
 
Zuletzt bearbeitet:
AMD wird noch vermutlich sehr lange brauchen um an den Energieverbrauch von Geforce ran zu kommen. Man muss wissen das die Spiele/Programme für geforce besser optimiert sind als für AMD. Betrachte man die Rohleistung der vega 64 müsste sie ja sogar die 1080ti in der Pfeife rauchen.
 
sidewinderpeter schrieb:
es geht mir keineswegs um die Stromkosten, sondern unnütze Energieverschwendung. Das meine ich eher ökologisch, ohne Grüner zu sein.

Ja ganz schön ökologisch. Da kauf ich mir eine gtx 1080 statt einer Vega, weil dann bin ich ja ökologisch unterwegs. So mach ich das auch. Anstatt eines Camaros kauf ich mir einen Porsche, sind dann nur noch 16 statt 20 Liter Verbrauch und unnütz Energie wird dann nicht verschwendet:freak:

Wenn ich wirklich ökologisch sein möchte und nicht nur irgendwelche vorgeschobenen Argumente, dann hau ich mir Solar panels aufs Dach und überprüfe meinen Alltag nach Möglichkeiten im Gesamten ökologisch zu handeln.

Aber garantiert nicht bei der Entscheidung ob die unnütze zum highend zocken gekaufte Grafikkarte A ein paar Watt mehr zieht als Produkt B um meine Luxusprodukte mit schönen Bildern zu versorgen. Kann ich ja genauso gut in der Freizeit mit meiner biologisch abbaubaren Frisbee ein paar Würfe im Garten unternhemen und bin 1000 % ökologischer dabei und nehme sogar vielleicht ein paar Kilo ab.

Also bitte, ökologisch und high end Grafikkarten, die schon in der Herstellung Ressourcen vernichten ohne Ende? Da muss ich immer lachen, wenn ich solche Argumente lese für oder gegen den Kauf einer Grafikkarte. Abwärme etc., wenn man eben seine karte in eine kleine Büchse zwängen will ok, oderm an beim Kauf vom 500+ Euro Produkten 10-20 Euro Stromkosten im Jahr sparen kann, aber aus umeltbezogenen Gesichtspunkten bei high end Luxusprodukten:eek: ? So trägt halt jeder seinen Teil zum Erhalt der Umwelt bei, wenn man sich mit dem Glauben besser fühlt "shrug"
 
Ich finde hier wird nicht richtig differenziert.

Es sind doch 2 Verschiedene Fragen, welche Karte macht momentan unter den strangen Miningpreisen wo AMD staerker von betroffen ist mehr sinn fuer einen zu kaufen wenn man in dieser Woche kaufen will/muss.

Die andere Frage ist, ist Vega mit den UVP oder gar normalerweise ja sogar drunter (normal verlangen die hersteller ja weniger wie die UVP) aber nehmen wir nur die UVP besser oder nicht.

Wenn man diese komischen Rabatte von AMD nicht verwenden will (und ich wuerde das nicht verwenden wollen da ich nicht noch 1000 Euro andere Hardware brauche) macht Vega zumindest im momentanen Treiberstand bei den Mondpreisen keinen Sinn. Oder bestenfalls muss man halt die Katze im Sack kaufen und hoffen das die 20-30% mehr speed die logischerweise kommen werden, wenn man die haelfte der Hardware komplett deaktiviert hat aber ob das in 1 2 Monaten oder 1 Jahr erst kommt weiss niemand so genau. Also wenn ich jetzt die Leistung brauche... spielt das keine so grosse rolle mehr.

So das andere ist doch die UVP, die liegt bei 499 Euro ohne Mining gaebs die karten dann auch fuer 450-500 Euro. Sicher die 1080 gaebs auch fuer 530 vielleicht sogar 500 euro mitlerweile. Aber die Amd karte waere mindestens gleich teuer wenn nicht billiger.

Und wenn man dann praktisch gleichen Preis + gleiche Leistung hat, eventuell sogar noch von den komischen Rabatten profitiert. Ist das schon mal nicht schlecht. Dann muss jeder fuer sich entscheiden ob er lieber 100W Stromverbrauch weniger hat oder 20-30% mehr speed mittelfristig per patch nach geschoben.

Beides hat da etwas fuer sich, das die Karte dann btw 500 Watt schluckt wenn die Features aktiviert sind halte ich absurd, die werden (glaskugel raus hol, aber da weiss vielleicht wer anders mehr) weitgehend Stromneutral kommen. Die hersteller koennen nicht die Kuehlungen und alles auf die jetzigen verbraeuche ausrichten und dann kommt ein patch und die Kuehlung ist nimmer ausreichend oder laeuft immer auf 100%.

Also einfach die jetzigen Preise fuer den Vergleich her zu ziehen ist ok um seine Kaufentscheidung wenn diese kurzfristig passieren muss zu rechtfertigen, und da kann ich zumindest teilweise verstehen wenn man lieber zu nvidia greift. Andererseits wird man mit den treiberpatches in die naehe oder gleichauf mit ner 1080 Ti kommen. Aber ja es ist ein close call. Und kann den Nvidia vorteil sehen. Vorallem wenn man die Preis-Boni nicht beansprucht.

Aber nochmal um AMD zu bashen ist der aktuelle Mining-Preis ziemlich unfair. Gott sei dank leidet amd unter diesem Gehate nicht, da sie eh alle Karten an Miner verkaufen koennen.

Zu der Leistungsaufnahme, ja da muesste vega schon auch noch die GTX 1080 zersaegen um die zu rechtfertigen. Andererseits wieviele Leute haben 600 Euro fuer ne Grafikkarte ueber aber haben jeden tag 15h Zeit zu zocken? Die meisten werden also maximal 4-5h am Tag zocken... Strompreistechnisch faellt das kaum ins Gewicht.

Bleibt noch die Abwaerme, in 1 Monat ist Herbstanfang, ab da sollte die Waerme im Zimmer keine rolle mehr spielen. Ansonsten fuer die meisten PCs sollten die 300W die jetzt nicht gigantisch viel sind fuer Grafikkarten auch weg kuehlbar sein. Aber klar in nem Jahr ist dann wieder der naechste Sommer... also wenn man nen Zimmer hat das gerne zu heiss wird, und das eben auch ein fast exclusiv deutsches problem weil wir hier keine Klimaanlagen haben, ists sicher ne ueberlegung wert.

Aber bei den heissen Tagen wuerde ich auch nicht mit ner 1080 spielen wollen, zumindest Tagsueber und wieviele von euch koennen dann bis 4 uhr nachts spielen...
 
Zuletzt bearbeitet:
sidewinderpeter schrieb:
Da ich dazu tendiere, keinen Vega zu kaufen, ist die Frage irrelevant. Da ich aber, falls, auch eine kleine Variante gesucht hätte: ich habe noch nichts dazu gelesen!

Ich gehe stark davon aus, dass es bei der Nano bleiben wird. Denn das PCB ist ja eigentlich nur so lang, weil der Kühler so groß sein muss.
Für eine Karte in Nano Größe müsste die TDP auch entsprechend zurück geschraubt werden. Und welcher Hersteller soll das bei einer Vega56 tun, wenn es doch die Nano gibt?
 
Also mal ehrlich, die GTX 1080 hat die gleiche Leistung wie die RX Vega64, das im Moment Vega64 teurerer ist lassen wir mal außer acht, aber die 1080 braucht weniger Strom und ist daher besser zu kühlen, was den Gesamtsystem zugute kommt, die Treiber sind von Anfang an gut und jetzt natürlich auch noch, welchen Grund sollte man haben, jetzt eine Vega64 zu kaufen, die wie gesagt mehr Strom und damit Abwärme produziert und unausgereifte Treiber hat. Ob die Treiber in einem halben Jahr besser sind und dann leicht die 1080 insgesamt überholt, muss sich auch noch bewahrheiten, schließlich kauft sich auch keiner ein Auto mit 150PS und beim Abholen sagt dir der Verkäufer, daß der Wagen momentan nur 120PS hat und er in einen halben Jahr nochmal vorbei kommen möge, da man möglicherweise ein Chiptuning dann parat hat, daß die fehlenden 30PS nachliefert :D
 
Fei schrieb:
Ja ganz schön ökologisch. Da kauf ich mir eine gtx 1080 statt einer Vega, weil dann bin ich ja ökologisch unterwegs. So mach ich das auch. Anstatt eines Camaros kauf ich mir einen Porsche, sind dann nur noch 16 statt 20 Liter Verbrauch und unnütz Energie wird dann nicht verschwendet:freak:

Wenn ich wirklich ökologisch sein möchte und nicht nur irgendwelche vorgeschobenen Argumente, dann hau ich mir Solar panels aufs Dach und überprüfe meinen Alltag nach Möglichkeiten im Gesamten ökologisch zu handeln.

Aber garantiert nicht bei der Entscheidung ob die unnütze zum highend zocken gekaufte Grafikkarte A ein paar Watt mehr zieht als Produkt B um meine Luxusprodukte mit schönen Bildern zu versorgen. Kann ich ja genauso gut in der Freizeit mit meiner biologisch abbaubaren Frisbee ein paar Würfe im Garten unternhemen und bin 1000 % ökologischer dabei und nehme sogar vielleicht ein paar Kilo ab.

Also bitte, ökologisch und high end Grafikkarten, die schon in der Herstellung Ressourcen vernichten ohne Ende? Da muss ich immer lachen, wenn ich solche Argumente lese für oder gegen den Kauf einer Grafikkarte. Abwärme etc., wenn man eben seine karte in eine kleine Büchse zwängen will ok, oderm an beim Kauf vom 500+ Euro Produkten 10-20 Euro Stromkosten im Jahr sparen kann, aber aus umeltbezogenen Gesichtspunkten bei high end Luxusprodukten:eek: ? So trägt halt jeder seinen Teil zum Erhalt der Umwelt bei, wenn man sich mit dem Glauben besser fühlt "shrug"

naja, wie gesagt, ich habe mit keinem wort gesagt, dass ich eine geforce kaufen will! ich hatte lediglich, auch im hinblick auf mobilprozessoren(apu, also prozessor und grafik in einem DIE), nach ryzen die hoffnung, dass da was konkurrenzfähiges kommt. und diese werbetrommel rührt AMD ja weiterhin: https://www.computerbase.de/2017-08/amd-raven-ridge-ryzen-2500u-2700u-vega-8-10-mobile/: "50% mehrleistung bei deutlich geringerer leistungsaufnahme"...die frage ist, im vergleich zu was? heizlüfter? wenn sie im vergleich zu den letzten AMD-mobilprozessoren meinen, dann gute nacht...die dinger wurden ja so gut wie in keinem laptop verbaut...aus gutem grund! dann wirds halt doch wieder eine Intel-ULV-DIE... :(

wenn die dinger also, wie nach den bisherigen tests von vega zu vermuten ist, die ganze schöne rechnung, die ryzen aufgemacht hat, kaputt machen, und den laptopakku nach einer stunde leersaugen, ohne wirklich mehrleistung zu bieten und obendrein nicht wirklich billiger sind...dann brauch das zeug kein mensch. -->ökologisch, ökonomisch und effizienztechnisch: mist! es bleibt dabei, ich bin enttäuscht!
 
Zuletzt bearbeitet:
SirMiles schrieb:
Ergänzung ()

Wenn man hier jedem glauben schenken mag der "kauf/hab die 1080/ti gekauft" dann müssen ja nächstes jahr sie rekorde von nvidia um 2000% übertroffen werden.
Lächerlich wie die leute hier ihren unmut mit solche angaben noch dramatisieren wollen... 🙄

Willste meine Rechnung sehen? In letzter Zeit gab es recht gute 1080 Angebote und für 180,00 € unterhalb einer Vega 64 soll man noch lange überlegen? Einmal ganz davon abgesehen, wer sich bei diesen Preisen eine Vega mit Werkskühler holt, zieht sich seine Hosen auch mit der Kneifzange an.
 
panno schrieb:
Ich wunder mich auch immer. Man ist bereit, teilweise bis zu 750 Euro für eine 1080 TI hinzublättern, aber ist dann über geringe Mehrkosten bezüglich des Stromverbrauchs absolut erbost, weil man dieses Geld dann nicht bereit ist zu zahlen.

Was ist das jetzt wieder für ein bescheuerter Vergleich? Die Bereitschaft für die 750€ ist recht simpel: Sie ist deutlich schneller als Vega, hat 3GB mehr, hat nutzbares OC Potential und des bessere Preis-Leistungsverhältnis.

Das Problem an Vega sind nicht 30€ mehr Stromkosten pro Jahr! Es ist die mangelnde Leistung, der total überhöhte Preis, absolut kein vernünftiges OC Potential, Treiberqualität von gut bis unterirdisch schlecht. Am Ende muss die Zusätzliche Wärme auch noch irgendwie aus der Dachwohnung.

Was soll den für Vega sprechen? Der Traum von der 56er für 400€? Die Karten verschwinden alle in Ländern mit niedrigen Stromkosten. Ohne Mining würde die Klasse selbst bei NV im Bereich von 300 bis 350€ liegen. Sync? Ich ersetze doch nicht meinen UHD gegen, ja was eigentlich? Noch ein 60Hz Gerät oder wieder Fliegengitter?! Da geht mir ja lieber das Tearing wie bisher vollkommen am Arsch vorbei. Unter 150 ppi mit 120Hz kommt hier nichts neues herzu.
Der Anteil der Free/G-Sync Nutzer würde mich mal interessieren. Das sind doch auch hier sicher keine 20%.
 
Vom dem was ich üebr das PCB gelesen hab, soll das Referenzdesign gut ausgestattet sein von Spannungswandlern.
 
Seiku schrieb:
Vom dem was ich üebr das PCB gelesen hab, soll das Referenzdesign gut ausgestattet sein von Spannungswandlern.
Es wurde schon gesagt das beste Referenz PCB ever.. Ich glaube Igor war das
 
Botcruscher schrieb:
Ich will jetzt keine falsch Diskussion lostretten und die Behauptung aufstellen, dass die Vega besser ist als die GTX 10x0-Serie, ich hab jedoch gestern mit einem Freund in den USA und in Japan telefoniert und selbst mich mal an meine Karte gesetzt.

Erst mal zum Thema "Treiber", da du es anbringst. Nein, die Treiber von AMD sind nicht unterirdisch schlecht. Die Treiber sind eigentlich sogar als Gut zu bezeichnen, da sie genau das tun, was sie sollen. Sie hinken nur der Hardware hinterher, besser sie nutzen nicht alle Hardware Features. Mir fällt es da jetzt schwer, einen wirklich passenden Satz zu finden.

Ansonsten: Ich hab mir jetzt ein paar Benchmarks, ein paar Tests und ebenso Experimente mit Polaris, Vega und eben der GTX 10x0-Serie zu Gemüte geführt und irendwie verfestigen sich bei mir ein paar Bilder von AMD:

1. Hardware ist der Software um mindesten 1 - 2 Jahre voraus. Perse nicht schlecht. Leider liegt damit jedoch viel Leistung brach.
2. Die Hardware ist in manchen Bereichen wohl sehr star auf ihre Struktur ausgelegt. ROP, Shader-Cluster usw. Irgendwas stimmt da nicht. In manchen Tests wird es ja auch angesprochen, dass AMDs "Backend" wohl auf bestimmte Werte limitiert ist. Gleichzeitg scheint der Zuspieler für die Shader in den Clustern immer noch zu schwach zu sein usw.
3. AMD geht, was ihre Hardware angeht, immer lieber ein Schritt sicher und gibt mehr Spannung drauf, als eigentlich notwendig ist.
4. AMD muss die Hardware gleichzeig im Highend-Bereich über den Sweet Spot betreiben, so dass die Effizient drastisch leidet.
5. Der DX11-Treiber von AMD muss dirgend mal mordenisiert werden. Das was nVidia als Reaktion auf Mantle gemacht hat, müsste AMD nun auch machen. Denn sie können sich nicht nur auf DX12/Vulkan verlassen.

Gerade Punkt 3. und 4. hab ich gestern mir mal zu Gemüte geführt, mit einer stark übertakteten Gainward GeForce GTX1080 (GLH). Die Karte ist zwar in der Regel - je nach Spiel - schneller als die Vega 64, benötigt jedoch auch knapp 200 - 250 Watt und läuft außerhalb des Sweet Spots. Nehme ich die Ergebnise beider Karten und vergleiche sie, dann ist zwar Vega immer noch "ineffiezienter" als Pascal, aber eben nicht mehr ganz so drastisch.

Und genau das ist der Punkt, der mich bei AMD weiter verwundert zurück lässt. Irgendwie bekommen sie es seit "Maxwell" - bei Kepler funktionierte es ja noch mit der 2x0er-Serie - nicht mehr wirklich hin.

Ich denk echt, dass AMD mal ihren Ingenieuren in der Grafik-Abteilung mal eine Kopfnuss verpassen sollten und dann einen kollektiven Urlaub mit "Zen" unterricht.
 
Zuletzt bearbeitet von einem Moderator:
Deswegen schrieb ich ja bei den Treibern von bis. Einige Funktionen laufen nicht und dann haben wir Titel wo die 1070 vor der 64 liegt. Bei den typischen Steam Early Acces sieht es dann vermutlich noch viel schlimmer aus. Gleiches gilt für ältere Titel.

zu
1. Leistung zählt hier und jetzt. In ein paar Jahren ist der Chip auch mit mehr Leistung alt.
2. Das wird nicht mal AMD selber wissen. Fiji und Polaris waren schon eine Enttäuschung. Vega bringt grob 5% mehr IPC gegenüber Fiji. Zum seligen Hawaii ist das schlicht ein Witz.
3. Das ist keine Sicherheit. AMD spart sich hier ordentliches binnig der Chips und wälzt die Nachteile einfach auch die Kundschaft ab. So kann ohne Aufwand auch der letzte Schrott auf die Karten wandern.
4. AMD muss nicht. AMD macht es.
5. Da passiert eh nichts mehr.
 
Mich würde interessieren ob die VEGA einfach ab Werk über dem Sweetspot betrieben wird und daraus der exorbitante Stromhunger resultiert.

Ich würde gerne auf ~10% Leistung verzichten wenn man dadurch akzeptable Verbrauchswerte erzielen kann.
 
@ZeT: Die Frage beantwortet sich doch von selbst. Klar wird die weit über dem Sweetspot betrieben.
Sieht man ja an der Nano im Vergleich zur Fury X: Selber Chip, selbe Shaderanzahl aber niedrigerer Takt -> 100 Watt weniger bei etwas weniger Leistung
 
Zurück
Oben