Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Pascal, Polaris und Vega im Test: Mit neuen Benchmarks und Treibern in das Jahr 2018
https://www.computerbase.de/2018-01/kryptowaehrung-massiver-wertverlust/ Ich denke die preise sollten damit wohl fallen
Zuckerwatte
Captain
- Registriert
- Juli 2013
- Beiträge
- 3.779
DarkerThanBlack schrieb:Seltsam, als es die VEGAs noch haufenweise zu kaufen gab und für Wochen in Onlineshops für 500 Euro lagen, so wollte sie keiner haben. Und nun, wo es sie nicht mehr so günstig gibt, da ist der Preis der Grund warum man sie nicht möchte.
Vor allem die Customdesigns sind wochenlang im Laden verstaubt.....
....ach ne die gabs ja gar nicht.....
T
tek9
Gast
duskstalker schrieb:navi wird vega reloaded - noch mehr compute, noch weniger gaming. einen phönix wie ryzen kann man sich imho getrost an den hut stecken - dazu sind die gaming gpu workloads zu sehr auf software angewiesen, die zum navi release beinahe komplett in nvidias hand liegt.
Hier muss ich korrigierend eingreifen:
AMD packt nicht immer mehr compute in die eigenen Chips, sondern Nvidia liefert die Geforce ab der 900er Serie ohne GPGPU Funktionen aus und verkauft dafür lieber Tesla Karten.
Geforce wahr mal eine vollwertige Grafikkarte. Mittlerweile sind es reine Gaming Karten
/fixed it
Sly123
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.611
deo schrieb:So langsam muss man die Ablehnung der GTX1060 3G überdenken, wenn es im Preisbereich von 200 bis 300€ nichts anderes gibt.
Eher nicht. Ob die jetzt 100€ oder 250€ kostet ändern nichts an den 3GB VRAM.
Da gibt's einfach schon zu viele Spiele die 4GB benötigen.
Mir kommt es aber so vor, dass 4GB Grafikkarten günstiger sind wegen dem bevorstehendem DAG.
happylol schrieb:https://www.computerbase.de/2018-01/kryptowaehrung-massiver-wertverlust/ Ich denke die preise sollten damit wohl fallen
Nope. Kurs hat sich schon wieder stabilisiert.
Ich hätte mir schon gerne eine Custom Vega 56 gegönnt aber die mined teilweise das dreifach einer RX 480 und verbraucht weniger als doppelte dabei.
Zuletzt bearbeitet:
Aduasen
Fleet Admiral
- Registriert
- Aug. 2008
- Beiträge
- 14.373
DayMoe schrieb:Hab mal irgendwo gelesen, dass ATI/AMD GPUs reifen wie alter Wein und nVidia GPUs einfach nur altern. Hab das jetzt schon bei mehreren Generationen beobachten können. Und hier offensichtlich auch wieder.
Jain.
Tatsächlich ist es - ich finde, zum Leidwesen von AMD - so, dass die nVidia Karten bereits zum Erscheinen mit sehr guten Treibern in den Markt kommen, während die AMD Karten eben beim Erscheinen in den meisten Fällen suboptimal bestückt sind.
AMD bessert dann mit der Zeit nach.
Ich würde das nicht als 'reifen' sondern als Fehlerbehebung ansehen.
Für AMD wäre es deutlich besser, sie würden die Karten gleich bei Erscheinen mit guten Treibern ausstatten, denn Nachtests ( wie CB das hier wieder getan hat) werden nicht so häufig gemacht - und das ist für AMD halt blöde.
Es natürlich gut, wenn die Vega64 von der Leistung jetzt vor einer GTX 1080 liegt.
Allerdings ist die Vega, im Gegensatz zur 1080 praktisch nicht übertaktbar und das Ganze wird natürlich auch dadurch zunichte gemacht, dass die Karten momentan teurer sind als die deutlich schnelleren 1080 Ti.
Wären die Vega 64 für 500-550 Euro (Custom Modelle) zu haben, wäre es eine konkurrenzfähige Karte zur 1080.
Tatsächlich kosten sie über 800 Euro.
Vom Verbrauch mal komplett abgesehen.
Zuletzt bearbeitet:
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.182
Richtig nur um den Kunden einfach mal mehr auszuquetschen und 89% der Kunden sind einfach Dumm und ja sorry so ist es. NV Gaming und für den rest bitte eine Tesla oder Titan kaufen danke. 👎 warum denkt ihr ich in den Konsolen eine AMD drin. Preis, kompakte Bauform und gute GPGPU Fähigkeiten und zwar nicht ohne Grund einfach um den schwachen CPU zu entlasten.
NV GPUS kommen für mich nicht infrage da ich Video und Foto bearbeite und mit GPU geht sowas besser.
NV GPUS kommen für mich nicht infrage da ich Video und Foto bearbeite und mit GPU geht sowas besser.
neofelis
Commander
- Registriert
- März 2008
- Beiträge
- 2.277
Das finde ich technologisch gesehen auch immer sehr wichtig.atroox schrieb:Performance pro Watt zeigt eindrucksvoll wie weit AMD zurück ist...
Dazu kommt, dass Vega bei Undervolting dynamisch den Takt senkt. Man wird den hohen Stromverbrauch, im Vergleich zu früheren AMD-Modellen einfach nicht mehr los. Es sei denn, man verzichtet direkt auf Leistung.
Meine HIS 390 konnte ich noch mit Undervolting auf unter 300W (Komplettsystem mit Monitor) drücken. Bei vollem Takt.
Bei der Vega kann man nur noch Undervolten, gleichzeitig das Powertarget erhöhen und der Stromverbrauch bleibt im besten Fall gleich.
Da hilft mir dann auch weniger, dass die Performance pro Watt (@Stock) im Vergleich zu Hawaii gut verbessert wurde. Das Komplettsystem verbraucht im selben Benchmark jetzt mit der Vega 420W und man kommt davon nicht ohne Leistungsverlust runter.
Zuletzt bearbeitet:
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.483
duskstalker schrieb:ich habe das mal milchmädchenmäßig durchgerechnet ...
... das mining wird in 3 monaten nicht vergessen sein, und dann stehen komplett überteuerte, kaum verfügbare radeon karten gegen die "shiny new" gtx serie ... allgemein glauben immernoch 80% der gamer, dass sie kein adaptive sync brauchen - das sagen aber auch nur die, die das noch nie benutzt haben ... nach so einer langen durststrecke wird man nvidia die karten aus den händen reißen.
https://www.youtube.com/watch?v=Ug8wIYQZxbc
... mit 10% marktanteilen bei dgpus braucht man sich imho um navi nicht allzugroße hoffnungen machen ... navi wird vega reloaded - noch mehr compute, noch weniger gaming. einen phönix wie ryzen kann man sich imho getrost an den hut stecken - dazu sind die gaming gpu workloads zu sehr auf software angewiesen, die zum navi release beinahe komplett in nvidias hand liegt.
Auch meine Rede, dass RX Vega extrem knapp kalkuliert ist, besten Dank für die Milchmädchenrechnung (bzw. dessen Reboot), die ich wohl zuvor überlesen/verpasst haben musste, und gut ausgeführt, wie das alles zusammen hängen kann mit Preisen und Verfügbarkeit .
Ob sich dann auch Huang eine "shiny new" Lederjacke leistet passend zu den "shiny new" Ampere GPUs voraussichtlich bei der Ankündigung Ende März?
Na, etwa wie die im Video gezeigte oder vielleicht ist er als nVidia CEO/Multimillionär (evt. auch schon Milliardär) so knausrig, dass der nur die alte mit Glanzpolitur einreibt vor jeder Präsentation, zu zu trauen wäre es ihm allemal .
Ja, schuldig , ich gehöre auch zu den Spielern, die nicht daran glauben einen Free- oder G-Sync-Monitor schon/überhaupt zu brauchen, zumal mir diese Monitore i.d.R. zu wenig Allround-Monitor sind (es oft auf Kosten der Bildqualität oder anderer Features geht) und Ego-Shooter bei mir eher eine untergeordnete Rolle einnehmen (Rennspiele sind bei mir auch selten geworden), kompetitive Online-Multiplayer sowieso, weil man bei Spielmechnaniken (Balancing und Matchmaking) dem Publisher/Studio ausgeliefert ist (siehe EA & Co. bei der im Spiel geregelten Anpassung hin zum "gaming as a service") und durch die individuellen Umstände (PC (Peripherie-)Ausstattung, Zeit zum spielen, usw.) m.E. wenig darauf geben kann bzw. die Aussagekraft begrenzt ist ("kompetitver Quark" eben).
Ja, natürlich werden die Ampere GPUs nVidia aus der Hand gerissen werden, nicht nur wegen (aber auch aufgrund) des Mining-Booms, denn wer kann schon die Verfügbarkeit der Customs-GPUs vorhersagen und dass diese nicht sich arg verspäten und in homöopathischen Dosen angeboten werden (um den Preis so lange wie möglich hoch zu halten) ähnlich wie bei RX Vega, so daß sich wohl massiv mehr mittelprächtig ausgestattete Founders Edition Referenz-Ampere-GPUs (bei denen nVidia alleine den ganzen Gewinn einsackt) verkaufen dürften oder zumindest würde ich mich nicht wundern, wenn das wegen des Mining-Booms passieren würde.
Neben Mining ist aber der Mangel an passender Konkurrenz seitens AMD/RTG wohl der Grund, wieso die Aufpreise auf die ohnehin dann mit der Ampere-Generation verteuerten GeForce-GPUs noch zulegen dürften ... "tolle" Aussichten und für einige dürfte ein Umstieg vom teuren PC Gaming auf eine vergleichsweise günstige XBOX - wenn nicht jetzt schon - zunehmend attraktiver werden.
Ja, gut möglich, aber noch würde ich den Kopf nicht komplett in den Sand stecken, auch wenn schon angekündgt wurde, dass Vega20 in 7nm nur bei Instinct GPUs verbaut werden soll, es also keinen 7nm RX Vega Refresh geben dürfte (was wegen der noch neuen 7nm Fertigung und den dabei entstehenden Kosten aber relativ logisch ist, die man mit Gaming-Karten nicht decken dürfte können). Gut, so wichtig ist es für AMD/RTG Oberklasse-GPU-Gamer regelmäßig zu bedienen, könnte man meinen.
Dass aber keine neue RX 600er Serie in der so für AMD/RTG so extrem wichtigen Mittelklasse geplant scheint und man einfach einer GTX 1160/2060 das Feld überlassen dürfte, ist für mich unverständlich, denn gerade dort würde sich ein RX Vega Refresh in 12nm als neue Mittelklasse anbieten, der dann auch mit einer GTX 1160/2060 gut mithalten können dürfte und vermutlich auch bei moderaterem Takt/sparsamer/näher am "Sweet Spot" betrieben werden könnte, da keine GTX1160/2060 wohl kaum mehr als RX Vega 64 Leistung (vielleicht gerade einmal RX Vega 56 Leistung) bringen dürfte. Ob dort die Herstellungskosten evt. wieder das Problem sind, bei Mittelklassepreisen (ohne Miner) kein Gewinn zu machen wäre, wer weiss?
Zuletzt bearbeitet:
Zuckerwatte
Captain
- Registriert
- Juli 2013
- Beiträge
- 3.779
Steffenkrue schrieb:[...]
Dies sind die auf Steam aktuell am meisten gespielten Spiele:
PLAYERUNKNOWN'S BATTLEGROUNDS
Dota 2
Counter-Strike: Global Offensive
Grand Theft Auto V
Tom Clancy's Rainbow Six Siege
ARK: Survival Evolved
Team Fortress 2
Warframe
Football Manager 2018
Rocket League
[...]
Und dann Bitte noch die Origin und Uplay top 10...und die Blizzard top 10 und und und
- Registriert
- Nov. 2002
- Beiträge
- 8.928
Da ist es dasselbe. Und es ist unwahrscheinlich, dass du in denselben Szenen mit denselben Einstellungen nicht dieselben Probleme hast. Doom ist aber wie bereits erwähnt auf Nightmare für eine bessere Vergleichbarkeit erzwungen.Und was ist mit Doom und COD? Ich hab bei beiden eindeutig mehr Frames mit einer 970.
Ja, das wird er.Wird der Schnitt dann automatisch korrigiert?
In Wolfenstein wird der 380 die 4GB zum Verhängnis, genauso wie der Fury X. Interessanterweise passiert das der RX 570 reproduzierbar aber nicht. Da hat AMD vielleicht was am Speichermanagement bei Polaris geändert.
Zuckerwatte
Captain
- Registriert
- Juli 2013
- Beiträge
- 3.779
ChrisMK72 schrieb:Pu ...
Ach so ...
Was mach ich dann hier eigentlich ?
Gamer und gaming Hardware wird hier gar nicht berücksichtigt, sondern nur professionelle Aspekte für Firmen ?
Ups. Da bin ich tatsächlich falsch hier.
Ich dachte hier geht's zumindest manchmal noch etwas um Gaming Hardware.
Mein Fehler.
Muss ich wohl doch wieder mehr zu PCGH rüber gehen.
Gut, dass du endlich aufgeklärt wurdest!. Was denkst du wieso auf CB fast nur Server, Workstations, Quadros und Firepros getestet werden.
Komm halt ma ausm Keller gung
Ergänzung ()
uploader77 schrieb:Unterschätzt mal die Heizkraft einer Grafikkarte nicht. So ein 350-W-Ding, wie damals meine 780 Ti heizten immer enorm. Wenn man dann ein paar Stunden spielt merkt man das. Ich hatte immer so ein Lagerfeuer-Feeling beim Zocken.
Leider heizt Ryzen viel schlechter..merk ich Zur Zeit, da ich immer das Dachfenster beim zocken nen Spalt aufhabe...früher hat der PC genug gegen geheizt...jetzt muss ich die Heizung benutzen und das Fenster ab und zu schließen sonst wirds kalt ^^
Ergänzung ()
tek9 schrieb:Ich habe heute eine alte R9 290 für 200 Euro verkauft. Die Karte hat vor 3,5 Jahren 330 Euro gekostet und war damals ein Schnäppchen.
Die aktuellen Karten sind durch die Bank einen Hunderter zu teuer, aber man bekommt für alten Kram auch einen Hunderter mehr als vor 18 Monaten.
Das (mein) Problem ist: Die 290x würde ich gut los bekommen aber dann ist es ziemlich dunkel im Monitor. Ein Sidegrade kostet mehr als mir die alte Karte einbringt und überzogene Preise, dank mining Hypes will ich auch nicht wirklich zahlen. Die Karte wird wohl irgendwann an Altersschwäche sterben oder so..
S
Shrimpy
Gast
neofelis schrieb:Das finde ich technologisch gesehen auch immer sehr wichtig.
Dazu kommt, dass Vega bei Undervolting dynamisch den Takt senkt. Man wird den hohen Stromverbrauch, im Vergleich zu früheren AMD-Modellen einfach nicht mehr los. Es sei denn, man verzichtet direkt auf Leistung.
Meine HIS 390 konnte ich noch mit Undervolting auf unter 300W (Komplettsystem mit Monitor) drücken. Bei vollem Takt.
Bei der Vega kann man nur noch Undervolten, gleichzeitig das Powertarget erhöhen und der Stromverbrauch bleibt im besten Fall gleich.
Da hilft mir dann auch weniger, dass die Performance pro Watt (@Stock) im Vergleich zu Hawaii gut verbessert wurde. Das Komplettsystem verbraucht im selben Benchmark jetzt mit der Vega 420W und man kommt davon nicht ohne Leistungsverlust runter.
Keinen plan aber labern...
Ja Vega senkt denn Takt mit weniger VCore, es gibt aber eine einfache Methode auf die du mit Google gekommen wärs da sie in jedem Guide steht...
Maximal Möglichen Takt anheben bzw ausloten.
Mein Vega frisst auf 1500Mhz 230W, das ist deutlich weniger als Default...würde FP16 genutzt sähe das alles anders aus gegen eine 1080Custom, aber hätte würde wenn.
Es ist richtig das in Sachen Effizienz letztendlich gegen eine abgespeckte DX11 Pixelschleuder nur eine andere abgespeckte DX11 Pixelschleuder hilft, 9Jahre DX11 und kein Ende in Sicht.
Nur wirst du die nicht sehe, ich bezweifle das mit Navi eine GPGPU und Gaming DIE kommen wird da die GPGPU DIE in jedem Bereich gut nutzbar ist nur nicht PC Gaming ... wo noch 10% Marktanteil übrig sind.
Zuletzt bearbeitet von einem Moderator:
neofelis
Commander
- Registriert
- März 2008
- Beiträge
- 2.277
Dein Ton ist unnötig grenzwertig! Ich glaube darüber hinaus nicht, dass Du den Verbrauch Deiner Steckkarte messen kannst, sondern nur den Verbrauch des Gesamtsystems. (Ist das dann nun BS von DIR?)Shrimpy schrieb:Keinen plan aber labern...
Ja Vega senkt denn Takt mit weniger VCore, es gibt aber eine einfache Methode auf die du mit Google gekommen wärs da sie in jedem Guide steht...
Maximal Möglichen takt anheben und gut ist.
Mein Vega frist auf 1500Mhz 230W, das ist deutlich weniger als Default...aber laber du mal weiter BS.
Ich habs mit der ASUS Strix ausprobiert und die Ergebnisse der Artikel von CB und THW auch bestätigen können.
computerbase.de...vega-bios-power-test
tomshardware.com...rx-vega-64-undervolting
Ein Undervolten zum Stromsparen ohne Leistungsverlust ist mit Vega nicht möglich.
Ich kann den maximal möglichen Takt so sehr anheben, wie ich möchte. Aber die maximale Frequenz, die ich erreichen kann, bleibt bei 950mV bei 1440MHz wie festgenagelt. Überprüft ist das sogar zweifach mit MSI-Afterburner und GPU-Z Logfile. Es zeigt sich darüber hinaus auch an den Benchmarkwerten, die niedriger ausfallen als ohne Spannungsverringerung.
Wenn ich das Powerlimit dazu noch erhöhe steigen die maximal erreichbare Frequenz UND der Verbauch wieder an und mehr Verbrauch möchte ich auf gar keinen Fall.
Es wäre sehr wünschenswert, wenn es so wäre. Aber so ist es leider nicht. Zumindest nicht mit der ASUS Strix.Shrimpy schrieb:... Maximal Möglichen takt anheben und gut ist. ...
Edit:
Oder kurz aus dem obigen THW-Artikel zusammengefasst:
"...undervolting without increasing the power limit is pointless and counterproductive".
"...[but]if you want to overclock efficiently, then you need to undervolt!"
Das erste will ich, denn ich möchte gerne WENIGER Verbrauch. Und das ist leider, leider zwecklos und kontraproduktiv.
Zuletzt bearbeitet:
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.889
tek9 schrieb:Hier muss ich korrigierend eingreifen:
AMD packt nicht immer mehr compute in die eigenen Chips, sondern Nvidia liefert die Geforce ab der 900er Serie ohne GPGPU Funktionen aus und verkauft dafür lieber Tesla Karten.
/fixed it
danke für die korrektur - aber ich denke du hasts einfach falsch verstanden natürlich ist navi wie vega, fury und polaris ein mehrzweckchip, der mit der selben architektur auch in den profi-karten anwendung findet. aber das MCM design wird vorallem dem compute zu gute kommen, siehe ryzen.
was ich jetzt mit "mehr compute / weniger gaming" gemeint habe, ist, dass navi durch den mcm aufbau (falls er denn kommt) in compute vermutlich nochmal ne schippe drauflegen wird, weil sich das design in compute besser ausnutzen lässt - analog zur ryzen, ist ja das selbe in grün - und gaming auch genau so ohne anpassungen erstmal schlecht aussieht. bei ryzen waren aber viel weniger anpassungen nötig als vermutlich bei navi, weil ryzen dann doch eher wie eine normale cpu funktioniert - MCM gpu gabs beim "consumer" noch nie - weder windows noch spiele können mit MCM was anfangen - hier kommts komplett auf die integration von amd an - und ich glaube einfach nicht, dass sich navi im gaming genau so verhält wie eine typische monolithische gpu.
was anpassungen an der software voraussetzt, wenn auch nur kleine, aber ob die dann mit den marktanteilen von amd mitte 2019 umgesetzt werden, ist fraglich.
das meinte ich mit mehr compute / weniger gaming. out of the box wird navi vorallem eins können: compute. die gaming leistung steht auf einem anderen (software)blatt.
atroox schrieb:Performance pro Watt zeigt eindrucksvoll wie weit AMD zurück ist...
die performance/watt ist eher eine anzeige dafür, wie wenig gaming leistung amd aus einer karte in der größenordnung der titan herausbekommt - nimmt man jetzt vega gegen eine titan xp - die sind hardwaretechnisch nämlich am ähnlichsten - ist der rückstand in sachen stromverbrauch nicht mehr so groß - nimmt man jetzt einen 12nm LP statt 14nm LPP prozess und overvolted vega ab werk nicht wie verrückt dürften vega und titan xp auf einem sehr ähnlichen niveau liegen. nvidia kocht nämlich auch nur mit wasser.
das problem an der sache ist, dass die amd karten aus ihrer brutalen hardware, die einfach strom braucht, nicht genügend fps ziehen können. in compute workloads ist der unterschied vega - titan oder quadro nicht so groß.
das liegt einerseits bestimmt an der "one fits all" architektur aber vorallem an der software aka spiele. wenn ein spiel explizit darauf ausgerichtet wird auf vega gut zu performen, siehe wolfenstein, dann tut es das auch - nur, dass so einen support amd nur bei sehr wenigen titeln hat und nvidia als dominanter marktführer/monopolist praktisch in jedem.
wenn ein spiel schlecht auf amd läuft, ist amd schuld (aka. "normale amd performance", "amd dx11 schwäche") - wenn ein spiel gut auf amd läuft, ist amd schuld (gekaufter "amd benchmark", "engine X liebt amd" "natürlich vulkan, aber wie siehts in "richtigen" spielen aus?") - wenn ein spiel auf nvidia schlecht läuft, ist das spiel schuld - wobei der fall eher selten ist, weil es ja schon reicht, wenns auf amd noch schlechter läuft.
aber wenn ich halt sehe, dass eine gtx 1080ti in spiel X in wqhd nur 50-70 fps schafft, ist das game technisch imho schon totale grütze, egal wie weit amd dann hinten liegt - aber das interessiert ja nicht mehr, nvidia führt, case closed.
Chismon schrieb:Ja, schuldig , ich gehöre auch zu den Spielern, die nicht daran glauben einen Free- oder G-Sync-Monitor schon/überhaupt zu brauchen, zumal mir diese Monitore i.d.R. zu wenig Allround-Monitor sind [...]
das stimmt - allerdings muss ich an der stelle sagen, dass mein asus in sachen bildbearbeitung nicht so schlecht ist. leider ist er mit seinen daten ziemlich konkurrenzlos (27", wqhd, 144hz, freesync, ips, mattes display) - da gibts nur noch einen eizo mit dem selben panel für 1000€ - ansonsten nur TN panel oder keine 144hz.
leider kommen eher 75hz freesync monitore als 120 oder 144hz - imho ist der sweetspot für freesync zwischen 90 und 140 hz - da ist ein 75hz panel immernoch ziemlich wenig. wenn mans mit der pixeldichte nicht auf 27" wqhd eingrenzt, gibts schon n paar geräte:
https://geizhals.de/?cat=monlcd19wi...VA~11984_144~11992_Adaptive+Sync/AMD+FreeSync
leider trotzdem immernoch ziemlich teuer - liegt wohl daran, dass man mittlerweile TN für teuer geld verkaufen kann, und es keinen grund gibt IPS/VA unterhalb von 250€ mit den specs anzubieten.
wenn du immernoch einen 60hz monitor nutzt, kann ich dir nur wärmstens empfehlen 144hz+adaptive sync zu probieren. für mich ist damit der punkt gekommen, an dem TFT monitore endlich röhren in allen belangen abgehängt haben. allerdings kommt dann dass problem dazu, dass ich selbst zum arbeiten nicht mehr auf einen 60hz desktop zurück will, aber einen grafiker-monitor mit mehr als 60hz zu finden dürfte relativ schwer werden, deshalb muss der asus solange ran - und der ist eigentlich nicht schlecht.
Chismon schrieb:[...]
Neben Mining ist aber der Mangel an passender Konkurrenz seitens AMD/RTG wohl der Grund, wieso die Aufpreise auf die ohnehin dann mit der Ampere-Generation verteuerten GeForce-GPUs noch zulegen dürften ... "tolle" Aussichten [...]
ich glaube auch, dass ampere die erste gpu generation wird, die mit einem "mining" aufschlag geboren wird. pascal, polaris und vega wurden vor ihrem marktstart ohne mining kalkuliert und zu entsprechenden preisen von der foundry abgekauft und weiterverteilt - bei ampere dürfte sich nvidia wohl einen teil vom kuchen abschneiden, vorallem bei den abzock-FEs. preise senken geht hinterher immer.
Chismon schrieb:[...] Gut, so wichtig ist es für AMD/RTG Oberklasse-GPU-Gamer regelmäßig zu bedienen, könnte man meinen.
die frage ist auch, ob sich die "oberklasse-gamer" überhaupt von amd bedienen lassen wollen - eigentlich wollen die nur niedrigere nvidia preise und amd bekommt bei einem guten produkt einen feuchten mittelfinger.
bis zur CES war vega 12nm LP auf jeder roadmap - die entscheidung vega 12LP zu streichen, muss also kurzfristig gewesen sein.
ich für meinen teil glaube, dass vega der 12nm LP prozess gut gestanden hätte - man hätte das auf jeden fall tun sollen.
jetzt geht die suche nach dem grund los:
- wir wissen, dass RX vega zur MRSP ohne mining für amd eher ein freundschaftsdienst als ein gewinnbringendes produkt ist - mit dem einzigen zweck marktanteile im gaming zurückzuholen. anders kann man RX vega mit der hardware bei dem preis nicht erklären.
- wir wissen, dass vega von den "gamern" komplett zerrissen wurde - amd hat selten so viele shitstorms abbekommen wie 2017.
- amd braucht den pc high-end gaming markt mit mining, compute, embedded, konsolen und apus eigentlich garnicht.
für mich persönlich ist das fazit eigentlich klar: nachdem amd dem gaming markt ihr derzeit bestes produkt zu den "selbstkosten" abgeben wollte, aber die gamer sich aufgeführt haben wie eine horde tollwütiger affen mit tourette, und neben gaming noch viel gewinnbringendere märkte vorhanden sind, fliegen die gamer eben aus dem portfolio raus - die kaufen ja ohnehin nichts. und die miner, die eigentlich viel mehr zahlen würden, kaufen dann die subventionierten gamer-karten. amd verliert am niedrigen verkaufspreis der packages, an den händlersubventionen UND auch noch anteile im gaming markt.
Chismon schrieb:Dass aber keine neue RX 600er Serie in der so für AMD/RTG so extrem wichtigen Mittelklasse geplant scheint und man einfach einer GTX 1160/2060 das Feld überlassen dürfte, ist für mich unverständlich, denn gerade dort würde sich ein RX Vega Refresh in 12nm als neue Mittelklasse anbieten, der dann auch mit einer GTX 1160/2060 gut mithalten können dürfte und vermutlich auch bei moderaterem Takt/sparsamer/näher am "Sweet Spot" betrieben werden könnte, da keine GTX1160/2060 wohl kaum mehr als RX Vega 64 Leistung (vielleicht gerade einmal RX Vega 56 Leistung) bringen dürfte. Ob dort die Herstellungskosten evt. wieder das Problem sind, bei Mittelklassepreisen (ohne Miner) kein Gewinn zu machen wäre, wer weiss?
die vega architektur ist ja angeblich gut skalierbar - die frage ist, wie gut das ganze ohne HBM2 funktioniert (die ryzen APUs laufen ja auch ohne HBM2, aber die sind auch "low performance"). unklar ist, ob vega überhaupt was anderes als HBM2 nutzen kann - als alternative zum teuren HBM2 bleibt nur gddr6 - und der ist so frisch, dass er noch heiß ist.
ggf. verhindert schon der speicher für vega den einsatz einer "kleinen" vega in der mittelklasse.
noch dazu hätte man hier wohl den 12LP prozess mitnehmen sollen - in 14nm LPP macht das imho keinen sinn.
ich sehe eine kleine, sparsame vega eigentlich nur knapp unterhalb der 1070 - alles drüber dürfte wieder so einen riesigen chip benötigen, der einfach nicht in die mittelklasse passt - auch wenn die miner derzeit fleißig vega kaufen - das volumen von polaris erreicht man mit so einem riesigen chip fertigungs-/yieldtechnisch nicht.
ich habe die hoffnung auf einen weiteren polaris refresh in 12nm LP auch noch nicht ganz aufgegeben, aber wunder darf man hier eigentlich nicht erwarten - polaris wird mit oder ohne refresh kaum eine chance gegen die 2060 haben.
vega in der mittelklasse funktioniert in meinen augen preistechnisch nicht. anderer speicher als hbm ist fraglich, hbm2 zu teuer. und dann ist immernoch die frage, ob vega mit einem kleinen chip überhaupt genug performance hat - der vollausbau schluckt für mittelklasse auch einfach zu viel und ist zu teuer.
abgesehen vom "willen" fehlts AMD auch einfach an gangbaren wegen.
ich wäre für 2018 von einem 12nm LP polaris und vega refresh ausgegangen (sind ja minimale änderungen, ist ja immernoch 14nm) um die lücke zu navi zu schließen. RX navi kommt ja aber nicht wirklich überraschenderweise nach der compute navi - ist doch schon n ziemliches loch, auch mit refreshes.
wenn amd 2018 wirklich garnichts bringt, ist auch fraglich, ob es amd ende 2019 überhaupt nochmal im high-end sektor probieren will - die versnobbten gamer sind bis dahin noch mehr nvidia gewohnt.
vielleicht schaufelt sich nvidia "intel style" selbst n tiefes loch zum reinstolpern und amd kann da mit gezielten hieben nochmal ein comeback starten, nachdem sich die "pc master race" am nvidia monopol die zähne ausgebissen hat, aber das glaube ich eigentlich nicht - dazu ist nvidia nicht doof genug - intel schon.
Zuletzt bearbeitet:
Vindoriel
Admiral
- Registriert
- Sep. 2014
- Beiträge
- 7.669
Liegt aber daran, dass Nvidia sich bei vielen Spieleherstellern / Publisher einkauft, proprietäre Schnittstellen (Gameworks & Co.) einbinden lässt und früher Vorabversionen der Spiele bekommt, damit die Treiber früher optimiert werden können. AMD bekommt (wenn überhaupt) Vorabversionen später und kann auch erst die Treiber später optimieren, so dass bei Verkaufsstart AMD-Karten schlechter sind.hamju63 schrieb:Tatsächlich ist es - ich finde, zum Leidwesen von AMD - so, dass die nVidia Karten bereits zum Erscheinen mit sehr guten Treibern in den Markt kommen, während die AMD Karten eben beim Erscheinen in den meisten Fällen suboptimal bestückt sind.
AMD bessert dann mit der Zeit nach.
Ich würde das nicht als 'reifen' sondern als Fehlerbehebung ansehen.
Für AMD wäre es deutlich besser, sie würden die Karten gleich bei Erscheinen mit guten Treibern ausstatten, denn Nachtests ( wie CB das hier wieder getan hat) werden nicht so häufig gemacht - und das ist für AMD halt blöde.
Altes Sprichwort: Wer gut schmiert, der gut fährt.
Gschwenni
Banned
- Registriert
- Aug. 2017
- Beiträge
- 724
duskstalker schrieb:der radeon treiber ist mittlerweile zu einem validen kaufargument geworden - ich weiß nicht, wieso die nvidia jünger permanent damit beschäftigt sind auf dem treiber rumzuhacken, der wohl offensichtlich alles besser macht als der WinXP treiber von nvidia. das argument "übersichtlicher" ist maximal dem "funktionsumfang" vom nvidia-part geschuldet.
Valides Kaufargument? Wegen was denn?
Ich mein Wattman funktioniert ned wirklich zuverlässig und Einstellungen werden nach Neustarts ned übernommen.
Die Vega Features gibts immernoch ned und nun hat man nen Treiber mit Klickibuntifeatures aber geändert hat sich ned wirklich was.
Ansonsten installiert ma halt XPrecision fürn Overlay was besser is. Oder den Afterburner.
ne, die rx580 ist immer der bessere kauf bei gleichem preis, desseidenn man will auf teufel komm raus am netzteil sparen oder spielt explizit nur nvidia spiele aus der hölle (anno 2205 bspw)
Der immer bessere Kauf bei viel mehr Stromverbrauch oft a mehr Lautstärke? Ned wirklich.
2GB mehr und Freesync sprechen für die AMD. Lautstärke, Wärmebildung, CPU Bottlenecks
in der regel ist die rx580 einige prozent schneller
Die Karten sind gleichschnell. Ja bei CB hat diesmal die 580 3% die Nase vorn.
Wenn für dich das einige Prozent sind, bitte, woanders sind die Karten absolut gleichschnell.
Wennst scho PCGH verlinkst kannsta dort auch mal den Leistungsindex anschaun.
gäbe es kein mining würde vega dank den ständigen shitstorms und dem daher extrem schlechten ruf wie blei in den regalen liegen. für die 200 leute, die in deutschland jetzt eine vega wollen und keine bekommen würde die "kleinste menge" locker reichen.
Nö würden die ned. Denn wenn der Preis in Ordnung is, kann man sich ne Vega 64 locka für 500 Euros kaufen.
Kombiniert mit Freesyn is das ne gute Wahl.
duskstalker schrieb:die performance/watt ist eher eine anzeige dafür, wie wenig gaming leistung amd aus einer karte in der größenordnung der titan herausbekommt - nimmt man jetzt vega gegen eine titan xp - die sind hardwaretechnisch nämlich am ähnlichsten - ist der rückstand in sachen stromverbrauch nicht mehr so groß
Der Rückstand war fast noch nie so groß wie jetz und nein das liegt ned an Vegas Ausrichtug für compute, sondern Vega is vor allem von den Features fett ausgerichtet für Gaming und kommt sogar ohne FP64.
De ganzen Änderungen an der Grafikpipeline die man gmacht hat waren zugunsten nur guten Gamingleistung.
DSBR, Async Compute, HBCC, Primitive Shader, hoher Takt für hohe Tessleistung usw... alles primär wegen Gaming.
das problem an der sache ist, dass die amd karten aus ihrer brutalen hardware, die einfach strom braucht, nicht genügend fps ziehen können. in compute workloads ist der unterschied vega - titan oder quadro nicht so groß.
Was solche Sachen angeht fehlt es AMD am Softwaresupport desweng hat AMD im profi Segment kein großes Standbein.
das liegt einerseits bestimmt an der "one fits all" architektur aber vorallem an der software aka spiele. wenn ein spiel explizit darauf ausgerichtet wird auf vega gut zu performen, siehe wolfenstein, dann tut es das auch
Du machst ja scho wieder den Fehler und versuchst ein AMD Spiel als Referenz ran zu ziehn.
Vergiss mal ned dass Wolfenstein FP16 u. shader intrinsics supported u. ne enge Zusammenarbeit mit AMD darstellt und Nvidia dort gebremst wird.
Zuletzt bearbeitet:
S
Shrimpy
Gast
neofelis schrieb:Dein Ton ist unnötig grenzwertig!
Ja is er weil die Aussage einfach falsch ist, obwohl es bei jedem Guide da drausen steht!
Hebst du den Takt bei P6-7 an bei gleicher Spannung versucht die Karte bis zum systemcrasah einen höheren Takt zu fahren.
Ich lasse mein Vega LC in der Regel bei
P6 1600/960mV
P7 1650/975mV
HBM ist bei 1100/950mV
Das ist bei mir stabil und ergibt 1502MHz unter vollast 180W GPU/28W HBM in HWinfo, Steckdose müsste ich wieder mal messen.
Gebe ich nun 1700Mhz auf P7 habe ich 1532Mhz, das ist bei mir aber schon Grenzwertig da ich ab und an Fehler sehe, HWinfo meldet da bei mir auch keinen höcheren Vcore.
UV ist bei Vega kein wunderheilmittel, 40W weniger ist schon gut, war bei Hawaii auch nicht anders zumindest bei meiner 290TriX.
Wer glaubt er kann einen Vega bei der Siliconlottery bekommen der 1650Mhz bei 200W macht ist hier einfach falsch.
Zuletzt bearbeitet von einem Moderator:
Ähnliche Themen
- Antworten
- 613
- Aufrufe
- 103.896