News AMD Radeon VII: Gerüchte über geringe Anzahl nur im Referenzdesign

Cl4whammer! schrieb:
Aber nicht beim zocken, wenn das Teil auf die 100%

Natürlich auch da.

Auf den durchschnittlichen Verbrauch kommt es an.
Nur weil AMD Lastspitzen im 1-2ms Bereich von 370W zulässt heisst
das nicht die Karte braucht das dauerhaft.

Nur weil die GTX1080 eben nur Lastspitzen bis 300W hat, heisst
das nicht das sie im Schnitt viel weniger verbraucht.
Bei den ganzen Testmagazinen und Youtube Noob Kanälen
arbeiten aber keine Elektroniker, die so etwas raffen würden.
 
JSXShadow schrieb:
AMD geht kein Risiko ein und legt lieber mehr als weniger Spannung an...hach ja, da werden Erinnerungen an den Pentium 4 wach :D

aka "der Brutzler", wie @Blutschlumpf immer so gern sagte.


Volker schrieb:
Artikel-Update: Überraschend hat AMD ein Statement abgegeben. Dabei sagt das Unternehmen aus, dass die Nachfrage von Spielern ab dem 7. Februar durch AMD und Partner gedeckt sein wird.

Es gab doch ne Liste von AMD Partnern, die nicht unbedingt Distributoren á la Ingram Micro sein müssen. Ich dachte an sowas wie Mindfactory und so. Hat da wer ne Liste?

Bislang hab ich nur den hier gefunden, für ne E-Mail, wenn das Teil zu kaufen ist: https://experience.amd.com/Notify-Me/RadeonVII



RYZ3N schrieb:
Fragt sich nur für wie lange! :D

Jetzt heißt es nur noch warten, Referenzdesign durch @ComputerBase unter die Lupe nehmen lassen und entscheiden ob man auf ein Custom Modell von Sapphire wartet [falls das überhaupt kommen wird] oder sich an @Faust2011 halten, der mir eine Radeon VII mit Wasserkühlung schmackhaft gemacht hat. :D

Jo, mein Bitfenix Shinobi und möglicherweise auch mein Netzteil möchte ersetzt werden, wenns eh damit schonmal +200€ ist kann man auchmal die GPU unter Wasser legen, spielt dann auch keine Rolle mehr neben ner neuen Graka :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fragger911
dersuperpro1337 schrieb:
AMD hat seit der 290X keine GPU mehr im Programm, die man wirklich High End nennen kann (Leistung ggü. den besten 2-3 Nvidia GPUs)
Also seit über 5 Jahren.

Das ist Deine Sicht. Seitens AMD war die Fury X eine HighEnd Karte und der Nachfolger der R9 290X / R9 390X. Deren Nachfolger dann schlussendlich die Vega 64. Wie hier jeweils die Performanceabstände zur Konkurrenz aussahen, ist da erstmal irrelevant.
 
Affenzahn schrieb:
Vorsicht! Autovergleich:
Disqualifiziert sich dann auch Mercedes, weil Bugatti schnellere Autos herstellt?

Zu Bugatti gibt es aber immerhin Alternativen... :D
 
Affenzahn schrieb:
Meine Freundin kauft sich Bücher, die sie sich in der Bib ausleihen könnte, einfach nur weil frische Bücher umwerfend gut riechen - genau so irrational.

Haha, nur dass ihre Bücher keine hunderte € kosten :D
 
RYZ3N schrieb:
oder sich an @Faust2011 halten, der mir eine Radeon VII mit Wasserkühlung schmackhaft gemacht hat. :D

Die Karte schreit ja förmlich danach, unter Wasser gesetzt zu werden. :) Mich wundert es ein wenig, dass sie von AMD selbst nicht zusätzlich in Form einer LC Edition (sprich Liquid Cooling) auf den Markt gebracht wird - so, wie bei der Vega 64.
 
  • Gefällt mir
Reaktionen: SVΞN
Also an alle die Vega mal testen wollen:

Spannungen im Wattman von P0-P7 wie folgt einstellen: 950 auf P7, alle darunter jeweil in 5er Schritten weniger. Das wars. mehr Leistung, weniger Verbrauch. Zur Not die Speicherspannung (auch wenn sie das net ist, aber wird zu detailiert) auf 1000 setzen, fertig. Sollte in 99% der Fälle stabil laufen, wer Samsung HBM hat (auslesbar durch diverse Tools) kann auch gern den HBM auf 1050 oder 1100 knallen. Fertig. So einfach ist es mit der Vega.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack, Newby3d, adnigcx und 2 andere
dersuperpro1337 schrieb:
AMD hat seit der 290X keine GPU mehr im Programm, die man wirklich High End nennen kann (Leistung ggü. den besten 2-3 Nvidia GPUs)
Also seit über 5 Jahren.
Und Navi wird jetzt auch kein neues High End?
AMD disqualifiziert sich so langsam echt massiv auf dem GPU Markt...
ralf1848 schrieb:
Exakt so ist es ! Traurig aber wahr !
Aber zumindest du, Ralf, hast ja dir ne GTX970 gegönnt.
Aber so funktioniert es eben nicht das 80% der Käufer stumpf nvidia Karten kaufen um sich dann zu beschweren dass das Unternehmen sich auf andere Dinge fokussiert.
Die meisten die hier jammern das AMD ja keine HighEnd GPU haben jammern dochbnur deswegen, weil sie nun keinen Preisdrücker mehr haben um ihre geliebten nvidia Karten günstiger zu bekommen.
 
  • Gefällt mir
Reaktionen: DerKonfigurator, ahuev0 und SVΞN
@JSXShadow Bin gespannt, wie das mit der Radeon7 sein wird. Ist zwar auch eine Vega, aber durch den 7nm Prozess ist vielleicht alles anders mit der Parametrisierung im Wattman.

Zum Tweaking der Vega: Und das Powerlimit ziehst Du dabei nicht gleich noch hoch auf +50 ? Und was empfiehlst Du für den non-Samsung HBM2?
 
Volker schrieb:
Artikel-Update: Überraschend hat AMD ein Statement abgegeben. Dabei sagt das Unternehmen aus, dass die Nachfrage von Spielern ab dem 7. Februar durch AMD und Partner gedeckt sein wird.
Hätten sie das mal mit den letzten Vega-Karten gemacht...Ich hab nur deswegen keine gekauft, weil es ewig lang keine Customs gab. Und ich bin bestimmt nicht der einzige aus diesem Grund verlorene potentielle Käufer.
 
durch AMD und Partner gedeckt sein wird.

Das heißt nicht zwangsweise das wir zum Release Custom Designs sehen werden. Das kann (und sehr wahrscheinlich) bedeuten das die Partner Referenz-Designs ausliefern und deren Sticker draufklatschen.

Das haben wir zuletzt bei Vega 64 von AMD gesehen, Powercolor, Gigabyte, MSI. Hatten alle Referenz-Karten die anders angemalt waren. PCB und Kühlung war aber Referenz.


Aber sehe schon das erste Problem mit VII, Watercool ist sich noch nicht sicher ob sie dafür einen Block verkaufen werden :grr: :(
 
habla2k schrieb:
Haha, nur dass ihre Bücher keine hunderte € kosten :D
Ha! Denkste!

Wenn ich auf 3 Jahre hochrechne was sie Bücher (und Schuhe) ausgibt und das mit meinen Kosten vergleich, schenkt sich das vermutlich nicht mehr viel.
Gebrauchte Hardware bekommt man, prozentual zum Neupreis, besser weg wie Bücher (und Schuhe).
 
Faust2011 schrieb:
@JSXShadow Bin gespannt, wie das mit der Radeon7 sein wird. Ist zwar auch eine Vega, aber durch den 7nm Prozess ist vielleicht alles anders mit der Parametrisierung im Wattman.

Zum Tweaking der Vega: Und das Powerlimit ziehst Du dabei nicht gleich noch hoch auf +50 ? Und was empfiehlst Du für den non-Samsung HBM2?

Ich sehe du hast eine Red Dragon 56. Mit Hynix Speicher ist es immer schwierig, bei der 56 sowieso, da geht das mit HBM einfach über 950 zu packen nicht, auch mit Samsung nicht. Das geht dann nur, wenn du ein 64er BIOS flashst. Die wahre Speicherspannung ist fest im BIOS verankert und beträgt bei den 56er 1.256V und bei den 64er 1.356V.

Hättest du Samsung HBM, dann würde ich sagen, knapp 95% Chance dass auch deine Vega56 mit 1.1 GHz im HBM nach einem 64er BIOS-flash läuft. Mit Hynix ist die Chance wesentlich geringer, leider. Meist kommt Hynix mit oder ohne Flash auf knapp 940 MHz, habe aber auch schon welche mit 1.1 GHz gesehen, aber da wie gesagt...sehr stark vom Glück abhängig. Persönlich würde ich einen flash mit Hynix-Speicher aber nicht riskieren.

Da ich immer UV betreibe bei der Vega brauchst du das PL eigentlich nicht erhöhen (bei den meisten 64ern ist es eh schon bei 260, da komm ich mit meiner 24/7 konfig nicht annähernd hin), bei den 56ern lohnt es sich aber, ja, dort auch gern das PL maximieren, da diese von Haus aus weniger haben.

Zur Vega VII: Ich kratze ja mit meiner Nitro+ schon naja "fast" an den 1.8 GHz, schaffe knapp 1.73 GHz bei 360W. Das gibt ein gutes Indiz, dass die VII ähnlich sein wird, wenn Sie dann 1.8 GHz mit 290W Boardpower schafft, da laut AMD (finde gerade nicht die Referenz dazu) gesagt hat, dass durch den Prozess eine 30% höhere Effizienz erreicht worden sei. Kommt also rein rechnerisch schon hin.

Wie gesagt, ist die VII so optimierfreudig wie die Vegas zuvor, dann sind 2 GHz drin bei ~340W und das wäre dann schon eine Ansage. Ich meine damit auch nicht max Boost, sondern steady Boost der auch in den Games genau so anliegt ohne große Schwankungen. Davon gehe ich beim umherwerfen meiner Werte immer aus. Hoffe das 1.8 GHz steady boost mit knapp 230W oder gar weniger drin sind. Das wäre auch schon Spitze, dann ist die RTX immerhin im Verbrauch besiegt :D Wir werden sehen :D
 
  • Gefällt mir
Reaktionen: SVΞN und adnigcx
Volkimann schrieb:
Aber zumindest du, Ralf, hast ja dir ne GTX970 gegönnt.
Aber so funktioniert es eben nicht das 80% der Käufer stumpf nvidia Karten kaufen um sich dann zu beschweren dass das Unternehmen sich auf andere Dinge fokussiert.
Die meisten die hier jammern das AMD ja keine HighEnd GPU haben jammern dochbnur deswegen, weil sie nun keinen Preisdrücker mehr haben um ihre geliebten nvidia Karten günstiger zu bekommen.
Häh ?? Hab momentan ne RTX 2080
 
Hah, da gibts Vega seit über nem Jahr am Markt und seit jeher wird sich über den Verbrauch aufgeregt.
Plötzlich weiß man, Vega ist nicht nur schneller als ne 1080, nein man ist sogar noch effizienter.

Komisch was man über einem Jahr in den Medien liest. Alles von Nvidia gekauft oder sind alle nur zu dämlich zum messen?
 
  • Gefällt mir
Reaktionen: derSafran, Acedia23 und Strikerking
dersuperpro1337 schrieb:
AMD disqualifiziert sich so langsam echt massiv auf dem GPU Markt...

Sorry, aber das ist gelinde gesagt Blödsinn.

Ich habe mir für 399,— Euro eine Sapphire Nitro+ Radeon RX Vega 56 im Mindstar geschossen und mit [kinderleichtem OC/UV] liegt die Karte 2-3% vor einer RX Vega 64 [respektive GTX 1080.]

Die Titan mal außen vorgelassen, war ich bis zum Release der RTX Serie ganz entspannt auf Augenhöhe mit NVIDIAs zweitschnellster GPU.

Wenn man mit der Radeon VII auf dem Niveau der RTX 2080 landen sollte, ist man doch wieder eine sehr schnelle GPU im Angebot.

Und nein, mich interessieren 10, 20 oder 50 Euro im Jahr für Strom im Jahr nicht und jeder der vorgibt beim Kauf einer 600 bis 1200 Euro Grafikkarte darauf zu achten, macht sich und anderen etwas vor.

Der einzige der sich hier disqualifiziert, bist du.

Volkimann schrieb:
Die meisten die hier jammern das AMD ja keine HighEnd GPU haben jammern dochbnur deswegen, weil sie nun keinen Preisdrücker mehr haben um ihre geliebten nvidia Karten günstiger zu bekommen.

+1 [dem ist nichts hinzuzufügen.]

Faust2011 schrieb:
Und was empfiehlst Du für den non-Samsung HBM2?

Wenn du HBM2 von SK Hynix hast, sind 900 MHz ein guter Richtwert. Die schlechteren machen 850-875 MHz mit, die guten 900-950 MHz.
 
  • Gefällt mir
Reaktionen: ahuev0
Balikon schrieb:
Da kannst Du erwarten, was Du willst. Wenn Du die Situation halbwegs realistisch betrachten würden, wüsstest Du, das die Radeon VII mehr ist, als wir alle überhaupt von AMD erwarten durften. Tust Du aber nicht, und deswegen bist DU enttäuscht, weil AMD deine vollkommen überzogenen und realistätsfernen Erwartungen nicht erfüllt. AMD-Fans wie ich sind nicht enttäuscht. Im Gegenteil, ich bin positiv überrascht. Ich hätte nämlich überhaupt nicht erwartet, dass AMD nochmal eine "Gamer"-Karte auf Vega-Basis bringt. Und schon gar nicht, dass es realistisch scheint, dass AMD damit auf Rücklichtweite einer RTX 2080 kommen könnte.
Stimmt, realistisch wäre gewesen, dass sie die Leistung einer Geforce 1 erreicht, 1000€ kostet und 500W zieht.

Balikon schrieb:
Meinen Hinweis, dass die 16GB kein Marketing-Gag sondern eine technische Notwendigkeit sind, überhaupt auf ein Leistungsplus von 30% im Schnitt zur Vega 64 zu kommen, hast Du gleich mal komplett ignoriert.
Auf die 16GB bin ich eingegangen (einfach mal bis zum Ende lesen) und die 28,5% stammen von AMD und dürften wie immer vom Hersteller geschönt sein. Wo du hier die Sensation siehst, bleibt dein Geheimnis.

Balikon schrieb:
Die Entscheidung nur ein Referenzdesign rauszugeben, ist nachvollziehbar und logisch.
Ein hoch auf das tolle und laute Referenzdesign, das besser ist als jede Customlösung...


duskstalker schrieb:
die karte geht so weit am mainstream gamer vorbei, wie man es sich kaum vorstellen kann. die karte ist für nerds und amd fans und erzeugt in erster linie aufmerksamkeit.
Das ist sicher positive PR, wenn man ein Produkt herausbringt, das vielleicht gerade so an die zweitschnellste Karte der Konkurrenz rankommt. Da werden alle AMD als Gewinner sehen.

duskstalker schrieb:
falls sich der kommentar auf den kühler bezogen hat: der radialkühler von vega ist für diese bauart ziemlich gut. wer macht nen besseren? nvidia schafft hier mit der 1080 ti fe vs vega 56 (ähnlicher verbrauch) nur mit einem 10°C höheren temp target eine etwas niedrigere lautstärke. die dinger schenken sich nix und viel mehr wird man mit diesem kühlerkonzept auch nicht bewerkstelligen können. bei cpus isses doch genau das selbe. top down kühler haben lange nicht die leistung von großen towerkühlern. ist top down jetzt "rotz"? natürlich nicht, bau doch mal nen noctua nhd15 in ein mini itx gehäuse. das radialdesign funktioniert auch in extremsituationen - normale axialkühler heizen eine schlecht belüftete kiste auf, bis irgendwas abschält.
War selbstverständlich auf den Kühler bezogen. Was interessiert mich eine FE als Vergleich, wenn zigfach bessere Customs gibt? Aber wenn man die Messlatte schön niedrig legt, dann kann man auch leicht rüberspringen und sich das Resultat schönreden. :rolleyes:
Mein letztes Referenzdesign ist über 10 Jahre her. Seitdem kaufe ich aus gutem Grund nur noch Customs. Und damit bin ich aktuell mehr als zufrieden. Weniger als praktisch nichts zu hören geht nämlich nicht.
Was so ein Noctua kostet ist dir schon bewusst?

duskstalker schrieb:
die karte kostet in der produktion eben das, was sie kostet. es gibt berichte, laut denen amd mit vega 56 für 400€ schon kaum die kosten decken kann bzw. drauflegt - und wenn man das selber mal nachrechnet (habe ich etliche male getan) wird auch klar, wieso. ist doch nachvollziehbar, dass man die radeon 7 nicht für 500€ bringt, oder? die radeon 7 ist eine kleine titan v - wieviel will nvidia für das teil haben?
Die Titan V als Gamerkarte? Wer sich die holt, hat wohl etwas nicht so ganz verstanden.
Es ist schon interessant, bei Nvidia wird sich (zurecht) über die Preise beschwert, aber wenn AMD es (aus Unfähigkeit?) nicht besser macht, sondern im ähnlichen Preisbereich bei ähnlicher Leistung wildert, dann ist das plötzlich völlig ok. Muss man nicht verstehen, oder?

duskstalker schrieb:
so streicht nvidia die gewünscht hohen margen ein und lässt amd halt machen.
Das ist schon böse von Nvidia. Eigentlich solltest du Nvidia dankbar sein, dass sie es so machen, sonst würde niemand eine AMD kaufen. Außer dir natürlich. Wobei ich nicht wüsste was du damit machen würdest, denn deiner "Wall of shame" nach kannst du gar keinen PC haben.

duskstalker schrieb:
es gibt genügend gründe keine nvidia karte zu kaufen
Und min. genauso viele keine AMD Karte zu kaufen.

duskstalker schrieb:
also kann man weiterhin unrealistische standards für amd ansetzen und weiterhin zu nvidia rennen, oder man tut mal das richtige und unterstützt die konkurrenz. jeder einzelne cent bei nvidia in der kasse kommt von irgendjemandem, der nvidia geld gegeben hat. würde keiner nvidia kaufen, hätten die auch kein geld. ganz am anfang steht immer der verbraucher. und der verbraucher entscheidet somit auch ganz alleine, ob er von einem monopol geknechtet werden will oder nicht. niemand anderes als der verbraucher selber hat nvidia in ein quasimonopol gekauft.
Genau, ich bestrafe mich selbst, kaufe ein Produkt, das ich praktisch nicht nutzen kann. Am besten kaufe ich gleich mehrere Exemplare und schmeiße sie weg, damit das arme AMD eine Spende bekommt.
Ob ich mich von AMD oder Nvidia "knechten" lasse, ist mir eigentlich egal. Da geben sich beide wenig bis nichts. Aber AMD ist ja ein Samariterverein... :rolleyes:
 
r4yn3 schrieb:
Hah, da gibts Vega seit über nem Jahr am Markt und seit jeher wird sich über den Verbrauch aufgeregt.
Plötzlich weiß man, Vega ist nicht nur schneller als ne 1080, nein man ist sogar noch effizienter.

Komisch was man über einem Jahr in den Medien liest. Alles von Nvidia gekauft oder sind alle nur zu dämlich zum messen?

Nein, nein. Die Ref Designs und auch die Costums sind fürchterlich niedrig angesetzt und nicht wirklich optimiert, vlt war das Binning am Anfang auch nur grotting.

Als ich meine Asus ROG Strix hatte und im Stock hab laufen lassen war die auch bei 320W bei gerade mal 1540 MHz xD Das ist nicht optimal. Heute schafft das fast jede Vega mit 100W weniger Verbrauch, wenn man die Nümmerchen ein wenig anpasst.

Trotz reichlicher Bitten und Bettelaktionen wird UV noch immer sehr stiefmütterlich getestet...jedoch ist das etwas was ich am stärksten Testen würde heutzutage. Nicht nur weil damit bei AMD UND NV einiges herauszuholen geht, sondern weil mit UV genau 0 Risiko besteht irgendetwas an der Hardware kaputt zu machen.
 
  • Gefällt mir
Reaktionen: Acedia23
r4yn3 schrieb:
Hah, da gibts Vega seit über nem Jahr am Markt und seit jeher wird sich über den Verbrauch aufgeregt.
Plötzlich weiß man, Vega ist nicht nur schneller als ne 1080, nein man ist sogar noch effizienter.

Komisch was man über einem Jahr in den Medien liest. Alles von Nvidia gekauft oder sind alle nur zu dämlich zum messen?

Keine Ahnung was du für Dorgen nimmst, aber nimm weniger davon ;)
 
  • Gefällt mir
Reaktionen: r4yn3 und CrustiCroc
  • Gefällt mir
Reaktionen: Yogi666 und SVΞN
Zurück
Oben