News Vega 20: AMD Radeon VII ohne volle FP64-Unterstützung der MI50

Whatdoiknow schrieb:
Mhmm, 3.200x1800 braucht genau so viel VRAM wie 3.840x2160. Ja das ist allgemein bekannt *Ironie*
Was hat VRAM mit der GPU zu tun? Du verwechselst hier was.
Texturen benötigen VRAM und die Bandbreite spielt hier natürlich auch ne Rolle (Anbindung + Geschwindigkeit),
aber der GPU ist es ziemlich egal welche Texturenauflösung du fährst, solange der Speicher nicht überläuft.
Ja es gibt Effekte die beides benötigen, aber grundsätzlich haben Texturen wenig mit der GPU zu tun.
 
Shoryuken94 schrieb:
Da wird den leuten Quasi schon angst gemacht zu große Netzteile zu kaufen. (Besonders die deutschen Youtuber in dem bereich sind da teils wirklich schlimm).

Deutsche (bzw. ausschließlich deutschsprachige) Youtuber sind ein Thema? Gibt es da gute? Der Markt ist vollkommen an mir vorbei geschrammt.
Ich für meinen Teil bevorzuge da fast ausschließlich das internationale, englischsprachige Parkett (China mal ausgenommen), das bietet mehr Abwechslung und Blickwinkel.
 
Chillaholic schrieb:
Was hat VRAM mit der GPU zu tun? Du verwechselst hier was.
Du kannst mir nicht folgen glaub ich.
Ich undervolte um mehr Takt rauszuholen bei selber Leistungsaufnahme.
Diesen Takt kann ich nutzen um eine höhere Auflösung bei gleichen FPS zu fahren.
Was wiederrum mehr VRAM benötigt.
 
Whatdoiknow schrieb:
Du kannst mir nicht folgen glaub ich.
Du sagtest Texturdetails nicht Auflösung.
Da liegt das Problem. ;)
Das sind zwei Paar Schuhe.
 
Chillaholic schrieb:
Du sagtest Texturdetails nicht Auflösung.
Da liegt das Problem. ;)
Das sind zwei Paar Schuhe.
Sorry Frühschicht gehabt und total hinüber eigentlich, ich glaub ich lege mich jetzt hin. ;)
 
Fragger911 schrieb:
Deutsche (bzw. ausschließlich deutschsprachige) Youtuber sind ein Thema? Gibt es da gute? Der Markt ist vollkommen an mir vorbei geschrammt.


Kommt drauf an, was man so gerne guckt. Es gibt ein paar wenige gute, sind dann aber meistens eher speziellere Kanäle. Der wohl bekannteste ist der Kanal von der8auer. (Auch im internationalen Ranking sehe ich da die meisten Videos recht hoch angesiedelt) Ansonsten kann ich dir nur zustimmen, International ist man da deutlich besser unterwegs, wobei es da auch eher nicht so gute gibt.

Bei den Mainstreamingen Youtubern in dem Bereich, möchte jetzt keine Namen nennen, bekommt man Teils aber das kalte grausen.
 
  • Gefällt mir
Reaktionen: Benji18 und Fragger911
Chillaholic schrieb:
Nein , es werden hier ja üblicherweise pauschal 400-550W empfohlen für den Durchschnittsuser.
Für ne Nvidia reicht das auch meistens, für ne Vega ganz sicher nicht.
Jetzt überzeug denjenigen der sich grad ein 550W NT gekauft hat mal davon sich als nächstes ein 600W nachzukaufen, weil er auf ne Vega upgraden möchte. Konkret für Vega wird hier eigentlich generell 600W empfohlen.

Kommt halt drauf an was verbaut und wie es betrieben wird. Gibt ja genug Leute die der Meinung sind dass ne 1080/Ti nicht mehr säuft als 180/250 Watt wenn man ihr die Sporen gibt. :freak:

Mein Threadripper läuft mit bummelig 3,9 GHz auf allen Kernen, erst mit ner Asus RX Vega 64 Strix (defekt), dann mit ner 1080Ti auf Anschlag und jetzt mit der Vega 56. Die fährt momentan Stock. Für die Radeon VII fliegt die raus und wenn es da Wasserblöcke gibt gebe ich der auch die Sporen, wozu hab ich denn das 1KW Seasonic Prime?! :freak::smokin:

Witzig ist dass ich letztes Jahr bei gleichem Nutzverhalten genau 3 KW mehr auf dem Zähler stehen hatte (Im Vergleich zu nem 4690k/R9 290 im Jahr davor). Hätte ich ja eigentlich schon im Idle toppen müssen aufs Jahr gesehen...
 
Chillaholic schrieb:
Wenns dann aber für ne 1080ti/2080 reicht mit 400-550W ist AMD trotzdem unattraktiv.
Und darum geht es ja, weniger Stromverbrauch und erspart gleichzeitig ne weitere Neuanschaffung.

ich gehe von <200W stock aus. Alles andere wäre angesichts 7nm mehr als peinlich für RTX 2080 Leistung mit HBM (der für sich ja sparsamer ist).

Durch 16GB schnellen Ram + 7nm 1 Jahr vor der Konkurrenz hat die Karte durchaus Potential zur Karte des Jahres zu werden, wenn gleich der Preis dazu etwas hoch ist. je nach Monitor relativiert das Freesync aber.
 
Benji21 schrieb:
Witzig ist dass ich letztes Jahr bei gleichem Nutzverhalten genau 3 KW mehr auf dem Zähler stehen hatte

Du hast nen separaten Verbrauchszähler für die Computerdose?
 
500W funktioniert mit einer V64, und weder meine CPU noch die GPU läuft hier Stock. Das mach (und predige) ich schon seit einem Jahr so. Zusätzlich noch 6 Gehäuselüfter und 3 SSDs.
Klar ist es die Kotzgrenze, aber es ist machbar.
Glaub mir: wenn ich nur einen Absturz mitten im Game gehabt hätte wär das NT sofort rausgeflogen, da bin ich knallhart....aber läuft.
 
Fragger911 schrieb:
Du hast nen separaten Verbrauchszähler für die Computerdose?

Nein, leider nicht. Also der für die komplette Bude inklusive 2 Durchlauferhitzer, Herd, Kühlschrank, Fernseher und die entsprechenden LED Leuchtmittel in jedem Raum. Gut, letztes Jahr war es ja nicht sonderlich kalt im Winter. Musste man also nicht oft heiß duschen.

Grundsätzlich hätte es aber trotzdem wesentlich mehr auf der Uhr sein müssen bei der Plattform. Das Netzteil habe ich aber bisher nicht bereut, lieber ein paar Watt zu viel als zu wenig.
 
Ich kann meine Frontier kaum mehr auf Stock betreiben, weil sich der PC bei fast jedem Spiel aufhängt. Mit dem 3770K lief auch OC.
Und jetzt?
Die Lastspitzen sind bei Vega nicht zu unterschätzen, da wirds mit den Ampere schon etwas eng.
 
Faust2011 schrieb:
So langsam ist die GCN-Architektur doch völlig am Ende und wurde nun unter allen möglichen Namen seit Fury (damals wurde der Vollausbau von GCN realisiert mit 64 CUs und 4.096 Shader, verteilt auf 4 Rasterizer) auf die Spitze getrieben.
Dass bereits seit längerem an einer Nachfolgearchitektur gearbeitet wird, sollte doch klar sein. Die Frage ist halt, wann diese kommt. Die PS5-Chips haben halt eine höhere Priorität eingeräumt bekommen, da diese permanente und kalkulierbare Einnahmen über eine lange Zeit generieren werden. Zur Erreichung des Deckungsbeitrags braucht man solche Produkte nunmal dringender, als das unsichere Endkundengeschäft
Ergänzung ()

SlaterTh90 schrieb:
Navi wird erst wieder richtig interessant denke ich. Ich glaube das wird schon der Nachfolger von GCN und keine weitere Iteration sein.
AMD ist da anderer Meinung ;)
1547485216732.png
 
  • Gefällt mir
Reaktionen: FCK-THIS und Fragger911
@rg88 Bei dem Bild gehts doch nur um die Release-Schedule und Fertigung? Das sind schließlich nur die Codenamen + nm.
Ich glaube die hätten es deutlicher gemacht, wenn dieses Bild einen GCN -> iwas Wechsel verdeutlichen sollte.

Gab es nicht schon Gerüchte, dass die PS5 (und Xbox 9?, 10?, 23?, π?, was-auch-immer....) ebend Navi benutzt und daran schon lange gearbeitet wird mit neuer Architektur? Deswegen wurde doch sogar Personal von Vega abgezogen, wenn ich mich recht erinnere.
 
SlaterTh90 schrieb:
Gab es nicht schon Gerüchte, dass die PS5 (und Xbox 9?, 10?, 23?, π?, was-auch-immer....) ebend Navi benutzt und daran schon lange gearbeitet wird mit neuer Architektur? Deswegen wurde doch sogar Personal von Vega abgezogen, wenn ich mich recht erinnere.
Jo, dem ist auch so, aber eben Navi und diese Arch wird dann in den Deskop übernommen.
Next-Gen klingt nicht wie ein Platzhalter für einen noch nicht festgelegten Codenamen. Ich denke schon, dass damit der GCN-Nachfolger gemeint sein wird
 
Sharky99 schrieb:
Mit 839 uvp ist es eine richtige Abzockkarte. Fast so schlimn wie NVidia mit der 2080.
Hast du schon offizielle Preise in DE gesehen? Ich zumindest nicht. Alles was es bisher gibt, ist eine UVP von 699Dollar! Das sagt über die Preise im Handel gar nichts aus. Die werden sich an der Konkurrenz und der letztendlichen Leistung orientieren
 
Die 699 sind ohne Steuer. Mit Steuer und Europaaufschlag wird der Preis ganz klar bei 839 Euro liegen.
 
Sharky99 schrieb:
Mit Steuer und Europaaufschlag wird der Preis ganz klar bei 839 Euro liegen.
Kannst du aber so nicht rechnen bzw verallgemeinern.
Siehe RX 590 als jüngestes Beispiel. UVP 279 € , laut deiner Rechnung hätte die Karte 335€ zum Start kosten sollen. Die billigste war aber für 259€ zuhaben und die teuerste für 289€ zum Release.
AMD hat meine ich das auch mit Ryzen gemacht, also es wird meist regional noch angepasst.
 
  • Gefällt mir
Reaktionen: rg88, Terminator-800 und Acedia23
Hollomen schrieb:
Ist

Ist aber doch eigentlich egal ob nun jetzt noch mit der älteren Architektur + 30% in 7nm einzufahren...und dabei schon Erfahrungen mit der neuen Fertigung zu sammeln, um dann die Next Gen zu bringen. Oder wie bei NV mit einer neuen/ neueren Architektur bei ähnlicher Leistung mit einem ältern Prozess zu hantieren. Wenn NV jetzt 25-30 aus der Fertigung holt. Muss AMD das halt mit der neuen Architektur hinbekommen. Denke aber das wird für beide schwer im nächsten Step. Denn der Prozess bei NV ist auch schon ein sehr optimierter und NV wird nicht umsonst "noch" auf 12nm gesetzt haben und nicht schon auf 7nm. Genauso schwer wird es aber auch für AMD allein über die Architektur signifikant boden zu NV gut zu machen.

Vielleicht missverstehe ich Dich, doch AMD bringt aktuell das neueste Fertigungsverfahren in 7nm. Das macht Nvidia kommendes Jahr auch und näherungsweise hab ich die 30% erwähnt von bisher 12nm auf 7nm, entweder beim Einsparen von Verbrauch oder dem gleichbleibend eine zusätzliche Leistung. Auf Navi lastet also insofern großes Gewicht, wenn man auf alle Turing-Karten milchmädchenmäßig nochmals 30% Leistung drauflegt > brächte bei der 3060 ordentlich Konkurrenz, wo ja schon die 2060 von Asus an der Vega64 vorbeikommt (https://www.computerbase.de/2019-01...ix-test/2/#abschnitt_benchmarks_in_1920__1080). R7 ist da nurn kurzes Lebenszeichen
 
Zurück
Oben