Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon VII: Preisspekulationen zu den genutzten Bauteilen
Das hab ich jetzt schon zig mal gelesen. Man tut immer so als wäre das eine Eigenheit von HBM, dabei trifft das auch auf jede GDDR Karte zu. Mehr Chips, mehr Bandbreite.
Da hast natürlich recht, aber GDDR ist halt deutlich verbreiterter und dort sind viel mehr Chipgrößen verfügbar, so dass das hier kein größeres Problem darstellt, mehr Speicherkonfigurationen bei gleicher Performance anzubieten.
Jemand hatte den DWD Verklagt aufgrund der Übermäßigen Funktionen der DWD-App auf Smartphones.
Da die App (Kostenlos!!) Zuviel Bietet und ein Normaler App-Entwickler nicht an solch einen Umfang kommen könnte, wurde der DWD Verklagt und musste daraufhin die App "Kastrieren (immens!!)"
Da gings aber (meines Wissens nach) nicht einfach um "zu viel", sondern darum, dass der dwd staatlich finanziert ist und nicht gleichzeitig seine Daten selbst (kostenlos) nutzen und anderen Wetter-Apps verkaufen darf
-Ps-Y-cO- schrieb:
Glaube kaum dass man aus einer 1,2L Klitsche mit 130PS mehr NM drehmoment bekommt wenn man aus 130PS 170PS macht.
Glaube aber, dass man mehr NM Drehmoment generiert wenn der 130PS 1,2L zu einem 130PS 1,8L wird.
Entweder über mehr Drehmoment oder über mehr Drehzahl. Wobei ich die analogie zu den Karten noch nicht ganz verstanden habe.
itsBK201 schrieb:
Dann haben diese Leute auch solche Grafikkarten: GTX 780/TI 3GB oder GTX 970 3,5GB + 0,5GB oder GTX 1060 3GB / 6GB oder RTX 2060 6GB ... Hauptsache dann sowas versuchen schön zu reden
... es ist schon erstaunlich wie viele hier den ueppigen Speicherausbau und den daraus resultierenden Mehrpreis anprangern (und dabei die massiv ausgebaute Bandbreite gleichzeitig gerne unter den Tisch fallen lassen ) und dann aber mit zweierlei Mass messen bei den Pascal und Turing 80er Ti-Karten, bei denen ja auch keine 11 GB noetig/zu teuer sein sollten anstelle von 6 oder 8 GB.
Dazu kommt noch der Kerne-Platz bzw. ungenutzte/verschenkte Grosschip-Leistung fuer die RTX-Sperenzchen bei den Turing Karten, welche von den Herrschaften auch keinen zu kratzen scheint (denn das ist ja frei nach nVidia CEO Huang die Zukunft schon heute , auch wenn die erste RTX GPU-Generation in Zukunft fuer nichts ausgereiftes mehr im RT-Raytracing Bereich reichen duerfte), wenn man den aktuellen Mehrwert der 16 GB ankreidet, aber RTX mit Vorschusslorbeeren ueberhaeuft.
Tja, wenn man zweierlei Massstaebe anlegt, dann laesst es sich natuerlich auch trefflich noergeln, nicht ?
Diese Noergler kaufen vermutlich wohl auch alle 1 bis spaetestens 2 Jahre eine speicherverknappte nVidia Grafikkarte (sonst verhungern diese bald darauf oder werden treibertechnisch in der Leistung angepasst) und scheinbar nicht vorausschauend fuer 4+ Jahre, aber AMD/RTG bieten eben im Gegensatz durch den deutlich ueppigeren Speicherausbau Langlebigkeit ... natuerlich ist beides legitim, aber bevor man lospoltert sollte man evt. einen Blick ueber den Tellerrand riskieren und andere Nutzerprofile wahrnehmen/einbeziehen ...
... eine 12 GB Version der Radeon VII haette ich uebrigens auch passender fuer's Gaming gefunden, da man mit einem dadurch geringeren Preis (bspw. 639 Euro) nVidia noch mehr Feuer unter dem Hintern haette machen koennen, aber die Welt dreht sich (bei AMD/RTG) nicht nur alleinig um Gamer und ich koennte auch mit dem (gemutmassten 100 Euro) Aufpreis der 16 GB Version (gegenüber einer 8GB Version) leben, zumal diese noch deutlich laenger langen duerfte .
Vielleicht werden diejenigen, die sich nach 12 GB sehnen, ja mit der Navi-Mittelklasse-Spitzenmodellausgabe bei geringfuegig weniger Leistung als der Radeon VII (bspw. auf RTX 2070 Niveau?) und deutlich niedrigerem Preis ja dann mit wahlweise 6 oder 12 GB Speicherausbau belohnt, wer weiss (vorstellbar ware es allemal)?
An der Menge allein liegt es natürlich nicht, dann müssten ja alle auf die RTX Titan abfahren und ihre Schlüpper auf die Bühne werfen. Es geht eher um die Kombination aus massig Speicher in der High-End Klasse und einer 1TB/s schaufelnden Anbindung.
Die Speicheranbindung ist das eine aber für mich ist ganz einfach die Speichermenge und der Preis der springende Punkt. Wie gesagt, ich habe Spiele bei denen die zu fahrenden Einstellungen 8 GB Grafikspeicher sprengen und ich deshalb die Textureneinstellungen runter schrauben müsste, worauf ich aber keien Lust habe.
Begu schrieb:
genau an diesem Punkt wird es aber für mich am spannendsten. Wie gut oder schlecht ist ein "eingespielter" 12nm Prozess mit einem 545mm² Die im Vergleich zu einem neuen 7nm Prozess, dafür aber mit einem 331mm² Die deutlich kleiner. Irgendjemand mit qualifizierten Antworten anwesend? Oder zumindest polierter Glaskugel?
Das Problem ist das sich die HErsteller zu eben jenen sensiblen Daten ausschweigen werden.
Sowohl für die Radeon als auch die Geforce ist am Ende ein neuer Fertigungsprozess am arbeiten, wobei der Sprung der Radeon größer ist und die Geforce den größeren Chip hat. Beides kann sich negativ auswirken, weshalb ich einfach mal davon ausgehe dass die Ausbeute bei beiden vergleichbar sein könnte.
Zealord schrieb:
Du könntest recht haben. Nvidia kann wunder wirken mit guter Architektur und ich bin mir sicher ein 330mm² 7nm Chip von Nvidia mit Turing Architektur würde die VEGA VII komplett zerstören.
Aber mal schauen. Ich selber habe auch nicht vor eine 600mm² 1000€+ Karte zu kaufen, sondern suche eher nach einer sehr guten P/P Lösung um die 400-500€. Aber die Angebote zur Zeit (GTX 1080, RTX 2070) etc. sind mir zu schwach.
Das Problem an der Sache ist aber dass nvidia die Einführungspreise mit praktisch jeder Generation weiter angehoben hat und die xx80er Modelle mindestens auf der preislichen Höhe des vorherigen xx80Ti Modells angesiedelt waren und die letzte erstaunlich günstige Geforce einen dicken Pferdefuß mit sich trug denn das war die GTX970.
Ganz ehrlich, wenn es darum geht eine günstige Karte mit einem guten Preis-Leistungsverhältnis zu bekommen dann würde ich eher auf etwas von AMD hoffen.
Basierend auf diesen Angaben und den Aussagen von TSMC würde ich davon ausgehen dass ein Chip jedweder Art der für die "Mass Production" freigegeben ist eine Yield Rate nicht UNTER 50% hat.
Da AMD nicht nur die GPUs in 7nm fertigen will sondern auch anderes wie die CPUs und andere Hersteller bei TSMC schon 7nm Sachen ziehen würde ich mal vorsichtig davon ausgehen dass die Yield rate bei der VII MINDESTENS bei >70% liegt.
Ob Turing 90% oder evtl. mehr hat ist auch mehr als fraglich. Aber bei Turing würde ich schon von ggf. 90% ausgehen.
Man könnte ja die Rechnung von oben mal mit 90% für turing und 70% für VII machen...* Anzahl der Dies etc.
Ist mir aber grad zu mühselig die Zahlen zusammen zu suchen.
Mein Intuition sagt dass Turing auch mit 90 vs 70 nicht besser dasteht in den Kosten als VII.
Kleiner Die - Effekt erschlägt eben "komplexer großer Die in den Kosten fast immer.
Deswegen gab es ja in den letzten 30 Jahren ja auch das Wettrennnen der Fabs zu immer "kleineren" Chips...weil man effektiv die Kosten gesenkt hat damit.
90% für den Turing halte ich für ein unhaltbares Luftschloss, dafür ist der Chip einfach zu komplex.
Bedenkt man jetzt auch noch Intels Probleme bei dem 10nm Prozess und dass deshalb die GPU der ersten Modelle deaktiviert wurde dann scheint dien GPU auch noch anfälliger für Fehler als CPUs mit ihren großen Caches zu sein.
Rein prinzipiell kann man allerdings 3 Faktoren festhalten.
1. Mit zunehmender Chip Größe nimmt auch die Warscheinlichkeit zu dass ein Defekt bei einem Schlüsselfeature ihn killt.
2. Je feiner die Strukturen desto mehr nehmen auch die Probleme mit Defekten zu. Ein Defekt bei 14nm keine allso große Auswirkung hatte könnte einen Chip bei 7nm killen weil Strukturen nicht nur "angeritzt" sondern durchtrennt wurden.
3. Der Wafer Durchsatz und damit die Stückzahl hat natürlich auch Einfluss auf die Ausbeute. Je weniger verändert werden muss weil immer wieder das gleiche Produkt über die Maschinen fährt desto weniger muss auch verändert werden und jede Veränderung birgt natürlich auch ihre Probleme. Es ist also durchaus möglich das bereits die höheren Stückzahlen durch die Radeon VII entstehen die Ausbeute verbessern könnten.
Zur Grenze bei der Ausbeute kann ich nur eines sagen.
Solange der Verkaufspreis des Chips dessen Herstellungspreis deckt lohnt sich die Herstellung auch bei 50% oder weniger Ausbeute. Das kann man ja recht einfach zurück rechnen indem man den vermuteten Wafer Preis mit dem Chip Preis verrechnet und so raus bekommt wieviele Chips pro Wafer dafür erforderlich wären. Sobald es aber um prestige Produkte oder quersubventionierte Produkte geht kann man sich auch diese Rechnung schenken.
Sennox schrieb:
@Wadenbeisser
Sehe jetzt erst, dass du das gleiche Beispiel angeführt hast, witzig
Die ist eben das Paradebeispiel dafür.
Seinerzeit von diversen Usern wegen dem Strombedarf verschrieen und bei der Performance bestenfalls der GTX670 zugeordnet (Custom OC GTX vs. Referenz Radeon eben und beim Strombedarf die Werte der Referenz GTX genommen) und wenn man jetzt noch bedenkt dass es auch 6 GB Modelle der Radeon gab....
Also zum einen ist das „habenwollen“ [gerade bezogen auf Hardware] das normalste der Welt, sonst würden nicht unzählige Anwender ihre GPU und CPU teils mit jeder neuen Generation austauschen.
Gibt keinen Grund sich angegriffen zu fühlen. "Habenwollen" und das gute Gefühl nicht speicherlimitiert zu sein reicht völlig aus, es muss nicht jeder Kauf ein reiner Vernunftkauf sein.
Aber von eben jener Vernunftseite aus betrachtet sind 16GB (rein bezogen auf die Menge) auf einer Spielerkarte dieser Leistungsklasse mindestens ähnlich unsinnig wie 6GB auf gewissen Karten des anderen Chip-Herstellers. Hinter jedem Eck den Profi-Content-Creator (oder anderen special-case) sitzen zu sehen, der hier massiv profitiert, das nenne ich ein ebenso konstruiertes wie unnötiges Argument.
AMD braucht ein Alleinstellungsmerkmal und spricht hier die Leute an die lieber zu viel als zu wenig haben, auch wenn sie das teuer bezahlen müssen.
Könntest du das bitte erläutern? Ich habe seit einer Woche 'ne V56 im Einsatz und das Teil tut was es soll.
Braucht etwas mehr Strom als die 1070, bringt dafür aber auch etwa mehr Leistung und ist dabei sogar kaum zu hören.
Nur weil die Vega Karten nicht ihre komplette theoretische Leistung auf den Bildschirm gedrückt bekommen sind es noch lange keine schlechten Produkte!
Gerade seit die "Mining-Krise" vorbei ist sind sie obendrein auch wieder bezahlbar
Nunja im vergleich zu Nvidia frisst das ding halt ordentlich. besonders wenn man es übertaktet. Die Vega 56 hatte ein paar beindruckende Angebote in letzter Zeit mit 3 games und dann die Karte für unter 400€ was wirklich unschlagbar gut ist und ja die Performance ist nicht schlecht, aber AMD hat natürlich immer das Problem dass die Hardware extrem gut ist, sehr viele Transistoren, guter RAM, sehr viele FLOPs, aber die Architektur hängt nach und deswegen frisst die Karte halt ordentlich Strom.
Ergänzung ()
Wadenbeisser schrieb:
Das Problem ist das sich die HErsteller zu eben jenen sensiblen Daten ausschweigen werden.
Sowohl für die Radeon als auch die Geforce ist am Ende ein neuer Fertigungsprozess am arbeiten, wobei der Sprung der Radeon größer ist und die Geforce den größeren Chip hat. Beides kann sich negativ auswirken, weshalb ich einfach mal davon ausgehe dass die Ausbeute bei beiden vergleichbar sein könnte.
Das Problem an der Sache ist aber dass nvidia die Einführungspreise mit praktisch jeder Generation weiter angehoben hat und die xx80er Modelle mindestens auf der preislichen Höhe des vorherigen xx80Ti Modells angesiedelt waren und die letzte erstaunlich günstige Geforce einen dicken Pferdefuß mit sich trug denn das war die GTX970.
Ganz ehrlich, wenn es darum geht eine günstige Karte mit einem guten Preis-Leistungsverhältnis zu bekommen dann würde ich eher auf etwas von AMD hoffen.
Jupp geht mir ganz genau so. Ich sehe mich selber als recht neutral an und kaufe das was am besten ist. Zur zeit habe ich eine AMD RADEON R9 290X im PC (seit bereits fast 4-5 Jahren?). Legendäre Karte. Damals Titan performance für 549€ (Leider schlechtes Referenzdesign deswegen anfangs schlechten Ruf, aber mein Sapphire Design ist super).
Ich hoffe hoffe hoffe hoffe hoffe einfach, dass Navi gut wird. Navi muss gut werden, denn alles was nach der 290X kam (Fury X und die ganzen refreshes und rebrands) waren alle nicht das gelbe vom Ei. Leider arbeiten bei Nvidia ein paar richtig gierige Menschen die nur auf den Profit achten (was natürlich Sinn macht bei einem Unternehmen welches an der Börse ist), aber dadurch sind auch die Preise der Karten drastisch angestiegen. Es ist schon sehr erschreckend wenn man vergleicht wie damals ein full-fat highend chip GTX 580 499€ war und ein gleich großer Chip mit weniger einheiten 329€ war in der Form der GTX 570 und heutzutage bezahlt man für äquivalente Chipgrößen von Nvidia das dreifache.
Ich bin froh, dass Nvidia deutlich unter den Erwartungen liegt (Finanzmäßig) und nicht jeder Dummdösel sich eine RTX 2080 Ti gekauft hat (auch wenn es immernoch zu viele Ungeduldige Spielverderber gibt die sich solche Karten durch Muttis Kreditkarte oder auf Pump kaufen und garnicht verstehen, dass dadurch die Preise immer weiter ansteigen bis Nvidia die magische Grenzen findet wie viel Geld man aus den blinden Fanboys rausmilken kann). Natürlich ist auch AMD schuld daran dass es keine wirkliche Konkurrenz in dem High End Enthusiast Segment gibt und man ehrlich gestehen muss, dass AMD einfach nicht auf dem Level ist.
Von der GTX 970 halte ich selber nicht viel. Ich meine im Nachhinein ist das leicht zu sagen mit dem 3.5gb VRAM fiasko. Aber die 970 ist ein perfektes Beispiel für Nvidia. Nvidia gibt dir genau das was genug ist zu der Zeit. Nicht mehr. Bei AMD kriegt man immer deutlich mehr. Mehr RAM, bessere Speichernabindung etc. Und dann wenn man die Karten nach 3-4 Jahren vergleicht sieht man plötzlich dass die einst so tolle GTX 970 plötzlich 20-30% hinter der R9 290X liegt obwohl einst die Karten quasi gleichauf waren. Selbiges mit der GTX 680 und 7970.
Im endeffekt bin ich aber auch ein sturrer Eigenkopf denn bei mir funktioniert solche Scheiße nicht. Wenn mir etwas nicht passt dann wird es halt nicht gemacht und 800€ für eine GPU wird es halt nicht sein, dann schraube ich halt lieber meine Grafikeinstellungen runter und ich konnte immernoch Shadow of The Tomb Raider in 1440p mit 60fps und RE2 mit guten Grafikeinstellungen auf ebenfalls 1440p 60fps spielen. Und ansonsten werden halt PS4 exclusive games genossen. Spart man sich 1300€ für Ray Tracing
Hoffen wir, dass es dieses Jahr was wird mit guten 7nm Grafikkarten und Zen2. Die Anzeichen sehen gut aus, aber man kennt es ja bereits aus der vergangen, dass alle immer viel länger brauchen als man denkt und im Endeffekt ist es dann nicht so gut wie man hofft das es ist.
Aber es kann doch wirklich nicht so schwierig sein eine vernünftige 7nm Karte mit ausreichend GDDR6 rauszubringen welche besser ist als eine 1080 Ti (welche bald 2 jahre alt ist) zu einem vernünftigem Preis.
Das mit der Speicherbandbreite hast du mitbekommen? Die Vega7 mit 8GB Ram gibt es schon, nennt sich Vega64. Und 12GB lohnen sich aufgrund verschiedener Doppelaufwände wirtschaftlich (höchstwahrscheinlich) nicht. Womit am Ende 16GB die "Mindestmenge" für die Karte darstellt. Also eine echt müßige Diskussion.
@Zealord
Ich vermute das Nvidia erstmal die Hochpreis Phase bei den 7nm mit den aktuellen RTXen erstmal aussitzt bis die Produktion günstiger geworden ist und sie dann mit einem höher taktenden Shrink auf 7nm ablöst, welcher vermutlich bereits weitestgehend produktionsreif ist und bei Bedarf zeitnah gestartet werden kann. Ich denke schon das durch eine entsprechende Takt Steigerung gute 30% Mehrleistung drin sein sollten allerdings rechne ich nicht vor Jahresende damit.
Das mit der Speicherbandbreite hast du mitbekommen? Die Vega7 mit 8GB Ram gibt es schon, nennt sich Vega64. Und 12GB lohnen sich aufgrund verschiedener Doppelaufwände wirtschaftlich (höchstwahrscheinlich) nicht. Womit am Ende 16GB die "Mindestmenge" für die Karte darstellt. Also eine echt müßige Diskussion.
Ja, deshalb schrieb ich ja das mit der Menge ja extra hin.
Was genau würde jetzt AMD daran hindern, die Raden VII mit 4x2GB anstatt 4x4GB-HBM-Stacks auszuliefern? Werden die nicht angeboten, oder will man einfach auch irgendwo den Größten? Abgrenzung zur Vega64 lass ich nicht gelten. Die VII wäre immer noch das modernere, schnellere Produkt. Und P/l-mäßig wesentlich ansprechender.
Ja, deshalb schrieb ich ja das mit der Menge ja extra hin.
Was genau würde jetzt AMD daran hindern, die Raden VII mit 4x2GB anstatt 4x4GB-HBM-Stacks auszuliefern? Werden die nicht angeboten, oder will man einfach auch irgendwo den Größten? Abgrenzung zur Vega64 lass ich nicht gelten. Die VII wäre immer noch das modernere, schnellere Produkt. Und P/l-mäßig wesentlich ansprechender.
Es werden schlicht keine 2x2GB Stacks produziert (warum auch, wären ja quasi Gaming only). Bestehende 4GB Stacks kann man auch nicht einfach zersäbeln und als 2GB verkaufen, also muss man die 4GB verkaufen.
8GB werden noch produziert, dann hängt die Karte aber direkt wieder im Bandbreitenlimit von 500GB/s drin wie Vega10 aka 64 aktuell bei 484GB/s.
Dazu wird hier die MI50 verwendet, man kann also Platine und Chip 1:1 nutzen. Keine neue Fertigungsstraße, nur andere Chip-ID und anderer Kühler nötig, fertig. Mit 4x2GB wäre die Produktion teurer und man müsste entsprechende Chips erstmal beschaffen wenn es sie denn geben würde.
Letztendlich wäre das vermutlich nicht so viel günstiger wie sich hier einige erhoffen (wie ne 12GB Variante mit 750GB/s auch nicht).
Nunja im vergleich zu Nvidia frisst das ding halt ordentlich. besonders wenn man es übertaktet. Die Vega 56 hatte ein paar beindruckende Angebote in letzter Zeit mit 3 games und dann die Karte für unter 400€ was wirklich unschlagbar gut ist und ja die Performance ist nicht schlecht, aber AMD hat natürlich immer das Problem dass die Hardware extrem gut ist, sehr viele Transistoren, guter RAM, sehr viele FLOPs, aber die Architektur hängt nach und deswegen frisst die Karte halt ordentlich Strom.
"Ordentlich Strom" ist meiner Meinung nach arg übertrieben.
Laut CB Test liegt die V56 66W über der 1070 FE
Es ist aber auch bekannt dass CB in den Tests total unoptimierte Vega antreten lässt.
Die FE der 1070 verbraucht zu dem ja noch mal weniger Saft als die Customs.
Meine Red Dragon mit UV liegt bei 130W + ~75W über den PCIe Slot, macht 205W und damit im Normalfall ca. 50W Differenz zu den Customs der 1070 (die Ti braucht ja sogar noch mehr).
Das sind keine 20€ im Jahr wenn man jeden Tag für ca. 4 Stunden zocken würde! Ja: die Vega Karten verbrauchen mehr Strom als vergleichbare GTX Karten. Nein: Der Verbrauch ist nicht exorbitant höher und nicht in den Sphären wo so manch einer sie mit seinen Worten hindiktiert.
Ergänzung ()
Zealord schrieb:
Ich bin froh, dass Nvidia deutlich unter den Erwartungen liegt (Finanzmäßig) und nicht jeder Dummdösel sich eine RTX 2080 Ti gekauft hat (auch wenn es immernoch zu viele Ungeduldige Spielverderber gibt die sich solche Karten durch Muttis Kreditkarte oder auf Pump kaufen und garnicht verstehen, dass dadurch die Preise immer weiter ansteigen bis Nvidia die magische Grenzen findet wie viel Geld man aus den blinden Fanboys rausmilken kann). Natürlich ist auch AMD schuld daran dass es keine wirkliche Konkurrenz in dem High End Enthusiast Segment gibt und man ehrlich gestehen muss, dass AMD einfach nicht auf dem Level ist.
Wieso ist das AMDs Schuld?
Die meisten kaufen so oder so Nvidia so lange AMD keine 200% schnellere Karte für 100€ weniger anbietet!
Oder in realistisch:
Es gibt einige Menschen die auf gute AMD Konkurrenz hoffen um dann bei günstigeren Nvidia Karten zuschlagen zu können.
Deswegen sind wir heute da wo wir sind! Bei einem Monopol in der High End Spitze. Gut gemacht!
Alleine wenn ich die ganzen 1060 Modelle in den Steamcharts sehe überlege ich "für wie viele davon wäre eine 480/580 eine gleich gute oder sogar bessere Karte gewesen?".
Mir kann keiner erzählen dass die alle G-Sync Monitore haben und deswegen 1060er kauften
Die wurden gekauft weil das Marketing fruchtet, irgendwelche "Gamer Kollegen" das empfohlen haben, die Speerspitze von Nvidia vor der Konkurrenz liegt und man (falsch) abstrahiert hat mit der 1060 würde es sich ähnlich verhalten oder einfach nur weil man ja schon immer Nvidia gekauft hat
Was kann AMD dafür wenn die Leute den Kram nicht kaufen obwohl er ähnlich gut und zum Teil sogar besser ist (1050ti zu 570)?
Und wenn du dann in diesen Spielen dauernd im PL hängen würdest.
Und wenn du nur Spiele spielen würdest die deine GPU bis zur Grenze auslasten würden.
Und wenn du nie Chill oder FRTC mit V-Sync nutzen würdest.
Unterm Strich ist die Verbrauchsdiskussion wesentlich unwichtiger als sie aufgeführt wird. Natürlich wäre es besser, wenn die AMD Karten weniger verbrauchen würden, schon alleine weil man dann weniger aufwändige Kühler entwickeln müsste. Ausserdem eignen Sie sich dann nur bedingt für HTPC.
Wobei, ich habe meiner Vega 64 mal aus Spass an der Freude ein Profil erstellt für 110W ASIC (150W an der Dose) mit 1070er Leistung. Das geht. Allerdings nur mit viel rumgetweake.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
6GB scheinen bei heutigen Games selbst für 4K und volle Details auszureichen.
Von daher ist fraglich, ob man mit 8GB in naher Zukunft Probleme bekommen wird.
Wenn du dir dafür die passenden Spiele raussuchst reichen selbst 4 GB, dennoch bekomme ich bei meiner Spiele Auswahl bereist 8 GB so voll dass unschöne Nachladeruckler auftreten oder der Bildfluss so richtig ins Stocken gerät.
Natürlich reichen 6GB heute zum grössten Teil. Aber warum 6GB Karten für den ungefähren Premium Preis kaufen, für den man auch 8GB bekommt? Wegen RTX Funktionen, für die man mehr VRAM braucht?
@r4yn3
Das reicht bei meiner beschränkten Auswahl getesteter Spiele doch schon denn die Spiele werden im laufe der Jahre mit Sicherheit nicht weniger werden, eher ist das Gegenteil der Fall.