Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wenn ich noch einmal kplt. drüber nachdenke, auch aufgrund Deiner Überlegungen und darüber, dass einige schon darüber sprachen, dass AMD hier natürlich eine Resteverwertung betreibt - denke ich daran, dass es die 5600XT nicht lange geben wird.
Mir kommt die Karte so vor, wie die damals berüchtigte MSI X800 SE, den Schrottkrüppel hat sich damals ein Kumpel gekauft für 320 (oder waren es gar 420???)Euro ca. und die lag um Längen hinter der X800 Pro.
Wenn dann 7nm(+) gut läuft, ... sehr gut läuft, gibt´s keine 5600er mehr, wozu auch, RDNA2 käme "bald" und die 5700er und 5700xt werden umgelabelt als 6600 und 6700, wer weiß?!
Die RTX 2080 kostet über 600€ und hat auch "nur" 8 GB. Dass eine Karte, die voraussichtlich nicht einmal die Hälfte davon kosten wird, mit 6 GB kommen soll, sehe ich da lange nicht so dramatisch wie die meisten hier.
Sehe ich auch so. 4-6 GB reichen für FHD noch lange hin, 8 GB zum gleichen Preis bei gleicher Rechenleistung sind immer besser als 4-6. Beim Erwerb einer Einsteigerkarte sollte man sich aber sicher sein, auch lange bei FHD zu bleiben. Wer in 2-3 Jahren auf einen preiswerten WQHD, UWQHD etc. Monitor umsteigen will, dem helfen auch keine 8GB gegen die zu geringe Rechenleistung. In so einem Fall kann man für ca. 250€ durchaus eine 1660 super/ti oder 5600 nehmen, die höhere Rechenleistung ist dann wichtiger als 2 GB mehr Vram.
Damit es keiner falsch versteht: Wer >300€ ausgeben kann, der ist mit einer 5700, 2060s usw deutlich besser bedient, aber das kann oder will eben nicht jeder ausgeben.
0,06
Den Wert habe ich ausn red gaming tech Video ich finds nur derzeit nicht war irgendeins vor einen Monat
ja ist ein Gerücht aus der industrie
laut dem calculaor http://www.isine.com/resources/die-yield-calculator
ist eine yield von 86% auszugehen chipmaße geraten 21*12 ~252mm²
zen2 soll etwa 94% haben
Ein wafer kostet 8000$
in dem artikel hier wird einiges behandelt, ist aber schon etwas älter. im einem der letzten videos von jim gabs ne folie mit 7nm defect density für mobile und indirekt performance chips zu sehen, die sehr sehr niedrig ist.
Laut neuesten Gerüchten sollte da wohl in 2020 mit Sicherheit die 7nm+ gefertigte Navi-RDNA2-Oberklasse kommen, nur glaube ich nicht an mehr als 16GB (da auf lange Sicht unnötig im Gaming-Bereich und zu preistreibend) und ob es keine HBM2(+) Bestückung geben wird, muss man auch abwarten.
Eine beschnittene Version des Chips, die (ähnlich der RX Vega 56 mit der GTX 1070) nicht mit einer RTX 2080 "Super" Schlitten fahren kann innerhalb eines halben Jahres (nach Treiber- und Preisanpassung) würde m.E. keinen Sinn machen für AMD/RTG.
Da im WccfTech-Artikel von 2x Navi10-RDNA1-Leistung die Rede ist aber mit Sicherheit die Schwankungsbreite bei Navi21/RDNA2 gross sein dürfte, je nach Ausbau, bleibt zu hoffen dass der abgespeckte (effizientere) Chipausbau die doppelte Leistung haben wird und der Vollausbau eine RTX 2080Ti gar leicht überholen wird.
Wird dann eine gemunkelte RTX 2080Ti Super nötig werden? Nicht wirklich, denn m.E. dürfte nVidia mit einer schnelleren RTX 3080(Ti) vor dem kommenden RDNA2-Flaggschiff von AMD/RTG auf dem Markt sein.
Was heisst das alles für aktuelle GPUs?
Man wird als jetziger Käufer, egal ob bei nVidia oder AMD/RTG, massiv preislich und/oder leistungstechnisch verlieren, im Vergleich zu den in 2020 nahenden Karten der nächsten Generationen.
Daher mein Rat, Finger weg von aktuellen, immer noch deutlich überteuerten Grafikkarten (lasst AMD/RTG und nVidia zu diesen Preisen auf Ihrer Ware sitzen) und sich noch etwas in Geduld üben bis die Nachfolger auf dem Markt sind und Intel erstmalig im unteren/Einstiegs-Bereich der dGPUs hoffentlich gut mitmischt (evt. ist dort Mitte 2020 auch schon RX5600 XT oder RX5700 Leistungsniveau möglich mit den Arctic Sound GPUs) .
Ergänzung ()
Shoryuken94 schrieb:
... der RAM Controller der Navi GOU kann nicht mit GDDR5 umgehen. Ist ja nur eine abgespeckte 5700.
Genau das wird es wohl leider sein, aber hatte sich da nicht evt. ein Wechsel angeboten (die GDDR5-Ausgabe des Speicherinterface dürfte ja auch günstiger sein als die für GDDR6, wenn letztere nicht abwärts kompatibel sein sollte)?
Gut, einen Einblick in die Komponenten- und möglichen Designanpassungs-Kosten hat man ja leider extern nicht.
Dem gpu SI ist die Speicherart egal
anders als DDR3 /4/ 5 unterscheidet sich der imc nicht
Also sind navi gpu mit gddr5 möglich nur wirds dann eng mit der bandbreite
Gerüchte/Wunschdenken, das Gleiche gab es vorher über navi zu hören.
Daher mein Rat, Finger weg von aktuellen, immer noch deutlich überteuerten Grafikkarten (lasst AMD/RTG und nVidia zu diesen Preisen auf Ihrer Ware sitzen) und sich noch etwas in Geduld üben bis die Nachfolger auf dem Markt sind und Intel erstmalig im unteren/Einstiegs-Bereich der dGPUs hoffentlich gut mitmischt (evt. ist dort Mitte 2020 auch schon RX5600 XT oder RX5700 Leistungsniveau möglich mit den Arctic Sound GPUs) .
Viel interessanter sind andere Artikel. Unter anderem die Xbox X Series mit 56 CUs (laut github) und die PS5 mit 36 CUs aber mit 2 Ghz Takt. (Kann zwischen 18, 36 und halbe ROPs und Taktrate springen fur PS4(X) Mode).
Oder der andere wccftech Artikel, wo teils AMD Manager über Zen reden und sagen, dass man IPC technisch den Zuwachs der gewohnten 7% vor Zen Ära schlagen will und man kontinuierlich am Design arbeiten will. Also nicht das meiste von der Fertigung abhängig ist. Indirekt kann man also bezuglich einem zweistelligen IPC Steigerung Zen3 mit etwas Erwartung entgegensteuern.
Man sprach sogar, dass Zen2+ eine Möglichkeit wäre aber eben gleich Zen3 bieten wird. Wird wohl alles mit Kapazitäten bei TSMC zusammen hängen.
Bin davon ausgegangen,dass im WTF-Tech-Artikel auf die Original-Quelle verlinkt wird. Stattdessen wurde über Reddit verlinkt ohne seitens WTFtech die Quelle wirklich zu prüfen. Sorry. Hier die Originalquelle mit maschineller Übersetzung.
Da steht nirgends "doppelt so schnell" nur "doppelt so groß".
Gamestar hat es auch schon übernommen ...meine Fresse...
Die Qualität von Journalismus hat durch das Internet in den vergangenen 15 Jahren wirklich deutlich abgenommen.
Das ist wahr, nur war das Angebot selten so unattraktiv im GPU-Markt (Leistung wenig bis kaum verbessert verglichen mit dem Vorgenerations-GPU-Niveau mit kleinem Effizienz-Zuwachs und Beinahe-Vaporware-Features zu ziemlich frisierten Preisen) wie aktuell.
Hoffentlich bringt Intel/Raja etwas Schwung in den (erschwinglicheren) GPU-Markt neben nVidias Ampere und AMDs/RTGs RDNA2 im kommenden Jahr.
Viel interessanter sind andere Artikel. Unter anderem die Xbox X Series mit 56 CUs (laut github) und die PS5 mit 36 CUs aber mit 2 Ghz Takt. (Kann zwischen 18, 36 und halbe ROPs und Taktrate springen fur PS4(X) Mode).[...]
@Draguspy
Ne, aber GPUs. 56 CUs und die 36 CUs sollen mit 2GHz takten, was sehr hoch wäre.
Vllt n Ausblick auf 7nm+ und RDNA2. Insofern es stand kein Blödsinn in Github, wobei angenommen wird, dass es vermutlich von AMD stammt.
@Chismon
Falls GDDR6 Preise wirkluch steigen, könnte dies einen Stich durch deine Rechnung machen. Die Konsolen sollen jeweils bis 16 GB VRAM haben. Das wird sich Sony und MS reservieren. Wobei von Sony noch Aussagen offen stehen, da HBM Gerüchte ebenso existierten (HBM und DDR4).
klingt das mit den 56CUs der XB SX zu erschwinglichen Preisen eher unwahrscheinlich.
Es ist wie gesagt von GitHub. Desweiteren war bei MS immer von zwei Konsolen die Rede. Auch gibt es die Kompatibilität zu XBOX One Games. Keiner weiß ob MS den 400 Euro weg geht, oder wie oft angenommen ist, höhere Preise verlang, oder gar subventioniert. Und 56 CUs sind jetzt nicht unrealistisch. Man weiß ja dass der Chip so groß ausfallen soll, wie der der XBOX ONE X (ca 360 mm^2).
Und Konsolen sind bei weiten nicht uninteressant, wenn laut "Gerüchten" AMD ihre GPU Arch auf Konsolen und Games (RDNA) fokusiert hat, was ja dann im Endeffekt auf zukünftige Produkte hinweisen geben könnte.
Klar es bleibt am Ende natürlich ein Gerücht.
Die Preise waren so hoch für 570X, weil man einen I/O Chip des Ryzen verwendet. Mit ASMedia Chip könnten die Preise eher fallen und hoffentlich kommen dann endlich die Mittelklasse Boards.
Rock Lee
Es könnte auch einfach Arcturus sein. https://www.computerbase.de/2019-05/frontiert-supercomputer-amd-cray/
"Bis spätestens Anfang 2022"
"pyc-CPUs auf Basis einer „zukünftigen“ Zen-Architektur und Radeon-Instinct-Grafikkarten mit „für High-Performance-Cluster angepassten Shadern“ von AMD basieren. "
... interessanter sind andere Artikel. Unter anderem die Xbox X Series mit 56 CUs (laut github) und die PS5 mit 36 CUs aber mit 2 Ghz Takt. (Kann zwischen 18, 36 und halbe ROPs und Taktrate springen fur PS4(X) Mode).
Indirekt kann man also bezuglich einem zweistelligen IPC Steigerung Zen3 mit etwas Erwartung entgegensteuern.
Man sprach sogar, dass Zen2+ eine Möglichkeit wäre aber eben gleich Zen3 bieten wird. Wird wohl alles mit Kapazitäten bei TSMC zusammen hängen.
Für jetzige oder zukünftige Konsoleros sicherlich interessant und auch wenn ich bei der GPU (und CPU) Preisentwicklung eine weitere Abwanderung vom PC hin zu Konsolen sehe, klingt das mit den 56CUs der XB SX zu erschwinglichen Preisen eher unwahrscheinlich.
Wenn die Preise bei Zen 3 ((X)-Boards) noch einmal kräftig steigen werden, dann werde ich mir einen 12-Kerner wohl abschminken müssen, zumal vor dem Tiger Lake Desktop Prozessor erst 2021 wohl nichts halbwegs innovatives dem AMD-Desktop-Angebot entgegen gesetzt werden dürfte seitens Intel.
Ergänzung ()
pipip schrieb:
Falls GDDR6 Preise wirkluch steigen, könnte dies einen Stich durch deine Rechnung machen. Die Konsolen sollen jeweils bis 16 GB VRAM haben. Das wird sich Sony und MS reservieren. Wobei von Sony noch Aussagen offen stehen, da HBM Gerüchte ebenso existierten (HBM und DDR4).
Das könnte durchaus passieren, aber wie Du schon schreibst dürften Sony und Microsoft (von nVidia gehe ich auch aus, obwohl die das natürlich sich trotzdem per vermarktetem Aufpreis bezahlen lassen werden) Kontingente von GDDR6 sich vorab/günstig reserviert lassen haben.
Die Fertigung von Ampere (Oberklasse-GPUs) dürfte wohl auch schon in Q1, 2020 anlaufen, könnte ich mir vorstellen, um die Lager für den Start im Sommer voll zu machen.
bleibt zu hoffen dass der abgespeckte (effizientere) Chipausbau die doppelte Leistung haben wird und der Vollausbau eine RTX 2080Ti gar leicht überholen wird.
Also wenn man die Fehlübersetzung "twice as fat" zu "twice as fast" mal so hinnimmt und annimmt, dass die Karte wirklich doppelt so schnell ist, dann wäre sie damit schon 34% vor der 2080Ti.
Und das müsste sie auch sein. Denn die Karten kommen erst im H2 2020 und bis dahin wird auch Nvidias neue Generation draußen sein, bei der ich nicht weniger als diese 34% von 2080Ti auf 3080Ti erwarte, eher mehr.
Mit einer High-End Karte in H2 2020, die dann nur die 2080Ti (H2 2018) leicht überholt und somit mindestens 30% hinter der dann bereits erhältichen 3080Ti steht, sähe es wieder genau so aus wie all die letzten Jahre.
Igor schreibt hier und anderswo in Foren als FormatC.
Früher schrieb er für Tomshardware, heute auf www.igorslab.de
Die betreffenden Diskussionsbeiträge (mehrere, mit Antworten) befinden sich auf Seite 6.
Nicht vergessen solltest du, dass Igor ein sehr bekannter (und beliebter) Redakteur ist, mit unheimlich viel Hintergrundwissen. ^^
Igor ist aber nicht immer "einfach", was ihn für mich aber um so sympathischer macht. ^^
"Einfache" Menschen sind für mich einfach "langweilig".
"Anstrengend" ist also nicht unbedingt immer schlecht. ^^