Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Oder AMD passt sich weiterhin dem NV-bestimmten GPU Markt an und präsentiert uns 'endlich' auch eine "Einsteiger" Karte für ab 180 USD MSRP die total scheiße ist und nur beweisst wie verhunzt der Markt hier ist (vgl. 1650-Launch)
Also wenn ich schon wieder hier die Kommentare lese, wird mir schlecht. Anscheinend fehlt hier vielen die nötige Intelligenz um zu verstehen das es sich bestimmt um eine Vorserien Karte handelt. Diese wird mit nur 4GB Vram bestückt sein. Und so wie es bei der RX570 und 580 ist wird es von der Karte eine 4 und 8 GB Variante geben. Wie man jetzt auf die Idee kommt AMD bringt eine Karte mit nur 4GB, verstehe ich nicht.
Ach so man sollte auch mal den Text der News lesen bevor man fragt wann den nun die "Big Chips" kommen. Dann wüsste man, die kommen 2020.
Immer dieser Kindergarten hier.
Ist Mining denn immernoch ein Ding? Weil das einige hier genannt haben
Ich warte hier mal noch auf die kleinste RDNA Karte, also ne 5500 oderso, weil ich die in den Elternrechner stecken möchte, wo sie hin und wieder was encoden und Officesachen erledigen muss. Da werden auch 4 GB reichen. Allerdings wären da kleine Lösungen ideal mit nur einem Lüfter, damit das Ding in ein ITX Gehäuse passt ohne dass ich mir sorgen machen muss.
@Discovery_1 Schrieb auf der ersten Seite das er bis jetzt überhaupt keine Probleme hatte.
Und wen man 2019 Hightexturen nutzen möchte, dann macht man das auch nicht mit nem 100€ GPU. Und es gibt viele da ist Grafik sekundär oder sie liegen ihre Priorität auf die Frames.
Warum nicht? Texturen kosten zu 99,9% nur VRam, nichts anderes. Deswegen ist die GTX 1060 3GB halt auch ein Krüppel. Kollege hat seine nach nichtmal nem halben Jahr gewechselt da 3GB in seinen Spielen nichtmal ansatzweise ausreichen.
Dir ist schon bewusst, dass Texturen keine FPS kosten, sondern VRAM? Die Anzeige vom Afterburner kann man auch getrost vergessen, die zeigt nur VRAM-Belegung und nicht VRAM-Verbrauch.
Wenn die 4GB Version entsprechend günstiger ist, warum nicht? Auswahl ist immer besser als keine Auswahl. Es gibt sicherlich Leute, denen FPS/Euro sehr wichtig sind und die deshalb auf Ultra Texturen verzichten können.
Man könnte aber auch an 256 bit 6GB Vram verbauen, letztens wurden doch 1,5 GB Chips vorgestellt oder nicht?
Ich gehe zumindest davon aus, das in der nächsten Gen von NV und AMD davon Gebrauch gemacht wird und wir 18GB/384bit oder 12GB/256bit sehen werden.
Auf die Preise der neuen Karten bin ich sehr gespannt, eigentlich dürften die nicht mehr als 250€ kosten und müssten 1660ti/1070 Leistung bieten.
Was kauft dann jemand der einen R9 3900x hat und nicht spielt? Irgendwie müssen ja die Pixel auf den Bildschirm. Wenn man dan noch moderne codecs (auch zum encoding) braucht, dann wird die Auswahl verdammt knapp. Landet man also bei eine 550/560 mit 2GB. Natürlich zu teuer, aber alternativlos.
Mir fehlt auch eine APU mit richtig Leistung.
Das ist für mich im Moment der einzige Grund Intel zu bevorzugen. Nicht nur dass ich mir eine Grafikkarte dazu kaufen muß wird auch noch ein pcie slot blockiert den ich lieber mit einer 10 GB nic bestücken würde ==> also nichts mit ITX. Ansonsten hätte ich schon einen 3800x bestellt...
@SKu
Wir haben doch das von MAD beworbene PCIe 4.0 Totschlagargument.
Das kompensiert doch heute jeden überdimensionierten 4GB VRAM, weil der Nutzer ja problemlos ganz günstig sein System RAM nach blanken Zahlen auf 32GB DDR4 aufpolieren kann, wo Texturen ihren Platz drin finden, wenn sie trotzdem noch gemächlicher über die PCIe 4.0 x4 Chipsatzanbindung an Öko Festplatten gehängt hoch kommen dürfen, weil kaum einer seinen üppigen Steam Ordner im ersten M.2 Slot mit einer teuren 1TB MVMe SSD belegt, was ja wenigstens noch die Latenzen senken würde.
Die Spieler lieben doch alle den Geschwindigkeitsvorteil der zusätzlich von nvidia geschenkten 512MB VRAM der GTX970 an die treuen nvidia Käufer, damit alle den Vorteil von 4GB Grafikspeicher erhalten und nvidia die fette Kohle.
Auf der anderen Seite muss ja AMD auch mal anfangen nvidia zu kopieren. Soviel VRAM wie möglich, so wenig wie notwendig oder so ähnlich.
Nehmen wir an, dass die Leistung einer 5600xt auf ca. Vega 56 / gtx 1070 Niveau liegt. Bei den derzeitigen Preisen von 369€ für die 5700er müsste ja der Preis der 5600er xt bei ungefähr 300€ liegen und das wäre einfach der totale Beschiss von AMD an Kunden. (Was die 5700er Serie m.M. nach bereits ist)
2 Jahre alte Leistung zum höheren Preis (vega 56 ~250€) bei weniger Ausgaben für AMD durch Strukturverkleinerung und bessere Ausbeute.
Ich wäre mir nicht so sicher, daß es sich um eine 5600 handelt. Es könnte auch die 5500 sein.
https://twitter.com/KOMACHI_ENSAKA/status/1150113548837588992
Es kommt auch noch NAVI 12, bei dem es auch schon eine funktionierende Karte gibt, aber noch keine Leistungsabschätzung möglich ist. Wie NAVI wirklich skaliert, kann auch noch keiner sagen. Sollte es wirklich die Einstiegslösung sein, ist eine 4/8GB-Version möglich.
@ proko85
Wenn die GTX1660 unter 200€ fällt, dann hat man eine Alternative schon mal nicht zur GTX1650 zu greifen, wenn Leistung gefordert wird und die Mittelklasse endlich mal seit Jahren bei unter 200€ verfügbar ist. Dann würde ich die nvidia GTX1660 auch der RX580 vorziehen, wenn es nicht nur um Gaming geht.
Auf der anderen Seite sollen Herr Huang und Frau Su ja verwandt sein. Da schaukelt man sich gegenseitig die Preise hoch oder AMD wird unter Frau Su intel und nvidia zu Höchtspreisen. Die VEGA ist sicherlich ein Verlustgeschäft für AMD und viel tiefer können die nicht beim Preis trotz Fertigungsfortschritten fallen. Wobei man im Miningboom ja doch die UVP mit Gewinn gesprengt hat.
Nehmen wir an, dass die Leistung einer 5600xt auf ca. Vega 56 / gtx 1070 Niveau liegt. Bei den derzeitigen Preisen von 369€ für die 5700er müsste ja der Preis der 5600er xt bei ungefähr 300€ liegen und das wäre einfach der totale Beschiss von AMD an Kunden. (Was die 5700er Serie m.M. nach bereits ist)
2 Jahre alte Leistung zum höheren Preis (vega 56 ~250€) bei weniger Ausgaben für AMD durch Strukturverkleinerung und bessere Ausbeute.
Wenn 5700er ein Beschiss ist, was sind dann die Super Dinger? Oder noch besser die normalen RTXen?
Obwohl sich atuelle AMD Karten im Abverkauf befinden, ist die Vega64 und die mindestens genauso schnelle RX 5700 in etwa gleich teuer.
Dass eine 5600 XT etwa 300€ kosten wird, ist doch Quatsch. Sie wird mit dee GTX 1660(Ti) konkurrieren und einen entsprechend konkurrenzfähigen Preis haben. Ich gehe da von 250€ aus.
ergänzend zu @yummycandy: Die GameStar geht in ihrem Artikel zu der Listung sogar davon aus, dass Navi 14 der kleinere Chip von den beiden wird und als 5500 erscheinen könnte. Also eigentlich alles noch Spekulation.
Ich warte hier mal noch auf die kleinste RDNA Karte, also ne 5500 oderso, weil ich die in den Elternrechner stecken möchte, wo sie hin und wieder was encoden und Officesachen erledigen muss.
ergänzend zu @yummycandy: Die GameStar geht in ihrem Artikel zu der Listung sogar davon aus, dass Navi 14 der kleinere Chip von den beiden wird und als 5500 erscheinen könnte. Also eigentlich alles noch Spekulation.
Würde zwar zur bisherigen Nummerierungslogik passen, aber in dem Fall passen die 24 CUs nicht.
Dann wäre zwischen 5700 und 5500 zuwenig Platz.
Und mit nur 12 CUs könnte man wahrscheinlich nichtmal der 1650 gefährlich werden.
edit: Ist eigentlich schon irgendjemandem aufgefallen, dass auf der AMD-Seite
von einer RX 600er Serie für z.B. Notebooks gesprochen wird?
Ich sehe hier das gleiche Szenario kommen wie mit der 5700, die man an der 2060 orientiert hat und nicht an den eigenen Produkten. So stellt man die 5600 XT gegen die 1660 Ti.
Dass letztere aktuell schon völlig auf verlorenem Posten gegen eine Vega56 steht, interessiert hier nicht oder ist zum Release vlt. auch garnicht mehr gegeben, da ausverkauft - man wirbt dann wohl wieder damit, dass man 300 $ Leistung für 279 $ anbietet