Mehr Resteverwertung -> geringere Durschnittspreise -> schlechtere MargenChillaholic schrieb:Ist doch immer das gleiche, wo ist das Problem?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon VII: Gerüchte über geringe Anzahl nur im Referenzdesign
- Ersteller Volker
- Erstellt am
- Zur News: AMD Radeon VII: Gerüchte über geringe Anzahl nur im Referenzdesign
Faust2011 schrieb:Ich weiß nicht warum, aber mich juckt es in den Fingern, diese Karte zu kaufen
Über den Punkt waren wir uns ja bereits einige!
Ich würde dennoch ein Custom Design von Sapphire bevorzugen, da weiß man was man hat.
Ich bin mal gespannt wie sich die Geschichte rund um Radeon VII noch entwickelt.
incurable schrieb:Schließlich gibt es die Karte nur zum Zwecke der Restverwertung aus der Instinct-Produktion.
Bis auf die Gefore RTX 2070 sind alle bisherigen Geforce RTX-Karten auch nur Salvage-Lösungen. Soviel dazu.
Die RTX 2070 wäre auch die einzige Karte, die ich halbwegs spannend finden würde, wenn der RTX-Aufpreis nicht wäre.
Die 5000 Karten gelten doch auch nur für die erste Charge. Es werden schon noch genügend Chips anfallen. Die Ausbeute wird sich sicherlich allgemein in diesen Monaten verbessern. Ich hoffe dann auf sinkende Preise und eine Radeon VII+ im Vollausbau zur Computex.
teufelernie
Commander
- Registriert
- Sep. 2004
- Beiträge
- 2.400
usb2_2 schrieb:Vielleicht erstmal gucken, ob dein Netzteil das mitmacht. Dann natürlich einfach 2 x Molex auf 1 x 6 Pin und 2 x 6 Pin auf 1 x 8 Pin. Das sollte generell reichen. Am besten aber ein neues Netzteil.
Du kannst alternativ auch einfach die Kabel selbst neu verlöten, wenn du Lust hast. Du brauchst ja nur an den richtigen Anschlüssen am Ende +12V. Das ist aber generell keine gute Idee.
Das hat ja noch weitere Power outs für Grakas, insofern brauche ich da eher ein fertiges Kabel...
Anzahl 12V-Schienen 4
+3.3V 25A
+5V 25A
+12V 20A, 20A, 24A, 24A
-12V 0.6A
+5Vsb 3.0A
Ok, evtl. auch ein neues Netzteil,
Das beste an der Karte sind die Leute, für die bei der Fury 4 GB noch mehr als ausreichend waren, die jetzt plötzlich RAM-Mengenfetischisten geworden sind. 16GB or death!teufelernie schrieb:Vram ist auf jeden Fall etwas zum anfassen
die.foenfrisur
Commodore
- Registriert
- Jan. 2006
- Beiträge
- 4.982
@Gandalf2210
garantiert reichen 400w nicht für eine vega.
mein 650w läuft mit einem 1800x und der vega 64 liquid an der kotzgrenze
oft sind es 600-670w.
mfg
garantiert reichen 400w nicht für eine vega.
mein 650w läuft mit einem 1800x und der vega 64 liquid an der kotzgrenze
oft sind es 600-670w.
mfg
Fraggball
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.329
teufelernie schrieb:Ansonsten:
Vram ist auf jeden Fall etwas zum anfassen, dass kann man auch mit RT + DSS nicht "crushen", bis das Gegenteil bewiesen ist.
Gibt halt eine Menge Leute aktuell die kaufen wollen, nur Mist finden, oder es aus politischen Gründen nicht kaufen WOLLEN. Die kaufen dann jetzt so ne Karte.
korrekt, aber für den aufpreis den das referenzmodell zu einer durchschnitts-2080 kostet wirst du die masse der leute nicht überzeugen.
das die karte gekauft werden wird, keine frage, das sie bei den konditionen ( nur referenzmodell, 699+steuer) am breiten markt konkurrenzfähig sein wird, fragwürdig.
Gandalf2210
Commodore
- Registriert
- Mai 2010
- Beiträge
- 4.175
Mit Netzteil Verlusten sind es 500 Watt die sekundär geliefert werden, und das ist noch im Rahmen was ein 400 Watt Marken NT kann.
Benji21
Lt. Commander
- Registriert
- Aug. 2018
- Beiträge
- 1.052
1cem4n schrieb:Ah ok, macht absolut Sinn. 1080Ti -> auf VEGA56 (falls deine Signatur denn stimmt) -> Radeon VII, weil Radeon VII = 1080Ti.
Natürlich macht das Sinn, bei der Vega 56 spiele ich aktuell kein Treiber-Lotto und die verliert auch nicht plötzlich ein paar Frames weil da eine "neue" Karte mit gleicher Leistung verkauft werden soll.
Dazu bekommt Nvidia ja kein Freesync mit jedem x beliebigen Monitor hin obwohl sie ja sonst immer behauptet haben dass das ja so einfach und kacke ist. RTX juckt mich auch absolut nicht solange es nur in Kiddie Games wie Battlefield auftaucht, ebenso wie DLSS im Backstreet Boys-Simulator. Sind ja auch erst 4 Monate am Markt und es läuft gerade so Dank beschnittenen Effekten.
Daniel1337
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 927
Bin ich der einzige der absolut nicht nachvollziehen kann was AMD mit dieser Karte verzapft hat? Ich finde man hätte hier wirklich mal was liefern müssen was von Anfang an überzeugt und nicht wo erst mal wieder zig Diskussionen auftauchen ob der hohe Preis gerechtfertigt ist. Irgendwas eben das von vorne rein schon einen Hype erzeugt...
Chillaholic
Fleet Admiral
- Registriert
- Jan. 2008
- Beiträge
- 17.039
Ja so ist das halt, besser als in die Tonne werfen.incurable schrieb:Mehr Resteverwertung -> geringere Durschnittspreise -> schlechtere Margen
Aber das ist doch bei jeder Serie das gleiche, 1070-1070ti-1080, alles gleicher Chip.
2060-2070, gleicher Chip. Die Güte entscheidet wie immer über den Verkaufspreis.
-Ps-Y-cO-
Vice Admiral
- Registriert
- Okt. 2007
- Beiträge
- 6.221
AMD Wirft hier als Erstes dieser Erde eine 7nm GPU auf den Markt, Verlangt für 16GB einen ganz Akzeptablen Preis (im Vergleich mit Vega Founders(14nm 16GB-HBM2 bzw. 2070/2080 12nm 8GB-GDDR6) und die Leute Meckern und Meckern und Meckern.
Soll AMD lieber überhaupt nichts für euch auf den Markt bringen?
Wär wohl das Beste oder?
Ahh halt wartet, Jetzt habe Ich es!!!
Die Karte ist euch allen zu Teuer hm?
Eine Neue 7nm GPU mit Leistung der 2080 und 16GB HBM2
Hmmmm Klar! Wieso bin Ich nicht auf den Trichter gekommen dass diese Karte MAXIMAL 230€ (inkl. Steuern) Kosten solle?
Schließlich ist diese Crap-Vega-7nm-16GB-HBM2 Karte ja von dem Drecksverein AMD
Junge Junge Junge
Hoffentlich fackelt euer Weihnachtsbaum ab.
Den Weihnachtsmann gibt es nämlich auch nicht!
Soll AMD lieber überhaupt nichts für euch auf den Markt bringen?
Wär wohl das Beste oder?
Ahh halt wartet, Jetzt habe Ich es!!!
Die Karte ist euch allen zu Teuer hm?
Eine Neue 7nm GPU mit Leistung der 2080 und 16GB HBM2
Hmmmm Klar! Wieso bin Ich nicht auf den Trichter gekommen dass diese Karte MAXIMAL 230€ (inkl. Steuern) Kosten solle?
Schließlich ist diese Crap-Vega-7nm-16GB-HBM2 Karte ja von dem Drecksverein AMD
Junge Junge Junge
Hoffentlich fackelt euer Weihnachtsbaum ab.
Den Weihnachtsmann gibt es nämlich auch nicht!
Che-Tah
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.987
Hinter Navi stehen aber derzeit noch viel mehr Fragezeichen als der Radeon 7.Roche schrieb:Bevor nicht Navi den Markt erreicht, denke ich über eine neue Grafikkarte gar nicht erst nach. NVidia bringt lächerliche Modelle zu horrenden Preisen und bei AMD siehts aktuell ganz düster aus.
Termin, Preis, Leistung (auch High End?)
Sofern du nicht JETZT mehr Grafikleistung brauchst passt ja alles... Und brauchen ist immer so ein relativer Begiff... Im Gamingbereich ist es mehr "wollen"
Ich glaube die Radeon 7 hat vorallem deswegen 16 GB Speicher um die Speicherbandbreite einfacher nach oben zu bekommen was offenbar ein Flaschenhals bei Vega 64 war. Die Effizienz hat sich ja nun deutlich verbessert.
teufelernie
Commander
- Registriert
- Sep. 2004
- Beiträge
- 2.400
Daniel1337 schrieb:Bin ich der einzige der absolut nicht nachvollziehen kann was AMD mit dieser Karte verzapft hat? Ich finde man hätte hier wirklich mal was liefern müssen was von Anfang an überzeugt und nicht wo erst mal wieder zig Diskussionen auftauchen ob der hohe Preis gerechtfertigt ist. Irgendwas eben das von vorne rein schon einen Hype erzeugt...
Es gibt nen Brexit (Dummheit, Emotionen) und beim Trumpf steht jetzt Präsident vor dem Namen (Dummheit, mangelnde Bildung, Populismus, Emotionen).
Ich fand die Vorstellung von Raytracing als Emotionsfeuerwerk ohne Spezifikationen. Aber die Vorstellung der Vega2 war auch nich besser. Scheint wohl in Mode, genau wie die Jäckchen...
Augen zu und durch, wird wieder besser. Muss.
Fraggball
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.329
die preisgestaltung ist halt gleich wie bei nvidia, angeblich rund 30% steigerung zum vorgängermodell vega 64, dafür saftige 200$ mehr msrp als die vega 64 hatte.-Ps-Y-cO- schrieb:AMD Wirft hier als Erstes dieser Erde eine 7nm GPU auf den Markt, Verlangt für 16GB einen ganz Akzeptablen Preis (im Vergleich mit Vega Founders(14nm 16GB-HBM2 bzw. 2070/2080 12nm 8GB-GDDR6) und die Leute Meckern und Meckern und Meckern.
nividia hat dafür halt ddr6 und rtx features verkauft, amd verkauft dafür jetzt 16gb hbm2 speicher.
so oder so sind die generationensprünge zu denen man mehr leistung zum selben preis erhalten hat vergangenheit.
- Registriert
- Aug. 2011
- Beiträge
- 12.999
RYZ3N schrieb:Ich würde dennoch ein Custom Design von Sapphire bevorzugen, da weiß man was man hat.
Wenn ich die R7 wirklich kaufe, dann kommt da letztlich ein Waküblock drauf, ist doch klar eigentlich. Die Vega 56 ist für mich (mit Lukü) nur eine Übergangkarte.
Technoligie
Lt. Commander
- Registriert
- Nov. 2009
- Beiträge
- 1.364
Sollten sie den Fehler mit den Chips an Partner wieder machen wie sie ihn bei der RX4XX gemacht haben ist ihnen nicht zu helfen - wie Lange haben wir auf die Customs der 4XX Reihe gewartet?
Vorteilhaft ist diesmal nur das die 2060 bereits auf dem Markt ist, damals kam vor Erscheinung der ersten Bezahlbaren 4XX Modelle die 1060 in allen Ausführungen auf den Markt.
Vorteilhaft ist diesmal nur das die 2060 bereits auf dem Markt ist, damals kam vor Erscheinung der ersten Bezahlbaren 4XX Modelle die 1060 in allen Ausführungen auf den Markt.
Sly123 schrieb:Wie kann man denn so dumm sein und den exakt gleichen Fehler wiederholen
Weil es kein "Fehler" ist! Navi ist noch nicht vorzeigbar. Bevor man gar nichts zeigt, hat man Vega Refresh gezeigt und verkauft ein paar Radeon Instict Restposten.
Böse Zungen könnten auch behaupten, mit der Vega VII verkauft AMD ein paar Karten ab, bei denen aus welchen Gründen auch immer PCIe 4.0 nicht funktioniert. Eine richtige Erklärung wieso man dies bei dieser Karte beschnitten hat, gibt es nämlich nicht, leistungstechnisch dürfte es zwischen PCIe 3.0 und PCIe 4.0 keinen Unterschied geben.
Zuletzt bearbeitet:
Minutourus
Lt. Commander
- Registriert
- Feb. 2003
- Beiträge
- 1.174
Man merkt irgendwie das es AMD in der GPU Abteilung ordentlich anscheinend kämpft und dort größere Probleme vorhanden sind als in der CPU Abteilung...
Es läuft irgendwie da nicht so rund.. Zumindest mein Gefühl und persönliche Meinung...
Es läuft irgendwie da nicht so rund.. Zumindest mein Gefühl und persönliche Meinung...
Ähnliche Themen
- Antworten
- 110
- Aufrufe
- 20.081
- Antworten
- 276
- Aufrufe
- 36.312
M
- Antworten
- 238
- Aufrufe
- 32.661
- Antworten
- 215
- Aufrufe
- 26.137
- Antworten
- 50
- Aufrufe
- 8.592