Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHigh-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet
Brachliegende Features, die ich niemals benutzen werde, müssen mich aber auch nicht interessieren.
Ich finde z.B. auch die Idee, dass Zen zunächst ohne blöde integrierte GPU kommt hervorragend.
Hät ich für 20€ weniger einen i5 4690 ohne iGPU damals bekommen, hätte ich sofort diese Variante gekauft.
Dass Ryzen keine iGPU hat ist meiner Meinung nach nur für AMD von Vorteil, weil eine iGPU viel Chipfläche kostet. Ich persönliche würde lieber 30-40€ mehr für eine bildausgebende CPU ausgeben. So braucht man immer eine Ersatzgrafikkarte.
sag dass mit der 970 nicht so laut
sonst lünchen dich die ganzen nvidia fanboys
die behaupten ja heute noch dass mit den 3,5gb alles rund läuft (hatte selbst auch eine)
ich hoffe wirklich das eine normale vega mit 16gb kommt
8gb sind einfach zuwenig und das amd plötzlich nur noch halbsoviel speicher benötigt glaube ich erst wenn ich entsprechende test sehe
echt? also ich kann nur für mich reden aber ich wechsle sogar ganz gern mal um eben zu sehen was die Konkurrenz jeweils bietet. Nach meiner 8800 GTS zu HD 4850 über HD 6950 zur GTX 980 TI und nun würde ich gern mal wieder die rote Seite sehen - schaun ob sich 30-40 FPS so "flüssig" anfühlen können wie bei der grünen Karte (ganz schöner Eye Opener zur HD 6950). Gern auch mit Freesync.
Genauso bei CPU. Ich hab ein 1700er Ryzen System neben mir liegen - weniger weil ichs brauch, mehr weil ich wissen will was geht. Und wenn das 16 Kern Modell rockt wandert das in meine Workstation, zusammen mit Vega (16GB sind aber muss).
Also nein. Fav hab ich da keinen. Aber hier im Forum reicht es schon AMDs HBM Strategie zu hinterfragen oder zusagen dass Vega min 1080 TI Performance erreichen sollte und man wird angemalt
Ergänzung ()
AMINDIA schrieb:
Wenn die 16 GB Vega die 1080 Ti um 10% schlagen kann, kann AMD wegen HBM 2 und der 16GB locker 70-100€ teurer sein und würde gekauft werden. AMD müsste Null mit so einer Karte die Ti im Preis unterbieten. Potenzielle Ti, Titan Käufer würden auch 70-100€ mehr hinlegen, als eine Ti kostet.
AMD hat jetzt ja in dem hochpreisigen Segment Nvidia lange, untpyisch lange freie Hand gelassen oder lassen müssen. AMD kann schon allein wegen dem Marktanteil den sie brauchen schlecht viel höhere Preise verlangen als Nvidia (gut bei >600€ Karten gehts mehr um Marketing als Marktanteil). Und bei der Marge spricht eigentlich auch alles für Nvidia, ergo bestimmt grün den Preis.
Wenn Nvidia wöllte könnten sie AMD längst über den Preis bei den GPU ausbluten lassen. Das fänden die eigenen Aktionäre aber auch nicht schön. Lieber Marge von >50%.
Ich denke also Vega wird wie zumeist die etwas bessere P/L bieten müssen. AMD muss schon 20% vorlegen um dann auch den Premium Status und Preis kassieren zu können. Gleichstand bringt da wenig. Man darf gespannt sein, hoffentlich gibts morgen mehr zu Vega.
@ Ram
Also 16GB fände ich genau richtig. Wobei ich auch annahm dass mich die 6 GB der GTX 980 Ti schneller in Bedrängnis bringen als sich nun offenbart. Sollte AMD eine 8 und ein 16GB Modell anbieten wirds der Preisunterschied entscheiden. Der kann schnell recht saftig ausfallen.
16GB VRAM sind relativ knapp bemessen. Normalerweise müssten die Karten heute schon 64GB haben und nächstens Jahr minimum 128GB. Allein der Nudity Mod in PREY verbraucht schon 40GB VRAM.
Nur das jene Personen zumeist schon einen GPU Vertreter zwecks Monitorauswahl sich ausgesucht haben.
Wer 1000€ für ne GPU ausgibt, spart selten am Monitor. Gerade in dem Bereich hat man durch die SyncTechnologien keinen anderen Weg, außer man Tauscht seine Monitore.
Die allgemeine These würde ich aber auch so treffen. Ob die Karte 999€ oder 1099€ kostet ist egal.
Edit:
Allerdings ist das Tauschen von Nvidia nach AMD "günstiger" als anders herum.
was Sync Zeug angeht hab ich mich bisher noch nicht festgelegt. Vielleicht erleben wir ja doch noch mal einen Standard auf den beide Seiten setzen. Lass Freesync sein, sollte mir recht sein =)
Und alle Leute mit G-Sync Monitor gucken dann in die Röhre? Nein, das wird NV nicht bringen. Und beides mit einer Karte kommt mir auch unwahrscheinlich vor. Aber wer weiß.
Naja, den Standard gibt es ja schon. Aber solange die Prognosen NVIDIA bescheinigen dass G-Sync mehr Geld einbringt als Adaptive Sync, wird der Status Quo sich bestimmt nicht ändern.
Ich habe in meiner "Laufbahn" auch öfters die Kartenhersteller gewechselt (selbst die GTX970 am Releasetag gekauft, obwohl vorher ne 7950 Boost drin war). Jeder findet halt für sein Anwendungsgebiet das für sich passende, darum gehts ja auch eigentl. aus Kundensicht.
Habe mir in den letzten Tagen mal die Threads zu den alten GPUs und CPUs durchgelesen und finde es lustig wie sehr sich die Aussagen ähneln, nur die Hersteller sind vertauscht.
Da wurde z.B. rumgemeckert das Intel hier den technischen Fortschritt (C2Q) voran bringt, während sich AMD auf seinen Lorbeeren ausruht und das Singlecore ja noch ewig halten wird.
Ich finde es als Privatperson sehr interessant das sich AMD nun an den technischen Fortschritt traut (HBM, HBM2 trotz geringerem R&D) und damit versucht sich in diesem Bereich einen Vorteil zu verschaffen. Ich hoffe das sich es diesmal mehr lohnt als bei Bulldozer.
Die Planung bei dem war wohl, bezogen auf die Softwareentwicklung, zu optimistisch gedacht.
Wie sie sich alle auf die 16 gb stürzen... dabei steht NIRGENDS das die 16 gb sich auf eine singelgpu karte beziehen. Dabei wird doch extra darauf hingewiesen, dass es nahezu immer ein duo modell gab....
@shrimpy so siehts aus. Zumal das gerücht geht, dass es noch eine duo karte geben soll. Manche seiten leiten daraus schon karten mit bis zu 32gb ab. XD
Und alle Leute mit G-Sync Monitor gucken dann in die Röhre? Nein, das wird NV nicht bringen. Und beides mit einer Karte kommt mir auch unwahrscheinlich vor. Aber wer weiß.
das nicht, viel eher + Freesync. Die Technik bringen die Karten ja mit. Viel eher könnte Nvidia, sofern man wollen würde, wohl einfach beides supporten.
Die Liste kann doch gar nicht stimmen. Obwohl Vega 10 XT weniger Shader besitzt, leistet er angeblich mehr als Vega Pro mit mehr Shadern bei gleichem Takt. Da muss Vega XT mit Pro vertauscht sein, sonst ergibt das keinen Sinn.
@SKu
Ich denke mal, da passt einiges noch nicht so richtig in der Tabelle. 275W TDP für alle 3 Modelle wäre ja eine enorme Hausnummer. Ich denke mal, gerade für das kleinere Modell sollte die TDP eher um die 200W betragen oder sogar noch etwas weniger
und ob 4-8GB HBM2 bei der Vega 10 Pro stimmen, ist auch fraglich. Denn jetzt noch eine Karte im höheren Preissegment mit 4GB herauszubringen, wäre denke ich nicht so gut, dann lieber 8GB GDDR5 um den Preis niedriger zu halten, genug VRAM zu haben und gleichzeitig mehr HBM2 für die beiden größeren Modelle zur Verfügung zu haben...