News High-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet

Ap2000 schrieb:
Brachliegende Features, die ich niemals benutzen werde, müssen mich aber auch nicht interessieren.
Ich finde z.B. auch die Idee, dass Zen zunächst ohne blöde integrierte GPU kommt hervorragend.
Hät ich für 20€ weniger einen i5 4690 ohne iGPU damals bekommen, hätte ich sofort diese Variante gekauft.

Dass Ryzen keine iGPU hat ist meiner Meinung nach nur für AMD von Vorteil, weil eine iGPU viel Chipfläche kostet. Ich persönliche würde lieber 30-40€ mehr für eine bildausgebende CPU ausgeben. So braucht man immer eine Ersatzgrafikkarte.
 
Ap2000 schrieb:
Neben dem Krüppel-RAM, der sich immer wieder bemerkbar macht, nervt mich aber auch das unglaublich unzuverlässige Nvidia Control Panel.

sag dass mit der 970 nicht so laut
sonst lünchen dich die ganzen nvidia fanboys
die behaupten ja heute noch dass mit den 3,5gb alles rund läuft (hatte selbst auch eine)

ich hoffe wirklich das eine normale vega mit 16gb kommt
8gb sind einfach zuwenig und das amd plötzlich nur noch halbsoviel speicher benötigt glaube ich erst wenn ich entsprechende test sehe
 
frkazid schrieb:
Im Endeffekt kauft doch eh jeder bei seinem favorisierten Kartenhersteller.

Wenn einer schneller ist, ist der Stromverbrauch zu hoch, Speicher zu gering...

Das Haar in der Suppe findet man immer.

echt? :lol: also ich kann nur für mich reden aber ich wechsle sogar ganz gern mal um eben zu sehen was die Konkurrenz jeweils bietet. Nach meiner 8800 GTS zu HD 4850 über HD 6950 zur GTX 980 TI und nun würde ich gern mal wieder die rote Seite sehen - schaun ob sich 30-40 FPS so "flüssig" anfühlen können wie bei der grünen Karte (ganz schöner Eye Opener zur HD 6950). Gern auch mit Freesync.

Genauso bei CPU. Ich hab ein 1700er Ryzen System neben mir liegen - weniger weil ichs brauch, mehr weil ich wissen will was geht. Und wenn das 16 Kern Modell rockt wandert das in meine Workstation, zusammen mit Vega (16GB sind aber muss).

Also nein. Fav hab ich da keinen. Aber hier im Forum reicht es schon AMDs HBM Strategie zu hinterfragen oder zusagen dass Vega min 1080 TI Performance erreichen sollte und man wird angemalt ;)
Ergänzung ()

AMINDIA schrieb:
Wenn die 16 GB Vega die 1080 Ti um 10% schlagen kann, kann AMD wegen HBM 2 und der 16GB locker 70-100€ teurer sein und würde gekauft werden. AMD müsste Null mit so einer Karte die Ti im Preis unterbieten. Potenzielle Ti, Titan Käufer würden auch 70-100€ mehr hinlegen, als eine Ti kostet.

AMD hat jetzt ja in dem hochpreisigen Segment Nvidia lange, untpyisch lange freie Hand gelassen oder lassen müssen. AMD kann schon allein wegen dem Marktanteil den sie brauchen schlecht viel höhere Preise verlangen als Nvidia (gut bei >600€ Karten gehts mehr um Marketing als Marktanteil). Und bei der Marge spricht eigentlich auch alles für Nvidia, ergo bestimmt grün den Preis.

Wenn Nvidia wöllte könnten sie AMD längst über den Preis bei den GPU ausbluten lassen. Das fänden die eigenen Aktionäre aber auch nicht schön. Lieber Marge von >50%.

Ich denke also Vega wird wie zumeist die etwas bessere P/L bieten müssen. AMD muss schon 20% vorlegen um dann auch den Premium Status und Preis kassieren zu können. Gleichstand bringt da wenig. Man darf gespannt sein, hoffentlich gibts morgen mehr zu Vega.

@ Ram
Also 16GB fände ich genau richtig. Wobei ich auch annahm dass mich die 6 GB der GTX 980 Ti schneller in Bedrängnis bringen als sich nun offenbart. Sollte AMD eine 8 und ein 16GB Modell anbieten wirds der Preisunterschied entscheiden. Der kann schnell recht saftig ausfallen.
 
Zuletzt bearbeitet:
SKu schrieb:
16GB VRAM sind relativ knapp bemessen. Normalerweise müssten die Karten heute schon 64GB haben und nächstens Jahr minimum 128GB. Allein der Nudity Mod in PREY verbraucht schon 40GB VRAM.

Könntest du mir das bitte auf einem hässlichen A4 Zettel in einem Diagramm darstellen? Sonst check ich das einfach nicht!!
 
AMINDIA schrieb:
Potenzielle Ti, Titan Käufer würden auch 70-100€ mehr hinlegen, als eine Ti kostet.
Nur das jene Personen zumeist schon einen GPU Vertreter zwecks Monitorauswahl sich ausgesucht haben.
Wer 1000€ für ne GPU ausgibt, spart selten am Monitor. Gerade in dem Bereich hat man durch die SyncTechnologien keinen anderen Weg, außer man Tauscht seine Monitore.
Die allgemeine These würde ich aber auch so treffen. Ob die Karte 999€ oder 1099€ kostet ist egal.

Edit:
Allerdings ist das Tauschen von Nvidia nach AMD "günstiger" als anders herum.
 
Zuletzt bearbeitet:
was Sync Zeug angeht hab ich mich bisher noch nicht festgelegt. Vielleicht erleben wir ja doch noch mal einen Standard auf den beide Seiten setzen. Lass Freesync sein, sollte mir recht sein =)
 
Krautmaster schrieb:
Lass Freesync sein, sollte mir recht sein =)
Es muss Freesync werden. Egal was besser ist, ICH habe nunmal FreesyncMonitore😀.
 
@Krautmaster:

Und alle Leute mit G-Sync Monitor gucken dann in die Röhre? Nein, das wird NV nicht bringen. Und beides mit einer Karte kommt mir auch unwahrscheinlich vor. Aber wer weiß.
 
Naja, den Standard gibt es ja schon. Aber solange die Prognosen NVIDIA bescheinigen dass G-Sync mehr Geld einbringt als Adaptive Sync, wird der Status Quo sich bestimmt nicht ändern.
 
Stimmt. Die Aussage war wohl zu allgemein.

Ich habe in meiner "Laufbahn" auch öfters die Kartenhersteller gewechselt (selbst die GTX970 am Releasetag gekauft, obwohl vorher ne 7950 Boost drin war). Jeder findet halt für sein Anwendungsgebiet das für sich passende, darum gehts ja auch eigentl. aus Kundensicht.

Habe mir in den letzten Tagen mal die Threads zu den alten GPUs und CPUs durchgelesen und finde es lustig wie sehr sich die Aussagen ähneln, nur die Hersteller sind vertauscht.

Da wurde z.B. rumgemeckert das Intel hier den technischen Fortschritt (C2Q) voran bringt, während sich AMD auf seinen Lorbeeren ausruht und das Singlecore ja noch ewig halten wird.

Ich finde es als Privatperson sehr interessant das sich AMD nun an den technischen Fortschritt traut (HBM, HBM2 trotz geringerem R&D) und damit versucht sich in diesem Bereich einen Vorteil zu verschaffen. Ich hoffe das sich es diesmal mehr lohnt als bei Bulldozer.

Die Planung bei dem war wohl, bezogen auf die Softwareentwicklung, zu optimistisch gedacht.
 
Ich träume mal ein wenig:

Eine Radeon Nano2 mit folgenden Speccs:

4096 Shader
16 GB HBM2
150W TDP
800,- €
 
Wie sie sich alle auf die 16 gb stürzen... dabei steht NIRGENDS das die 16 gb sich auf eine singelgpu karte beziehen. Dabei wird doch extra darauf hingewiesen, dass es nahezu immer ein duo modell gab....

@shrimpy so siehts aus. Zumal das gerücht geht, dass es noch eine duo karte geben soll. Manche seiten leiten daraus schon karten mit bis zu 32gb ab. XD
 
Shoryuken94 schrieb:
Das ist aber auch nur ein teil der Wahrheit. Bei nicht belastung der FP64 Einheiten haben sie auch keinen großen Einfluss auf die leistungsaufnahme.

Nur hat GCN keine FP64 Einheiten, für solche Berechnungen werden mehrere SPs zusammengeschaltet.
 
MrJules schrieb:
@Krautmaster:

Und alle Leute mit G-Sync Monitor gucken dann in die Röhre? Nein, das wird NV nicht bringen. Und beides mit einer Karte kommt mir auch unwahrscheinlich vor. Aber wer weiß.

das nicht, viel eher + Freesync. Die Technik bringen die Karten ja mit. Viel eher könnte Nvidia, sofern man wollen würde, wohl einfach beides supporten.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@SKu
Ich denke mal, da passt einiges noch nicht so richtig in der Tabelle. 275W TDP für alle 3 Modelle wäre ja eine enorme Hausnummer. Ich denke mal, gerade für das kleinere Modell sollte die TDP eher um die 200W betragen oder sogar noch etwas weniger

und ob 4-8GB HBM2 bei der Vega 10 Pro stimmen, ist auch fraglich. Denn jetzt noch eine Karte im höheren Preissegment mit 4GB herauszubringen, wäre denke ich nicht so gut, dann lieber 8GB GDDR5 um den Preis niedriger zu halten, genug VRAM zu haben und gleichzeitig mehr HBM2 für die beiden größeren Modelle zur Verfügung zu haben...

aber wir werden es ja bald sehen
 
Zurück
Oben