News Radeon Vega: Preis für Frontier Edition mit Luftkühlung liegt bei 1.199 USD

Shrimpy schrieb:
What?
Seit wann geht das wieder?

Wenn ich das letztens richtig gelesen hab, musste NV wegen Windows 10/DX12 etwas an den Treibern öffnen.
Hab mein altes System hier stehen, mit Win 10. Da ist die HD7970 + GTX 460 drin und es läuft alles ohne Patch. Man muss aber einen Monitor ... oder einen Monitorsimulator (DVI->VGA-Adapter + 3 Widerstände) ... dran hängen.
 
Bis zu 375 Watt Verbrauch:D, aber die 600$ aufpreis für Wakü ist hoffentlich nicht nur Geldschneiderei.:freak:
 
Cyberfries schrieb:
Die feste Kaufabsicht bevor Leistung oder Preis bekannt sind, kann man nur als fanatischer Markenanhänger treffen.

Wie ich bereits ausführte, ist es keine feste Kaufabsicht, sondern eine bedingte Kaufabsicht:
Leli196 schrieb:
Ich werde RX Vega kaufen, wenn die Leistung nicht grottig ist und das P-L-Verhältnis nicht deutlich schlechter ist, als bei Nvidia.

Cyberfries schrieb:
Eben das, was den Apple-Käufern immer vorgeworfen wird: Kaufen nur weil der Name drauf steht.
Nein, nicht weil der Name AMD draufsteht, sondern weil Adaptive Sync unterstützt wird.

Cyberfries schrieb:
Ein Kunde sollte sich vor jeder Kaufentscheidung informieren und nicht blind kaufen.
Niemand hat behauptet er würde sich nicht vor dem Kauf informieren. Trotzdem kann man jetzt schon die Absicht hegen die GPU zu kaufen.
 
Zuletzt bearbeitet: (Korrektur)
Leli196 schrieb:
Ich auch, denn ich kaufe aus Prinzip keinen proprietären Mist (G-Sync) von Nvidia. ;)
Zotac2012 schrieb:
Das sind die Antworten der eingefleischten AMD Jünger was Weltweit wohl unter einem Promille liegen dürfte ...
Es sind sicher mehr. Und es ist zuerst eine zutiefst persönliche Entscheidung. Jeder einzelne hat eine andere Wahrnehmungsschwelle für Fairness. Die reine Ergebnis-Perfomance ist nunmal nicht zu 100% für jeden Kunden kaufentscheidend. Sympathie ist z.B. auch ein Faktor, der zuweilen bei empfindsamen Wesen (uns) sogar in den Vordergrund tritt.
Wenn eine Fußballmannschaft beschließt ihr Tor ganz proprietär mit Brettern zu vernageln, nur weil sie es können.
Die Fanboys welcher Mannschaft werden sich dann wohl über diesen unfairen Wettbewerb zuerst aufregen?
 
Leli196 schrieb:
Man muss auch nicht ganz explizit wissen, wie viel die GPU kosten und was sie leisten wird; es ist wahrscheinlich, dass das Preis-Leistungs-Verhältnis allenfalls ähnlich schlecht wie bei Nvidia sein wird. Demzufolge kann ich durchaus sagen, dass ich die GPU kaufen werde. Auch wenn das auf den ersten Blick impliziert, dass ich sie sicher kaufen werde, so kann ich mich trotzdem noch anders entscheiden falls AMD es mit RX Vega völlig verhaut. Um es also für deinen 'gesunden Menschenverstand' (und das meine ich nicht beleidigend) noch einmal adäquat zu formulieren: Ich werde RX Vega kaufen, wenn die Leistung nicht grottig ist und das P-L-Verhältnis nicht deutlich schlechter ist, als bei Nvidia.
Ja aber das hier klingt doch schon ganz anders, als ist gekauft! Hier wägst Du ja jetzt schon ab, bezüglich der Leistung und dem Preis, das ist genau das was ich geschrieben habe. Nichts Anderes! Darum ging es mir ja, wenn ich blind sage, das Produkt XY ist gekauft, welches ja noch nicht mal auf dem Markt ist und man nur sehr spärliche Informationen zur Leistung und zum Preis hat, dann muss ich schon ein Fan dieser Marke [Herstellers] sein, weil mir dann egal ist, was kommt.

Und das Argument mit dem Monitor kann ich ja verstehen, dagegen sage ich ja auch gar nichts, mir persönlich gefällt es auch nicht, dass man für das Gsync Modul einen deutlichen Aufpreis zahlen muss. Aber man kann ja auch einen Freesync Monitor mit einer RX 580 betreiben, wenn einem der Preis und die Leistung der RX Vega nicht zusagt. Nur eines ist doch auch klar, mal ganz außen vor was ich glaube und wovon ich überzeugt bin bezüglich der Vega Grafikkarte, sollte Vega wirklich schneller sein als eine GTX 1080Ti, wird man diese wohl kaum für 500,00 Euro oder darunter bekommen.

Ich glaube auch nicht, das Nvidia unter Preisdruck gerät, vielmehr ist es so, das AMD je nach Leistung der Vega Grafikkarte sich auch schon an Nvidia und deren Preise orientieren muss, denn es würde ja nicht wirklich viel Sinn machen, wenn Vega z.B. die Leistung einer GTX 1080 hätte und diese dann deutlich teurer wäre als das Nvidia Pendant.

Dadurch das Nvidia die Preise ja für die GTX 1080 schon deutlich gesenkt hat, ist es für AMD und Vega sicherlich nicht einfacher geworden. Aber man wird ja Ende Juli sehen was Sache ist und wie Verfügbar auch Vega sein wird, denn man konnte ja schon lesen, dass es für Europa zunächst nur ein gewisses Kontingent an Vega Grafikkarten geben wird, da ja die Verfügbarkeit des HBM Speichers deutlich im Zeitplan hinterherhinkt!
 
Schlechter als eine RX580 wird Vega nicht werden, das sollte ja jedem klar sein^^

Und es fehlt AMD ja z.B. auch noch ein Gegenspieler zur 1070 im Bereich 350-450€, dort wird auch sicher einer der Vega Ableger landen.

AMD wird nicht die Leistung einer 1070 zum Preis einer 1080 bringen und wenn jemand mit einem Freesync Monitor sagt, er hätte schon längst eine 1080, wenn sie Freesync beherrschen würde, kann man schon durchaus sagen, dass man Vega kaufen wird, ist ja nicht gesagt welche Vega man kauft.
 
immortuos schrieb:
300 und 375 W TDP :freak:

Na dann schauen wir mal wo die Consumer Version liegen wird, wäre echt bitter wenn die auch über den 275W TDP der Fury X liegen würde, wie man das mit nem Stockkühler kühlen will ist mir ein Rätsel. Ich sehe den nächsten R9 290(X) Kühlerfail kommen :D

Keine Ahnung wo da das Problem liegt, jede custom 1080TI benötigt 300W peak, mit OC sogar mehr. Meine Titan lief damals gemessen mit ~320W.
Die Angaben im Text beziehen sich nicht auf den Verbrauch sondern auf das zur Verfügung stehende powertarget. Was Du dann damit machst ist Dein Ding. Mir ist es lieber die Karte wird nicht künstlich durch PT oder TT limitiert.
 
Ihr solltet glaube ich den Artikel etwas präzisieren. Ist ja schön dass AMD laut Eurem Artikel auf P100 abzielt. M.e. gibts hier nur das Problem dass für P100 ab q3 der Nachfolger V100 in den Startlöchern steht und P100 hat m.E. dedizidierte FP64 Einheiten. In Sachen Wokstation weißt ihr wenigstens in Teilen darauf hin, dass hier noch andere Produkte seitens AMD in Q3 kommen. Denn auch hier taugt die FE mangels fehlender Treiber / App Zertifizierung nicht.

https://exxactcorp.com/index.php/product/prod_detail/2566

Und bei den Specviewerperf Werten hat AMD dann natürlich selbstredend sich lieber nicht gegen die Quadro Karten vergleichen sondern gegen die Titan. Am Ende des Tages ist das Teil maximal Prosumer. Echtes Professionnel Segment ist das nicht. Zu P100 fehlt einiges inkl. CUDA Support und bei Workstation scheiterts an der Zertifizierung. ALso maximal TitanX(p) Gegenstück, dass allerdings 1 Jahr nachdem die erste Pascal Titan schon am Markt ist.
 
Wenn es Titan-X-Gegenstück werden soll muss es aber auch entsprechendes leisten. Irre ich mich oder hat Koduri nicht verlauten lassen, dass RX Vega in Spielen mehr Leistung bietet?
 
Cyberfries schrieb:
In diesem Fall hat Zotac2012 doch völlig Recht. Die feste Kaufabsicht bevor Leistung oder Preis bekannt sind, kann man nur als fanatischer Markenanhänger treffen. Eben das, was den Apple-Käufern immer vorgeworfen wird: Kaufen nur weil der Name drauf steht.

Das kann so sein, muss es aber zwangsläufig nicht, denn wie Leli196 es schon ausgeführt hat, kann das abhängig von der schon gekauften/vorhandenen Hardware sein, in dem Fall der Monitor.

Ob einem A-/Free-Sync so wichtig ist (es gab auch eine Zeit davor und gibt eine Welt außerhalb von Computerspielen und ich eiere immer noch mit V-Sync herum und für mich sind sowohl Free- als auch G-Sync total überbewertet - aber natürlich laufen hier auf CB haufenweise Gamer, darunter überproportional (Hobby-)Enthusiasten und Early Adopter herum - da ich nicht vorwiegend Egoshooter und Rennspiele spiele und beim Rest die Notwendigkeit bisher nicht sehe), ist immer noch eine persönliche Entscheidung, die es m.E. zu respektieren gilt.

Von jemandem zu verlangen sich einen nagelneuen, mit überteuert/proprietärer G-Sync Technologie ausgestatteten Monitor gleich zu einer neuen GPU dazu zu kaufen, weil man sonst in die "Fanboy" Kategorie fallen würde, ist - mit Verlaub - weltfremd und grober Unfug und kann eher davon zeugen, dass man selber um jeden Preis einer Marke zugeneigt ist ;).

Genauso unsinnig und infantil wollte mir Zotac2012 eine GTX 1070 aufschwatzen, weil es für ihn undenkbar war, dass ich mit meiner GTX 670OC derzeit noch zufrieden bin und eben den getunten Maxwell 2.0 (Pascal) Chip als wenig lohnend und technisch angestaubt einstufe und Vega wegen der deutlich innovativeren/vielseitigeren/langlebigeren Architektur (Primitive Shaders, HBCC-HBM2, usw.) klar vorziehen würde.

Wie das mit Volta aussieht (ob das wieder nur ein weiteres Maxwell Chip Tuning wird oder lohnende Architekturneuerungen bringt?) werde ich noch abwarten und dann wohl erst entscheiden ob es rot oder grün wird, zumal wegen des direkten Wettbewerbs das dann der günstigste Kaufzeitpunkt sein dürfte und ich (hoffentlich) noch so lange warten kann ...
 
Zuletzt bearbeitet:
Richthofen schrieb:
Ihr solltet glaube ich den Artikel etwas präzisieren. Ist ja schön dass AMD laut Eurem Artikel auf P100 abzielt. M.e. gibts hier nur das Problem dass für P100 ab q3 der Nachfolger V100 in den Startlöchern steht und P100 hat m.E. dedizidierte FP64 Einheiten.
Und in der V100 Vorstellung soll dann auf Navi hingewiesen werden?
Sry, aber spätestens seit Fermi weiß man dass man nicht auf Luftschlösser hinweist...
Mal wieder ein typischer Richthofen.

Richthofen schrieb:
Zu P100 fehlt einiges inkl. CUDA Support
Also für jedes neue Projekt würde ich auf OpenCL setzen.
Es ist sehr dumm sich von einem Hersteller abhängig zu machen.
Und für so eine OpenCL Umsetzung braucht Nvidia gerne mal 3 Jahre.
Ist die eigentlich schon offiziell aus der Beta?


Schrank schrieb:
Bei mir ist es eigentlich genau so, ich hoffe auch nur auf Konkurrenz seiten AMD, damit Nvidia die Preise nicht noch weiter in die Höhe treibt.

Ich frage mich nur wie viele AMD dann auch wirklich kaufen, denn die Konkurrenz nützt ja nur was wenn sie auch gekauft wird und Nvidia unter Preisdruck gerät.

Ist das noch dümmer als dumm, wenn man darauf hofft das die Konkurrenz die preise drückt, damit man Nvidia kaufen kann, wenn man weiß was man damit anrichtet?
Mit Anlauf gegen die Wand laufen?!

GrooveXT schrieb:
Dazu besticht Nvidia viele Studios bei der Spieleentwicklung
fixed
 
Hmmm..

Apple verbaut VEGA: könnte dafür stehen das es von VEGA performante, effiziente Modelle gibt.

Ein Händler listet zu Preis X und Y die FE von VEGA ohne und mit Wakü: X ist zu billig, Y ist zu teuer nur wegen Wakü TDP=Verbrauch=zu hoch=Schrott weil Preis zu niedrig für Professionelle. Außerdem Hersteller Wakü bedeutet Schrott weil sonst nicht kühlbar.
--> Nach der Logik erachtet EVGA, Gigabyte, etc. Die 1080 Ti als Schrott - Glückwunsch.

Bei der 1080 TI gab es auch zahlreiche listings bevor die Karte da war. Die meisten Preise waren völlig überzogen um womöglich early adopters zu melken da man eh wusste das sie Karte kein P/L Sieger wird. Sicher der Preis der FE ist überraschend günstig und der der Wakü Version seltsam hoch also stimmt denn einer der Preise überhaupt? Vielleicht will man durch den Preis auch erstmal überhaupt Produkte an den Mann bringen? Wir wissen es zu diesem Zeitpunkt einfach nicht. ^^

Überrascht bin ich jedenfalls über den genannten Takt. Die Gamer Version wird dann wohl bei 1.7-1.8GHz liegen. Und die FLOPS sehen auch ganz gut aus wobei man dir ja erstmal aus die Straße bringen muss. Das man keinen Gaming Treiber zu Beginn raus gibt soll vielleicht vermeiden das die Karte zu den Spielern wandert und man dann Probleme bei der eigentlichen Zielgruppe hat oder den Enthusiasten vor sich selber schützen möchte.

Ich denke VEGA wird gut. Wenn der Verbrauch höher ist und die Leistung etwas niedriger als bei der 1080 Ti dann stört mich das nicht. Es kommt sowie ein Fullcover drauf und die Ti wird spätestens mit Volta wieder langsamer ;) Ich habe also ebenfalls vor VEGA zu kaufen, warte natürlich auf Tests wobei ich beim Kauf schnell sein will damit ich eine bekomme bevor die Miner oder wer auch immer zuschlagen. Also steinigt mich doch aber auf Nvidias Produktpolitik habe ich keine Lust. Die 1080 Ti betrachte ich immer noch als Notlösung weil ich eigentlich nicht auf Freesync verzichten will aber ich bin recht sicher das VEGA ein deutliches Upgrad zur 390 wird. Nur wenn man 16GB VRAM nicht auf die Gamer Version packt wäre ich etwas vergrault. BF1 schluckt aber in 1440p auch keine 8GB.
 
Shrimpy schrieb:
Leider zählt beim Mining einzig die Effizienz.
Es ist nicht klar was mit mod bios für Vega vergichen zu Polaris drin ist.
Ist das Ding aber mehr als doppelt so Effizient, sind die Karten schnell ausverkauft, auch für 1200 €-€ .
Die 8 GB Modele sowieso!:rolleyes:

im moment interessiert die effizients einer grafikkarte praktisch garnicht
selbst mit den 390er, 290 und furys kann man sogar sinnvoll minen
der preis für ethereum und co sind so hoch dass das mehr an stromverbrauch fast vernachlässigbar ist
 
But can it run Crysis?




Der musste sein ;D
 
TenDance schrieb:
Keine Ahnung wo da das Problem liegt, jede custom 1080TI benötigt 300W peak, mit OC sogar mehr. Meine Titan lief damals gemessen mit ~320W.
Die Angaben im Text beziehen sich nicht auf den Verbrauch sondern auf das zur Verfügung stehende powertarget. Was Du dann damit machst ist Dein Ding. Mir ist es lieber die Karte wird nicht künstlich durch PT oder TT limitiert.

Die Frage ist doch eher, warum AMD zwei Versionen der Founder... ähm, Frontier Edition herausbringt mit 300 Watt und 375 Watt TDP? Das würde ja bedeutet, dass 300 Watt nicht ausreicht um VEGA zur Maximalleistung zu bewegen.
Aber eine Profikarte soll doch eigentlich nur funktionieren und keine Benchrekorde brechen.
Ich schätze mal die 1600 Mhz Takt können nur wirklich mit 375 Watt und einer Wasserkühlung stabil erreicht werden.
Bei der 300 Watt luftgekühlten Karte geht der Takt sicherlich deutlich in die Knie.

Richthofen schrieb:
Echtes Professionnel Segment ist das nicht. Zu P100 fehlt einiges inkl. CUDA Support und bei Workstation scheiterts an der Zertifizierung. ALso maximal TitanX(p) Gegenstück, dass allerdings 1 Jahr nachdem die erste Pascal Titan schon am Markt ist.

AMD hat noch nie CUDA supportet weil man dazu eine anderer Hardware benötigt und trotzdem gib es Profi-Karten alla FirePro ect. Hm...Wie sollen denn die laufen, wenn es nur CUDA in Anwendungen gibt oder gibt es tatsächlich sogar professionelle Anwendungen die auf CUDA verzichten ?
Wer nur auf CUDA schwört, der kann sich eben nur eine extrem teurer CUDA-Karte kaufen.

Chismon schrieb:
Ob einem A-/Free-Sync so wichtig ist (es gab auch eine Zeit davor und gibt eine Welt außerhalb von Computerspielen und ich eiere immer noch mit V-Sync herum und für mich sind sowohl Free- als auch G-Sync total überbewertet - aber natürlich laufen hier auf CB haufenweise Gamer, darunter überproportional (Hobby-)Enthusiasten und Early Adopter herum - da ich nicht vorwiegend Egoshooter und Rennspiele spiele und beim Rest die Notwendigkeit bisher nicht sehe), ist immer noch eine persönliche Entscheidung, die es m.E. zu respektieren gilt.

FreeSync und G-Sync richtet sich hauptsächlich nur an Gamer und ist somit ein reines Gamerfeature. Es macht ja keinen Sinn die Tabellenkalkulation mit geglätteten Frametimes auszugeben. Wer nur Spiele spielt, die immer bei 60 Hz konstant bleiben ist dieses Feature natürlich auch nicht besonders wichtig.

Aber, es gibt auch Leute, die spielen Spiele, da reicht die Grafikkarte für 60 Hz nicht aus so das sie die Qualität verringern müssen.
Nun können sie so ein Feature verwenden und müssen trotz minderer GPU-Leistung nicht auf Qualität verzichten.
Free/G-Sync ist kein Wunderfeature, sondern nur ein Hilfsmittel - eine Unterstützung um mehr aus seiner Hardware zu holen, sie quasi effizienter zu machen, denn nun braucht man keine größerer stromhungrigere und teurere GPU mehr um das gleiche Ergebnis zu erzielen.

Natürlich sind auch dort Grenzen gesetzt. Aus einer GTX1060 macht man keine GTX1080Ti. Aber man benötigt nicht unbedingt eine GTX1070 oder kauft sich die GTX1070 und spart sich das Geld für die GTX1080 ect.
Bei AMD ist Freesync sogar noch effektiver, weil der Aufpreis der Monitore deutlich geringer ist und AMD mit ihren Midrange-Karten so noch gut mitspielen können.
 
Zuletzt bearbeitet:
DJ_BARO schrieb:
ACHTUNG, ENTHÄLT SPUREN VON SPEKULATION

Wenn man den technischen Daten und der gesteigerten FP32 Leistung um 50 % glaubt & dann die aktuelle Grafikkarten Rangliste con CB nimmt

+ 50% zur Fury X addiert

= Kommt eine Leistung auf den Niveau einer GTX 1080 raus, die GTX 1080 TI ist aber immernoch schneller.
Vega setzt zum ersten mal Teiled renderer ein (nvidia hats seit maxwell glaube ich).
Diese Milmädchenrechnung funktioniert in diesem Fall nicht. Stell dich eher auf 100% ein.
 
Wie hoch der Sprung durch Tiled Based Rendering ausfallen wird kann zum jetzigen Zeitpunkt im hier Forum maximal jemand sagen, der ein NDA unterschrieben hat. Wenn der Sprung von Polaris->Vega aber in ähnlicher Größenordnung stattfindet wie der von Kepler->Maxwell, dann dürfte AMD sehr konkurrenzfähig sein.
 
motul300 schrieb:
im moment interessiert die effizients einer grafikkarte praktisch garnicht
selbst mit den 390er, 290 und furys kann man sogar sinnvoll minen
der preis für ethereum und co sind so hoch dass das mehr an stromverbrauch fast vernachlässigbar ist

Klar wenn man für quasi umsonst noch an 290er kommt oder schon ewig hat läst man die auch rennen wo sie nicht stört.
Tatsache ist aber je Effizienter eine Karte umso mehr Gewinn, also kaufst du besser eine 560 oder 570 als eine alte 290 fürn mininggrid.
Mit einer Hawaii bis du wohl nur noch bis ende August im positiven dabei.

Meine 290 lasse ich sicher nicht im Sommer für 70-80Cent am Tag rennen...
Wenn das im Winter immer noch lohnt gerne. xD
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben