News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

vatikan666 schrieb:
Muss bei solchen Kommentaren immer lachen. [...]

Es freut mich, dass du so ein froher Mensch bist.
 
Faust2011 schrieb:
Schaut man sich das Vega Architecture White Paper an und vergleicht es mit diverse Twitter- und sontigen Aussagen, u.a. auch von Entwicklern und AMD-Mitarbeitern, dann fehlt eigentlich nur noch das Feature NCU / Primitive Shader. Leider wurden diese zuerst im Januar 2018 reduziert von "wir-integrieren-das-automatisch-in-die-Spielprofile-im-Treiber auf ein das-muss-ein-Entwickler-selbst-implementieren" und dann im Sommer komplett abgekündigt. Es hat einfach nicht sollen sein.

Alles andere ist jedoch aktiv, insbesondere: HBCC, Rapid Packed Math und Draw-Stream Binning Rasterizer.



Ja, die Bandbreite (über 1 TB/sec!) hats mir auch angetan :D Ich bin sehr gespannt, wieviel Performance da wirklich dran hängt, allein wenn ein Direktvergleich zwischen Vega 10 und Vega 20 mal von irgendeiner Redaktion durchgeführt wird.



Nvidia verbaut 16 GB HBM2 auf der Titan V und auch nur dort - und das zum Mondpreis von 3000 US-$.

Ähh es sind doch leider nur 12 GB... ;)
 
Wie hier alle rummeckern für was braucht man 16 GB VRAM. Abwarten wenn nächstes Jahr die PS 5 kommt wird das schneller zum Standard als so machen lieb ist. NVIDIA wird sich dann freuen wenn die 2080 Käufer wieder zur Kasse gebeten werden :evillol:
Und nur mal so am Rande die werden schon wissen wie viel VRAM in Zukunft eine GPU benötigen wird, da sie ja für Sony und Microsoft liefern.
 
Zuletzt bearbeitet:
Sun-Berg schrieb:
Es freut mich, dass du so ein froher Mensch bist.
musst ihn aber auch verstehen, 16GB sind doch keinesfalls am Markt vorbeientwickelt.
Wenn 4k und VR langsam in Schwung kommen, ist man doch damit gut gerüstet.
 
  • Gefällt mir
Reaktionen: balkanmueller
Palmdale schrieb:
Wie schon im anderen Thread erläutert, eigentlich enttäuschend, wenn das alles ist, was AMD aus 7nm machen konnte.

Wo liegt dein Problem? War klar das ein "refresh" kommen wird, war nicht klar das er auch für die Konsumer kommt. Jetzt ist es fix, das die Leistung ca. 25% über der Vega 64 liegt wurde ja schon vermutet ist halt ein refresh!

Was daran traurig od. enttäuschend ist entzieht sich meinen Verständnis, ein Unternehmen das nur den Bruchteil an Finanziellen mittel hat für die Ingeneure und R&D kann halt auch nur wie alle anderen mit Wassser kochen, aus deiner Kommentar ist wohl ersichtlich das du von anfang an keine Realistischen erwartungen hattest und mich wundert es jedes mal aufs neue warum die Leute von AMD immer die eierlegendewollmilchsau erwarten.
 
  • Gefällt mir
Reaktionen: balkanmueller, .Sentinel., russianinvasion und 5 andere
Sun-Berg schrieb:
Massiv VRAM den man wahrscheinlich nicht braucht, deswegen etwas zu hoher Preis um endlich mal etwas in Bewegung zu setzen.

Bei der 2060 wird gemeckert es ist zu wenig hier wird gemeckert es ist zu viel... Am besten wir stellen einfach alle Grafikkarten ein und setzen nur noch auf iGPU die auf den normalen RAM aufbauen da kann sich dann jeder selber so viel rein stecken wie er will :X
 
  • Gefällt mir
Reaktionen: mesohorny, Dittsche, Cpt.Willard und 4 andere
Cool Master schrieb:
Bei der 2060 wird gemeckert es ist zu wenig hier wird gemeckert es ist zu viel... Am besten wir stellen einfach alle Grafikkarten ein und setzen nur noch auf iGPU die auf den normalen RAM aufbauen da kann sich dann jeder selber so viel rein stecken wie er will :X

Am besten zurück zum Turbo Cache, dann kann jeder so viel Ram der Grafikkarte zuweisen wie er mag... :king:
 
  • Gefällt mir
Reaktionen: Cool Master
Ich feiere einfach heimlich die gefühlten 100 Posts der letzten Monate ala "..Ich warte drauf wenn Navi im Januar zur CES erscheint" und ".. AMD wird Nvidia wieder zeigen wie günstig geht".
 
Sun-Berg schrieb:
Es freut mich, dass du so ein froher Mensch bist.

Mich freut am meisten, wie naiv viele Menschen sind. Damit verdiene ich endlos Geld. Money Money Money. :evillol:


Blade0479 schrieb:
Ich feiere einfach heimlich die gefühlten 100 Posts der letzten Monate ala "..Ich warte drauf wenn Navi im Januar erscheint" und ".. AMD wird Nvidia wieder zeigen wie günstig geht".

Was kann man daran genau feiern? Kannst du uns das allen hier mal erklären?
Ich stell mir gerade vor wie du mit deiner 800€ Grafikkarte im Keller sitzt und dich freust das die Konkurrenz nichts günstigeres am Start hat, nur damit du Fanboy zufrieden bist. Anders ist so eine krude Sichtweise doch gar nicht möglich. Also ich freue mich über günstige und gute Produkte, egal von welchem Hersteller.
 
  • Gefällt mir
Reaktionen: russianinvasion und Acedia23
@Blade0479

Tun sie ja auch. Du bekommst statt 8 GB das doppelte zudem ist es noch HBM ergo die Karten werden kleiner ausfallen als es eine 2080 ist.
 
XD-User schrieb:
Laut Golem soll der mit maximalen OC gearbeitet haben, man hatte rund 2040 Punkt und ein normaler gedrosselter I9 schafft gerade mal 1900 PKT laut Benches. Also müsste der Intel schon an seine Grenzen gegangen sein.
Nicht mit OC (!), sondern mit Standardtakt-Boost, aber bei vollem Power-Target von vll 200W.
 
  • Gefällt mir
Reaktionen: XD-User
Ich möchte mal festhalten, dass eine Rechtfertigung höherer Preise aufgrund von "den immer komplexeren Herstellungsmechanismen", keine richtige Rechtfertigung ist.

Gemessen an der Zeit und dem technischen Stand der Entwicklung ist der aktuelle Herstellungsprozess immer der aktuelle Herstellungsprozess, das war er auch zu Zeiten von 9800xt und Pendants.
Da hat man das Ganze auch nicht mit Holzofen und Schmiedehammer zusammengeschustert - das war da auch High-end.

Also lasst Euch nicht wie Schlachtvieh mit dem Ring durch die Nase zur Kasse führen.

Ich mag die Karte und halte 500 für okay, 700+ verdanken wir dem Mining, Nvidia und den Leuten die jeden Preis bereit sind zu zahlen, hier aber wohl noch ein wenig gerechtfertigt"er", wegen der Menge an HBM...ggü. Der 2080
 
  • Gefällt mir
Reaktionen: russianinvasion, Benji21 und Blade0479
Faust2011 schrieb:
... Vega Architecture White Paper an und vergleicht es mit diverse Twitter- und sontigen Aussagen, u.a. auch von Entwicklern und AMD-Mitarbeitern, dann fehlt eigentlich nur noch das Feature NCU / Primitive Shader. Leider wurden diese zuerst im Januar 2018 reduziert von "wir-integrieren-das-automatisch-in-die-Spielprofile-im-Treiber auf ein das-muss-ein-Entwickler-selbst-implementieren" und dann im Sommer komplett abgekündigt. Es hat einfach nicht sollen sein.
Alles andere ist jedoch aktiv, insbesondere: HBCC, Rapid Packed Math und Draw-Stream Binning Rasterizer.
Ja, die Bandbreite (über 1 TB/sec!) hats mir auch angetan :D Ich bin sehr gespannt, wieviel Performance da wirklich dran hängt, allein wenn ein Direktvergleich zwischen Vega 10 und Vega 20 mal von irgendeiner Redaktion durchgeführt wird.
Nvidia verbaut 16 GB HBM2 auf der Titan V und auch nur dort - und das zum Mondpreis von 3000 US-$.

Von den grossen Features her mag das stimmen, aber es wurde damals ja von ueber 200 zum Teil neuen Architekturmodifikationen und Features zum Marktstart von RX Vega geredet, die wohl dann vermutlich nicht im White Paper festgehalten wurden?

Wie relevant diese "untergegangenen" Features im Endeffekt sind, ist dann natuerlich im nachhinein die Frage (wenn sie sich nicht im White Paper wiederfinden), aber natuerlich waere es erfreulich wenn Primitive Shaders neben den anderen prominenteren Features (wie HBCC, DSBR und RPM) auch besser bis vollends/regelmaessig in neuen Spieletiteln implementiert werden und fuer eine signifikant bessere Leistungsausbeute sorgen.

Bei HBCC schwankt der Nutzen ja bspw. auch mit RX Vega und im Idealfall braucht man auch etwas RAM auf der hohen Kante (also 32+GB im Idealfall) und der DSBR hat ja auch nicht den von vielen wundersam hohen Leistungszuwachs herbeigefuehrt (in Anlehnung an die vorherige Einfuehrung des nVidia Pendants mit der Maxwell Generation und den daraus hergeleiteten Leistungszuwachs im Vergleich zu vorherigen Kepler GPUs).

Die hohe Bandbreite sollte eigentlich schon fuer ausgesprochen gute min fps und frame times sorgen koennen und auf die Ergebnisse diesbzgl. bin ich schon gespannt ;), ebenso wie darauf, was noch an Architektur-Optimierung im direkten Vergleich von RX Vega zu VII eingeflossen ist :).

Ich koennte mir da auch einen schoenen Testartikel von CB zu vorstellen, in welchem man die beiden Vega-Generationen gegeneinander stellt und auf Herz und Nieren prueft und z.T. in kuenstlichen Extrembedingungen die GPUs testet und "gegen die Wand" laufen laesst (das muessten auch nicht nur Spiele sein).

Ein aehnlicher RT-Raytracing Vergleich wie zwischen Titan V und RTX waere auch fuer die VII interessant oder inwieweit man die Leistungsfaehigkeit in VR Titeln ausgebaut hat.

Fuer Krypto-Miner koennte diese Radeon VII GPU auch ein Schnapper sein bei der monstroesen (und dafuer durch 7nm vermutlich relativ sparsamen) Compute-Leistung und es bleibt zu hoffen, dass der Markt in dem Bereich weiterhin ruhig bleibt und die Erhaeltlichkeit der VII Karten einigermassen gut zum Marktstart ausfallen wird.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
.. ist mal ganz provokativ nebenbei natürlich auch der Grund warum trotz sinkenden Arbeitslosenzahlen, steigenden Löhnen, und Mindestlöhnen sich immer mehr (vor allem junge) Leute weiter verschulden.
Die Industrie, das Produktdesign und die Werbung versteht es den Menschen immer mehr zu suggerieren was sie an High End alles dringend brauchen.
Was ich damit meine ist, dass vormalige "Luxus Güter" immer mehr in den Mittelstand eingepflanzt werden.


Für den "Kumpel Faktor WOW Gaming PC" gibt man doch heute gefühlt das Doppelte aus als vor 8-10 Jahren (da war eine 7970 für 400€ schon fast unbezahlbar (für mich) und heute sind 400€ schon irgendwie "normale Mittelklasse" , nur habe ich nicht das Gefühl dass ich auch das Doppelte verdiene :D.

Ich kann mich noch an die Foren Zeiten 2012-13 erinnern, da hättet ihr mal hören sollen :D:D wie alle sich aufgeregt haben, die 7970 viel zu teuer lieber SLI usw. ..

2012/14 hätte man aber mit den 400€ auch alles damalige an Games in MegaUltra spielen können..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: russianinvasion und Cpt.Willard
Cpt.Willard schrieb:
Ich möchte mal festhalten, dass eine Rechtfertigung höherer Preise aufgrund von "den immer komplexeren Herstellungsmechanismen", keine richtige Rechtfertigung ist.

Doch ist es, weil das entsprechend mehr kostet, auch für die Fabs. Die Maschinen und Technik wird halt immer komplexer und alles muss deutlich feiner und kleiner werden und genau das kostet halt ein Schweine Geld. Es ist nicht wie früher so einfach ein DIE Shrink durchzuführen oder eine völlig neue Architektur einfach so zu entwickeln vor allem weil wir langsam aber sicher auch am Ende von Silizium ankommen. Wenn wir also nicht bald neue Materialien finden mit denen es weiter gehen kann wird das alles noch teurer oder die Software skaliert endlich besser mit Kernen, sei es GPU oder CPU. Vieles könnte man heute ohne Probleme deutlich verbessern wenn man einfach die SW mal richtig optimieren würde, aber das kostet halt auch Geld und die Leute wollen es nicht ausgeben.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Nero1
Klar klingen die 16 GB jetzt erstmal hart übertrieben. Andererseits wird von vielen immer über fehlende Zukunftssicherheit gesprochen... damit ist man der Sache doch deutlich näher gekommen. Zumindest was die VRAM-Thematik angeht. Wie geht doch das Sprichwort... "Besser haben und nicht brauchen.....". Ob die Karte Top oder Flop wird, kann man bisher kaum abschätzen. Das hängt doch noch von vielen Faktoren ab. Tatsächlicher Verbrauch, Custom-Modelle und -Preise, Leistungsniveau etc.
Wartet die ersten ausführlichen Tests ab. Dann sehen wir weiter. Immerhin versucht AMD mal wieder was im High End Niveau zu platzieren. Und wenn das letztendlich nur dazu führt, das die 2070/2080 je 10-20€ günstiger werden. Da verliert von Kundenseite niemand. Auch wenn die Karte für einen persönlich uninteressant ist, kann man doch indirekt davon profitieren.
 
Cool Master schrieb:
Doch ist es, weil das entsprechend mehr kostet, auch für die Fabs. Die Maschinen und Technik wird halt immer komplexer und alles muss deutlich feiner und kleiner werden und genau das kostet halt ein Schweine Geld. Es ist nicht wie früher so einfach ein DIE Shrink durchzuführen oder eine völlig neue Architektur einfach so zu entwickeln vor allem weil wir langsam aber sicher auch am Ende von Silizium ankommen. Wenn wir also nicht bald neue Materialien finden mit denen es weiter gehen kann wird das alles noch teurer oder die Software skaliert endlich besser mit Kernen, sei es GPU oder CPU. Vieles könnte man heute ohne Probleme deutlich verbessern wenn man einfach die SW mal richtig optimieren würde, aber das kostet halt auch Geld und die Leute wollen es nicht ausgeben.
Die Frage ist warum die Leute das dann für die turing Preise nicht akzeptieren wollen, für die r7 ist es dann aber okay als Nachfolger der 64 einfach den Preis anzuheben.
Ich finde das genauso frech wie die Preisgestaltung von nvidia.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und Thanok
bin ich blind oder bin ich deppat? ich hab jetzt nur die ersten zwei Seiten gelesen ich gestehe, es suddert (heult) jeder über den Verbrauch der GPU in der gesamten News lese ich genau 1x "Darüber hinaus spricht AMD noch davon, dass die Grafikkarte bei gleicher Leistungsaufnahme 25 Prozent schneller arbeiten soll als ein mit Vega 10 ausgestattetes Produkt. " von einer gleichen Leistungsaufnahme, ich lese nicht 1x wieviel Leistung die VII beanspruchen wird oder sonst was aber es wird sich fürchterlich über den Verbrauch geärgert?! was hab ich denn verpasst ?
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Abwarten und Tee trinken! Ich hoffe für AMD das die Performance passt. Nvidia ist preislich einfach zu abgehoben und das muss sich ändern.
 
Ich habe zu Sandy und Ivy Bridge Zeiten allen gesagt die meinten ein i5 reicht, nein kauft mal einen i7, wurde ab und zu dafür kritisiert.
Dann einige Jahre später hat sich herausgestellt, dass die einzigen alten Systeme als i7-2700 oder i7-3770 oder i7-4770 und Xeons aus der Zeit weiter noch gut den Dienst tun, und die i3 und i5 an der Kotzgrenze sind.
Es war also genau richtig 2011/2012/2013 auf Quadcores zu setzen.
Auch nicht mit einem 0815 Board sondern wenn sogar auf die K-Variante die man anständig übertakten kann.
Solange wie meinen lieben Ivy hatte ich noch nie eine CPU und ich habe alles mitgemacht seit den frühen 80ern.

Jetzt zum Thema Grafikkarten prophezeie ich folgendes:

Spätestens ab der Playstation 5 werden wieder sehr viele Titel so entwickelt das sie mit 8GB, geschweige 6GB nicht klar kommen und 16GB bei 4k und ähnlichen Auflösungen verlangen.
Daher könnte es jetzt der richtige Schritt sein doch auf 16GB zu warten.
Auch um AMD zu unterstützen, vorausgesetzt der Stromverbrauch, die Abwärme und die Temperaturen sind gut.
Man darf nie einen Hersteller zum Monopolisten machen. Selbst ein Oligopol ist mit Preisabsprachen schwierig.
(RAM, HDD, Flash, aber auch außerhalb der IT Welt: (Premium) Einweg Rasierklingen, Waschmittel...

6GB RAM sollte man sich nur als (ewiger) Full-HD Gamer zulegen, genau deshalb ist die RTX 2060 für mich absoluter Fail, ich verstehe die positiven Tests nicht.
Zumal ich einfach auch nicht glaube, dass die NDA von nvidia faire Tests erlauben, denn warum wird die RTX nicht mit 4k und AA/AAA Titel getestet?

Genau deshalb hoffe ich dringend, dass die AMD 16GB Custom Karten früh genug kommen und entsprechend faire Leistung bringen.
Für mich ist es sonst wieder eine Sackgasse.
Es gab halt gute Karten die lange lange gehalten haben, und Karten die einfach schnell ausgemustert werden mussten.

Gut 8800 GTX Serie, oder 1080-Serie die heute noch hält, aber auch Krüppel wie 970-Serie oder 480-Serie.
Bei AMD war 9600 Pro oder eine 5870 oder 7970 einfach fair und gut im Speicher bestückt.

Ich bin gerne bereit zu investieren, aber das muss ich lohnen, seit über einem Jahr schiebe ich meinen Rechner und Grafikkartenkauf auf die lange Bank.
 
  • Gefällt mir
Reaktionen: russianinvasion
Zurück
Oben